Microsoft terbaru merilis Fara-7B bukan sekadar model AI lainnya, tetapi membuktikan bahwa “model yang lebih besar lebih pintar” adalah persepsi tradisional yang salah. Model “proxy penggunaan komputer” dengan hanya 70 miliar parameter ini mengungguli GPT-4o dari OpenAI dalam berbagai pengujian standar, sekaligus dapat dijalankan langsung di komputer pribadi Anda tanpa bergantung pada cloud.
Data performa berbicara: Mengapa model kecil bisa menang
Dalam pengujian standar WebVoyager, Fara-7B mencapai tingkat penyelesaian tugas sebesar 73.5%, langsung mengungguli GPT-4o yang mencapai 65.1%. Lebih mencengangkan lagi adalah indikator efisiensi—menyelesaikan operasi yang sama hanya dalam 16 langkah, sementara UI-TARS-1.5-7B setara membutuhkan 41 langkah, mengurangi 60% langkah redundan.
Ini bukan kebetulan, melainkan hasil dari penggunaan metode pelatihan knowledge distillation oleh Microsoft. Dengan mengintegrasikan 145.000 contoh navigasi yang dihasilkan oleh sistem multi-agen Magentic-One, Microsoft berhasil mengompresi kemampuan model besar ke dalam satu model yang ringkas. Dasarnya berbasis Qwen2.5-VL-7B, dilengkapi dengan jendela konteks super panjang sebanyak 128.000 token, sehingga kemampuan pemahaman visual mencapai level baru.
Melihat layar, mengklik mouse: inferensi pixel-level mendefinisikan ulang otomatisasi
Keunggulan Fara-7B terletak pada logika “mengoperasikan layar”. Pendekatan tradisional bergantung pada kode terstruktur browser, sedangkan Fara-7B sepenuhnya melakukan inferensi berdasarkan data pixel-level—membaca screenshot, memprediksi klik mouse, input teks, gulir halaman, dan lain-lain. Bahkan untuk situs web yang kode-nya berantakan sekalipun, model ini tetap bisa berfungsi normal.
Manajer produk di Microsoft Research, Yash Lara, menyebut ini sebagai “pixel sovereignty”, memungkinkan industri yang sangat diatur seperti medis dan keuangan untuk mengoperasikan secara aman secara lokal. Artinya, informasi sensitif perusahaan tidak perlu lagi diunggah ke cloud, latensi berkurang secara signifikan, dan privasi data benar-benar terlindungi.
Mekanisme keamanan: Sistem penghenti otomatis untuk melindungi operasi penting
Perlu dicatat bahwa Fara-7B dilengkapi dengan mekanisme “titik konfirmasi penting”. Saat menghadapi operasi yang melibatkan data pengguna atau tindakan yang tidak dapat dibatalkan (seperti mengirim email, transfer uang), model ini akan otomatis berhenti dan meminta konfirmasi manusia. Dikombinasikan dengan antarmuka interaktif Magentic-UI, membentuk lapisan perlindungan kolaborasi manusia-mesin yang sesungguhnya.
Rilis open-source, tetapi belum level produksi
Pada 24 November, Microsoft secara resmi merilis Fara-7B dengan lisensi MIT, tersedia di Hugging Face dan platform Microsoft Foundry, mendukung aplikasi komersial. Namun, Microsoft juga mengakui—model ini saat ini belum memenuhi standar deployment lingkungan produksi, lebih cocok digunakan pengembang untuk prototipe dan verifikasi fungsi.
Peluncuran ini mencerminkan perubahan penting: Microsoft secara tegas menyatakan bahwa ke depan mereka tidak akan mengejar model yang lebih besar secara buta, melainkan fokus membangun solusi yang “kecil, pintar, dan aman”. Selanjutnya, mereka berencana mengintegrasikan reinforcement learning dalam lingkungan sandbox untuk pelatihan mandiri, meningkatkan potensi pembelajaran mandiri model ini.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Microsoft Fara-7B kinerja mengalahkan GPT-4o, bagaimana model 7 miliar parameter melakukan komputasi cepat secara lokal
Microsoft terbaru merilis Fara-7B bukan sekadar model AI lainnya, tetapi membuktikan bahwa “model yang lebih besar lebih pintar” adalah persepsi tradisional yang salah. Model “proxy penggunaan komputer” dengan hanya 70 miliar parameter ini mengungguli GPT-4o dari OpenAI dalam berbagai pengujian standar, sekaligus dapat dijalankan langsung di komputer pribadi Anda tanpa bergantung pada cloud.
Data performa berbicara: Mengapa model kecil bisa menang
Dalam pengujian standar WebVoyager, Fara-7B mencapai tingkat penyelesaian tugas sebesar 73.5%, langsung mengungguli GPT-4o yang mencapai 65.1%. Lebih mencengangkan lagi adalah indikator efisiensi—menyelesaikan operasi yang sama hanya dalam 16 langkah, sementara UI-TARS-1.5-7B setara membutuhkan 41 langkah, mengurangi 60% langkah redundan.
Ini bukan kebetulan, melainkan hasil dari penggunaan metode pelatihan knowledge distillation oleh Microsoft. Dengan mengintegrasikan 145.000 contoh navigasi yang dihasilkan oleh sistem multi-agen Magentic-One, Microsoft berhasil mengompresi kemampuan model besar ke dalam satu model yang ringkas. Dasarnya berbasis Qwen2.5-VL-7B, dilengkapi dengan jendela konteks super panjang sebanyak 128.000 token, sehingga kemampuan pemahaman visual mencapai level baru.
Melihat layar, mengklik mouse: inferensi pixel-level mendefinisikan ulang otomatisasi
Keunggulan Fara-7B terletak pada logika “mengoperasikan layar”. Pendekatan tradisional bergantung pada kode terstruktur browser, sedangkan Fara-7B sepenuhnya melakukan inferensi berdasarkan data pixel-level—membaca screenshot, memprediksi klik mouse, input teks, gulir halaman, dan lain-lain. Bahkan untuk situs web yang kode-nya berantakan sekalipun, model ini tetap bisa berfungsi normal.
Manajer produk di Microsoft Research, Yash Lara, menyebut ini sebagai “pixel sovereignty”, memungkinkan industri yang sangat diatur seperti medis dan keuangan untuk mengoperasikan secara aman secara lokal. Artinya, informasi sensitif perusahaan tidak perlu lagi diunggah ke cloud, latensi berkurang secara signifikan, dan privasi data benar-benar terlindungi.
Mekanisme keamanan: Sistem penghenti otomatis untuk melindungi operasi penting
Perlu dicatat bahwa Fara-7B dilengkapi dengan mekanisme “titik konfirmasi penting”. Saat menghadapi operasi yang melibatkan data pengguna atau tindakan yang tidak dapat dibatalkan (seperti mengirim email, transfer uang), model ini akan otomatis berhenti dan meminta konfirmasi manusia. Dikombinasikan dengan antarmuka interaktif Magentic-UI, membentuk lapisan perlindungan kolaborasi manusia-mesin yang sesungguhnya.
Rilis open-source, tetapi belum level produksi
Pada 24 November, Microsoft secara resmi merilis Fara-7B dengan lisensi MIT, tersedia di Hugging Face dan platform Microsoft Foundry, mendukung aplikasi komersial. Namun, Microsoft juga mengakui—model ini saat ini belum memenuhi standar deployment lingkungan produksi, lebih cocok digunakan pengembang untuk prototipe dan verifikasi fungsi.
Peluncuran ini mencerminkan perubahan penting: Microsoft secara tegas menyatakan bahwa ke depan mereka tidak akan mengejar model yang lebih besar secara buta, melainkan fokus membangun solusi yang “kecil, pintar, dan aman”. Selanjutnya, mereka berencana mengintegrasikan reinforcement learning dalam lingkungan sandbox untuk pelatihan mandiri, meningkatkan potensi pembelajaran mandiri model ini.