Önde gelen tarayıcı şirketi Opera, Opera One tarayıcısına geliştirici akışında yaklaşık 50 model ailesinden 150 yerel LLM (Büyük Dil Modeli) varyantı için deneysel destek eklediğini söylüyor.
LLM'ler, OpenAI tarafından geliştirilen GPT (Generative Pre-trained Transformer) modelleri gibi, büyük miktarda metin verisi üzerinde eğitilmiş, insan benzeri metinleri anlamak ve üretmek için kullanılan gelişmiş yapay zeka sistemleridir. Metin üretimi, çeviri ve özetleme gibi çeşitli doğal dil işleme görevleri için kullanılır.
Opera'ya göre, bu, yerel LLM'lerin büyük bir tarayıcıdan yerleşik bir özellik aracılığıyla kolayca erişilebildiği ve yönetilebildiği ilk kezdir. Yerel AI modelleri, Opera'nın çevrimiçi Aria AI hizmetine ek olarak sunulmaktadır. Desteklenen yerel LLM'ler arasında şunlar bulunmaktadır:
* Meta'dan Llama
Vicuna
Google'dan Gemma
Mistral AI'den Mixtral
"Bu şekilde Yerel LLM'leri tanıtmak, Opera'nın hızla gelişen yerel AI alanında deneyimler ve bilgi oluşturma yollarını keşfetmeye başlamasını sağlıyor," dedi Krystian Kolondra, Opera'da Tarayıcılar ve Oyunlardan Sorumlu İcra Başkan Yardımcısı.
Yerel Büyük Dil Modellerinin kullanılması, kullanıcıların verilerinin cihazlarında yerel olarak saklandığı anlamına geliyor; bu da onlara bilgileri bir sunucuya göndermeden üretken yapay zeka kullanma olanağı tanıyor, dedi Opera.
Yapay zeka tartışmasında ortaya çıkan sorunlar arasında veri gizliliği yer alıyor. Bu alanda, üç önde gelen merkeziyetsiz yapay zeka projesi; Fetch.ai, SingularityNET (SNET) ve Ocean Protocol, merkeziyetsiz bir yapay zeka ekosistemi oluşturmak için birleşme kararı aldı.
"Bugün itibarıyla, Opera One Geliştirici kullanıcıları, girdi işlemesi için istedikleri modeli seçme fırsatına sahip. Modelleri test etmek için, en yeni Opera Geliştirici sürümüne geçmeleri ve yeni özelliği etkinleştirmek için birkaç adımı takip etmeleri gerekiyor," dedi Opera.
*"Yerel bir LLM seçmek, onu makinelerine indirecektir. Tipik olarak varyant başına 2-10 GB yerel depolama alanı gerektiren yerel LLM, bir kullanıcı AI ile yeni bir sohbet başlatana veya Aria'yı tekrar açana kadar Opera'nın yerel tarayıcı AI'sı Aria yerine kullanılacaktır. *
Bizi Twitter'da en son gönderiler ve güncellemeler için takip edin
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
YAPAY ZEKÂ | Opera Tarayıcısı, Yerel İndirme ve Çevrimdışı Kullanım için Önemli AI Modellerini Entegre Ediyor
Önde gelen tarayıcı şirketi Opera, Opera One tarayıcısına geliştirici akışında yaklaşık 50 model ailesinden 150 yerel LLM (Büyük Dil Modeli) varyantı için deneysel destek eklediğini söylüyor.
LLM'ler, OpenAI tarafından geliştirilen GPT (Generative Pre-trained Transformer) modelleri gibi, büyük miktarda metin verisi üzerinde eğitilmiş, insan benzeri metinleri anlamak ve üretmek için kullanılan gelişmiş yapay zeka sistemleridir. Metin üretimi, çeviri ve özetleme gibi çeşitli doğal dil işleme görevleri için kullanılır.
Opera'ya göre, bu, yerel LLM'lerin büyük bir tarayıcıdan yerleşik bir özellik aracılığıyla kolayca erişilebildiği ve yönetilebildiği ilk kezdir. Yerel AI modelleri, Opera'nın çevrimiçi Aria AI hizmetine ek olarak sunulmaktadır. Desteklenen yerel LLM'ler arasında şunlar bulunmaktadır:
"Bu şekilde Yerel LLM'leri tanıtmak, Opera'nın hızla gelişen yerel AI alanında deneyimler ve bilgi oluşturma yollarını keşfetmeye başlamasını sağlıyor," dedi Krystian Kolondra, Opera'da Tarayıcılar ve Oyunlardan Sorumlu İcra Başkan Yardımcısı.
Yerel Büyük Dil Modellerinin kullanılması, kullanıcıların verilerinin cihazlarında yerel olarak saklandığı anlamına geliyor; bu da onlara bilgileri bir sunucuya göndermeden üretken yapay zeka kullanma olanağı tanıyor, dedi Opera.
Yapay zeka tartışmasında ortaya çıkan sorunlar arasında veri gizliliği yer alıyor. Bu alanda, üç önde gelen merkeziyetsiz yapay zeka projesi; Fetch.ai, SingularityNET (SNET) ve Ocean Protocol, merkeziyetsiz bir yapay zeka ekosistemi oluşturmak için birleşme kararı aldı.
"Bugün itibarıyla, Opera One Geliştirici kullanıcıları, girdi işlemesi için istedikleri modeli seçme fırsatına sahip. Modelleri test etmek için, en yeni Opera Geliştirici sürümüne geçmeleri ve yeni özelliği etkinleştirmek için birkaç adımı takip etmeleri gerekiyor," dedi Opera.
*"Yerel bir LLM seçmek, onu makinelerine indirecektir. Tipik olarak varyant başına 2-10 GB yerel depolama alanı gerektiren yerel LLM, bir kullanıcı AI ile yeni bir sohbet başlatana veya Aria'yı tekrar açana kadar Opera'nın yerel tarayıcı AI'sı Aria yerine kullanılacaktır. *
Bizi Twitter'da en son gönderiler ve güncellemeler için takip edin
________________________________________
________________________________________