Ведуча компанія браузерів, Opera, повідомляє, що вона додає експериментальну підтримку 150 локальних LLM (Великі мовні моделі) варіантів з приблизно 50 сімей моделей до свого браузера Opera One у розробницькому потоці.
LLM, такі як GPT ( Generative Pre-trained Transformer ) моделі, розроблені OpenAI, є розвиненими системами штучного інтелекту, які навчалися на великих обсягах текстових даних, щоб розуміти та генерувати текст, схожий на людський. Вони використовуються для різних завдань обробки природної мови, включаючи генерацію тексту, переклад та узагальнення.
Згідно з Opera, це перший раз, коли локальні LLM можуть бути легко доступні та керовані з основного браузера через вбудовану функцію. Локальні AI моделі є безкоштовним доповненням до онлайн-сервісу Aria AI від Opera. Серед підтримуваних локальних LLM:
! * Лама з Meta
Вікунья
Джемма від Google
Mixtral від Mistral AI
“Представлення локальних LLM таким чином дозволяє Opera почати досліджувати способи створення досвіду та знань у швидко зростаючому локальному AI просторі,” сказав Кристіан Колондра, EVP Браузерів та Ігор в Opera.
Використання локальних великих мовних моделей означає, що дані користувачів зберігаються локально на їхньому пристрої, що дозволяє їм використовувати генеративний ШІ без необхідності надсилати інформацію на сервер, повідомила Opera.
Серед питань, що виникають у дискурсі штучного інтелекту, є проблеми конфіденційності даних, які стали причиною об'єднання трьох провідних децентралізованих AI проектів: Fetch.ai, SingularityNET (SNET) та Ocean Protocol для створення децентралізованої екосистеми AI.
“Станом на сьогодні, користувачі Opera One Developer отримують можливість обрати модель, з якою вони хочуть обробляти свої дані. Щоб протестувати моделі, їм потрібно оновити до останньої версії Opera Developer та виконати кілька кроків для активації нової функції,” повідомила Opera.
"Вибір локального LLM завантажить його на їхній комп’ютер. Локальний LLM, який зазвичай потребує 2-10 ГБ локального місця для зберігання на варіант, буде використовуватися замість Aria, рідного браузерного ШІ Opera, поки користувач не почне новий чат з ШІ або не перемкне Aria назад."
Слідкуйте за нами в Twitter для останніх публікацій та оновлень
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
ШТУЧНИЙ ІНТЕЛЕКТ | Браузер Opera інтегрує основні моделі ШІ для локального завантаження та офлайн-використання
Ведуча компанія браузерів, Opera, повідомляє, що вона додає експериментальну підтримку 150 локальних LLM (Великі мовні моделі) варіантів з приблизно 50 сімей моделей до свого браузера Opera One у розробницькому потоці.
LLM, такі як GPT ( Generative Pre-trained Transformer ) моделі, розроблені OpenAI, є розвиненими системами штучного інтелекту, які навчалися на великих обсягах текстових даних, щоб розуміти та генерувати текст, схожий на людський. Вони використовуються для різних завдань обробки природної мови, включаючи генерацію тексту, переклад та узагальнення.
Згідно з Opera, це перший раз, коли локальні LLM можуть бути легко доступні та керовані з основного браузера через вбудовану функцію. Локальні AI моделі є безкоштовним доповненням до онлайн-сервісу Aria AI від Opera. Серед підтримуваних локальних LLM:
! * Лама з Meta
“Представлення локальних LLM таким чином дозволяє Opera почати досліджувати способи створення досвіду та знань у швидко зростаючому локальному AI просторі,” сказав Кристіан Колондра, EVP Браузерів та Ігор в Opera.
Використання локальних великих мовних моделей означає, що дані користувачів зберігаються локально на їхньому пристрої, що дозволяє їм використовувати генеративний ШІ без необхідності надсилати інформацію на сервер, повідомила Opera.
Серед питань, що виникають у дискурсі штучного інтелекту, є проблеми конфіденційності даних, які стали причиною об'єднання трьох провідних децентралізованих AI проектів: Fetch.ai, SingularityNET (SNET) та Ocean Protocol для створення децентралізованої екосистеми AI.
“Станом на сьогодні, користувачі Opera One Developer отримують можливість обрати модель, з якою вони хочуть обробляти свої дані. Щоб протестувати моделі, їм потрібно оновити до останньої версії Opera Developer та виконати кілька кроків для активації нової функції,” повідомила Opera.
"Вибір локального LLM завантажить його на їхній комп’ютер. Локальний LLM, який зазвичай потребує 2-10 ГБ локального місця для зберігання на варіант, буде використовуватися замість Aria, рідного браузерного ШІ Opera, поки користувач не почне новий чат з ШІ або не перемкне Aria назад."
Слідкуйте за нами в Twitter для останніх публікацій та оновлень
________________________________________
________________________________________