AI New Intelligence Circle丨Daily Must Read: Чіп Nvidia B100 AI буде запущений наступного року, Alibaba Intelligent Information Business Group випустила велику модель quark
Анотація:Alibaba Intelligent Information Business Group офіційно випустила повноцінну власну модель з 100-мільярдним кварком параметрів, яка буде застосовуватися до загального пошуку, медицини та охорони здоров'я, освіти та навчання, офісу на робочому місці та інших сценаріїв. Nvidia нещодавно повідомила, що графічний процесор Blackwell architecture B100, випущений у 2024 році, перевершить A100, H100 і H200 з точки зору тестів продуктивності висновків GPT-3 175B, а його продуктивність на продуктивність штучного інтелекту буде більш ніж удвічі вищою, ніж у графічного процесора H200 архітектури Hopper.
Джерело зображення: Створено Unbounded AI
Гарячі новини:
NVIDIA: B100 буде запущено наступного року, продуктивність штучного інтелекту більш ніж удвічі вища, ніж H200
Згідно зі звітом «Science and Technology Innovation Board Daily» від 14 листопада, Nvidia нещодавно повідомила, що графічний процесор Blackwell architecture B100, випущений у 2024 році, перевершить A100, H100 і H200 з точки зору тесту продуктивності висновків GPT-3 175B, а його продуктивність ШІ буде більш ніж удвічі вищою, ніж у графічного процесора H200 архітектури Hopper. Ринок очікує, що Nvidia довірить TSMC OEM-графічним процесорам Blackwell з 3-нм техпроцесом, а Nvidia планує перенести час виробництва до 2 кварталу 2024 року. Графічний процесор Blackwell стане першим прискорювачем HPC/AI від NVIDIA, розробленим із чиплетами.
Alibaba Intelligent Information Business Group випустила велику модель кварка з 100 мільярдами параметрів
Згідно з повідомленням Financial Associated Press від 14 листопада, інтелектуальна інформаційна бізнес-група Alibaba офіційно випустила повну власну модель з 100-мільярдним кварком параметрів, яка буде застосовуватися до загального пошуку, охорони здоров'я, освіти та навчання, офісу на робочому місці та інших сценаріїв, а додаток quark також буде повністю оновлений за допомогою цієї великої моделі.
Генеральний директор OpenAI: Модель штучного інтелекту нового покоління GPT-5 вже навчається і потребує більше даних
Згідно зі звітом AI New Intelligence від 14 листопада, генеральний директор OpenAI Сем Альтман нещодавно розкрив більше наступних кроків OpenAI в інтерв'ю FT. Альтман сказав, що компанія розробляє наступне покоління моделі штучного інтелекту GPT-5. Але він не взяв на себе зобов'язання оприлюднити графік. Альтман каже, що для цього знадобиться більше даних для навчання, які будуть надходити із загальнодоступних наборів даних в Інтернеті, а також з власних даних компанії. Нещодавно OpenAI оприлюднила заклик до великомасштабних наборів даних, особливо тих, які «сьогодні не є загальнодоступними та легкодоступними в Інтернеті», особливо до довгих текстів або розмов у будь-якому форматі.
Альтман також розповів, що для навчання своїх моделей OpenAI, як і більшість інших великих компаній зі штучним інтелектом, використовує передові чіпи Nvidia H100. Він зазначив, що цього року спостерігалася "серйозна напруженість" через дефіцит чіпів від Nvidia. Однак, оскільки інші компанії, такі як Google, Microsoft, AMD та Intel, готуються випустити конкуруючі чіпи штучного інтелекту, залежність від Nvidia може тривати недовго.
Крім того, незважаючи на споживчий успіх OpenAI, Альтман сказав, що компанія прагне досягти прогресу в створенні штучного загального інтелекту. Він стверджує, що великі мовні моделі (LLM), моделі, які лежать в основі ChatGPT, є «однією з основних частин створення AGI, але є багато інших частин на додаток до цього». Він також підкреслив важливість мови як стиснення інформації, фактор, який, на його думку, такі компанії, як Google DeepMind, не беруть до уваги.
Google і Каліфорнійський університет у Берклі запускають новий підхід генеративного штучного інтелекту «Idempotent Generative Network», який може генерувати фотореалістичні зображення за один крок
Згідно зі звітом IT House від 14 листопада, Google нещодавно об'єднався з Каліфорнійським університетом у Берклі (UC Berkeley) для розробки нового методу генеративного штучного інтелекту під назвою «Idempotent Generative Network (IGN)», який може замінити дифузійні моделі.
Включаючи генеративні змагальні мережі (GAN), дифузійні моделі та моделі узгодженості, випущені OpenAI в березні цього року, поточні основні генеративні моделі штучного інтелекту генеруються за допомогою таких вхідних даних, як випадковий шум, ескізи або зображення з низькою роздільною здатністю або іншим чином пошкоджені зображення, зіставлені з виходами (зазвичай природними зображеннями), що відповідають заданому цільовому розподілу даних. У випадку дифузійної моделі цільовий розподіл даних вивчається під час навчання, а потім виконується «знешумлення» в кілька етапів.
Дослідницька група Google розробила нову генеративну модель під назвою Idempotent Generation Network (IGN), щоб генерувати відповідне зображення з будь-якої форми введення, в ідеалі за один крок. Модель можна розглядати як своєрідний «глобальний проектор», який проектує будь-які вхідні дані на цільовий розподіл даних, на відміну від інших існуючих алгоритмів моделі, і не обмежується конкретним входом.
Велику модель Yi зі штучним інтелектом Кай-Фу Лі «Zero One Everything» з відкритим вихідним кодом звинувачують у плагіаті LLaMA
Як повідомляє IT Home 14 листопада, Кай-Фу Лі, голова та генеральний директор Sinovation Works, цього року заснував стартап-компанію з виробництва великих моделей штучного інтелекту «Zero One Everything», яка випустила дві великі моделі з відкритим вихідним кодом, Yi-34 B та Yi-6 B, стверджуючи, що вони повністю відкриті для академічних досліджень та безкоштовних комерційних додатків одночасно. Однак на домашній сторінці Yi-34 B Hugging Face з відкритим вихідним кодом розробник ehartford поставив під сумнів те, що модель використовує архітектуру Meta LLaMA, з модифікованими лише двома тензорними іменами: input_layernorm та post_attention_layernorm.
Крім того, сьогодні в інтернеті циркулює коло друзів Цзя Янціна, колишнього головного вченого зі штучного інтелекту компанії Alibaba, яке говорить, що «нова модель великого вітчизняного виробника - це саме архітектура LLaMA, але для того, щоб представити різницю, номенклатуру в коді змінили з LLaMA на їх назву, а потім змінили назву декількох змінних».
Zero One Thing відповідає на суперечки: Розроблена велика модель заснована на зрілій структурі GPT, і було проведено велику роботу над розумінням моделі та навчанням
Згідно зі звітом Science and Technology Innovation Board Daily від 14 листопада, модель з відкритим вихідним кодом Zero One Everything, що займається штучним інтелектом Кай-Фу Лі, була звинувачена в тому, що вона повністю використовує архітектуру LLaMA і змінює лише назви двох тензорів. У зв'язку з цим Zero One Everything сказала: GPT – це зріла архітектура, визнана індустрією, і Llama узагальнила її на GPT. Структурний дизайн моделі досліджень і розробок базується на зрілій структурі GPT, спираючись на головні суспільні досягнення галузі, оскільки розробка технології великих моделей все ще знаходиться на дуже ранній стадії, структура, яка відповідає мейнстріму галузі, є більш сприятливою для загальної адаптації та майбутньої ітерації. У той же час, команда 0100000 World провела велику роботу над розумінням моделей і навчанням, а також продовжує досліджувати основні прориви на рівні структури моделі.
Чжан Юегуан, керівник продукту камери Miao Ya, подав у відставку, і популярність додатків штучного інтелекту інтернет-знаменитостей охолола
Згідно зі звітом Tech Planet від 13 листопада, Чжан Юегуан, керівник продукту камер Miao Ya під керівництвом Ali Da Entertainment, залишив свою посаду, і він брав участь у плануванні проектів весняного фестивалю Alipay «Jiwufu» і «Xiuyixi», а також працював у Byte, Ali та інших компаніях.
Камера Miao Ya - це продукт AIGC, який знаходиться поза колом на рівні C-end, якщо ви завантажуєте більше 20 фотографій з обличчями, платите 9,9 юанів, а потім вибираєте шаблон і форму, які вам подобаються, ви можете зробити свій власний «цифровий клон», щоб отримати фотороботу. Камера Miao Ya деякий час «домінувала» в списку прикладних продуктів, але подальший рейтинг впав до кінця. Станом на 13 листопада останні дані Qimai показують, що «соціальний» список iOS Miao Ya Camera посідає 64 місце. В даний час питання про те, як сформувати довгостроковий попит на продукцію AIGC, стало складною проблемою на ринковому рівні.
Стартап зі штучним інтелектом Silo AI запускає мовну модель з відкритим вихідним кодом «Poro» для Європи, що охоплює 24 мови в ЄС
Silo AI, стартап зі штучного інтелекту, що базується в Гельсінкі, Фінляндія, цього тижня випустив нову велику мовну модель з відкритим вихідним кодом «Poro», яка має на меті розширити багатомовні можливості штучного інтелекту європейських мов, повідомляє VentureBeat. Poro є першою моделлю з відкритим вихідним кодом, яка в кінцевому підсумку охоплює всі 24 офіційні мови Європейського Союзу. Моделі були розроблені підрозділом генеративного штучного інтелекту Silo AI SiloGen та дослідницькою групою TurkuNLP в Університеті Турку.
Маючи 34,2 мільярда параметрів, модель Poro 34B названа на честь фінського слова, що означає «північний олень». Він був навчений на розділі багатомовного набору даних з 21 трильйона токенів, який охоплює англійську, фінську та мови програмування, такі як Python і Java.
Пітер Сарлін, генеральний директор Silo AI, сказав, що Poro був розроблений, щоб вирішити основну проблему навчання з високою продуктивністю для мов з низькими ресурсами в Європі, таких як фінська. Використовуючи крос-мовні методи навчання, моделі можуть використовувати дані з мов з багатими ресурсами, таких як англійська.
Rakuten Group співпрацює з OpenAI для запуску платформи Rakuten AI для бізнесу
14 листопада Rakuten Group оголосила про стратегічну співпрацю з OpenAI та запустила нову платформу штучного інтелекту Rakuten AI for Business. Повідомляється, що платформа підтримує різноманітні основні бізнес-функції, включаючи маркетинг, продажі, підтримку клієнтів, операції, стратегічне планування та інжиніринг, і наразі доступна лише за запрошеннями, з планами розширення обсягу послуг у 2024 році та надалі.
Дослідження: компанії зі штучним інтелектом зіткнулися з кризою виснаження навчальних даних, високоякісні дані закінчаться до 2026 року
Ріта Матуліоніте, професор права інформаційних технологій в Університеті Маккуорі в Австралії, зазначила у статті в журналі The Conversation, що дослідники ШІ б'ють на сполох з приводу дефіциту поставок даних вже майже рік, про що повідомляє Webmaster's House 14 листопада. Згідно з дослідженням, проведеним минулого року групою прогнозування штучного інтелекту Epoch AI, компанії зі штучним інтелектом можуть вичерпати високоякісні дані для навчання тексту до 2026 року, тоді як дані про текст і зображення низької якості можуть бути вичерпані між 2030 і 2060 роками.
Для компаній, що займаються штучним інтелектом, які прагнуть даних, навчання на синтетичних даних, створених моделями штучного інтелекту, може бути нежиттєздатним рішенням. Дослідження показали, що навчання моделі штучного інтелекту використанню контенту, створеного штучним інтелектом, може призвести до внутрішнього ефекту деформації моделі, що робить вихідні дані заплутаними та дивними. Зіткнувшись із цією потенційною проблемою, якщо не існує великомасштабних ферм людського контенту, рішення може полягати в партнерстві з даними. Це означає, що компанії або установи з великою кількістю високоякісних даних укладають угоди з компаніями, що займаються штучним інтелектом, про обмін даними в обмін на гроші.
В'єтнамський технологічний єдиноріг VNG планує запустити сервіс штучного інтелекту, схожий на ChatGPT
В'єтнамський ігровий стартап VNG планує запустити сервіс штучного інтелекту, схожий на ChatGPT, призначений для в'єтнамськомовних користувачів, як повідомляв Nikkei Asia 14 листопада. Технологічний єдиноріг, який підтримується Tencent і Ant Financial Group Alibaba, вже має додаток для чату, який більш популярний, ніж Facebook на своєму домашньому ринку, і нещодавно додав функцію перекладу. VNG заявляє, що наступним кроком буде додавання можливостей, створених штучним інтелектом, які дозволять користувачам робити все: від написання електронних листів до пошуку відповідей на запити.
Джерела повідомляють, що OpenAI намагається переманити таланти Google у галузі штучного інтелекту за допомогою компенсаційного пакету в розмірі 10 мільйонів доларів
OpenAI веде війну за таланти з Google, яка залучає одних із найкращих дослідників Google багатомільйонними компенсаційними пакетами, а також першокласними технічними ресурсами, такими як чіпи-прискорювачі штучного інтелекту для проведення тестів, повідомляє IT House з посиланням на The Information.
AIGC Рекомендована література:
"Випущено найпотужнішу модель тренувального чіпа H200!141G великої пам'яті, висновків штучного інтелекту до 90%, також сумісний з H100"
Nvidia Lao Huang знову вибухнула новим поколінням чіпів GPUH200. На офіційному сайті безцеремонно написано: «Найпотужніший у світі графічний процесор, створений для штучного інтелекту та суперкомп'ютерів». Я чув, що всі AI-компанії скаржаться на нестачу пам'яті? Цього разу обсяг пам'яті становить безпосередньо 141 ГБ, що безпосередньо збільшено на 76% у порівнянні з 80 ГБ у H100. Як перший графічний процесор, оснащений пам'яттю HBM3e, пропускна здатність пам'яті також була збільшена з 3,35 ТБ/с до 4,8 ТБ/с, збільшившись на 43%. Що це означає для ШІ?
"ChatGPT Маска "Grok", як це працює?
В даний час Grok все ще знаходиться на ранній стадії бета-тестування і доступний лише невеликій кількості користувачів у Сполучених Штатах, і ті, хто хоче взяти участь, також можуть подати заявку через веб-сайт xAI, але в найближчому майбутньому Grok буде доступний для всіх користувачів «X Premium+» на платформі X. Отже, що ж такого особливого в Grok у порівнянні з помічниками зі штучним інтелектом, такими як ChatGPT?
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
AI New Intelligence Circle丨Daily Must Read: Чіп Nvidia B100 AI буде запущений наступного року, Alibaba Intelligent Information Business Group випустила велику модель quark
Анотація:Alibaba Intelligent Information Business Group офіційно випустила повноцінну власну модель з 100-мільярдним кварком параметрів, яка буде застосовуватися до загального пошуку, медицини та охорони здоров'я, освіти та навчання, офісу на робочому місці та інших сценаріїв. Nvidia нещодавно повідомила, що графічний процесор Blackwell architecture B100, випущений у 2024 році, перевершить A100, H100 і H200 з точки зору тестів продуктивності висновків GPT-3 175B, а його продуктивність на продуктивність штучного інтелекту буде більш ніж удвічі вищою, ніж у графічного процесора H200 архітектури Hopper.
Гарячі новини:
NVIDIA: B100 буде запущено наступного року, продуктивність штучного інтелекту більш ніж удвічі вища, ніж H200
Згідно зі звітом «Science and Technology Innovation Board Daily» від 14 листопада, Nvidia нещодавно повідомила, що графічний процесор Blackwell architecture B100, випущений у 2024 році, перевершить A100, H100 і H200 з точки зору тесту продуктивності висновків GPT-3 175B, а його продуктивність ШІ буде більш ніж удвічі вищою, ніж у графічного процесора H200 архітектури Hopper. Ринок очікує, що Nvidia довірить TSMC OEM-графічним процесорам Blackwell з 3-нм техпроцесом, а Nvidia планує перенести час виробництва до 2 кварталу 2024 року. Графічний процесор Blackwell стане першим прискорювачем HPC/AI від NVIDIA, розробленим із чиплетами.
Alibaba Intelligent Information Business Group випустила велику модель кварка з 100 мільярдами параметрів
Згідно з повідомленням Financial Associated Press від 14 листопада, інтелектуальна інформаційна бізнес-група Alibaba офіційно випустила повну власну модель з 100-мільярдним кварком параметрів, яка буде застосовуватися до загального пошуку, охорони здоров'я, освіти та навчання, офісу на робочому місці та інших сценаріїв, а додаток quark також буде повністю оновлений за допомогою цієї великої моделі.
Генеральний директор OpenAI: Модель штучного інтелекту нового покоління GPT-5 вже навчається і потребує більше даних
Згідно зі звітом AI New Intelligence від 14 листопада, генеральний директор OpenAI Сем Альтман нещодавно розкрив більше наступних кроків OpenAI в інтерв'ю FT. Альтман сказав, що компанія розробляє наступне покоління моделі штучного інтелекту GPT-5. Але він не взяв на себе зобов'язання оприлюднити графік. Альтман каже, що для цього знадобиться більше даних для навчання, які будуть надходити із загальнодоступних наборів даних в Інтернеті, а також з власних даних компанії. Нещодавно OpenAI оприлюднила заклик до великомасштабних наборів даних, особливо тих, які «сьогодні не є загальнодоступними та легкодоступними в Інтернеті», особливо до довгих текстів або розмов у будь-якому форматі.
Альтман також розповів, що для навчання своїх моделей OpenAI, як і більшість інших великих компаній зі штучним інтелектом, використовує передові чіпи Nvidia H100. Він зазначив, що цього року спостерігалася "серйозна напруженість" через дефіцит чіпів від Nvidia. Однак, оскільки інші компанії, такі як Google, Microsoft, AMD та Intel, готуються випустити конкуруючі чіпи штучного інтелекту, залежність від Nvidia може тривати недовго.
Крім того, незважаючи на споживчий успіх OpenAI, Альтман сказав, що компанія прагне досягти прогресу в створенні штучного загального інтелекту. Він стверджує, що великі мовні моделі (LLM), моделі, які лежать в основі ChatGPT, є «однією з основних частин створення AGI, але є багато інших частин на додаток до цього». Він також підкреслив важливість мови як стиснення інформації, фактор, який, на його думку, такі компанії, як Google DeepMind, не беруть до уваги.
Google і Каліфорнійський університет у Берклі запускають новий підхід генеративного штучного інтелекту «Idempotent Generative Network», який може генерувати фотореалістичні зображення за один крок
Згідно зі звітом IT House від 14 листопада, Google нещодавно об'єднався з Каліфорнійським університетом у Берклі (UC Berkeley) для розробки нового методу генеративного штучного інтелекту під назвою «Idempotent Generative Network (IGN)», який може замінити дифузійні моделі.
Включаючи генеративні змагальні мережі (GAN), дифузійні моделі та моделі узгодженості, випущені OpenAI в березні цього року, поточні основні генеративні моделі штучного інтелекту генеруються за допомогою таких вхідних даних, як випадковий шум, ескізи або зображення з низькою роздільною здатністю або іншим чином пошкоджені зображення, зіставлені з виходами (зазвичай природними зображеннями), що відповідають заданому цільовому розподілу даних. У випадку дифузійної моделі цільовий розподіл даних вивчається під час навчання, а потім виконується «знешумлення» в кілька етапів.
Дослідницька група Google розробила нову генеративну модель під назвою Idempotent Generation Network (IGN), щоб генерувати відповідне зображення з будь-якої форми введення, в ідеалі за один крок. Модель можна розглядати як своєрідний «глобальний проектор», який проектує будь-які вхідні дані на цільовий розподіл даних, на відміну від інших існуючих алгоритмів моделі, і не обмежується конкретним входом.
Велику модель Yi зі штучним інтелектом Кай-Фу Лі «Zero One Everything» з відкритим вихідним кодом звинувачують у плагіаті LLaMA
Як повідомляє IT Home 14 листопада, Кай-Фу Лі, голова та генеральний директор Sinovation Works, цього року заснував стартап-компанію з виробництва великих моделей штучного інтелекту «Zero One Everything», яка випустила дві великі моделі з відкритим вихідним кодом, Yi-34 B та Yi-6 B, стверджуючи, що вони повністю відкриті для академічних досліджень та безкоштовних комерційних додатків одночасно. Однак на домашній сторінці Yi-34 B Hugging Face з відкритим вихідним кодом розробник ehartford поставив під сумнів те, що модель використовує архітектуру Meta LLaMA, з модифікованими лише двома тензорними іменами: input_layernorm та post_attention_layernorm.
Крім того, сьогодні в інтернеті циркулює коло друзів Цзя Янціна, колишнього головного вченого зі штучного інтелекту компанії Alibaba, яке говорить, що «нова модель великого вітчизняного виробника - це саме архітектура LLaMA, але для того, щоб представити різницю, номенклатуру в коді змінили з LLaMA на їх назву, а потім змінили назву декількох змінних».
Zero One Thing відповідає на суперечки: Розроблена велика модель заснована на зрілій структурі GPT, і було проведено велику роботу над розумінням моделі та навчанням
Згідно зі звітом Science and Technology Innovation Board Daily від 14 листопада, модель з відкритим вихідним кодом Zero One Everything, що займається штучним інтелектом Кай-Фу Лі, була звинувачена в тому, що вона повністю використовує архітектуру LLaMA і змінює лише назви двох тензорів. У зв'язку з цим Zero One Everything сказала: GPT – це зріла архітектура, визнана індустрією, і Llama узагальнила її на GPT. Структурний дизайн моделі досліджень і розробок базується на зрілій структурі GPT, спираючись на головні суспільні досягнення галузі, оскільки розробка технології великих моделей все ще знаходиться на дуже ранній стадії, структура, яка відповідає мейнстріму галузі, є більш сприятливою для загальної адаптації та майбутньої ітерації. У той же час, команда 0100000 World провела велику роботу над розумінням моделей і навчанням, а також продовжує досліджувати основні прориви на рівні структури моделі.
Чжан Юегуан, керівник продукту камери Miao Ya, подав у відставку, і популярність додатків штучного інтелекту інтернет-знаменитостей охолола
Згідно зі звітом Tech Planet від 13 листопада, Чжан Юегуан, керівник продукту камер Miao Ya під керівництвом Ali Da Entertainment, залишив свою посаду, і він брав участь у плануванні проектів весняного фестивалю Alipay «Jiwufu» і «Xiuyixi», а також працював у Byte, Ali та інших компаніях.
Камера Miao Ya - це продукт AIGC, який знаходиться поза колом на рівні C-end, якщо ви завантажуєте більше 20 фотографій з обличчями, платите 9,9 юанів, а потім вибираєте шаблон і форму, які вам подобаються, ви можете зробити свій власний «цифровий клон», щоб отримати фотороботу. Камера Miao Ya деякий час «домінувала» в списку прикладних продуктів, але подальший рейтинг впав до кінця. Станом на 13 листопада останні дані Qimai показують, що «соціальний» список iOS Miao Ya Camera посідає 64 місце. В даний час питання про те, як сформувати довгостроковий попит на продукцію AIGC, стало складною проблемою на ринковому рівні.
Стартап зі штучним інтелектом Silo AI запускає мовну модель з відкритим вихідним кодом «Poro» для Європи, що охоплює 24 мови в ЄС
Silo AI, стартап зі штучного інтелекту, що базується в Гельсінкі, Фінляндія, цього тижня випустив нову велику мовну модель з відкритим вихідним кодом «Poro», яка має на меті розширити багатомовні можливості штучного інтелекту європейських мов, повідомляє VentureBeat. Poro є першою моделлю з відкритим вихідним кодом, яка в кінцевому підсумку охоплює всі 24 офіційні мови Європейського Союзу. Моделі були розроблені підрозділом генеративного штучного інтелекту Silo AI SiloGen та дослідницькою групою TurkuNLP в Університеті Турку.
Маючи 34,2 мільярда параметрів, модель Poro 34B названа на честь фінського слова, що означає «північний олень». Він був навчений на розділі багатомовного набору даних з 21 трильйона токенів, який охоплює англійську, фінську та мови програмування, такі як Python і Java.
Пітер Сарлін, генеральний директор Silo AI, сказав, що Poro був розроблений, щоб вирішити основну проблему навчання з високою продуктивністю для мов з низькими ресурсами в Європі, таких як фінська. Використовуючи крос-мовні методи навчання, моделі можуть використовувати дані з мов з багатими ресурсами, таких як англійська.
Rakuten Group співпрацює з OpenAI для запуску платформи Rakuten AI для бізнесу
14 листопада Rakuten Group оголосила про стратегічну співпрацю з OpenAI та запустила нову платформу штучного інтелекту Rakuten AI for Business. Повідомляється, що платформа підтримує різноманітні основні бізнес-функції, включаючи маркетинг, продажі, підтримку клієнтів, операції, стратегічне планування та інжиніринг, і наразі доступна лише за запрошеннями, з планами розширення обсягу послуг у 2024 році та надалі.
Дослідження: компанії зі штучним інтелектом зіткнулися з кризою виснаження навчальних даних, високоякісні дані закінчаться до 2026 року
Ріта Матуліоніте, професор права інформаційних технологій в Університеті Маккуорі в Австралії, зазначила у статті в журналі The Conversation, що дослідники ШІ б'ють на сполох з приводу дефіциту поставок даних вже майже рік, про що повідомляє Webmaster's House 14 листопада. Згідно з дослідженням, проведеним минулого року групою прогнозування штучного інтелекту Epoch AI, компанії зі штучним інтелектом можуть вичерпати високоякісні дані для навчання тексту до 2026 року, тоді як дані про текст і зображення низької якості можуть бути вичерпані між 2030 і 2060 роками.
Для компаній, що займаються штучним інтелектом, які прагнуть даних, навчання на синтетичних даних, створених моделями штучного інтелекту, може бути нежиттєздатним рішенням. Дослідження показали, що навчання моделі штучного інтелекту використанню контенту, створеного штучним інтелектом, може призвести до внутрішнього ефекту деформації моделі, що робить вихідні дані заплутаними та дивними. Зіткнувшись із цією потенційною проблемою, якщо не існує великомасштабних ферм людського контенту, рішення може полягати в партнерстві з даними. Це означає, що компанії або установи з великою кількістю високоякісних даних укладають угоди з компаніями, що займаються штучним інтелектом, про обмін даними в обмін на гроші.
В'єтнамський технологічний єдиноріг VNG планує запустити сервіс штучного інтелекту, схожий на ChatGPT
В'єтнамський ігровий стартап VNG планує запустити сервіс штучного інтелекту, схожий на ChatGPT, призначений для в'єтнамськомовних користувачів, як повідомляв Nikkei Asia 14 листопада. Технологічний єдиноріг, який підтримується Tencent і Ant Financial Group Alibaba, вже має додаток для чату, який більш популярний, ніж Facebook на своєму домашньому ринку, і нещодавно додав функцію перекладу. VNG заявляє, що наступним кроком буде додавання можливостей, створених штучним інтелектом, які дозволять користувачам робити все: від написання електронних листів до пошуку відповідей на запити.
Джерела повідомляють, що OpenAI намагається переманити таланти Google у галузі штучного інтелекту за допомогою компенсаційного пакету в розмірі 10 мільйонів доларів
OpenAI веде війну за таланти з Google, яка залучає одних із найкращих дослідників Google багатомільйонними компенсаційними пакетами, а також першокласними технічними ресурсами, такими як чіпи-прискорювачі штучного інтелекту для проведення тестів, повідомляє IT House з посиланням на The Information.
AIGC Рекомендована література:
"Випущено найпотужнішу модель тренувального чіпа H200!141G великої пам'яті, висновків штучного інтелекту до 90%, також сумісний з H100"
Nvidia Lao Huang знову вибухнула новим поколінням чіпів GPUH200. На офіційному сайті безцеремонно написано: «Найпотужніший у світі графічний процесор, створений для штучного інтелекту та суперкомп'ютерів». Я чув, що всі AI-компанії скаржаться на нестачу пам'яті? Цього разу обсяг пам'яті становить безпосередньо 141 ГБ, що безпосередньо збільшено на 76% у порівнянні з 80 ГБ у H100. Як перший графічний процесор, оснащений пам'яттю HBM3e, пропускна здатність пам'яті також була збільшена з 3,35 ТБ/с до 4,8 ТБ/с, збільшившись на 43%. Що це означає для ШІ?
"ChatGPT Маска "Grok", як це працює?
В даний час Grok все ще знаходиться на ранній стадії бета-тестування і доступний лише невеликій кількості користувачів у Сполучених Штатах, і ті, хто хоче взяти участь, також можуть подати заявку через веб-сайт xAI, але в найближчому майбутньому Grok буде доступний для всіх користувачів «X Premium+» на платформі X. Отже, що ж такого особливого в Grok у порівнянні з помічниками зі штучним інтелектом, такими як ChatGPT?