Джерело зображення: створено інструментом Unbounded AI
Здається, штучний інтелект (ШІ) присутній у кожному куточку сучасного життя, від музики та медіа до бізнесу та продуктивності та навіть побачень. Так багато речей, що важко встигнути. Ця стаття охоплюватиме все: від останніх великих розробок у сфері штучного інтелекту до термінів і компаній, які вам потрібно знати, щоб бути в курсі стану справ у цій швидкозмінній галузі.
По-перше, що таке штучний інтелект?
Штучний інтелект, також відомий як машинне навчання, — це програмна система, заснована на нейронних мережах, техніці, яка фактично була запроваджена десятиліття тому, але нещодавно процвітала завдяки новим потужним обчислювальним ресурсам. Наразі ШІ досяг ефективного розпізнавання мови та зображень, а також здатності генерувати синтетичні зображення та мову. Дослідники працюють над тим, щоб зробити штучний інтелект здатним переглядати веб-сторінки, замовляти квитки, налаштовувати рецепти тощо.
Але якщо ви хвилюєтеся про зростання машин у стилі Матриці — не хвилюйтеся. Ми поговоримо про це пізніше!
Цей посібник із ШІ складається з двох основних частин:
По-перше, основні поняття, які вам потрібно зрозуміти, і найновіші важливі поняття.
Потім окресліть головних гравців у ШІ та чому вони важливі.
AI 101
Автор зображення: Андрій Шип/Getty Images
Однією з божевільних речей штучного інтелекту є те, що, хоча його основні концепції сягають понад 50 років тому, донедавна небагато навіть технічно підкованих людей були знайомі з його концепціями. Тож не хвилюйтеся, якщо ви почуваєтеся розгубленими – усі так.
Давайте прояснимо одну річ наперед: хоча це називається «штучний інтелект», цей термін дещо вводить в оману. Наразі немає єдиного визначення інтелекту, але те, що ці системи роблять, безумовно, ближче до калькулятора, ніж до мозку, за винятком того, що вхідні та вихідні дані цього калькулятора більш гнучкі. ШІ може бути схожим на «штучний кокос» — це імітація інтелекту.
Нижче наведені основні терміни, які ви знайдете в будь-якій дискусії про ШІ.
Нейронні мережі
Наш мозок здебільшого складається із взаємопов’язаних клітин, які називаються нейронами, які об’єднуються, утворюючи складні мережі, які виконують завдання та зберігають інформацію. Люди намагалися відтворити цю дивовижну систему в програмному забезпеченні з 1960-х років, але необхідна обчислювальна потужність була широко доступною лише 15-20 років тому, коли графічні процесори дозволили процвітати нейронним мережам із числовим визначенням.
По суті, це просто безліч точок і ліній: точки — це дані, а лінії — це статистичні зв’язки між цими значеннями. Подібно до мозку, це може створити багатофункціональну систему, яка швидко отримує вхідні дані, пропускає їх через мережу та створює вихідні дані. Таку систему називають моделлю.
Модель
Модель — це фактична колекція коду, яка приймає вхідні дані та повертає вихідні дані. Схожість термінології зі статистичними моделями, або моделюючими системами, що імітують складні природні процеси, не випадкова. У ШІ модель може стосуватися повної системи, як-от ChatGPT, або майже будь-якої конструкції ШІ чи машинного навчання, незалежно від того, що вона робить або створює. Моделі бувають різних розмірів, що означає, скільки місця для зберігання вони займають і скільки обчислювальної потужності їм потрібно для роботи. І все залежить від того, як була навчена модель.
поїзд
Щоб створити модель штучного інтелекту, нейронні мережі, які є основою системи, піддаються впливу набору інформації, яка називається набором даних або корпусом. При цьому ці величезні мережі створюють статистичне представлення цих даних. Цей процес навчання є найбільш обчислювально інтенсивним, тобто він займає тижні або місяці на величезних потужних комп’ютерах. Причина цього полягає не тільки в тому, що мережі є складними, але й у тому, що набори даних можуть бути дуже великими: мільярди слів або зображень потрібно проаналізувати та представити у величезних статистичних моделях. З іншого боку, коли модель навчена, її можна використовувати набагато меншу та менш вимогливу, процес, який називається логічним висновком.
Автор зображення: Google
Висновок
Коли модель дійсно працює, ми називаємо це висновком, і традиційне значення цього слова дуже велике: сформулювати висновок шляхом міркування щодо наявних доказів. Звичайно, це не зовсім «висновок», але статистично пов’язує точки в отриманих даних, фактично прогнозуючи наступну точку. Наприклад, скажіть «заповніть таку послідовність: червоний, помаранчевий, жовтий...». Він виявить, що ці слова відповідають початку списку, який він приймає, тобто кольорам веселки, і екстраполює наступний елемент, поки не знайде створив решту частини списку.
Висновки, як правило, набагато менш затратні з точки зору обчислень, ніж навчання: сприймайте це як перегляд карткового каталогу, а не збирання його. Великі моделі все ще повинні працювати на суперкомп’ютерах і графічних процесорах, але менші моделі можуть працювати на смартфонах або простіших пристроях.
Генеративний штучний інтелект
Усі говорять про генеративний штучний інтелект, широкий термін, який просто стосується моделей штучного інтелекту, які генерують необроблені результати, такі як зображення чи текст. Деякі ШІ підсумовують, деякі реорганізують, деякі розпізнають і так далі, але ШІ, які дійсно щось генерують (чи «створює» це дискусійно), зараз особливо популярні. Пам’ятайте: те, що штучний інтелект створив щось, не означає, що це правильно чи навіть те, що воно відображає реальність! Просто його немає, доки ви не попросите про це, як оповідання чи картина.
Гарячі слова прямо зараз
Окрім основ, ось найактуальніші умови штучного інтелекту на середину 2023 року.
Велика мовна модель (LLM)
Широкомасштабні мовні моделі є найвпливовішою та найпоширенішою формою штучного інтелекту сьогодні. Широкомасштабні мовні моделі навчаються майже на всіх текстах, які складають Інтернет, і більшості літератури англійською мовою. Поглинання всього цього призводить до величезної базової моделі (читайте далі). LLM можуть спілкуватися та відповідати на запитання природною мовою та імітувати письмові документи різних стилів і типів, про що свідчать такі інструменти, як ChatGPT, Claude та LLaMa.
Хоча ці моделі, безсумнівно, вражають, слід мати на увазі, що вони все ще є механізмами розпізнавання образів, і коли вони відповідають на запитання, вони намагаються завершити ідентифікований шаблон, незалежно від того, чи відповідає цей шаблон реальності чи ні. LLM часто галюцинують у своїх відповідях, про що ми незабаром дійдемо.
Якщо ви хочете дізнатися більше про LLM і ChatGPT, натисніть тут.
Модель основи
Навчання величезної моделі з нуля на величезному наборі даних є дорогим і складним, тому ви не хочете робити більше, ніж потрібно. Базові моделі — це великі моделі з нуля, для роботи яких потрібні суперкомп’ютери, але часто шляхом зменшення кількості параметрів їх можна зменшити до менших контейнерів. Ви можете подумати про них як про загальну кількість точок, яку має обробити модель, яка сьогодні може досягати мільйонів, мільярдів або навіть трильйонів.
тонке налаштування
Базова модель, як-от GPT-4, є розумною, але вона також універсальна за своєю конструкцією — вона вбирає все, від Діккенса до Вітгенштейна й закінчуючи правилами Dungeons and Dragons, але якщо ви хочете, щоб вона базувалася на вашому резюме, напишіть супровідний лист, ці марні. На щастя, модель можна точно налаштувати, провівши додаткове навчання моделі за допомогою спеціального набору даних. Наприклад, буває кілька тисяч заявок на роботу. Це дає моделі краще розуміння того, як допомогти користувачеві в цій області, не відкидаючи загальні знання, отримані з решти навчальних даних.
Навчання з підкріпленням на основі зворотного зв’язку людини (RLHF) — це особливий вид тонкого налаштування, про який ви часто чуєте, — він використовує дані людей, які взаємодіють із LLM, щоб покращити їхні навички спілкування.
Дифузія
*З статті про вдосконалені методи постдифузії ви можете побачити, як відтворювати зображення з даних із дуже шумом. *
Генерувати зображення можна кількома способами, але, безумовно, найуспішнішим є дифузія, техніка, що лежить в основі стабільної дифузії, Midjourney та інших популярних генеративних ШІ. Модель дифузії навчається, показуючи їй зображення, які поступово погіршуються шляхом додавання цифрового шуму, поки від вихідного зображення нічого не залишиться. Спостерігаючи за цим, модель дифузії також вчиться виконувати процес у зворотному напрямку, поступово додаючи деталі до чистого шуму, щоб сформувати довільно визначене зображення. Ми почали виходити за рамки графіки, але ця технологія надійна і відносно проста для розуміння, тому вона досить швидко вимре.
Галюцинації
Спочатку це була проблема, пов’язана з тим, що деякі зображення під час навчання вислизали до нерелевантного результату, наприклад, будівлі виглядали зробленими із собак через надмірну поширеність зображень собак у наборі для навчання. Тепер кажуть, що штучний інтелект галюцинує, тому що в його навчальному наборі недостатньо або суперечливих даних, він просто щось вигадує.
Штучний інтелект, якого просять створити оригінальне або навіть похідне мистецтво, є галюцинаціями. Наприклад, магістру права можна сказати написати вірш про кохання в стилі Йогі Берра, і він із задоволенням це зробить, навіть якщо такого в його наборі даних немає. Але це може бути проблемою, коли потрібна фактична відповідь; модель впевнено представлятиме напівреальну, напівілюзійну відповідь. Наразі немає простого способу визначити, що є що, окрім перевірки самостійно, оскільки сама модель насправді не знає, що таке «істинне» чи «хибне», вона просто намагається завершити шаблон якнайкраще.
AGI або сильний штучний інтелект
Загальний штучний інтелект (AGI) або сильний штучний інтелект насправді не є чітко визначеним поняттям, але найпростішим поясненням є те, що це достатньо потужний інтелект не лише для того, щоб робити те, що роблять люди, але й бути схожим на нас Навчатися та вдосконалюватися себе. Дехто хвилюється, що цей цикл навчання, інтеграції цих ідей, а потім навчання і зростання буде самовідновлюваним циклом, який призведе до надрозумної системи, яку неможливо обмежити чи контролювати. Деякі навіть запропонували відкласти або обмежити дослідження, щоб запобігти такій можливості.
Це жахлива думка. А такі фільми, як «Матриця» та «Термінатор», досліджували, що може статися, якщо штучний інтелект вийде з-під контролю та спробує винищити або поневолити людство. Але ці історії не мають підґрунтя на реальності. Зовнішній вигляд інтелекту, який ми бачимо в таких речах, як ChatGPT, вражає, але має мало спільного з абстрактним міркуванням і динамічною діяльністю в кількох доменах, які ми асоціюємо зі «справжнім» інтелектом.
Хоча передбачити майбутній розвиток практично неможливо, може бути корисним уявити AGI як міжзоряну космічну подорож: ми всі розуміємо концепцію і, здається, працюємо над нею, але в той же час нам ще потрібно пройти довгий шлях це. Так само, як AGI, ніхто не зробить це випадково через величезні ресурси та фундаментальний науковий прогрес!
Цікаво думати про AGI, але немає потреби напрошуватись на проблеми, тому що, як зазначили коментатори, незважаючи на свої обмеження, ШІ вже сьогодні становить реальну та значну загрозу. Ніхто не хоче Skynet, але вам не потрібен суперрозвідник із ядерною зброєю, щоб завдати реальної шкоди: люди сьогодні втрачають роботу та стають обдуреними. Якщо ми не можемо вирішити ці проблеми, які шанси у нас проти Т-1000?
Кращі гравці зі штучного інтелекту
OpenAI
Автор зображення: Леон Ніл/Getty Images
Якщо в штучному інтелекті є одне відоме ім’я, то це OpenAI. OpenAI, як випливає з назви, є організацією, яка має намір проводити дослідження та робити результати більш-менш загальнодоступними. З тих пір вона реструктуризувалася в більш традиційну комерційну компанію, яка надає доступ до передових мовних моделей, таких як ChatGPT, через API та програми. Його очолює Сем Альтман, техномільярдер, який, тим не менш, забив тривогу щодо можливих ризиків штучного інтелекту. OpenAI є визнаним лідером у галузі LLM, але проводить дослідження й в інших областях.
Майкрософт
Як і слід було очікувати, Microsoft провела неабияку частку досліджень штучного інтелекту, але, як і інші компанії, більш-менш не змогла перетворити свої експерименти на основні продукти. Його найрозумнішим кроком було раннє інвестування в OpenAI, яке призвело до ексклюзивного довгострокового партнерства з компанією, яка тепер підтримує її розмовні агенти Bing. Незважаючи на те, що її власний внесок менший і менш застосовний безпосередньо, компанія має значні дослідницькі сили.
Google
Google, відомий своїми місячними знімками, чомусь упустив можливість для штучного інтелекту, хоча його дослідники винайшли технологію, яка безпосередньо призводить до сьогоднішнього вибуху ШІ: Трансформери. Зараз він намагається розробити власних LLM та інших агентів, але явно наздоганяє, витративши більшу частину останнього десятиліття на просування застарілої концепції «віртуальних помічників» ШІ. Генеральний директор Сундар Пічаї неодноразово заявляв, що компанія твердо стоїть за ШІ в пошуку та продуктивності.
Антропний
Після того, як OpenAI відійшла від відкритості, Даріо та Даніела Амодей залишили її, щоб заснувати Anthropic, маючи намір зайняти роль відкритої та етично дослідницької організації ШІ. З тією сумою готівки, яку вони мають у своєму розпорядженні, вони є серйозними конкурентами OpenAI, навіть якщо їхні моделі (наприклад, Клод) ще не настільки популярні чи відомі.
Автор зображення: Брайс Дурбін/TechCrunch
Стабільність
Суперечливий, але неминучий, Stability представляє жанр з відкритим вихідним кодом реалізацій штучного інтелекту «що завгодно», який збирає все в Інтернеті та робить генеративні моделі штучного інтелекту доступними безкоштовно, якщо у вас є апаратне забезпечення для його запуску. Це дуже добре відповідає філософії «інформація хоче бути безкоштовною», але також прискорює етично сумнівні проекти, як-от створення порнографічних зображень і використання інтелектуальної власності без згоди (іноді одночасно).
Ілон Маск
Маск не був винятком, відкрито висловлюючи свої занепокоєння з приводу штучного інтелекту, що втікає, і після того, як його ранній внесок у OpenAI пішов у напрямку, який йому не подобався, деякі кислого винограду. Незважаючи на те, що Маск не є фахівцем у цій темі, як завжди, його витівки та коментарі викликають багато шуму (він підписав вищезгаданий лист «AI pause»), і він намагається створити власну дослідницьку присутність.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Посібник зі штучного інтелекту: огляд ключових концепцій і найкращих гравців у галузі штучного інтелекту
Джерело: Techcrunch
Компіляція: Babbitt
Здається, штучний інтелект (ШІ) присутній у кожному куточку сучасного життя, від музики та медіа до бізнесу та продуктивності та навіть побачень. Так багато речей, що важко встигнути. Ця стаття охоплюватиме все: від останніх великих розробок у сфері штучного інтелекту до термінів і компаній, які вам потрібно знати, щоб бути в курсі стану справ у цій швидкозмінній галузі.
По-перше, що таке штучний інтелект?
Штучний інтелект, також відомий як машинне навчання, — це програмна система, заснована на нейронних мережах, техніці, яка фактично була запроваджена десятиліття тому, але нещодавно процвітала завдяки новим потужним обчислювальним ресурсам. Наразі ШІ досяг ефективного розпізнавання мови та зображень, а також здатності генерувати синтетичні зображення та мову. Дослідники працюють над тим, щоб зробити штучний інтелект здатним переглядати веб-сторінки, замовляти квитки, налаштовувати рецепти тощо.
Але якщо ви хвилюєтеся про зростання машин у стилі Матриці — не хвилюйтеся. Ми поговоримо про це пізніше!
Цей посібник із ШІ складається з двох основних частин:
AI 101
Однією з божевільних речей штучного інтелекту є те, що, хоча його основні концепції сягають понад 50 років тому, донедавна небагато навіть технічно підкованих людей були знайомі з його концепціями. Тож не хвилюйтеся, якщо ви почуваєтеся розгубленими – усі так.
Давайте прояснимо одну річ наперед: хоча це називається «штучний інтелект», цей термін дещо вводить в оману. Наразі немає єдиного визначення інтелекту, але те, що ці системи роблять, безумовно, ближче до калькулятора, ніж до мозку, за винятком того, що вхідні та вихідні дані цього калькулятора більш гнучкі. ШІ може бути схожим на «штучний кокос» — це імітація інтелекту.
Нижче наведені основні терміни, які ви знайдете в будь-якій дискусії про ШІ.
Нейронні мережі
Наш мозок здебільшого складається із взаємопов’язаних клітин, які називаються нейронами, які об’єднуються, утворюючи складні мережі, які виконують завдання та зберігають інформацію. Люди намагалися відтворити цю дивовижну систему в програмному забезпеченні з 1960-х років, але необхідна обчислювальна потужність була широко доступною лише 15-20 років тому, коли графічні процесори дозволили процвітати нейронним мережам із числовим визначенням.
По суті, це просто безліч точок і ліній: точки — це дані, а лінії — це статистичні зв’язки між цими значеннями. Подібно до мозку, це може створити багатофункціональну систему, яка швидко отримує вхідні дані, пропускає їх через мережу та створює вихідні дані. Таку систему називають моделлю.
Модель
Модель — це фактична колекція коду, яка приймає вхідні дані та повертає вихідні дані. Схожість термінології зі статистичними моделями, або моделюючими системами, що імітують складні природні процеси, не випадкова. У ШІ модель може стосуватися повної системи, як-от ChatGPT, або майже будь-якої конструкції ШІ чи машинного навчання, незалежно від того, що вона робить або створює. Моделі бувають різних розмірів, що означає, скільки місця для зберігання вони займають і скільки обчислювальної потужності їм потрібно для роботи. І все залежить від того, як була навчена модель.
поїзд
Щоб створити модель штучного інтелекту, нейронні мережі, які є основою системи, піддаються впливу набору інформації, яка називається набором даних або корпусом. При цьому ці величезні мережі створюють статистичне представлення цих даних. Цей процес навчання є найбільш обчислювально інтенсивним, тобто він займає тижні або місяці на величезних потужних комп’ютерах. Причина цього полягає не тільки в тому, що мережі є складними, але й у тому, що набори даних можуть бути дуже великими: мільярди слів або зображень потрібно проаналізувати та представити у величезних статистичних моделях. З іншого боку, коли модель навчена, її можна використовувати набагато меншу та менш вимогливу, процес, який називається логічним висновком.
Висновок
Коли модель дійсно працює, ми називаємо це висновком, і традиційне значення цього слова дуже велике: сформулювати висновок шляхом міркування щодо наявних доказів. Звичайно, це не зовсім «висновок», але статистично пов’язує точки в отриманих даних, фактично прогнозуючи наступну точку. Наприклад, скажіть «заповніть таку послідовність: червоний, помаранчевий, жовтий...». Він виявить, що ці слова відповідають початку списку, який він приймає, тобто кольорам веселки, і екстраполює наступний елемент, поки не знайде створив решту частини списку.
Висновки, як правило, набагато менш затратні з точки зору обчислень, ніж навчання: сприймайте це як перегляд карткового каталогу, а не збирання його. Великі моделі все ще повинні працювати на суперкомп’ютерах і графічних процесорах, але менші моделі можуть працювати на смартфонах або простіших пристроях.
Генеративний штучний інтелект
Усі говорять про генеративний штучний інтелект, широкий термін, який просто стосується моделей штучного інтелекту, які генерують необроблені результати, такі як зображення чи текст. Деякі ШІ підсумовують, деякі реорганізують, деякі розпізнають і так далі, але ШІ, які дійсно щось генерують (чи «створює» це дискусійно), зараз особливо популярні. Пам’ятайте: те, що штучний інтелект створив щось, не означає, що це правильно чи навіть те, що воно відображає реальність! Просто його немає, доки ви не попросите про це, як оповідання чи картина.
Гарячі слова прямо зараз
Окрім основ, ось найактуальніші умови штучного інтелекту на середину 2023 року.
Велика мовна модель (LLM)
Широкомасштабні мовні моделі є найвпливовішою та найпоширенішою формою штучного інтелекту сьогодні. Широкомасштабні мовні моделі навчаються майже на всіх текстах, які складають Інтернет, і більшості літератури англійською мовою. Поглинання всього цього призводить до величезної базової моделі (читайте далі). LLM можуть спілкуватися та відповідати на запитання природною мовою та імітувати письмові документи різних стилів і типів, про що свідчать такі інструменти, як ChatGPT, Claude та LLaMa.
Хоча ці моделі, безсумнівно, вражають, слід мати на увазі, що вони все ще є механізмами розпізнавання образів, і коли вони відповідають на запитання, вони намагаються завершити ідентифікований шаблон, незалежно від того, чи відповідає цей шаблон реальності чи ні. LLM часто галюцинують у своїх відповідях, про що ми незабаром дійдемо.
Якщо ви хочете дізнатися більше про LLM і ChatGPT, натисніть тут.
Модель основи
Навчання величезної моделі з нуля на величезному наборі даних є дорогим і складним, тому ви не хочете робити більше, ніж потрібно. Базові моделі — це великі моделі з нуля, для роботи яких потрібні суперкомп’ютери, але часто шляхом зменшення кількості параметрів їх можна зменшити до менших контейнерів. Ви можете подумати про них як про загальну кількість точок, яку має обробити модель, яка сьогодні може досягати мільйонів, мільярдів або навіть трильйонів.
тонке налаштування
Базова модель, як-от GPT-4, є розумною, але вона також універсальна за своєю конструкцією — вона вбирає все, від Діккенса до Вітгенштейна й закінчуючи правилами Dungeons and Dragons, але якщо ви хочете, щоб вона базувалася на вашому резюме, напишіть супровідний лист, ці марні. На щастя, модель можна точно налаштувати, провівши додаткове навчання моделі за допомогою спеціального набору даних. Наприклад, буває кілька тисяч заявок на роботу. Це дає моделі краще розуміння того, як допомогти користувачеві в цій області, не відкидаючи загальні знання, отримані з решти навчальних даних.
Навчання з підкріпленням на основі зворотного зв’язку людини (RLHF) — це особливий вид тонкого налаштування, про який ви часто чуєте, — він використовує дані людей, які взаємодіють із LLM, щоб покращити їхні навички спілкування.
Дифузія
Генерувати зображення можна кількома способами, але, безумовно, найуспішнішим є дифузія, техніка, що лежить в основі стабільної дифузії, Midjourney та інших популярних генеративних ШІ. Модель дифузії навчається, показуючи їй зображення, які поступово погіршуються шляхом додавання цифрового шуму, поки від вихідного зображення нічого не залишиться. Спостерігаючи за цим, модель дифузії також вчиться виконувати процес у зворотному напрямку, поступово додаючи деталі до чистого шуму, щоб сформувати довільно визначене зображення. Ми почали виходити за рамки графіки, але ця технологія надійна і відносно проста для розуміння, тому вона досить швидко вимре.
Галюцинації
Спочатку це була проблема, пов’язана з тим, що деякі зображення під час навчання вислизали до нерелевантного результату, наприклад, будівлі виглядали зробленими із собак через надмірну поширеність зображень собак у наборі для навчання. Тепер кажуть, що штучний інтелект галюцинує, тому що в його навчальному наборі недостатньо або суперечливих даних, він просто щось вигадує.
Штучний інтелект, якого просять створити оригінальне або навіть похідне мистецтво, є галюцинаціями. Наприклад, магістру права можна сказати написати вірш про кохання в стилі Йогі Берра, і він із задоволенням це зробить, навіть якщо такого в його наборі даних немає. Але це може бути проблемою, коли потрібна фактична відповідь; модель впевнено представлятиме напівреальну, напівілюзійну відповідь. Наразі немає простого способу визначити, що є що, окрім перевірки самостійно, оскільки сама модель насправді не знає, що таке «істинне» чи «хибне», вона просто намагається завершити шаблон якнайкраще.
AGI або сильний штучний інтелект
Загальний штучний інтелект (AGI) або сильний штучний інтелект насправді не є чітко визначеним поняттям, але найпростішим поясненням є те, що це достатньо потужний інтелект не лише для того, щоб робити те, що роблять люди, але й бути схожим на нас Навчатися та вдосконалюватися себе. Дехто хвилюється, що цей цикл навчання, інтеграції цих ідей, а потім навчання і зростання буде самовідновлюваним циклом, який призведе до надрозумної системи, яку неможливо обмежити чи контролювати. Деякі навіть запропонували відкласти або обмежити дослідження, щоб запобігти такій можливості.
Це жахлива думка. А такі фільми, як «Матриця» та «Термінатор», досліджували, що може статися, якщо штучний інтелект вийде з-під контролю та спробує винищити або поневолити людство. Але ці історії не мають підґрунтя на реальності. Зовнішній вигляд інтелекту, який ми бачимо в таких речах, як ChatGPT, вражає, але має мало спільного з абстрактним міркуванням і динамічною діяльністю в кількох доменах, які ми асоціюємо зі «справжнім» інтелектом.
Хоча передбачити майбутній розвиток практично неможливо, може бути корисним уявити AGI як міжзоряну космічну подорож: ми всі розуміємо концепцію і, здається, працюємо над нею, але в той же час нам ще потрібно пройти довгий шлях це. Так само, як AGI, ніхто не зробить це випадково через величезні ресурси та фундаментальний науковий прогрес!
Цікаво думати про AGI, але немає потреби напрошуватись на проблеми, тому що, як зазначили коментатори, незважаючи на свої обмеження, ШІ вже сьогодні становить реальну та значну загрозу. Ніхто не хоче Skynet, але вам не потрібен суперрозвідник із ядерною зброєю, щоб завдати реальної шкоди: люди сьогодні втрачають роботу та стають обдуреними. Якщо ми не можемо вирішити ці проблеми, які шанси у нас проти Т-1000?
Кращі гравці зі штучного інтелекту
OpenAI
Якщо в штучному інтелекті є одне відоме ім’я, то це OpenAI. OpenAI, як випливає з назви, є організацією, яка має намір проводити дослідження та робити результати більш-менш загальнодоступними. З тих пір вона реструктуризувалася в більш традиційну комерційну компанію, яка надає доступ до передових мовних моделей, таких як ChatGPT, через API та програми. Його очолює Сем Альтман, техномільярдер, який, тим не менш, забив тривогу щодо можливих ризиків штучного інтелекту. OpenAI є визнаним лідером у галузі LLM, але проводить дослідження й в інших областях.
Майкрософт
Як і слід було очікувати, Microsoft провела неабияку частку досліджень штучного інтелекту, але, як і інші компанії, більш-менш не змогла перетворити свої експерименти на основні продукти. Його найрозумнішим кроком було раннє інвестування в OpenAI, яке призвело до ексклюзивного довгострокового партнерства з компанією, яка тепер підтримує її розмовні агенти Bing. Незважаючи на те, що її власний внесок менший і менш застосовний безпосередньо, компанія має значні дослідницькі сили.
Google
Google, відомий своїми місячними знімками, чомусь упустив можливість для штучного інтелекту, хоча його дослідники винайшли технологію, яка безпосередньо призводить до сьогоднішнього вибуху ШІ: Трансформери. Зараз він намагається розробити власних LLM та інших агентів, але явно наздоганяє, витративши більшу частину останнього десятиліття на просування застарілої концепції «віртуальних помічників» ШІ. Генеральний директор Сундар Пічаї неодноразово заявляв, що компанія твердо стоїть за ШІ в пошуку та продуктивності.
Антропний
Після того, як OpenAI відійшла від відкритості, Даріо та Даніела Амодей залишили її, щоб заснувати Anthropic, маючи намір зайняти роль відкритої та етично дослідницької організації ШІ. З тією сумою готівки, яку вони мають у своєму розпорядженні, вони є серйозними конкурентами OpenAI, навіть якщо їхні моделі (наприклад, Клод) ще не настільки популярні чи відомі.
Стабільність
Суперечливий, але неминучий, Stability представляє жанр з відкритим вихідним кодом реалізацій штучного інтелекту «що завгодно», який збирає все в Інтернеті та робить генеративні моделі штучного інтелекту доступними безкоштовно, якщо у вас є апаратне забезпечення для його запуску. Це дуже добре відповідає філософії «інформація хоче бути безкоштовною», але також прискорює етично сумнівні проекти, як-от створення порнографічних зображень і використання інтелектуальної власності без згоди (іноді одночасно).
Ілон Маск
Маск не був винятком, відкрито висловлюючи свої занепокоєння з приводу штучного інтелекту, що втікає, і після того, як його ранній внесок у OpenAI пішов у напрямку, який йому не подобався, деякі кислого винограду. Незважаючи на те, що Маск не є фахівцем у цій темі, як завжди, його витівки та коментарі викликають багато шуму (він підписав вищезгаданий лист «AI pause»), і він намагається створити власну дослідницьку присутність.