ШІ шалено забруднює китайський Інтернет

Джерело: Qubit

Забруднення китайського Інтернету, ШІ став одним із «винуватців».

Ось у чому річ.

Хіба останнім часом не всі хочуть звертатися до AI? Один користувач мережі поставив Bing таке запитання:

Чи є канатна дорога на горі Елефант Транк?

Bing також відповідає на запитання, даючи, здавалося б, надійну відповідь:

Давши ствердну відповідь, Bing також додав детальну інформацію, таку як ціни на квитки та години роботи.

Однак цей користувач мережі не прийняв відповіді безпосередньо, а пішов за підказками та натиснув «довідкове посилання» нижче.

У цей момент користувач мережі помітив, що щось не так — як відповідь цієї людини може бути «розумною».

Тож він натиснув на домашню сторінку користувача під назвою «Variety Life» і раптом зрозумів, що суке — це ШІ**!

Оскільки цей користувач може відповідати на запитання дуже швидко та може вирішувати запитання майже кожні 1-2 хвилини.

Може навіть відповісти на 2 запитання протягом 1 хвилини.

Під більш уважним спостереженням цього користувача мережі я виявив, що всі ці відповіді є неперевіреними типами...

І, на його думку, саме це змусило Bing вивести неправильну відповідь:

Цей ШІ шалено забруднює китайський Інтернет.

«Джерело забруднення ШІ», не тільки це

Отже, як користувача ШІ тепер виявляють користувачі мережі?

Судячи з поточних результатів, його «засудив» Чжіху до режиму мовчання.

Але незважаючи на це, є й інші користувачі мережі, які відверто сказали:

більше одного.

Якщо ви клацнете на стовпець Zhihu «Чекаю вашої відповіді», випадковим чином знайдете запитання та прокрутите сторінку вниз, ви дійсно натрапите на багато «дотепних» відповідей.

Наприклад, ми знайшли такий у відповіді на «Які сценарії застосування ШІ в житті?»:

Не тільки мова відповіді «Цзяньцзю», але відповідь безпосередньо позначена «включаючи створення за допомогою ШІ».

Тоді, якщо ми закинемо запитання ChatGPT, то отримаємо відповідь... Що ж, це суттєва зміна.

Насправді такі «джерела забруднення ШІ» не обмежуються цією платформою.

Навіть у питанні простих наукових популяризаційних картин ШІ неодноразово допускав помилки.

Користувачі мережі також залишилися в Бенгбу, прочитавши це: «Хороший хлопець, на жодному фото не зображені мідії».

Навіть фейкові новини, створені різними ШІ, не рідкість.

Наприклад, деякий час тому в Інтернеті з’явилася сенсаційна новина під заголовком «Вбивство в Чженчжоу Chicken Chop Shop, чоловік на смерть забив жінку цеглою!». ".

Але насправді цю новину створив Чень, житель Цзянсі, який використовував ChatGPT для залучення шанувальників.

За збігом обставин Хун, брат із Шеньчженя, провінція Гуандун, також використав технологію штучного інтелекту, щоб опублікувати фейкові новини: «Сьогодні вранці потяг у Ганьсу врізався в будівельника дороги, убивши 9 людей».

Зокрема, він шукав у всій мережі гарячі соціальні новини за останні роки та використовував програмне забезпечення штучного інтелекту, щоб змінювати та редагувати час і місце новин, а потім заробляв увагу та трафік на певних платформах для незаконної вигоди.

Поліція вжила до них заходи кримінального примусу.

Але насправді це явище «джерела забруднення ШІ» існує не лише в Китаї, а й в інших країнах.

Прикладом є Stack Overflow, спільнота запитань і відповідей програмістів.

Ще наприкінці минулого року, коли ChatGPT став популярним, Stack Overflow раптово оголосила про «тимчасову заборону».

Офіційна причина, названа на той час, була така:

Мета (зробити це) полягає в тому, щоб уповільнити потік відповідей, створених за допомогою ChatGPT для спільноти. Тому що ймовірність отримати неправильні відповіді від ChatGPT занадто висока!

Stack Overflow докладніше розкриває це явище.

Вони вважають, що запитання, на які відповіли попередні користувачі, переглядали інші користувачі з професійними знаннями, і те, чи вони правильні чи ні, еквівалентно перевірці.

Однак з моменту появи ChatGPT з’явилася велика кількість відповідей, які люди вважають «правильними», а кількість користувачів із професійними знаннями обмежена, і неможливо прочитати всі ці згенеровані відповіді.

Крім того, ChatGPT відповідає на ці професійні запитання, і його частота помилок дійсно є; тому Stack Overflow вирішив вимкнути його.

Одним словом, ШІ забруднює середовище спільноти.

І, як і на Reddit, американській версії Post Bar, є більше дошок і тем ChatGPT:

Багато користувачів будуть задавати різні питання в цій колонці, і бот ChatGPT також відповідає на всі запитання.

Однак це все ще старе запитання, і точність відповіді невідома.

Але за цим явищем насправді ховаються більші приховані небезпеки.

Зловживання ШІ, а також руйнування ШІ

Модель AI отримує велику кількість Інтернет-даних, але не може добре розрізнити автентичність і достовірність інформації.

У результаті нам доводиться мати справу з потоком низькоякісного контенту, який швидко генерується, від чого людям паморочиться голова.

Важко уявити, якими будуть результати, якщо великі моделі ChatGPT навчатимуть із такими даними...

А таке зловживання ШІ, у свою чергу, також є своєрідною автофагією.

Нещодавно дослідники з Великобританії та Канади опублікували на arXiv статтю під назвою «Прокляття рекурсії: навчання на створених даних змушує забути моделі».

Обговорює поточний стан контенту, створеного штучним інтелектом, який забруднює Інтернет, а потім публікує тривожний висновок про те, що використання контенту, створеного моделлю, для навчання інших моделей призводить до незворотних недоліків у отриманих моделях. **

Це «забруднення» даних, створених штучним інтелектом, спотворить сприйняття моделлю реальності, і в майбутньому стане важче навчати модель, збираючи дані з Інтернету.

Автор статті Росс Андерсон, професор техніки безпеки в Кембриджському та Единбурзькому університетах, прямо сказав:

Подібно до того, як ми наповнили океани пластиковим сміттям, а атмосферу вуглекислим газом, ми збираємося наповнити Інтернет лайном.

Щодо ситуації, коли неправдива інформація літає скрізь, Дафна Іпполіто (Daphne Ippolito), старший науковий співробітник Google Brain, сказала: «У майбутньому буде ще важче знайти високоякісні дані, які не пройшли навчання ШІ.

Якщо екран заповнений такою нехарчовою та неповноцінною інформацією, і це продовжується й продовжується, тоді навчання даних для штучного інтелекту в майбутньому не буде, і що означає вихідні результати.

Виходячи з цієї ситуації, сміливо фантазуйте. Штучний інтелект, який виріс у середовищі сміття та неправдивих даних, може бути вмонтований у «відсталого робота», розумово відсталого розумово відсталого робота, перш ніж він перетвориться на людину.

Як і науково-фантастична комедія 1996 року «Чоловіки та кошики», фільм розповідає історію звичайної людини, яка клонує себе, а потім клонує людину, причому кожне клонування призводить до експоненціального зниження рівня інтелекту клону та збільшення у своїй дурості.

У цей момент нам, можливо, доведеться зіткнутися з смішною дилемою: люди створили ШІ з дивовижними можливостями, але він сповнений нудної та дурної інформації.

Який контент ми можемо очікувати від штучного інтелекту, якщо його годують лише фейковими даними?

Якщо настане той час, ми, мабуть, сумуватимемо за минулим і віддамо данину тій справжній людській мудрості.

З огляду на це, це ще не всі погані новини. Наприклад, деякі контент-платформи почали звертати увагу на проблему неякісного контенту, створеного штучним інтелектом, і запровадили відповідні правила для його обмеження.

Деякі компанії, що займаються штучним інтелектом, також почали розробляти технології, які можуть ідентифікувати створений штучним інтелектом контент, щоб зменшити вибух фальшивої та спам-інформації.

Посилання на посилання: [1] [2] [3] [4] [5] [6]

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити