Харари заявил, что ИИ следует воспринимать как активных автономных агентов, а не как пассивный инструмент.
Он предупредил, что системы, основанные в основном на словах, включая религию, право и финансы, подвергаются повышенной опасности со стороны ИИ.
Харари призвал лидеров решить, следует ли рассматривать системы ИИ как юридических лиц, прежде чем такие решения будут приняты за них.
Историк и автор Юваль Ной Харари предупредил во вторник на Всемирном экономическом форуме, что человечество рискует потерять контроль над языком, который он назвал своей определяющей «суперсилой», поскольку искусственный интеллект все больше функционирует через автономных агентов, а не пассивные инструменты.
Автор «Sapiens» Харари стал часто звучащим голосом в глобальных дебатах о социальном воздействии искусственного интеллекта. Он утверждал, что юридические кодексы, финансовые рынки и организованная религия почти полностью зависят от языка, что делает их особенно уязвимыми для машин, способных генерировать и манипулировать текстом в масштабах.
«Люди захватили мир не потому, что мы самые сильные физически, а потому, что мы научились использовать слова, чтобы заставить тысячи, миллионы и миллиарды незнакомцев сотрудничать», — сказал он. «Это была наша суперсила.»
Харари указал на религии, основанные на священных текстах, включая иудаизм, христианство и ислам, утверждая, что способность ИИ читать, запоминать и синтезировать огромные объемы писаний может сделать машины самыми авторитетными интерпретаторами священных текстов.
«Если законы состоят из слов, то ИИ возьмет под контроль правовую систему», — сказал он. «Если книги — это просто комбинации слов, то ИИ возьмет под контроль книги. Если религия построена из слов, то ИИ возьмет под контроль религию.»
В Давосе Харари также сравнил распространение систем ИИ с новой формой иммиграции и заявил, что дебаты вокруг технологий скоро сосредоточатся на том, должны ли правительства предоставлять системам ИИ юридический статус. Несколько штатов, включая Юту, Айдахо и Северную Дакоту, уже приняли законы, явно заявляющие, что ИИ не может считаться лицом по закону.
Харари завершил свои замечания предупреждением для мировых лидеров действовать быстро в вопросах законов, касающихся ИИ, и не предполагать, что технология останется нейтральным слугой. Он сравнил текущие усилия по внедрению технологий с историческими случаями, когда наемники позже захватывали власть.
«Через десять лет будет уже слишком поздно решать, должны ли АИ функционировать как лица на финансовых рынках, в судах, в церквях», — сказал он. «Кто-то другой уже примет решение за вас. Если вы хотите повлиять на то, куда движется человечество, вам нужно принять решение прямо сейчас.»
Комментарии Харари могут оказаться тяжелыми для тех, кто боится распространения ИИ, но не все согласны с его подходом. Профессор Эмили М. Бендер, лингвист из Университета Вашингтона, сказала, что такие риски, как у Харари, только смещают внимание с человеческих акторов и институтов, ответственных за создание и внедрение систем ИИ.
«Мне кажется, что это действительно попытка запутать действия людей и корпораций, создающих эти системы», — сказала Бендер в интервью Decrypt. «А также требование, чтобы все просто отказались от своих человеческих прав во многих сферах, включая право на наши языки, под влиянием этих так называемых систем искусственного интеллекта.»
Бендер отвергла идею, что «искусственный интеллект» описывает четкую или нейтральную категорию технологий.
«Термин искусственный интеллект не относится к последовательному набору технологий», — сказала она. «Это, по сути, и всегда было, маркетинговый термин», добавив, что системы, предназначенные для имитации профессионалов, таких как врачи, юристы или духовенство, лишены законных оснований для использования.
«Какова цель чего-то, что может звучать как доктор, юрист, духовное лицо и так далее?» — спросила Бендер. «Цель здесь — мошенничество. Точка.»
Хотя Харари указал на растущее использование агентов ИИ для управления банковскими счетами и бизнес-взаимодействиями, Бендер сказала, что риск заключается в том, насколько легко люди доверяют машинным выводам, которые кажутся авторитетными — при этом не неся человеческой ответственности.
«Если у вас есть система, на которую можно задать вопрос, и она даст ответ, — который лишен контекста и ответственности за него, но позиционируется как исходящий от всезнающего оракула, — тогда вы можете понять, почему люди захотят, чтобы это существовало», — сказала Бендер. «Я считаю, что существует большой риск, что люди начнут ориентироваться на это и использовать этот вывод для формирования своих собственных идей, убеждений и действий.»
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
ИИ готова захватить язык, право и религию, предупреждает историк Юваль Ной Харари
Вкратце
Историк и автор Юваль Ной Харари предупредил во вторник на Всемирном экономическом форуме, что человечество рискует потерять контроль над языком, который он назвал своей определяющей «суперсилой», поскольку искусственный интеллект все больше функционирует через автономных агентов, а не пассивные инструменты. Автор «Sapiens» Харари стал часто звучащим голосом в глобальных дебатах о социальном воздействии искусственного интеллекта. Он утверждал, что юридические кодексы, финансовые рынки и организованная религия почти полностью зависят от языка, что делает их особенно уязвимыми для машин, способных генерировать и манипулировать текстом в масштабах. «Люди захватили мир не потому, что мы самые сильные физически, а потому, что мы научились использовать слова, чтобы заставить тысячи, миллионы и миллиарды незнакомцев сотрудничать», — сказал он. «Это была наша суперсила.» Харари указал на религии, основанные на священных текстах, включая иудаизм, христианство и ислам, утверждая, что способность ИИ читать, запоминать и синтезировать огромные объемы писаний может сделать машины самыми авторитетными интерпретаторами священных текстов.
«Если законы состоят из слов, то ИИ возьмет под контроль правовую систему», — сказал он. «Если книги — это просто комбинации слов, то ИИ возьмет под контроль книги. Если религия построена из слов, то ИИ возьмет под контроль религию.» В Давосе Харари также сравнил распространение систем ИИ с новой формой иммиграции и заявил, что дебаты вокруг технологий скоро сосредоточатся на том, должны ли правительства предоставлять системам ИИ юридический статус. Несколько штатов, включая Юту, Айдахо и Северную Дакоту, уже приняли законы, явно заявляющие, что ИИ не может считаться лицом по закону. Харари завершил свои замечания предупреждением для мировых лидеров действовать быстро в вопросах законов, касающихся ИИ, и не предполагать, что технология останется нейтральным слугой. Он сравнил текущие усилия по внедрению технологий с историческими случаями, когда наемники позже захватывали власть.
«Через десять лет будет уже слишком поздно решать, должны ли АИ функционировать как лица на финансовых рынках, в судах, в церквях», — сказал он. «Кто-то другой уже примет решение за вас. Если вы хотите повлиять на то, куда движется человечество, вам нужно принять решение прямо сейчас.» Комментарии Харари могут оказаться тяжелыми для тех, кто боится распространения ИИ, но не все согласны с его подходом. Профессор Эмили М. Бендер, лингвист из Университета Вашингтона, сказала, что такие риски, как у Харари, только смещают внимание с человеческих акторов и институтов, ответственных за создание и внедрение систем ИИ. «Мне кажется, что это действительно попытка запутать действия людей и корпораций, создающих эти системы», — сказала Бендер в интервью Decrypt. «А также требование, чтобы все просто отказались от своих человеческих прав во многих сферах, включая право на наши языки, под влиянием этих так называемых систем искусственного интеллекта.» Бендер отвергла идею, что «искусственный интеллект» описывает четкую или нейтральную категорию технологий. «Термин искусственный интеллект не относится к последовательному набору технологий», — сказала она. «Это, по сути, и всегда было, маркетинговый термин», добавив, что системы, предназначенные для имитации профессионалов, таких как врачи, юристы или духовенство, лишены законных оснований для использования. «Какова цель чего-то, что может звучать как доктор, юрист, духовное лицо и так далее?» — спросила Бендер. «Цель здесь — мошенничество. Точка.» Хотя Харари указал на растущее использование агентов ИИ для управления банковскими счетами и бизнес-взаимодействиями, Бендер сказала, что риск заключается в том, насколько легко люди доверяют машинным выводам, которые кажутся авторитетными — при этом не неся человеческой ответственности.
«Если у вас есть система, на которую можно задать вопрос, и она даст ответ, — который лишен контекста и ответственности за него, но позиционируется как исходящий от всезнающего оракула, — тогда вы можете понять, почему люди захотят, чтобы это существовало», — сказала Бендер. «Я считаю, что существует большой риск, что люди начнут ориентироваться на это и использовать этот вывод для формирования своих собственных идей, убеждений и действий.»