Создатель Ethereum Виталик выступил с убедительным аргументом в пользу того, что развитие искусственного интеллекта должно ставить в приоритет расширение возможностей человека, а не достижение полной автономии. Согласно недавним заявлениям, опубликованным в конце декабря, он утверждает, что любая новая инициатива в области ИИ должна иметь в качестве основной цели «улучшение человечества». Эта точка зрения бросает вызов преобладающей тенденции в индустрии ИИ, где многие организации соревнуются в создании полностью автономных систем, несмотря на нерешённые вопросы безопасности.
Проблема неограниченных автономных систем
Предупреждение Виталика затрагивает важнейшую проблему современного развития ИИ. Он отмечает, что организации, стремящиеся к созданию полностью автономных Продвинутых Супер Интеллектов (ASI), становятся всё более распространёнными, однако гонка за полную независимость вызывает фундаментальные вопросы о контроле и безопасности. Его позиция особенно ярка, потому что он придерживается её независимо от теоретических дебатов о безопасности ИИ — предполагая, что даже если все вопросы безопасности каким-то образом будут решены, стремление к полностью автономным системам остаётся проблематичным с стратегической и философской точек зрения.
Основная озабоченность связана с рисками систем, способных принимать решения автономно в течение длительного времени без человеческого контроля. Виталик явно призывает ограничить работу ИИ-систем без человеческого вмешательства более чем на одну минуту, устанавливая жёсткую границу между полезным расширением возможностей и потенциально опасной автономией.
Расширенный ИИ: недоразвитая альтернатива
В ярком контрасте с распространением проектов автономного ASI Виталик отмечает, что расширенный ИИ — технология, специально предназначенная для «создания механизма для человеческого мозга», — остаётся значительно недофинансированной и недоразвитой. Такой тип ИИ выступает в роли расширения человеческих возможностей, улучшая когнитивные функции и принятие решений, а не заменяя человеческий разум. Несмотря на его потенциал, эта концепция привлекла гораздо меньше инвестиций и внимания, чем автономные системы.
Разрыв между этими двумя путями развития указывает на рыночный провал в области инноваций ИИ. Компании и инвесторы в основном игнорируют огромный потенциал создания систем ИИ, которые действительно усиливают человеческую деятельность, а не уменьшают её.
Прозрачность через открытое развитие
Для продвижения ответственного развития ИИ Виталик настоятельно выступает за максимальную прозрачность в проектах расширенного ИИ с помощью практик открытого исходного кода. Обеспечивая публичный доступ к коду и моделям, он позволяет широкой исследовательской сообществу проверять меры безопасности, выявлять уязвимости и вносить улучшения. Такой совместный подход резко контрастирует с закрытыми средами разработки, характерными для автономных систем ASI.
Подчеркивая принципы открытого исходного кода, Виталик подчеркивает важность общественного контроля в обеспечении того, чтобы развитие ИИ служило интересам человечества. Этот призыв к прозрачности отражает фундаментальную веру в то, что трансформирующие технологии требуют публичной ответственности и коллективного управления.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Виталик выступает за ИИ, который дополняет человечество, а не стремится к полной автономии
Создатель Ethereum Виталик выступил с убедительным аргументом в пользу того, что развитие искусственного интеллекта должно ставить в приоритет расширение возможностей человека, а не достижение полной автономии. Согласно недавним заявлениям, опубликованным в конце декабря, он утверждает, что любая новая инициатива в области ИИ должна иметь в качестве основной цели «улучшение человечества». Эта точка зрения бросает вызов преобладающей тенденции в индустрии ИИ, где многие организации соревнуются в создании полностью автономных систем, несмотря на нерешённые вопросы безопасности.
Проблема неограниченных автономных систем
Предупреждение Виталика затрагивает важнейшую проблему современного развития ИИ. Он отмечает, что организации, стремящиеся к созданию полностью автономных Продвинутых Супер Интеллектов (ASI), становятся всё более распространёнными, однако гонка за полную независимость вызывает фундаментальные вопросы о контроле и безопасности. Его позиция особенно ярка, потому что он придерживается её независимо от теоретических дебатов о безопасности ИИ — предполагая, что даже если все вопросы безопасности каким-то образом будут решены, стремление к полностью автономным системам остаётся проблематичным с стратегической и философской точек зрения.
Основная озабоченность связана с рисками систем, способных принимать решения автономно в течение длительного времени без человеческого контроля. Виталик явно призывает ограничить работу ИИ-систем без человеческого вмешательства более чем на одну минуту, устанавливая жёсткую границу между полезным расширением возможностей и потенциально опасной автономией.
Расширенный ИИ: недоразвитая альтернатива
В ярком контрасте с распространением проектов автономного ASI Виталик отмечает, что расширенный ИИ — технология, специально предназначенная для «создания механизма для человеческого мозга», — остаётся значительно недофинансированной и недоразвитой. Такой тип ИИ выступает в роли расширения человеческих возможностей, улучшая когнитивные функции и принятие решений, а не заменяя человеческий разум. Несмотря на его потенциал, эта концепция привлекла гораздо меньше инвестиций и внимания, чем автономные системы.
Разрыв между этими двумя путями развития указывает на рыночный провал в области инноваций ИИ. Компании и инвесторы в основном игнорируют огромный потенциал создания систем ИИ, которые действительно усиливают человеческую деятельность, а не уменьшают её.
Прозрачность через открытое развитие
Для продвижения ответственного развития ИИ Виталик настоятельно выступает за максимальную прозрачность в проектах расширенного ИИ с помощью практик открытого исходного кода. Обеспечивая публичный доступ к коду и моделям, он позволяет широкой исследовательской сообществу проверять меры безопасности, выявлять уязвимости и вносить улучшения. Такой совместный подход резко контрастирует с закрытыми средами разработки, характерными для автономных систем ASI.
Подчеркивая принципы открытого исходного кода, Виталик подчеркивает важность общественного контроля в обеспечении того, чтобы развитие ИИ служило интересам человечества. Этот призыв к прозрачности отражает фундаментальную веру в то, что трансформирующие технологии требуют публичной ответственности и коллективного управления.