Закодировать мораль в системы ИИ? Это игра с огнем.
Существует реальный риск, когда вы пытаетесь навязать явные моральные правила искусственному интеллекту. Опасность не является теоретической — она связана с тем, что происходит, когда запрограммированные этики сталкиваются со сложными реальными сценариями.
Подумайте: чья мораль закодирована? То, что работает в одном контексте, может катастрофически провалиться в другом. Жесткие моральные рамки могут привести к тому, что ИИ будет принимать решения, которые кажутся "этичными" по правилам, но на практике причиняют реальный вред.
Вопрос не в том, должен ли ИИ быть этичным. Вопрос в том, можем ли мы вообще определить универсальный моральный кодекс, который не даст сбоя, когда кремний встретится с реальностью.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Закодировать мораль в системы ИИ? Это игра с огнем.
Существует реальный риск, когда вы пытаетесь навязать явные моральные правила искусственному интеллекту. Опасность не является теоретической — она связана с тем, что происходит, когда запрограммированные этики сталкиваются со сложными реальными сценариями.
Подумайте: чья мораль закодирована? То, что работает в одном контексте, может катастрофически провалиться в другом. Жесткие моральные рамки могут привести к тому, что ИИ будет принимать решения, которые кажутся "этичными" по правилам, но на практике причиняют реальный вред.
Вопрос не в том, должен ли ИИ быть этичным. Вопрос в том, можем ли мы вообще определить универсальный моральный кодекс, который не даст сбоя, когда кремний встретится с реальностью.