Байден повторил, что продукты ИИ должны быть безопасными, прежде чем они будут выпущены, заявив, что необходимо учитывать экономические риски ИИ.

Когда в прошлом месяце Белый дом созвал встречу с руководителями Google, Microsoft и OpenAI, Байден упомянул, что надеется, что эти технологические компании должны убедиться в безопасности своих продуктов, прежде чем предоставлять их населению. Байден также снова призвал Конгресс во вторник принять закон о конфиденциальности.

Источник изображения: сгенерировано Unbounded AI

Президент США Джо Байден подтвердил необходимость защиты продуктов искусственного интеллекта (ИИ) перед их выпуском для широкой публики, заявив, что необходимо устранить риски, которые ИИ представляет для национальной безопасности и экономики.

Посещая мероприятие в Сан-Франциско во вторник по местному времени, Байден сказал: «Моя администрация привержена защите прав и безопасности американского народа, защищая конфиденциальность, устраняя предвзятость и дезинформацию и обеспечивая безопасность систем ИИ до их выпуска. . из."

В начале апреля этого года Байден заявил на встрече с консультантами в области науки и технологий, что компании, занимающиеся искусственным интеллектом, должны обеспечить безопасность своих продуктов, когда они будут выпущены для широкой публики. В то время он сказал, что ИИ может помочь решить некоторые очень сложные проблемы, такие как болезни и изменение климата, но он также должен устранять основные риски для нашего общества, экономики и национальной безопасности.

В сообщениях с Уолл-стрит упоминается, что более месяца назад Белый дом созвал встречу с руководителями материнской компании Google Alphabet, Microsoft и OpenAI для обсуждения вопросов безопасности ИИ. Байден снова упомянул в письме-приглашении в то время, что он надеется, что эти технологические компании «должны убедиться, что продукты безопасны, прежде чем предоставлять их населению». и укрывают Биас, распространяя слухи и дезинформацию.

Во вторник Байден заявил, что обратится за советом к эксперту по ИИ, и повторил свой призыв к Конгрессу принять закон о конфиденциальности.

Байден сказал, что социальные сети показали, как мощные технологии могут причинить вред без надлежащей защиты. Поэтому он сказал в обращении к Конгрессу, что Конгресс должен принять двухпартийный единогласный закон о конфиденциальности, который строго ограничивает сбор личных данных, запрещает таргетированную рекламу для детей и требует от компаний ставить здоровье и безопасность на первое место.

Байден также сообщил, что вице-президент США Харрис в следующем месяце созовет группы по защите гражданских прав и прав потребителей для обсуждения вопросов в области искусственного интеллекта.

Глава аппарата Белого дома Джефф Зиентс заявил более недели назад, что некоторые ведущие компании в области ИИ прилагают усилия для сотрудничества с администрацией Байдена и вскоре объявят о ряде обязательств в отношении конфиденциальности и безопасности. По сообщениям СМИ, представитель Белого дома сообщил, что Зиентс наблюдает за формулировкой новых инициатив в отношении ИИ в правительстве в ближайшие несколько недель.

Компании, в том числе Microsoft и Google, обязались участвовать в первых независимых публичных оценках своих систем. Администрация Байдена также стремится расширить сферу регулирования.

Министерство торговли США заявило в апреле, что рассматривает новые правила, которые могут потребовать, чтобы модели ИИ проходили процесс сертификации, прежде чем они будут выпущены публично. Лина Хан, председатель Федеральной торговой комиссии США (FTC), пообещала в мае, что FTC будет отслеживать инструменты ИИ на предмет недобросовестного или вводящего в заблуждение использования и сохранять бдительность в отношении такого использования.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить