Правительство Сингапура: в настоящее время не намерено регулировать ИИ и вместе с предприятиями разрабатывает инструменты тестирования ИИ.

Источник: Бумага

Репортер Шао Вэнь

«В настоящее время мы не думаем о регулировании ИИ. На данном этапе ясно, что мы хотим учиться у отрасли. Понимание того, как используется ИИ, прежде чем мы решим, нужно ли нам делать больше с точки зрения регулирования».

Правительство Сингапура призвало компании сотрудничать в разработке «первого в мире инструментария для тестирования ИИ» AI Verify, а Google, Microsoft и IBM присоединились к AI Verify Foundation.

Источник изображения: сгенерировано Unbounded AI‌

Поскольку многие страны изучают регулирование генеративного искусственного интеллекта (ИИ), правительство Сингапура заявило, что не спешит формулировать правила искусственного интеллекта.

19 июня по местному времени Ли Ван Си, директор по доверенному искусственному интеллекту и данным Управления по развитию информационных и коммуникационных средств массовой информации (IMDA) Сингапура, заявил в интервью CNBC: «В настоящее время мы не рассматриваем регулирование искусственного интеллекта. "

Тем не менее, правительство Сингапура также работает над продвижением ответственного использования искусственного интеллекта, призывая компании к сотрудничеству над AI Verify, «первым в мире набором инструментов для тестирования ИИ». AI Verify, который включает в себя структуру тестирования управления ИИ и набор программных инструментов, который позволяет пользователям технически тестировать модели ИИ и документировать проверки процессов, был запущен в качестве пилотного проекта в 2022 году, в котором уже участвуют технологические гиганты IBM и Singapore Airlines.

Правительство и бизнес налаживают сотрудничество

Обеспокоенность по поводу рисков, связанных с генеративным ИИ, возросла в последние месяцы, поскольку чат-бот ChatGPT стал очень популярным. «На данном этапе ясно, что мы хотим учиться у отрасли. Нам нужно понять, как используется ИИ, прежде чем мы решим, нужно ли нам делать больше со стороны регулирования», — сказал Ли Ваньши.

"Мы понимаем, что как небольшая страна, как правительство, мы, возможно, не сможем решить все проблемы. Поэтому очень важно, чтобы мы тесно сотрудничали с промышленностью, исследовательскими институтами и другими правительствами", - сказал Ли.

Сообщается, что Google, Microsoft и IBM присоединились к AI Verify Foundation, глобальному сообществу с открытым исходным кодом, предназначенному для обсуждения стандартов и передового опыта ИИ и сотрудничества в области управления ИИ. «Microsoft аплодирует правительству Сингапура за его лидерство в этой области, — заявил в пресс-релизе президент Microsoft Брэд Смит.

"Отрасль гораздо более практична, когда дело доходит до ИИ. Иногда, когда дело доходит до правил, вы можете увидеть разрыв между тем, что политики думают об ИИ, и тем, что на самом деле делает бизнес", - сказала консультант Национального консультативного комитета США по ИИ Хания Махмудян. CNBC: «Итак, с таким типом сотрудничества, в частности, с созданием этих типов наборов инструментов с участием представителей отрасли, это выгодно для обеих сторон».

На саммите Asia Tech x Singapore в июне министр связи и информации Сингапура Жозефина Тео заявила, что, хотя правительство признает потенциальные риски ИИ, оно не может продвигать этичное использование ИИ самостоятельно, «с профессиональными знаниями частный сектор может конструктивно участвовать с нами в достижении этих целей».

Хотя «существуют очень реальные опасения и опасения по поводу развития ИИ», сказала она, ИИ необходимо активно направлять на полезное использование, а не на плохое. «Это лежит в основе того, как Сингапур видит ИИ».

Тем временем некоторые страны предприняли шаги по регулированию ИИ. 14 июня Европейский парламент принял «Закон об искусственном интеллекте» (Закон об ИИ), налагающий более строгие ограничения на инструменты генеративного искусственного интеллекта, такие как ChatGPT, и разработчики должны будут представлять системы на проверку перед выпуском. Президент Франции Эммануэль Макрон также заявил на прошлой неделе, что регулирование ИИ необходимо. Соединенное Королевство создает целевую группу по созданию модели фонда ИИ для изучения рисков безопасности, связанных с искусственным интеллектом, и готовится к Глобальному саммиту по безопасности ИИ с целью сделать его географическим центром глобального регулирования безопасности ИИ.

Отец ChatGPT выступает в Сингапуре

Стелла Крамер, глава отдела технологий международной юридической фирмы Clifford Chance по Азиатско-Тихоокеанскому региону, заявила, что Сингапур может выступать в качестве «управляющего» в регионе, позволяя инновациям внедряться в безопасной среде. Clifford Chance работает с регулирующими органами над разработкой ряда рыночных руководств и рамок.

"То, что мы увидели, — это последовательный подход к открытости и сотрудничеству. Сингапур считается безопасной юрисдикцией для тестирования и развертывания вашей технологии в контролируемой среде при поддержке регулирующих органов", — сказал Крамер.

Эта идея, кажется, совпадает с идеей генерального директора OpenAI Сэма Альтмана (Sam Altman). 13 июня Альтман посетил глобальное турне OpenAI «Диалог у камина» в Сингапурском университете управления (Singapore Management University), где подробно рассказал о том, как управлять рисками ИИ. Он считает, что основное внимание уделяется информированию общественности о новых разработках и ознакомлению с ними, что обеспечит обнаружение и устранение любого потенциального вреда до того, как его последствия станут широко распространенными.

"Это эффективнее, чем разрабатывать и тестировать технологию за закрытыми дверями и публиковать ее, предполагая, что все возможные риски были выявлены и предотвращены", - сказал Альтман. Узнай все. Независимо от того, насколько продукт тестируется для минимизации вреда, кто-то найти способ использовать его так, как его создатели никогда не считали возможным». Это верно для любой новой технологии, отмечает он.

«Мы считаем, что итеративное развертывание — единственный способ сделать это».

Сингапур в настоящее время запустил несколько пилотных проектов, таких как «Регуляторная песочница FinTech» или «Песочница HealthTech Sandbox», чтобы игроки отрасли могли протестировать свои продукты в реальной среде, прежде чем публиковать их. «Эти структурированные платформы и наборы инструментов для тестирования помогут определить политику управления ИИ, чтобы предприятия могли безопасно и надежно разрабатывать ИИ», — сказал Крамер.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить