Уряд Сінгапуру: наразі не має наміру регулювати штучний інтелект і разом із підприємствами розробляє інструменти тестування штучного інтелекту

Джерело: The Paper

Репортер Шао Вень

«Зараз ми не думаємо про регулювання штучного інтелекту. На цьому етапі зрозуміло, що ми хочемо вчитися в промисловості. Розуміючи, як використовується штучний інтелект, перш ніж вирішити, чи потрібно нам робити більше з точки зору регулювання».

Уряд Сінгапуру закликав компанії до співпраці в розробці «першого в світі інструментарію тестування штучного інтелекту» AI Verify, а Google, Microsoft і IBM приєдналися до фонду AI Verify Foundation.

Джерело зображення: створено Unbounded AI‌

Оскільки багато країн вивчають питання регулювання генеративного штучного інтелекту (ШІ), уряд Сінгапуру заявив, що не поспішає з формулюванням правил щодо штучного інтелекту.

19 червня за місцевим часом Лі Ван Сі, директор із довіреного штучного інтелекту та даних Управління розвитку інформації та комунікаційних ЗМІ (IMDA) Сінгапуру, сказав в інтерв’ю CNBC: «Наразі ми не розглядаємо регулювання штучного інтелекту. "

Однак уряд Сінгапуру також працює над сприянням відповідальному використанню штучного інтелекту, закликаючи компанії до співпраці над AI Verify, «першим у світі інструментарієм тестування штучного інтелекту». AI Verify, який включає структуру тестування управління штучним інтелектом і програмний інструментарій, який дозволяє користувачам технічно тестувати моделі штучного інтелекту та документувати перевірки процесу, був запущений як пілотний проект у 2022 році, у якому вже взяли участь технологічні гіганти IBM і Singapore Airlines.

Влада та бізнес налагоджують співпрацю

Занепокоєння щодо ризиків генеративного ШІ зросло в останні місяці, оскільки чат-бот ChatGPT став модним. «На цьому етапі зрозуміло, що ми хочемо вчитися в галузі. Нам потрібно зрозуміти, як використовується штучний інтелект, перш ніж вирішити, чи потрібно нам робити більше з боку регулювання», — сказав Лі Ваньші. Представлено пізніше.

"Ми усвідомлюємо, що як маленька країна, як уряд, можливо, ми не зможемо вирішити всі проблеми. Тому дуже важливо, щоб ми тісно співпрацювали з промисловістю, дослідницькими установами та іншими урядами", - сказав Лі.

Повідомляється, що Google, Microsoft і IBM приєдналися до AI Verify Foundation, глобальної спільноти з відкритим кодом, призначеної для обговорення стандартів і найкращих практик штучного інтелекту та співпраці в управлінні штучним інтелектом. "Microsoft вітає уряд Сінгапуру за його лідерство в цій сфері, – сказав президент Microsoft Бред Сміт. – Створюючи практичні ресурси, такі як інфраструктура та набори інструментів для тестування управління ШІ, Сінгапур допомагає організаціям налагодити надійне управління та процеси тестування".

"Індустрія набагато більш практична, коли справа доходить до штучного інтелекту. Іноді, коли мова заходить про регулювання, ви можете помітити розрив між тим, що політики думають про штучний інтелект, і тим, що насправді роблять підприємства", - сказала консультант Національного консультативного комітету з питань штучного інтелекту США Ханія Махмудіан. CNBC: «Тож із таким типом співпраці, зокрема створенням таких типів наборів інструментів, за допомогою індустрії. Це вигідно для обох сторін».

На саміті Asia Tech x Singapore у червні міністр зв’язку та інформації Сінгапуру Жозефіна Тео заявила, що хоча уряд визнає потенційні ризики штучного інтелекту, він не може заохочувати етичне використання штучного інтелекту сам по собі, «з професійними знаннями. суттєво співпрацювати з нами в досягненні цих цілей».

Хоча «існують дуже реальні побоювання та занепокоєння щодо розвитку штучного інтелекту», за її словами, штучний інтелект потрібно активно спрямовувати на корисне використання та уникати шкідливих. «Це в основі того, як Сінгапур бачить ШІ».

Тим часом деякі країни вжили заходів щодо регулювання ШІ. 14 червня Європейський парламент прийняв «Закон про штучний інтелект» (Закон про штучний інтелект), який накладає більші обмеження на інструменти генеративного штучного інтелекту, такі як ChatGPT, і розробники повинні будуть подавати системи на перевірку перед випуском. Минулого тижня президент Франції Еммануель Макрон також заявив, що потрібне регулювання ШІ. Сполучене Королівство створює робочу групу моделі Фонду штучного інтелекту для вивчення ризиків безпеці, пов’язаних зі штучним інтелектом, і готується до Глобального саміту безпеки штучного інтелекту, щоб зробити його географічним центром глобального регулювання безпеки ШІ.

Батько ChatGPT виступає в Сінгапурі

Стелла Крамер, керівник відділу Азіатсько-Тихоокеанського регіону технологічної групи міжнародної юридичної фірми Clifford Chance, сказала, що Сінгапур може діяти як «розпорядник» у регіоні, дозволяючи інноваціям відбуватися в безпечному середовищі. Clifford Chance співпрацює з регулюючими органами над розробкою серії ринкових інструкцій і рамок.

"Ми бачили послідовний підхід до відкритості та співпраці. Сінгапур розглядається як безпечна юрисдикція для тестування та розгортання ваших технологій у контрольованому середовищі за підтримки регуляторів", - сказав Крамер.

Ця ідея, схоже, збігається з ідеєю генерального директора OpenAI Сема Альтмана (Sam Altman). 13 червня Альтман взяв участь у глобальному турі OpenAI «Fireside Dialogue» у Сінгапурському університеті менеджменту (Singapore Management University), де він детально розповів про те, як управляти ризиками ШІ. Він вважає, що основна увага приділяється тому, щоб громадськість дізналася про нові розробки та відчула їх, що забезпечить виявлення та усунення будь-якої потенційної шкоди до того, як її вплив стане масовим.

«Це ефективніше, ніж розробляти й тестувати технологію за зачиненими дверима та оприлюднювати її для громадськості, припускаючи, що всі можливі ризики виявлено та попереджено», — сказав Альтман. Дізнайтеся все. Незалежно від того, скільки продукт тестується, щоб мінімізувати шкоду, хтось це знайти спосіб використати його так, як його творці ніколи не вважали можливим». Це стосується будь-якої нової технології, зазначає він.

«Ми вважаємо, що ітераційне розгортання є єдиним способом зробити це.» Альтман додав, що поступове впровадження нових версій також дозволить суспільству адаптуватися до розвитку штучного інтелекту, одночасно генеруючи відгуки про те, як його можна покращити.

Зараз у Сінгапурі запущено кілька пілотних проектів, таких як FinTech Regulatory Sandbox або HealthTech Sandbox, щоб гравці галузі могли тестувати свої продукти в реальному середовищі перед тим, як вийти на біржу. «Ці структуровані інфраструктури та набори інструментів для тестування допоможуть керувати політикою управління штучним інтелектом, щоб дозволити підприємствам безпечно та надійно розробляти штучний інтелект», — сказав Крамер.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити