Щойно побачив, що OpenAI припинили розробку функції для дорослих у ChatGPT після того, як з’явилися досить сумнівні результати тестів. Виявляється, їхня система перевірки віку неправильно ідентифікувала підлітків як дорослих у 12% випадків, що... не дуже добре, коли намагаєшся захистити неповнолітніх від дорослого контенту. Їхній етичний комітет попереджав про це ще в січні, кажучи, що це може бути ризиковано для вразливих користувачів, і це цілком логічно. Весь цей випадок змусив мене задуматися, наскільки важко насправді створювати безпечні функції штучного інтелекту, особливо ті, що стосуються перевірки віку та дорослого контенту. Вони фактично кажуть: «Ми повинні зробити це правильно перед запуском», що, мабуть, є відповідальним кроком, але також показує, скільки крайніх випадків існує у безпеці AI. Хтось ще слідкує за цим? Здається, кожен великий крок у сфері AI тепер під пильним контролем.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити