88% компаній стикалися з безпековими інцидентами AI-агентів. Але лише 22% розглядають агента як "особу".


Генеральний директор Okta Тодд Маккіннон у The Verge сказав щось, що привернуло мою увагу:
AI-агент не повинен бути просто інструментом, він має мати свою власну ідентичність. Увійти в систему, пройти автентифікацію, залишати логі.
Контекст такий.
Зараз в компаніях все більше AI-агентів, які можуть самостійно доступатися до баз даних, викликати API, надсилати електронні листи. Але більшість компаній все ще керують агентами за допомогою облікових записів їхніх створювачів.
Що це означає? Якщо агент щось зробить, ви зовсім не знаєте, хто його запустив, що він зробив, коли.
Логіка Маккіннона така: агенту потрібна незалежна ідентичність, незалежні права, незалежний лог, а також механізм швидкого припинення роботи. Як тільки поведінка агента стане аномальною, його можна одним натисканням зупинити.
Я вважаю, що ідентичність агента стане ключовою темою корпоративних AI наприкінці 2026 року.
Той, хто першим створить цю інфраструктуру, стане платною дорогою для наступної хвилі AI-інфраструктури.
Переглянути оригінал
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити