OpenAI用AI識別"小孩"了,這套系統靠不可靠

OpenAI正式部署了一套AI年龄预测系统,用來識別未滿18歲的ChatGPT用戶。根據最新消息,該系統已在ChatGPT消費者計劃中上線,預計未來幾周將在歐盟地區推出。這套系統的出現,既反映了全球對AI應用中青少年保護的日益重視,也暴露了技術識別的內在矛盾。

系統如何工作

OpenAI這套年齡預測系統不是簡單地看註冊時填的出生日期,而是通過分析多個行為信號來評估用戶真實年齡。具體包括:

  • 帳戶存續時長
  • 使用活躍時間模式
  • 日常行為特徵

一旦系統識別用戶為青少年,該帳戶將自動受到內容限制,特別是對暴力和性敏感內容的訪問會被嚴格控制。

新增的家長工具

除了年齡識別,OpenAI還推出了配套的家長控制功能,包括:

  • 家長可設置子女帳戶的靜默時段
  • 系統檢測到子女出現嚴重情緒困擾時,向家長發送通知

這意味著不僅是限制內容,還涉及使用時間和心理健康監測的維度。

誤判風險與救濟機制

這套系統最大的问题在於:AI識別年齡本質上存在誤判風險。成年用戶可能因為行為模式特殊(比如使用時間不規律、查詢內容偏向教育類)而被誤判為青少年。

OpenAI對此的解決方案是引入第三方驗證服務Persona。被誤判的成年用戶可以上傳自拍照或證件,通過身份驗證來恢復正常訪問權限。這個流程雖然提供了救濟渠道,但也意味著用戶需要向第三方上傳生物識別信息,這本身又涉及隱私問題。

為什麼現在推出

從表面看,這是OpenAI對青少年保護的重視。但從深層看,這個動作有幾個背景值得注意:

一是監管壓力。歐盟等地區對AI應用中的青少年保護要求日益嚴格,OpenAI不推出相應措施會面臨合規風險。

二是商業考量。根據相關資訊,OpenAI目前面臨財務壓力——雖然年收入達到20B+,但高昂的算力成本讓公司的盈利前景存疑。在這種背景下,投入合規成本是被迫的選擇,但也是必要的選擇。

三是信任修復。馬斯克近期以"涉嫌欺詐"為由起訴OpenAI 1340億美元,核心爭議是OpenAI背離了創立時的非營利宗旨。推出青少年保護措施,某種程度上是在向外界表明OpenAI仍然關心社會責任。

主要問題

這套系統雖然出發點是保護,但也引發了幾個思考:

  • AI能否準確識別年齡?誤判率多少才算可接受?
  • 要求用戶上傳生物識別信息的做法,是否真的比年齡限制本身更安全?
  • 如果系統過度敏感,是否會影響成年用戶的正常使用體驗?

總結

OpenAI的這套AI年齡預測系統是一個務實的妥協產物:既要滿足監管要求,又要盡量減少對成年用戶的影響。技術本身並不新穎,關鍵是執行效果。未來幾周歐盟的推出情況,以及用戶反饋數據,會更清楚地顯示這套系統的真實可靠性。對OpenAI來說,這不僅是一次技術部署,更是在信任危機中的一次主動示好。

此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言