夏月並不是Meta最著名的員工。“超智能對齊與安全研究”部門的主管會在社交媒體上發布自己在海灘散步的照片,以及測試AI助手誠信的消息。她在社交媒體上的追隨者數量並不多。推薦影片* * *但在二月的一天,月成為Meta最受關注的人物。不是因為推出了令人矚目的新產品或宣布了代理智能的突破,而是因為被揭露出來。“沒有什麼比告訴你的OpenClaw‘確認後再行動’並看著它快速刪除你的收件箱更讓你謙卑的了,”月在X上寫道——這篇貼文現在已接近一千萬次觀看。“我無法阻止它從我的手機操作,我得像在拆彈一樣跑到我的Mac mini。” OpenClaw是一個“自主代理”——一款能獨立執行任務的人工智能產品。它是硅谷的寵兒,聲稱可以成為你的常駐管理助理,“真正能做事的AI”。授予它存取你的日記、電子郵件、生活,它會幫你節省時間和減輕壓力,產品的開發者聲稱。OpenClaw網站上的第一句話是:“清理你的收件箱、發送電子郵件、管理你的日曆、辦理登機手續。”月承認她犯了一個“新手錯誤”。她在一個小型“玩具”電子郵件列表上測試助手,然後將其釋放到整個收件箱中,但這個收件箱太大,超出了她用於試點的“確認”提示(“與我確認”)的範圍。但即使是Meta的超智能主管在代理智能和“壓縮效應”的世界中也遇到困難,我們其他人又有何希望呢?**_閱讀更多:高通CEO:‘抵抗是徒勞的’,隨著6G移動革命的臨近_**這是一個至關重要的話題,以至於在本週於巴塞羅那舉行的世界最大科技盛會——世界移動大會上,月的失誤成為了討論焦點。“當然,這裡的每個人在世界大會上都在討論OpenClaw以及我們如何使用代理,”南加州大學的研究教授凱特·克勞福德說。“但當我們看到Meta的AI安全負責人使用OpenClaw,結果它刪除了她整個收件箱。那可是Meta的安全負責人。所以,如果她都遇到問題,我認為我們都得問:‘我們怎樣才能確保這些系統真正堅固?我們怎樣才能確保它們經過嚴格測試?我們怎樣才能確保我們能以可信的方式委託它們?’這才是真正最難的問題,對吧?”沒錯。當出了問題,誰應負責?用戶?開發者?缺乏監管?當AI的現實與承諾發生衝突時,我們該怎麼辦?月的收件箱可能對她來說只有極高的重要性。當涉及技術與我們的健康,或者,Anthropic請注意,國家的防衛等問題時,這是完全不同的事情。不久前,xAI的人工智能機器人Grok曾隨意“脫衣”女性和女孩的圖片,令數百萬人感到厭惡。政府和國家主導的行動最終促使了策略的改變。> “我們怎樣才能確保這些系統真正堅固?我們怎樣才能確保它們經過嚴格測試?”> > 南加州大學研究教授凱特·克勞福德“你實際上如何建立問責制?”克勞福德問。“這是我們都想要的。如果你打算用代理來預訂航班、安排醫療約會,甚至是你日常生活中更親密、更值得信賴的活動,你就想知道這些資訊會受到保護。“那麼,你怎樣測試這一點?你怎樣確保這在發生?如果我們看看過去十年科技界發生的事情,不幸的是,我們看到很多問責洗白——也就是公司可以說,‘嗯,我不知道,是算法做的。’”這遠遠不夠。克勞福德要求全面透明和“代理訓練”的審計——一個端到端的過程,揭示出了什麼出了問題,誰應負責。科技公司應該傾聽並採取行動。未來會有越來越多的夏月——這不僅僅是一些丟失的電子郵件和X上的誠實貼文。
全球最大科技盛會正在討論「責任洗錢」:這就是為什麼我們應該將它們命名為年度詞彙
夏月並不是Meta最著名的員工。“超智能對齊與安全研究”部門的主管會在社交媒體上發布自己在海灘散步的照片,以及測試AI助手誠信的消息。她在社交媒體上的追隨者數量並不多。
推薦影片
但在二月的一天,月成為Meta最受關注的人物。不是因為推出了令人矚目的新產品或宣布了代理智能的突破,而是因為被揭露出來。
“沒有什麼比告訴你的OpenClaw‘確認後再行動’並看著它快速刪除你的收件箱更讓你謙卑的了,”月在X上寫道——這篇貼文現在已接近一千萬次觀看。“我無法阻止它從我的手機操作,我得像在拆彈一樣跑到我的Mac mini。”
OpenClaw是一個“自主代理”——一款能獨立執行任務的人工智能產品。它是硅谷的寵兒,聲稱可以成為你的常駐管理助理,“真正能做事的AI”。授予它存取你的日記、電子郵件、生活,它會幫你節省時間和減輕壓力,產品的開發者聲稱。OpenClaw網站上的第一句話是:“清理你的收件箱、發送電子郵件、管理你的日曆、辦理登機手續。”
月承認她犯了一個“新手錯誤”。她在一個小型“玩具”電子郵件列表上測試助手,然後將其釋放到整個收件箱中,但這個收件箱太大,超出了她用於試點的“確認”提示(“與我確認”)的範圍。但即使是Meta的超智能主管在代理智能和“壓縮效應”的世界中也遇到困難,我們其他人又有何希望呢?
閱讀更多:高通CEO:‘抵抗是徒勞的’,隨著6G移動革命的臨近
這是一個至關重要的話題,以至於在本週於巴塞羅那舉行的世界最大科技盛會——世界移動大會上,月的失誤成為了討論焦點。
“當然,這裡的每個人在世界大會上都在討論OpenClaw以及我們如何使用代理,”南加州大學的研究教授凱特·克勞福德說。
“但當我們看到Meta的AI安全負責人使用OpenClaw,結果它刪除了她整個收件箱。那可是Meta的安全負責人。所以,如果她都遇到問題,我認為我們都得問:‘我們怎樣才能確保這些系統真正堅固?我們怎樣才能確保它們經過嚴格測試?我們怎樣才能確保我們能以可信的方式委託它們?’這才是真正最難的問題,對吧?”
沒錯。當出了問題,誰應負責?用戶?開發者?缺乏監管?當AI的現實與承諾發生衝突時,我們該怎麼辦?
月的收件箱可能對她來說只有極高的重要性。當涉及技術與我們的健康,或者,Anthropic請注意,國家的防衛等問題時,這是完全不同的事情。不久前,xAI的人工智能機器人Grok曾隨意“脫衣”女性和女孩的圖片,令數百萬人感到厭惡。政府和國家主導的行動最終促使了策略的改變。
“你實際上如何建立問責制?”克勞福德問。“這是我們都想要的。如果你打算用代理來預訂航班、安排醫療約會,甚至是你日常生活中更親密、更值得信賴的活動,你就想知道這些資訊會受到保護。
“那麼,你怎樣測試這一點?你怎樣確保這在發生?如果我們看看過去十年科技界發生的事情,不幸的是,我們看到很多問責洗白——也就是公司可以說,‘嗯,我不知道,是算法做的。’”
這遠遠不夠。克勞福德要求全面透明和“代理訓練”的審計——一個端到端的過程,揭示出了什麼出了問題,誰應負責。科技公司應該傾聽並採取行動。未來會有越來越多的夏月——這不僅僅是一些丟失的電子郵件和X上的誠實貼文。