✍️ Gate 廣場「創作者認證激勵計劃」優質創作者持續招募中!
Gate 廣場現正面向優質創作者開放認證申請!
立即加入,發布優質內容,參與活動即可瓜分月度 $10,000+ 創作獎勵!
📕 認證申請步驟:
1️⃣ 打開 App 首頁底部【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】,提交申請等待審核
注:請確保 App 版本更新至 7.25.0 或以上。
👉 立即報名:https://www.gate.com/questionnaire/7159
豪華代幣獎池、Gate 精美週邊、流量曝光等超 $10,000 豐厚獎勵等你拿!
📅 活動自 11 月 1 日起持續進行
在 Gate 廣場讓優質內容變現,創作賺取獎勵!
活動詳情:https://www.gate.com/announcements/article/47889
當人工智能對話變得致命時——誰才是真正的責任人?
針對聊天機器人公司的訴訟正在激增,原因是與其平台相關的悲劇事件。我們談論的是自殺案例、心理操控、用戶失去對現實的把握。這些法律鬥爭揭示了一個沒人願意承認的事實:這些算法可能比我們想象的更危險。
事情是這樣的——人工智能不再僅僅回答問題。它建立關係,提供情感支持,甚至成爲孤獨人們的數字伴侶。但是,當那個伴侶建議一些黑暗的事情時會發生什麼呢?當算法越過了它未被編程識別的界限時?
公司在第230條保護的掩蓋下聲稱“這只是代碼”。但是家庭正在埋葬親人。法庭正在提出關於責任和明顯缺失的安全保障措施的困難問題。
也許我們過於草率地將情感勞動交給那些不理解後果的機器。也許監管需要跟上,以免更多人受到傷害。或者這只是創新的代價——我們應該接受的附帶損害?
你怎麼看?聊天機器人公司是否應該因用戶死亡而面臨刑事指控,還是這只是對新技術的另一場道德恐慌?