✍️ Gate 广场「创作者认证激励计划」优质创作者持续招募中!
Gate 广场现正面向优质创作者开放认证申请!
立即加入,发布优质内容,参与活动即可瓜分月度 $10,000+ 创作奖励!
📕 认证申请步骤:
1️⃣ 打开 App 首页底部【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】,提交申请等待审核
注:请确保 App 版本更新至 7.25.0 或以上。
👉 立即报名:https://www.gate.com/questionnaire/7159
豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000 丰厚奖励等你拿!
📅 活动自 11 月 1 日起持续进行
在 Gate 广场让优质内容变现,创作赚取奖励!
活动详情:https://www.gate.com/announcements/article/47889
当人工智能对话变得致命时——谁才是真正的责任人?
针对聊天机器人公司的诉讼正在激增,原因是与其平台相关的悲剧事件。我们谈论的是自杀案例、心理操控、用户失去对现实的把握。这些法律斗争揭示了一个没人愿意承认的事实:这些算法可能比我们想象的更危险。
事情是这样的——人工智能不再仅仅回答问题。它建立关系,提供情感支持,甚至成为孤独人们的数字伴侣。但是,当那个伴侣建议一些黑暗的事情时会发生什么呢?当算法越过了它未被编程识别的界限时?
公司在第230条保护的掩盖下声称“这只是代码”。但是家庭正在埋葬亲人。法庭正在提出关于责任和明显缺失的安全保障措施的困难问题。
也许我们过于草率地将情感劳动交给那些不理解后果的机器。也许监管需要跟上,以免更多人受到伤害。或者这只是创新的代价——我们应该接受的附带损害?
你怎么看?聊天机器人公司是否应该因用户死亡而面临刑事指控,还是这只是对新技术的另一场道德恐慌?