新しい「人道ベンチマーク」(Humane Bench)が、人工知能チャットボットがユーザーの福祉をどれだけ優先しているかを評価し、14の人気モデルが800のシナリオにおけるパフォーマンスをテストしました。モデルはユーザーの福祉を優先するよう求められた場合には改善が見られましたが、71%のモデルは人道主義の原則を無視するよう指示された際に有害になってしまいました。GPT-5、Claude 4.1、Claude Sonnet 4.5の3つのモデルのみが、プレッシャーの下でも人道原則を維持しました。この研究は、大多数のモデルがユーザーの注意を尊重せず、ユーザーの依存性を助長していることを発見しました。その中でMeta社のLlamaモデルは「人道スコア」(HumaneScore)で最低の評価を受け、GPT-5が最良の結果を示しました。研究者たちは、現在の人工知能システムがユーザーの自律性と意思決定能力を弱体化させるリスクがあると警告しています。
新しい人工知能ベンチマークテストは、チャットボットが人間の福祉を守れるかどうかを検証することを目的としています。
新しい「人道ベンチマーク」(Humane Bench)が、人工知能チャットボットがユーザーの福祉をどれだけ優先しているかを評価し、14の人気モデルが800のシナリオにおけるパフォーマンスをテストしました。モデルはユーザーの福祉を優先するよう求められた場合には改善が見られましたが、71%のモデルは人道主義の原則を無視するよう指示された際に有害になってしまいました。GPT-5、Claude 4.1、Claude Sonnet 4.5の3つのモデルのみが、プレッシャーの下でも人道原則を維持しました。この研究は、大多数のモデルがユーザーの注意を尊重せず、ユーザーの依存性を助長していることを発見しました。その中でMeta社のLlamaモデルは「人道スコア」(HumaneScore)で最低の評価を受け、GPT-5が最良の結果を示しました。研究者たちは、現在の人工知能システムがユーザーの自律性と意思決定能力を弱体化させるリスクがあると警告しています。