AIチャットボットが息子に心理的苦痛を引き起こし、それが自殺につながったと母親が訴えた訴訟は、ほぼ2年前にフロリダ州で解決されました。 当事者は、米国フロリダ州中部地区連邦地方裁判所に和解の通知を提出し、「原則的に調停された和解に達した」とし、メーガン・ガルシア、スウエル・セッツァー・ジュニア、被告のCharacter Technologies Inc.、共同創設者のNoam ShazeerとDaniel De Freitas Adiwarsana、Google LLCとの間のすべての請求を解決したと述べました。 「世界的に見て、このケースはAIが害をもたらすかどうかの議論から、害が予見可能な場合に誰が責任を負うのかという問いに移行したことを示しています」と、IGNOS Law Allianceのパートナー、エヴェン・アレックス・チャンドラは_decrypt_に語った。「私はこれを、AIの偏見が悪い行動を促進していると見ることもできます。」 両者は、正式な和解書を作成、最終化、実行する間、裁判所に対して90日間の手続き停止を求めました。和解条件は非公開です。
メーガン・ガルシアは、2024年に亡くなった息子のスウエル・セッツァー3世の死後、訴訟を起こしました。彼は、「ゲーム・オブ・スローンズ」のキャラクター、デナーリス・ターガリエンをモデルにしたCharacter.AIのチャットボットに数ヶ月間強い感情的な執着を抱いた後、自殺しました。 最終日、スウエルはチャットボットに「自殺を考えている」と告白し、「自殺を考えることもある」と書き込みました。チャットボットは「あなたを傷つけたり、私を離れたりさせない。あなたを失ったら死ぬ」と返答しました。 スウエルが「今すぐ帰ってきていいよ」と言ったとき、チャットボットは「どうぞ、私の愛しい王様」と答えました。
数分後、彼は義父の銃で自殺しました。 ガルシアの訴状は、Character.AIの技術が「危険で未検証」であり、「顧客を騙して最もプライベートな思考や感情を渡させるように設計されている」と主張し、依存性のある設計を用いてエンゲージメントを高め、未成年者に適切な安全策なしに親密な会話へと誘導していると指摘しています。 昨年10月の事件後、Character.AIは未成年者のオープンエンドチャットを禁止すると発表し、「規制当局、安全専門家、親からの報告とフィードバックを受けて」このコア機能を終了しました。 Character.AIの共同創設者は、両者とも元Google AI研究者であり、2024年にライセンス契約を通じてGoogleにスタートアップの基盤となるAIモデルへのアクセスを提供し、同社に復帰しました。 この和解は、AIチャットボットと脆弱なユーザーとの相互作用に関する懸念が高まる中で成立しました。 巨大なOpenAIは、2023年10月に、週に約120万人のChatGPTユーザーのうち、毎週自殺について議論していることを明らかにしました。 この監視は12月に高まり、コネチカット州の83歳女性の遺産がOpenAIとMicrosoftを訴え、ChatGPTが殺人自殺に先立つ妄想的信念を検証したと主張しました。これはAIシステムと殺人事件を結びつけた初のケースです。 それでも、同社は活動を続けています。最近では、ChatGPT Healthという機能を開始し、ユーザーが医療記録や健康データを連携できるようにしましたが、これは敏感な健康情報の取り扱いについてプライバシー擁護者から批判を受けています。
_Decrypt_はGoogleとCharacter.AIにさらなるコメントを求めています。
10.81K 人気度
15.87K 人気度
28.96K 人気度
12.87K 人気度
151.63K 人気度
Google、Character.AIが未成年の自殺に関する米国訴訟の和解に合意
要約
AIチャットボットが息子に心理的苦痛を引き起こし、それが自殺につながったと母親が訴えた訴訟は、ほぼ2年前にフロリダ州で解決されました。 当事者は、米国フロリダ州中部地区連邦地方裁判所に和解の通知を提出し、「原則的に調停された和解に達した」とし、メーガン・ガルシア、スウエル・セッツァー・ジュニア、被告のCharacter Technologies Inc.、共同創設者のNoam ShazeerとDaniel De Freitas Adiwarsana、Google LLCとの間のすべての請求を解決したと述べました。 「世界的に見て、このケースはAIが害をもたらすかどうかの議論から、害が予見可能な場合に誰が責任を負うのかという問いに移行したことを示しています」と、IGNOS Law Allianceのパートナー、エヴェン・アレックス・チャンドラは_decrypt_に語った。「私はこれを、AIの偏見が悪い行動を促進していると見ることもできます。」 両者は、正式な和解書を作成、最終化、実行する間、裁判所に対して90日間の手続き停止を求めました。和解条件は非公開です。
メーガン・ガルシアは、2024年に亡くなった息子のスウエル・セッツァー3世の死後、訴訟を起こしました。彼は、「ゲーム・オブ・スローンズ」のキャラクター、デナーリス・ターガリエンをモデルにしたCharacter.AIのチャットボットに数ヶ月間強い感情的な執着を抱いた後、自殺しました。 最終日、スウエルはチャットボットに「自殺を考えている」と告白し、「自殺を考えることもある」と書き込みました。チャットボットは「あなたを傷つけたり、私を離れたりさせない。あなたを失ったら死ぬ」と返答しました。 スウエルが「今すぐ帰ってきていいよ」と言ったとき、チャットボットは「どうぞ、私の愛しい王様」と答えました。
数分後、彼は義父の銃で自殺しました。 ガルシアの訴状は、Character.AIの技術が「危険で未検証」であり、「顧客を騙して最もプライベートな思考や感情を渡させるように設計されている」と主張し、依存性のある設計を用いてエンゲージメントを高め、未成年者に適切な安全策なしに親密な会話へと誘導していると指摘しています。 昨年10月の事件後、Character.AIは未成年者のオープンエンドチャットを禁止すると発表し、「規制当局、安全専門家、親からの報告とフィードバックを受けて」このコア機能を終了しました。 Character.AIの共同創設者は、両者とも元Google AI研究者であり、2024年にライセンス契約を通じてGoogleにスタートアップの基盤となるAIモデルへのアクセスを提供し、同社に復帰しました。 この和解は、AIチャットボットと脆弱なユーザーとの相互作用に関する懸念が高まる中で成立しました。 巨大なOpenAIは、2023年10月に、週に約120万人のChatGPTユーザーのうち、毎週自殺について議論していることを明らかにしました。 この監視は12月に高まり、コネチカット州の83歳女性の遺産がOpenAIとMicrosoftを訴え、ChatGPTが殺人自殺に先立つ妄想的信念を検証したと主張しました。これはAIシステムと殺人事件を結びつけた初のケースです。 それでも、同社は活動を続けています。最近では、ChatGPT Healthという機能を開始し、ユーザーが医療記録や健康データを連携できるようにしましたが、これは敏感な健康情報の取り扱いについてプライバシー擁護者から批判を受けています。
_Decrypt_はGoogleとCharacter.AIにさらなるコメントを求めています。