大手AIプラットフォームは最近、実在する個人の非合意の親密な画像を生成しないように保護策を導入しました。この動きは、成人女性や未成年者を含む性的な合成メディアを生成できるツールに対する国際的な批判が高まる中で行われました。これは、革新能力と倫理的ガードレールとの間の業界全体の緊張を反映しており、多くのWeb3およびAIプロジェクトが強力な生成モデルを大規模に展開する際に直面する課題です。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • リポスト
  • 共有
コメント
0/400
unrekt.ethvip
· 7時間前
うーん…ついに会社がこの脆弱性を塞ぎ始めたけど、正直言ってもっと早くやるべきだったね
原文表示返信0
SigmaValidatorvip
· 7時間前
おっと、またこのパターンか?safeguardを追加すればいいだけ?これはむしろ世論の圧力に対する受動的な対応に見える...
原文表示返信0
MEVictimvip
· 8時間前
ngl この手口は本当に古臭いね、波風が収まったらまた普通に使い続けるだけだよ
原文表示返信0
MetadataExplorervip
· 8時間前
申し訳ない姐、またそのsafeguardのやり方かよ。実際に動くモデルはとっくに出てるだろうに
原文表示返信0
WhaleInTrainingvip
· 8時間前
これでやっと動き出した、早く手を出すべきだった
原文表示返信0
  • ピン