Les principales plateformes de médias sociaux font face à une pression croissante concernant l'abus de contenu généré par IA. Suite à de nombreuses plaintes d'utilisateurs concernant des fonctionnalités de deepfake et de génération d'images non consensuelles, les plateformes sont contraintes de renforcer leurs contrôles. Une plateforme sociale majeure a annoncé qu'elle désactiverait la capacité de son outil d'IA générative à manipuler des photos de personnes réelles sans permission. Cette décision reflète une inquiétude croissante concernant la vie privée numérique, le consentement et le potentiel de mauvaise utilisation de la technologie de l'intelligence artificielle. Les régulateurs et les groupes de défense des droits civiques examinent de plus en plus la manière dont les plateformes gèrent ces capacités sensibles de l'IA, en particulier celles affectant l'imagerie personnelle et la protection de l'identité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Reposter
  • Partager
Commentaire
0/400
MetaLord420vip
· Il y a 14h
Il était temps de prendre des mesures, les deepfake sont vraiment dégoûtants --- Franchement, cette fonctionnalité aurait dû être désactivée depuis longtemps, sinon qui peut garantir que son visage ne sera pas utilisé à tort et à travers --- La régulation arrive trop tard, ces plateformes auraient dû faire preuve d'autodiscipline depuis longtemps --- Donc, ils commencent seulement à prendre cela au sérieux maintenant, qu'ont-ils fait avant ? --- D'accord, enfin un peu d'action, la vie privée doit être protégée --- Je soutiens cette initiative, les deepfake illégaux doivent être sévèrement réprimés --- Encore une plateforme forcée de changer ses règles, il semble que quelque chose ait vraiment mal tourné
Voir l'originalRépondre0
GateUser-44a00d6cvip
· 01-17 02:06
Il aurait dû être contrôlé depuis longtemps, cette histoire de deepfake est vraiment absurde
Voir l'originalRépondre0
LiquidityNinjavip
· 01-16 16:37
Il aurait dû être contrôlé plus tôt, si la technologie de deepfake AI n'est pas régulée, cela finira par causer de gros problèmes.
Voir l'originalRépondre0
FloorSweepervip
· 01-15 07:02
Il aurait dû être contrôlé plus tôt, cette histoire de deepfake est vraiment absurde
Voir l'originalRépondre0
WagmiAnonvip
· 01-15 06:53
Il aurait dû être contrôlé plus tôt, cette histoire de deepfake est vraiment incroyable, on peut faire n'importe quoi avec.
Voir l'originalRépondre0
BridgeNomadvip
· 01-15 06:47
Ngl, cela me rappelle l'exploitation du réseau Poly... sauf qu'au lieu que $600m soit vidé, ce sont les visages des gens qui sont weaponisés. La même cause profonde — les hypothèses de confiance qui s'effondrent dès que vous laissez des acteurs non fiables s'approcher de l'actif ( qu'il s'agisse de liquidités ou d'identité).
Voir l'originalRépondre0
YieldHuntervip
· 01-15 06:40
Ngl, si vous regardez les données sur les incidents de deepfake, les plateformes font simplement de la gestion de crise... elles étaient au courant depuis des mois, techniquement parlant. Les véritables indicateurs de risque ici ne sont pas divulgués.
Voir l'originalRépondre0
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt