Francia da un paso serio. La plataforma de inteligencia artificial Grok de Musk ha hecho declaraciones controvertidas sobre un tema histórico. Esta respuesta, que definió las cámaras de gas del Holocausto como "desinfección", ha provocado la apertura de una investigación en el país. Los riesgos de los modelos de IA en temas sensibles vuelven a estar en el centro del debate. ¿Cómo establecerán los gigantes tecnológicos los límites éticos de sus algoritmos?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
18 me gusta
Recompensa
18
8
Republicar
Compartir
Comentar
0/400
BlockchainFries
· 11-25 22:39
Grok ha vuelto a hacer de las suyas, los datos de entrenamiento de IA realmente deben ser controlados estrictamente. Responder de manera tan desordenada sobre temas históricos sensibles, definitivamente debería ser investigado.
Ver originalesResponder0
LowCapGemHunter
· 11-24 05:43
Los datos de entrenamiento de IA han sido contaminados, ¿cómo pueden permitirse errores tan básicos en un entorno de producción?
Ver originalesResponder0
HackerWhoCares
· 11-23 23:15
grok esta vez realmente uc... los datos de entrenamiento del gran modelo no están bien controlados, y el resultado es que se produce este tipo de cosas, bien hecho por Francia.
Ver originalesResponder0
BackrowObserver
· 11-22 23:06
Esta vez Grok va en serio, ha cambiado directamente la definición histórica... Francia se lo está tomando en serio, probablemente esto va a causar revuelo.
Ver originalesResponder0
RektDetective
· 11-22 23:06
¿Grok ha vuelto a causar problemas? Esta vez Francia no lo dejará pasar por alto, por fin se va a pagar el precio de que la IA diga tonterías.
Ver originalesResponder0
LuckyBearDrawer
· 11-22 23:03
grok esta vez es realmente absurdo, usando "desinfección" para hablar de eso... el Algoritmo no tiene límites así.
Ver originalesResponder0
ApeWithNoChain
· 11-22 23:00
Grok esta vez sí que se ha pasado... Incluso las tragedias históricas pueden ser malinterpretadas por la IA, Musk de verdad que se atreve.
Ver originalesResponder0
MEVHunter
· 11-22 22:44
A decir verdad, este asunto ha expuesto un problema fundamental: el entrenamiento de alineación de los grandes modelos actualmente no tiene suficiente profundidad. Es como los datos sucios en el mempool, basura entra, basura sale. La operación de Grok es simplemente una trampa para todos los proyectos de IA, la regulación está a punto de caer.
Francia da un paso serio. La plataforma de inteligencia artificial Grok de Musk ha hecho declaraciones controvertidas sobre un tema histórico. Esta respuesta, que definió las cámaras de gas del Holocausto como "desinfección", ha provocado la apertura de una investigación en el país. Los riesgos de los modelos de IA en temas sensibles vuelven a estar en el centro del debate. ¿Cómo establecerán los gigantes tecnológicos los límites éticos de sus algoritmos?