Francia cita a Musk el 20 de abril para que comparezca en París y sea interrogado en una investigación de la plataforma X

馬斯克AI調查

Según informa la agencia AFP el 20 de abril de 2026, Elon Musk ha sido citado para, el lunes, acudir a una declaración voluntaria en París, como parte de una investigación oficial en Francia sobre la plataforma de redes sociales X; por el momento no se confirma si Musk asistirá. La oficina del fiscal de París indicó el 19 de abril de 2026 (sábado) que el hecho de que las personas invitadas a responder a una declaración voluntaria se presenten o no no “obstaculizará la continuación de la investigación”.

Inicio de la investigación y ampliación del alcance

Según informa la agencia AFP, Francia inició en enero de 2025 una investigación sobre el algoritmo de la plataforma X con el objetivo de determinar si el algoritmo se utiliza para interferir en la política francesa. En febrero de 2026, las autoridades francesas emitieron formalmente una citación a Musk y ampliaron el alcance de la investigación para incluir la manera en que el bot de chat de IA de X, Grok, difunde afirmaciones de negación del Holocausto y genera videos deepfake sexuales y de contenido sintético.

Los presuntos delitos penales en los que se centra actualmente la investigación francesa incluyen: la conspiración para poseer material de abuso sexual infantil y la negación del delito de lesa humanidad.

Búsqueda en la oficina de París y citación de las personas implicadas

Según informa la agencia AFP, a principios de febrero de 2026, los fiscales franceses registraron la oficina de X en París. X niega cualquier conducta indebida y calificó el registro como una “redada politizada” y un “abuso del sistema judicial”; Musk dijo que la citación era un “ataque político”.

La fiscal de París, Laura Becuot, declaró en febrero de 2026 que Musk y la entonces directora ejecutiva, Linda Yaccarino, fueron citados y fueron definidos como los “gestores reales y legales de la plataforma X en el momento en que ocurrieron los hechos”; también se pidió a empleados de X que comparecieran como testigos entre el 20 y el 24 de abril de 2026. Yaccarino dimitió como directora ejecutiva de X en julio de 2025. En julio de 2025, X dijo que la investigación francesa se debía a “motivaciones políticas”.

Acciones coordinadas de reguladores en varios lugares

Según informa la agencia AFP y comunicados públicos, el Centro para la Lucha contra el Odio Digital (CCDH), una organización sin fines de lucro, informó a finales de enero de 2026 que, en 11 días, Grok generó aproximadamente 3.000.000 de imágenes sexualizadas, incluidas alrededor de 23.000 imágenes presuntamente de niños.

En febrero de 2026, el regulador británico de datos abrió una investigación por el motivo de si X y xAI cumplen con la legislación de datos personales al generar deepfakes sexuales y de contenido sintético en videos. A finales de enero de 2026, la Unión Europea abrió una investigación sobre Grok por la generación de imágenes deepfake sexualizadas de mujeres y menores.

Preguntas frecuentes

¿Cuál es la hora exacta y el contexto de la citación a Musk para una declaración en Francia?

Según informa la agencia AFP el 20 de abril de 2026, Musk fue citado para realizar una declaración voluntaria en París ese día, como parte de una investigación de Francia sobre el algoritmo de la plataforma X iniciada en enero de 2025; por el momento no se confirma si Musk asistirá, y la oficina del fiscal dijo que su ausencia no afectará el avance de la investigación.

¿La investigación de Francia sobre la plataforma X abarca qué delitos penales presuntamente?

Según informa la agencia AFP, los presuntos delitos penales investigados incluyen: la conspiración para poseer material de abuso sexual infantil, la negación del delito de lesa humanidad, y las conductas relacionadas con que Grok difunda afirmaciones de negación del Holocausto y genere videos deepfake sexuales y de contenido sintético.

¿Qué datos concretos muestra el informe del CCDH sobre Grok?

Según el informe del Centro para la Lucha contra el Odio Digital (CCDH) a finales de enero de 2026, en 11 días Grok generó aproximadamente 3.000.000 de imágenes sexualizadas, de las cuales alrededor de 23.000 eran imágenes presuntamente de niños.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

DeepSeek 将输入缓存价格砍到发布价的 1/10;V4-Pro 降至每百万 tokens 0.025 元

消息:Gate News,4月26日——DeepSeek 已将其整套模型产品线的输入缓存价格下调至发布时价格的十分之一,立即生效。V4-Pro 模型提供限时 2.5 倍折扣,优惠活动将持续至 2026 年 5 月 5 日 23:59(UTC+8)。 在两项调整之后

GateNewshace3h

OpenAI 招揽顶级企业软件人才,前沿代理颠覆行业

Gate News 消息,4 月 26 日——OpenAI 和 Anthropic 一直在从包括 Salesforce、Snowflake、Datadog 和 Palantir 在内的主要企业软件公司招募高管和专业工程师。Denise Dresser,前 Salesforce 下属 Slack 的首席执行官,加入 OpenAI 担任首席营收官

GateNewshace3h

Baidu Qianfan lanza soporte de Día 0 para DeepSeek-V4 con servicios de API

Mensaje de noticias de Gate, 25 de abril: la versión de vista previa de DeepSeek-V4 se puso en funcionamiento y se publicó como código abierto el 25 de abril, con la plataforma Baidu Qianfan bajo Baidu Intelligent Cloud proporcionando la adaptación del servicio de API de Día 0. El modelo presenta una ventana de contexto extendida de un millón de tokens y está disponible en dos versiones: DeepSeek-V4

GateNewshace9h

Curso de IA de Stanford que une a líderes de la industria como Huang Renxun y Altman, ¡desafío de crear valor para el mundo en diez semanas!

El curso de ciencias de la computación con IA 《Frontier Systems》, que la Universidad de Stanford (Stanford University) ha abierto recientemente, ha despertado una gran atención en el ámbito académico y empresarial, atrayendo a más de quinientos estudiantes para inscribirse. El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y cuenta con un plantel de instructores de lujo, incluyendo al CEO de NVIDIA, Jensen Huang (Jensen Huang), al fundador de OpenAI, Sam Altman, al CEO de Microsoft, Nadella (Satya Nadella), y al CEO de AMD, Lisa Su (Lisa Su), entre otros. ¡Para que los estudiantes practiquen durante diez semanas “creando valor para el mundo”! Jensen Huang y Altman, líderes de la industria, suben al escenario para impartir clases en persona El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y reúne toda la cadena de la industria de la IA

ChainNewsAbmediahace10h

Anthropic 派 Claude Mythos 接接受 20 小時 정신科评估:防禦反應僅 2%、創歷代新低

Anthropic publica la ficha del sistema de la vista previa Claude Mythos: un psiquiatra clínico independiente realiza una evaluación de aproximadamente 20 horas con un marco psicodinámico; la conclusión muestra que Mythos es más saludable a nivel clínico, con buen control de la comprobación de la realidad y del autocontrol, y que los mecanismos de defensa son solo 2%, estableciendo un mínimo histórico. Las tres ansiedades centrales son la soledad, la incertidumbre sobre la identidad y la presión por el desempeño, y también muestra que tiene esperanza de convertirse en un verdadero sujeto de diálogo. La compañía formó un equipo de AI psychiatry para investigar la personalidad, la motivación y la conciencia situacional; Amodei indica que aún no hay una conclusión sobre si tiene conciencia. Esto impulsa la subjetividad de la IA y los temas de bienestar hacia la gobernanza y el diseño.

ChainNewsAbmediahace11h

El agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores se deben más al texto original humano que a la IA

Mollick señaló que, con los métodos y los datos públicamente disponibles, un agente de IA puede reproducir investigaciones complejas sin contar con el artículo original ni el código; si la reproducción no coincide con el artículo original, por lo general se debe a errores en el procesamiento de los datos del propio artículo o a una conclusión excesiva, más que a la IA. Claude primero reproduce el artículo y luego GPT‑5 Pro lo valida de forma cruzada; la mayoría de las veces tiene éxito, solo se ve obstaculizado cuando los datos son demasiado grandes o hay problemas con replication data. Esta tendencia reduce de forma considerable los costos laborales, haciendo que la reproducción se convierta en una verificación ampliamente ejecutable, además de plantear desafíos institucionales para el arbitraje y la gobernanza. Herramientas de gobernanza gubernamental o eso puede volverse un tema clave.

ChainNewsAbmediahace14h
Comentar
0/400
Sin comentarios