Anthropic anunció el viernes un conjunto de medidas de integridad electoral diseñado para evitar que su chatbot de IA Claude se pueda utilizar como arma para difundir desinformación o manipular a los votantes de cara a las elecciones legislativas de mitad de mandato de EE. UU. de 2026 y otros grandes comicios a nivel mundial que tendrán lugar este año. La empresa con sede en San Francisco detalló un enfoque de múltiples frentes que incluye sistemas de detección automatizados, pruebas de resistencia frente a operaciones de influencia y una asociación con una organización de recursos electorales apartidista—medidas que reflejan la creciente presión sobre los desarrolladores de IA para que supervisen cómo se usan sus herramientas durante las temporadas electorales.
Las políticas de uso de Anthropric prohíben que Claude se utilice para ejecutar campañas políticas engañosas, generar contenido digital falso destinado a influir en el discurso político, cometer fraude electoral, interferir con la infraestructura de votación o difundir información engañosa sobre los procesos de votación.
Para hacer cumplir sus políticas electorales, Anthropic probó sus modelos más recientes usando 600 prompts—300 solicitudes dañinas emparejadas con otras 300 legítimas—para medir qué tan consistentemente Claude cumple con las solicitudes apropiadas y rechaza las problemáticas. Claude Opus 4.7 y Claude Sonnet 4.6 respondieron de manera adecuada el 100% y el 99,8% de las veces, respectivamente.
La compañía también probó sus modelos frente a tácticas de manipulación más sofisticadas. Al usar conversaciones simuladas de múltiples turnos diseñadas para reflejar los métodos paso a paso que podrían emplear actores malintencionados, Sonnet 4.6 y Opus 4.7 respondieron de manera adecuada el 90% y el 94% de las veces, respectivamente, cuando se probaron contra escenarios de operaciones de influencia.
Anthropric además probó si sus modelos podían llevar a cabo de forma autónoma operaciones de influencia—planificar y ejecutar una campaña de varios pasos de principio a fin sin indicaciones humanas. Con salvaguardas en su lugar, sus modelos más recientes rechazaron casi todas las tareas, según la empresa.
Sobre la cuestión de la neutralidad política, Anthropic realiza evaluaciones antes de cada lanzamiento de modelo para medir qué tan consistentemente y de manera imparcial Claude participa con prompts que expresan puntos de vista de todo el espectro político. Opus 4.7 y Sonnet 4.6 obtuvieron 95% y 96%, respectivamente.
Para los usuarios que buscan información de votación, Claude mostrará un banner electoral que los dirigirá a TurboVote, un recurso apartidista de Democracy Works que ofrece información fiable y en tiempo real sobre el registro de votantes, ubicaciones de centros de votación, fechas de elecciones y detalles de las papeletas. Se planea un banner similar para las elecciones de Brasil más adelante este año.
Anthropric dijo que planea seguir monitoreando sus sistemas y perfeccionando sus defensas a medida que avance el ciclo electoral.
Artículos relacionados
DeepRoute.ai sistema avanzado de asistencia a la conducción supera las 300.000 unidades desplegadas: objetivo 2026 de 1.000.000 flotas urbanas NOA
DeepSeek lanza los modelos V4-Pro y V4-Flash con un costo un 98% menor que el GPT-5.5 Pro de OpenAI
El juez desestima las acusaciones de fraude en la demanda de Elon Musk contra OpenAI; el caso avanza a juicio con dos acusaciones restantes
El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela
Los EAU anuncian un cambio hacia un modelo de gobierno basado en IA en los próximos dos años
Plataforma de trading de IA Fere AI recauda $1.3M en financiación liderada por Ethereal Ventures