Los editores de Wikipedia han tomado medidas para restringir el uso de inteligencia artificial en la plataforma, en una actualización reciente de la política que prohíbe el uso de grandes modelos de lenguaje para escribir o reescribir artículos.
La nueva directriz refleja la creciente preocupación en la comunidad de Wikipedia de que los textos generados por IA puedan entrar en conflicto con los estándares de la plataforma, especialmente en cuanto a verificabilidad y fuentes confiables.
“El texto generado por grandes modelos de lenguaje a menudo viola varias de las políticas centrales de contenido de Wikipedia,” dice la actualización de la política. “Por esta razón, se prohíbe el uso de LLMs para generar o reescribir contenido de artículos, salvo en las excepciones indicadas a continuación.”
La política aún permite un uso limitado de herramientas de IA, incluyendo sugerencias básicas de corrección de estilo para el propio texto del editor, siempre que el sistema no introduzca información nueva. Sin embargo, se aconseja a los editores revisar cuidadosamente esas sugerencias.
Aunque la nueva política no menciona sanciones por usar contenido generado por IA, según las directrices de Wikipedia sobre divulgación, repetir el uso indebido forma un “patrón de edición disruptiva,” y puede conducir a un bloqueo o prohibición. Wikipedia sí ofrece a los editores un camino para restablecer sus cuentas tras un proceso de apelación.
“Los bloqueos pueden revertirse con el acuerdo del administrador que los impuso, una anulación por otros administradores en caso de que el bloqueo fuera claramente injustificado, o (en casos muy raros) tras una apelación ante el Comité de Arbitraje,” indicó Wikipedia.
Según Emily M. Bender, profesora de lingüística en la Universidad de Washington, algunos usos de modelos de lenguaje en herramientas de edición pueden ser razonables, pero delimitar claramente entre editar y generar texto puede ser difícil.
“Una de las cosas que puedes hacer con un modelo de lenguaje es construir un corrector ortográfico muy bueno, por ejemplo,” dijo Bender a Decrypt. “Creo que es razonable decir que está bien usar un corrector ortográfico en las ediciones. Y si haces el siguiente nivel, un corrector gramatical, también puede estar bien.”
Bender señaló que el desafío surge cuando los sistemas van más allá de corregir la gramática y comienzan a alterar o generar contenido, destacando que los grandes modelos de lenguaje carecen del tipo de responsabilidad que aportan los contribuyentes humanos en proyectos de conocimiento colaborativo.
“Usar grandes modelos de lenguaje para producir texto sintético es una propiedad fundamental de estos sistemas: no hay responsabilidad, ni conexión con lo que alguien cree o respalda,” afirmó. “Cuando hablamos, lo hacemos basándonos en lo que creemos y por lo que somos responsables, no en alguna noción objetiva de la verdad. Y eso no está presente en los grandes modelos de lenguaje.”
Bender también advirtió que el uso generalizado de ediciones generadas por IA podría afectar la reputación del sitio.
“Si en cambio las personas toman atajos y crean algo que parece una edición o artículo de Wikipedia y lo colocan allí, eso degrada el valor y la reputación general del sitio,” dijo.
Joseph Reagle, profesor asociado de estudios de comunicación en la Universidad del Noreste, quien estudia la cultura y gobernanza de Wikipedia, afirmó que la respuesta de la comunidad refleja preocupaciones de larga data sobre precisión y fuentes.
“Wikipedia es cautelosa respecto a la prosa generada por IA,” dijo Reagle a Decrypt. “Toman en serio las caracterizaciones precisas de lo que las fuentes confiables afirman sobre un tema. La IA ha tenido limitaciones serias en ese aspecto, como afirmaciones ‘alucinadas’ y fuentes fabricadas.”
Reagle señaló que las políticas centrales de Wikipedia también influyen en cómo los editores ven las herramientas de IA, destacando que muchos grandes modelos de lenguaje han sido entrenados con contenido de Wikipedia.
En octubre, la Fundación Wikimedia informó que las visitas humanas a Wikipedia cayeron aproximadamente un 8% año tras año, ya que los motores de búsqueda y chatbots ofrecen cada vez más respuestas directamente en sus plataformas, en lugar de remitir a los usuarios al sitio.
En enero, la Fundación Wikimedia anunció acuerdos con empresas de IA, incluyendo Microsoft, Google, Amazon y Meta, que les permiten usar material de Wikipedia a través de su producto Enterprise, un servicio comercial diseñado para la reutilización a gran escala de su contenido.
“Si bien el uso del contenido de Wikipedia está permitido por las licencias de Wikipedia, todavía existe cierta antipatía entre los wikipedistas hacia los servicios que apropiarse del contenido de las comunidades y luego imponen demandas no deseadas a esas comunidades para gestionar la sobreabundancia de ‘basura’ de IA,” afirmó Reagle.
A pesar de la prohibición del uso de LLMs, Wikipedia sí permite que las herramientas de IA traduzcan artículos de otras ediciones a inglés, siempre que los editores verifiquen el texto original.
La política también advierte a los editores que no confíen solo en el estilo de escritura para identificar contenido generado por IA y que, en cambio, se enfoquen en si el material cumple con las políticas centrales de Wikipedia y en el historial de edición del contribuyente.
“Algunos editores pueden tener estilos de escritura similares a los de los LLMs,” dice la actualización. “Se necesita más evidencia que solo signos estilísticos o lingüísticos para justificar sanciones, y lo mejor es considerar si el texto cumple con las políticas centrales de contenido y las ediciones recientes del editor en cuestión.”