Wikipedia, aún con algunas lagunas, es desde hace mucho tiempo uno de los pilares del conocimiento abierto en Internet, una enciclopedia colaborativa que depende en gran medida del trabajo de miles de voluntarios repartidos por todo el mundo. En un momento en el que la inteligencia artificial generativa es capaz de producir textos completos en cuestión de segundos, el proyecto se enfrenta a un nuevo desafío: cómo integrar estas herramientas sin comprometer la fiabilidad y la calidad de la información que ofrece.
Tras meses de debate interno, la comunidad editorial de la versión en inglés de Wikipedia ha decidido tomar una postura clara: el uso de modelos de lenguaje de gran tamaño (LLM) para generar o reescribir el contenido de los artículos queda prohibido. La nueva política establece que los textos enciclopédicos no pueden ser producidos directamente por sistemas de IA, una decisión que busca preservar el principio fundamental del proyecto: que la información publicada sea verificable, revisada y respaldada por fuentes fiables.
Uno de los motivos principales detrás de esta decisión tiene que ver con las limitaciones actuales de los modelos de IA generativa. Aunque estas herramientas pueden producir textos coherentes y aparentemente bien estructurados, también son conocidas por generar errores factuales, citas inexistentes o interpretaciones incorrectas de las fuentes, un fenómeno conocido como alucinaciones. En una plataforma donde la precisión y la trazabilidad de la información son esenciales, ese tipo de fallos puede convertirse en un problema serio.
Eso no significa, sin embargo, que la inteligencia artificial quede completamente fuera del proyecto. La nueva política contempla algunas excepciones, empezando por el uso de IA para edición básica de texto. Los editores pueden utilizar herramientas automáticas para mejorar el estilo o la redacción de textos que ellos mismos hayan escrito previamente, siempre que el contenido original sea humano y que cualquier modificación generada por IA sea revisada cuidadosamente para comprobar que no introduce información nueva ni altera el significado del texto.
Otra de las excepciones afecta a las traducciones entre idiomas. En este caso, las herramientas de IA pueden emplearse para generar una versión inicial traducida de un artículo existente, pero con una condición importante: el editor responsable debe tener suficiente dominio de ambos idiomas para revisar y corregir la traducción. El objetivo es evitar errores o interpretaciones incorrectas que puedan surgir durante el proceso automático.
La norma anunciada se aplica a la Wikipedia en inglés, que es la edición más grande del proyecto y suele actuar como referencia para otras comunidades. Sin embargo, cada versión lingüística de la enciclopedia mantiene un cierto grado de autonomía editorial, lo que significa que otras Wikipedias podrán adoptar políticas diferentes respecto al uso de herramientas de inteligencia artificial en la creación o edición de contenidos.
Con esta decisión, Wikipedia intenta encontrar un equilibrio en una época marcada por la expansión de la IA generativa. Las herramientas automáticas pueden ser útiles como apoyo técnico para tareas concretas, pero la enciclopedia deja claro que el papel central seguirá siendo humano. Al menos por ahora, en uno de los mayores repositorios de conocimiento del mundo, la inteligencia artificial podrá ayudar… pero no escribir la historia.
La entrada Wikipedia no quiere artículos escritos por la IA se publicó primero en MuyComputer.

