Por Canuto  

Wikipedia actualizó su política editorial para prohibir que los editores usen modelos de lenguaje para generar o reescribir contenido de artículos. La decisión, respaldada por una amplia votación comunitaria, mantiene un margen estrecho para correcciones de estilo, pero bajo revisión humana estricta.
***

  • Wikipedia ahora prohíbe el uso de LLM para generar o reescribir contenido de artículos.
  • La nueva política fue aprobada por los editores con una votación de 40 a 2.
  • La plataforma aún permite sugerencias básicas de estilo, siempre que no introduzcan contenido nuevo.

 

Wikipedia decidió endurecer sus reglas frente al uso de inteligencia artificial generativa en su proceso editorial. La plataforma ahora establece de forma explícita que los editores no pueden utilizar modelos de lenguaje de gran escala, o LLM, para generar o reescribir contenido de artículos dentro de la enciclopedia.

La medida llega en un momento en que la IA avanza con fuerza en medios, editoriales y plataformas digitales, obligando a muchas organizaciones a definir límites concretos. En este caso, Wikipedia optó por una línea más restrictiva en torno al texto principal que aparece en sus entradas.

Según informó TechCrunch, el cambio actualiza una redacción anterior que era menos precisa. Antes, la política señalaba que los LLM “no deberían usarse para generar nuevos artículos de Wikipedia desde cero”, mientras que ahora la prohibición cubre también la reescritura del contenido existente.

El ajuste no implica un veto absoluto a toda forma de IA dentro del ecosistema editorial de Wikipedia. Sin embargo, sí marca una diferencia importante entre tareas auxiliares y la producción del contenido enciclopédico, que seguirá dependiendo del criterio y la revisión humana de sus editores voluntarios.

Una política más estricta tras un debate interno

El uso de inteligencia artificial en Wikipedia se había convertido en un tema cada vez más polémico dentro de su extensa comunidad de editores. El debate giraba en torno a la calidad del contenido, la fidelidad a las fuentes y el riesgo de que un sistema automatizado altere significados o añada afirmaciones no verificadas.

De acuerdo con la información citada en la cobertura original, 404 Media reportó que la nueva política fue sometida a votación y recibió un respaldo mayoritario de 40 votos a favor frente a 2 en contra. Ese resultado refleja un consenso amplio dentro de la comunidad sobre la necesidad de trazar límites más claros.

La nueva redacción busca cerrar espacios ambiguos que podían permitir interpretaciones más flexibles sobre el papel de los LLM en la escritura enciclopédica. En la práctica, esto da a los editores y moderadores una regla más concreta para evaluar cuándo una contribución viola la política vigente.

Para los lectores menos familiarizados con Wikipedia, conviene recordar que la plataforma funciona gracias a una red global de voluntarios que escriben, corrigen y supervisan artículos de manera colaborativa. Por eso, cualquier cambio de política no solo tiene un efecto técnico, sino también comunitario y cultural.

Qué usos de IA siguen permitidos

Aunque Wikipedia prohibió el uso de LLM para generar o reescribir artículos, la política todavía deja cierto espacio para herramientas de IA en labores muy delimitadas. El punto clave es que estos sistemas no deben introducir contenido propio ni modificar el sentido de los textos sin control humano.

La norma permite que los editores usen LLM para sugerir correcciones básicas de estilo sobre textos escritos por ellos mismos. Después, el editor puede incorporar algunas de esas sugerencias, siempre que exista una revisión humana y que el modelo no agregue información nueva.

Ese matiz es central porque distingue entre pulido editorial y autoría sustantiva. Una corrección menor de estilo puede ayudar con gramática o claridad, pero no debe convertirse en una puerta para que la IA reformule hechos, cambie matices o inserte afirmaciones no presentes en las fuentes citadas.

La propia política advierte que se requiere cautela, ya que los LLM pueden ir más allá de lo solicitado. Incluso cuando se les pide una tarea limitada, estos sistemas pueden alterar el significado del texto de maneras que no estén respaldadas por las referencias utilizadas en el artículo.

El trasfondo del problema editorial

La decisión de Wikipedia refleja una preocupación más amplia en el mundo de la información digital. Los modelos generativos pueden redactar con fluidez y velocidad, pero esa capacidad no garantiza exactitud, neutralidad ni apego estricto a las fuentes, tres principios esenciales para una enciclopedia colaborativa.

En entornos como Wikipedia, donde cada afirmación relevante idealmente debe poder verificarse, el riesgo no es solo el error evidente. También preocupa la posibilidad de cambios sutiles en tono, contexto o interpretación, que pueden parecer menores, pero afectar la integridad del artículo final.

La discusión también toca un punto sensible para muchas comunidades en línea: cuánto automatizar sin debilitar la responsabilidad humana. En una plataforma basada en consenso, revisión pública y trazabilidad de cambios, permitir que un sistema externo redacte contenido abre interrogantes sobre autoría y control editorial.

Por eso, la medida puede leerse como un intento de preservar el modelo de gobernanza de Wikipedia frente a una tecnología que ya está transformando otras áreas del ecosistema informativo. La plataforma no rechaza toda asistencia automatizada, pero sí busca impedir que la IA ocupe el lugar del editor humano en el núcleo del proceso.

Un precedente en la relación entre IA y conocimiento abierto

La actualización de la política de Wikipedia podría servir como referencia para otras plataformas colaborativas que enfrentan dilemas parecidos. A medida que la IA se integra en redacciones, buscadores y sistemas de publicación, cada proyecto debe decidir qué tareas pueden delegarse y cuáles requieren supervisión directa.

En este caso, la comunidad optó por una respuesta prudente y concreta. En lugar de eliminar cualquier uso de IA, definió una frontera operativa: los LLM no pueden escribir ni reescribir artículos, pero sí podrían apoyar en cambios estilísticos menores bajo una revisión humana cuidadosa.

Esa distinción puede parecer técnica, pero tiene implicaciones importantes. En plataformas de conocimiento abierto, la confianza del público depende de que el contenido no solo sea legible, sino también verificable, consistente con las fuentes y coherente con estándares editoriales estables.

Por ahora, la señal es clara. Wikipedia reconoce que la IA puede tener un rol limitado en el trabajo editorial, pero no está dispuesta a permitir que los modelos generativos definan el contenido de sus artículos. En un entorno donde la precisión importa tanto como la velocidad, la enciclopedia ha optado por reforzar la primacía del juicio humano.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín