Por Canuto  

Wikipedia decidió endurecer su postura frente a la inteligencia artificial y ya no permitirá que sus editores redacten o reescriban artículos con estos sistemas. La nueva norma, aprobada con amplio respaldo en la comunidad, mantiene solo dos usos permitidos y busca frenar problemas de calidad, precisión y cumplimiento de políticas fundamentales.

***

  • La Wikipedia en inglés prohibió escribir o reescribir artículos mediante inteligencia artificial.
  • Solo seguirán permitidos dos usos: sugerencias básicas de edición y traducciones asistidas, bajo reglas estrictas.
  • La medida llega tras meses de lucha contra contenido mal redactado y generado por modelos de lenguaje.

 


Wikipedia ya no permitirá que sus editores escriban o reescriban artículos usando inteligencia artificial. La decisión afecta a la versión en inglés de la enciclopedia colaborativa y marca un nuevo límite para el uso de modelos de lenguaje dentro de una de las mayores plataformas de conocimiento abierto del mundo.

La actualización fue incorporada a las directrices de Wikipedia a finales de la semana pasada. Según explicó The Verge, la prohibición responde a la tendencia de los textos generados por IA a incumplir “varias de las políticas fundamentales de contenido de Wikipedia”.

La nueva regla no elimina por completo el uso de estas herramientas. En cambio, delimita con mayor precisión qué aplicaciones siguen siendo aceptables y cuáles quedan fuera de las normas editoriales de la comunidad.

La medida llega en un momento en que muchas plataformas digitales intentan equilibrar productividad y fiabilidad. En el caso de Wikipedia, ese balance es especialmente sensible, ya que su credibilidad depende de que los artículos se ajusten a criterios estrictos de verificabilidad, neutralidad y calidad.

Wikipedia aún permite ciertos usos de IA

Aunque la plataforma prohibió redactar o reescribir artículos con IA, los editores todavía podrán usar modelos de lenguaje grandes en ciertos escenarios limitados. Uno de ellos consiste en sugerir ediciones básicas de texto, siempre que la herramienta no introduzca contenido propio.

Ese matiz es central para entender el cambio. Wikipedia no está vetando toda asistencia automatizada, pero sí busca impedir que un sistema genere material nuevo que luego termine integrado en un artículo sin el debido control humano.

La segunda excepción se refiere a las traducciones. Los editores podrán emplear IA para traducir artículos desde otras ediciones idiomáticas de Wikipedia hacia el inglés, aunque deberán seguir las reglas ya existentes para traducciones asistidas por modelos de lenguaje.

Esas reglas exigen que quien publique la traducción tenga suficiente conocimiento del idioma original para confirmar su exactitud. Es decir, la IA puede apoyar el proceso, pero la validación final sigue recayendo en la persona editora.

En la práctica, Wikipedia está trazando una línea entre asistencia técnica y generación de contenido. Corregir estilo, ajustar redacción o apoyar una traducción verificable sigue siendo aceptable. Crear o rehacer artículos completos con IA, ya no.

El trasfondo de la decisión

La comunidad editorial de Wikipedia venía lidiando desde hace meses con artículos creados por inteligencia artificial. Ese flujo de textos problemáticos llevó antes a la adopción de una política que permite la “eliminación rápida” de artículos mal redactados.

Además, los editores organizaron WikiProject AI Cleanup, una iniciativa orientada a combatir contenido escrito por IA y ayudar a otros colaboradores a identificarlo. Ese esfuerzo refleja que el problema ya no era hipotético, sino operativo y constante.

La preocupación principal no parece ser solo el estilo artificial de ciertos textos, sino su tendencia a chocar con reglas esenciales del proyecto. Un artículo puede sonar convincente y aun así fallar en precisión, relevancia enciclopédica, atribución o verificabilidad.

Ese punto resulta especialmente importante en el contexto actual. Los modelos de lenguaje pueden producir textos fluidos y bien estructurados, pero eso no garantiza que el contenido sea correcto o que cumpla los estándares documentales.

Wikipedia, a diferencia de otros sitios, no compite por publicar más rápido o por llenar espacios con contenido abundante. Su principal activo es la confianza del lector, y la comunidad parece haber concluido que el uso amplio de IA en la redacción amenaza ese valor.

Cómo se aplicará la política restrictiva

Las nuevas directrices también incluyen una advertencia relevante para evitar excesos en la moderación. El texto reconoce que algunas personas pueden tener estilos de escritura parecidos a los de los modelos de lenguaje, por lo que no basta con detectar señales estilísticas o lingüísticas para justificar restricciones.

En otras palabras, escribir de forma muy pulida, repetitiva o estructurada no debería ser motivo suficiente para acusar a un editor de usar IA. La política pide observar algo más que la apariencia del texto.

Las directrices señalan que lo mejor es evaluar si el contenido cumple con las políticas fundamentales de Wikipedia y revisar las ediciones recientes del editor involucrado, apuntando a la conducta editorial y a la calidad del material, no solo a una sospecha basada en estilo.

La precisión de este criterio es importante porque evita castigar a colaboradores legítimos. También reconoce una realidad incómoda del debate sobre IA: no siempre es fácil distinguir entre una mala edición humana y una salida generada por un modelo.

Así, la aplicación de la norma dependerá tanto de la revisión del contenido como del historial de edición. La comunidad busca frenar abusos sin convertir la supervisión en una cacería de brujas basada en intuiciones o prejuicios lingüísticos.

Una propuesta con amplio respaldo comunitario

El cambio más reciente fue propuesto por Chaotic Enby, según reportó The Verge. La iniciativa abrió una discusión extensa entre editores, algo habitual dentro del sistema de gobernanza comunitaria de Wikipedia.

Tras ese debate, la propuesta terminó siendo aprobada con un “apoyo abrumador”. La conclusión compartida por los participantes fue que la política apunta a problemas claramente problemáticos asociados con el uso de modelos de lenguaje, sin cerrar por completo la puerta a aplicaciones consideradas aceptables.

Ese equilibrio ayuda a explicar por qué la norma no adoptó un veto absoluto. Wikipedia reconoce que la IA puede ser útil en tareas específicas, pero considera que su uso para redactar o reescribir artículos genera más riesgos que beneficios.

Por ahora, el cambio se aplica a la versión en inglés de Wikipedia. No obstante, el caso puede servir como referencia para otras comunidades lingüísticas que enfrentan tensiones similares entre eficiencia tecnológica y control editorial.

La decisión también envía una señal más amplia al ecosistema digital. En plena expansión de herramientas generativas, una de las plataformas colaborativas más influyentes de internet acaba de establecer que no todo uso de IA mejora la calidad del conocimiento en línea.

En vez de adoptar una postura maximalista, Wikipedia optó por una regla concreta: la IA puede asistir, pero no sustituir el juicio editorial humano cuando se trata de construir artículos enciclopédicos. Esa distinción, aunque técnica, podría volverse cada vez más relevante en otros espacios de publicación y documentación.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín