Por Canuto  

Grokipedia, la enciclopedia de xAI ligada a Elon Musk, aparece en línea con cientos de miles de artículos y al menos algunas páginas tomadas directamente de Wikipedia, según un reportaje de The Verge.
***

  • La versión temprana v0.1 de Grokipedia muestra más de N° 885.000 artículos en su ticker y admite contenido “adaptado de Wikipedia” con licencia Creative Commons.
  • En casos como MacBook Air, PlayStation 5 y Lincoln Mark VIII, partes del texto coinciden casi palabra por palabra con entradas de Wikipedia, según The Verge.
  • Wikimedia Foundation afirma que está evaluando cómo funciona Grokipedia y recuerda las fortalezas de Wikipedia: políticas transparentes y edición humana colaborativa.

La plataforma aparece en una versión temprana marcada como v0.1 y muestra en su página principal una gran barra de búsqueda, un número de versión y un ticker que indica más de N° 885.000 artículos.

En la apariencia y la estructura básica Grokipedia recuerda a Wikipedia: entradas con encabezados, subtítulos y citas, además de una página de inicio centrada en la búsqueda.

Wikipedia permite a sus usuarios editar páginas de forma directa; Grokipedia, en cambio, no parece ofrecer edición abierta. Un botón de edición solo apareció en algunas páginas y, al activarlo, mostró ediciones ya realizadas sin identificar a los autores ni permitir propuestas nuevas.

Evidencia de contenido tomado de wikipedia

En la página sobre el MacBook Air aparece la leyenda “El contenido está adaptado de Wikipedia” y la mención de la licencia Creative Commons Attribution-ShareAlike 4.0.

Más allá de la atribución, Peters encontró coincidencias textuales casi palabra por palabra en páginas como PlayStation 5 y Lincoln Mark VIII respecto a sus contrapartes en Wikipedia.

Estos hallazgos muestran que la relación entre Grokipedia y Wikipedia no es solo de inspiración: en múltiples instancias Grokipedia incorpora segmentos de texto con muy poca o ninguna reescritura, según el reporte.

La presencia explícita de la atribución en algunos artículos contrasta con la expectativa pública de que Musk había prometido mejoras significativas respecto a Wikipedia; aun así, la forma concreta en que se han adaptado o reutilizado los textos levanta dudas sobre el proceso editorial de xAI.

Verificación por IA y diferencias en contenido

Una característica destacada de Grokipedia es que algunas entradas indican que Grok, el modelo de xAI, ha “verificado” el contenido y consignan cuándo ocurrió esa verificación. Ese enfoque provoca controversia, porque los grandes modelos de lenguaje pueden generar afirmaciones incorrectas o fabricadas si no se vigilan.

El caso del cambio climático ilustra esa tensión. La entrada de Wikipedia recoge que “Existe un consenso científico casi unánime de que el clima se está calentando y que esto es causado por actividades humanas. Ninguna organización científica de renombre nacional o internacional discrepa de esta opinión.”

En la versión de Grokipedia, en cambio, la palabra “unánime” aparece en un párrafo que señala críticas sobre la supuesta exageración del consenso. El texto sugiere que algunos medios y organizaciones como Greenpeace podrían estar contribuyendo a “alarmismo público elevado” y participando en “esfuerzos coordinados para enmarcar la cuestión como un imperativo existencial” sin siempre basarse en evidencia empírica proporcional.

Ese contraste muestra cómo Grokipedia puede reinterpretar o reequilibrar temas sensibles, lo que genera interrogantes sobre sesgo, verificación y responsabilidad editorial cuando la veracidad depende de un modelo de IA.

Licencias, atribuciones y el rol de Wikipedia

The Verge documenta que, en al menos algunos casos, Grokipedia incluye una atribución explícita a Wikipedia y menciona la licencia Creative Commons Attribution-ShareAlike 4.0. Esa licencia permite la adaptación con ciertas obligaciones de atribución y compartición bajo la misma licencia.

Sin embargo, la mera existencia de una atribución no aclara el proceso de adaptación ni la trazabilidad de cambios, como quién revisó el texto o cómo se verificó la información tras la adaptación por IA.

La Fundación Wikimedia, que opera Wikipedia, fue citada por The Verge. Lauren Dickinson, portavoz de la organización, respondió que

Aun estamos en el proceso de entender como funciona Grokipedia.

Dickinson recordó la naturaleza humana del conocimiento en Wikipedia, sus políticas transparentes y la supervisión voluntaria que ha sostenido la enciclopedia desde 2001.

La declaración completa de Dickinson subraya que Wikipedia es administrada por una organización sin fines de lucro, que no usa anuncios ni vende datos, y que esas características la distinguen de alternativas con fines de lucro.

Reacciones públicas y declaraciones de musk

Musk reconoció que Grok citaba páginas de Wikipedia y escribió que “deberíamos haber solucionado esto para fin de año.”

Esa admisión sugiere que xAI es consciente de la dependencia de fuentes como Wikipedia y que pretende ajustar el funcionamiento de la plataforma con el tiempo.

Fuera de la atribución y la verificación automática, la comunidad y observadores académicos podrían cuestionar la gobernanza editorial, la transparencia en los cambios y la protección de la integridad del conocimiento cuando una IA centraliza la presentación del contenido.

Mientras tanto, Grokipedia exhibe el problema práctico: muchas empresas de IA dependen de texto humano —y en particular de Wikipedia— para entrenar y sustentar productos. La existencia de Grokipedia recuerda que, aunque la tecnología cambia, la fuente humana del conocimiento sigue siendo clave.

Implicaciones para el ecosistema de conocimiento y siguientes pasos

La llegada de Grokipedia plantea varias preguntas abiertas para bibliotecas, educadores, periodistas y desarrolladores de IA. ¿Cómo se debe acreditar y rastrear contenido adaptado por modelos de lenguaje? ¿Qué estándares de verificación deben aplicarse cuando la plataforma afirma que una IA “ha verificado” una entrada?

La respuesta de Wikimedia indica que la organización estudiará el funcionamiento de Grokipedia. Al mismo tiempo, la comunidad de Wikipedia mantiene políticas y una cultura de mejora continua basada en edición humana y consenso.

Para usuarios y consumidores de información, la lección es clara: verificar las fuentes sigue siendo esencial. Las atribuciones y marcas de verificación en una página no sustituyen el conocimiento sobre cómo se generó y revisó cada afirmación.

En lo inmediato, habrá que seguir la evolución de Grokipedia, las declaraciones adicionales de xAI y las reacciones formales de la comunidad Wikimedia. The Verge, a través de Jay Peters, fue la fuente que documentó estos primeros hallazgos y ofreció ejemplos concretos que ahora estarán bajo escrutinio público.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín