Por Canuto  

La controversia por el uso de identidades en herramientas de inteligencia artificial sumó un nuevo frente legal luego de que una escritora demandara a Grammarly por utilizar nombres de autores y expertos sin su consentimiento en una función que simulaba comentarios editoriales.
***

  • Julia Angwin presentó una demanda colectiva contra la empresa matriz de Grammarly por presunta violación de derechos de privacidad y publicidad.
  • La función “Revisión de Expertos” imitaba el estilo de figuras como Stephen King, Carl Sagan, Kara Swisher y Timnit Gebru.
  • Tras las críticas, Grammarly desactivó la herramienta, aunque su CEO defendió la idea detrás del producto.

 

Grammarly enfrenta una nueva polémica vinculada al uso de inteligencia artificial y derechos de identidad. La periodista Julia Angwin presentó una demanda colectiva contra Superhuman, empresa matriz propietaria de la entidad, luego de que la plataforma lanzara una función que simulaba retroalimentación editorial como si proviniera de escritores, periodistas y expertos reconocidos, sin haber obtenido su autorización.

El caso abre un debate sensible dentro de la economía digital. A medida que las herramientas de IA generativa se expanden en software de productividad, también aumentan las preguntas sobre los límites entre inspiración, automatización y apropiación de reputación ajena. En este episodio, la controversia no gira solo en torno a textos creados por IA, sino a la comercialización de una supuesta experiencia editorial asociada con personas reales.

De acuerdo con la información publicada por TechCrunch, la función fue lanzada la semana pasada bajo el nombre “Revisión de Expertos”. La herramienta permitía a los usuarios de pago recibir comentarios generados por IA que imitaban la voz o el criterio de figuras como el novelista Stephen King, el fallecido científico Carl Sagan o la periodista tecnológica Kara Swisher.

El acceso a esa característica estaba limitado a suscriptores que pagan USD $144 al año. Sin embargo, el problema central no fue el precio, sino que Grammarly no pidió permiso a los cientos de expertos cuyos nombres aparecían dentro de esa experiencia. Esa decisión activó críticas públicas y ahora también una acción judicial con potencial de sumar a más demandantes.

La demanda y el reclamo de Julia Angwin

Julia Angwin, una de las escritoras afectadas, decidió encabezar la ofensiva legal mediante una demanda colectiva. Ese tipo de recurso permite que otras personas supuestamente perjudicadas por la misma práctica se sumen al caso. Según su argumento, Superhuman violó los derechos de privacidad y publicidad de ella y de otros autores al convertir sus nombres e identidades profesionales en parte de un producto comercial.

Angwin expresó además un malestar personal y profesional con la iniciativa. “He trabajado durante décadas mejorando mis habilidades como escritora y editora, y me angustia descubrir que una empresa tecnológica está vendiendo una versión impostora de mi experiencia duramente adquirida”, señaló en un comunicado citado en la cobertura original.

El caso tiene una carga simbólica adicional. Angwin ha dedicado buena parte de su carrera a investigar el impacto de las empresas tecnológicas sobre la privacidad. Por eso, su aparición como demandante en una disputa de esta naturaleza refuerza la dimensión ética del conflicto y no solo su costado comercial o corporativo.

Entre las personas incluidas en la función también figuraba Timnit Gebru, reconocida por sus posturas críticas frente a ciertos desarrollos en inteligencia artificial. Que una figura asociada a la ética de IA apareciera en esta herramienta sin consentimiento aumentó el nivel de ironía y también la intensidad del cuestionamiento público.

Una función llamativa, pero con resultados pobres

Más allá del debate legal, la utilidad real de la función también fue puesta en duda. La promesa de recibir una crítica reflexiva inspirada en voces expertas sonaba atractiva en el papel. Sin embargo, las primeras pruebas públicas sugirieron que la calidad de la retroalimentación estaba lejos de justificar el uso de identidades tan reconocibles.

Casey Newton, fundador y editor del boletín tecnológico Platformer, también fue una de las personas suplantadas por Grammarly. Newton probó la función con uno de sus propios artículos y recibió comentarios generados por la versión de IA que imitaba a Kara Swisher. El resultado, según se relató, fue tan genérico que dejó abierta una pregunta básica: por qué la empresa asumió el costo reputacional y legal de usar nombres reales si la retroalimentación no ofrecía un valor editorial distintivo.

El mensaje de la aproximación de Kara Swisher creado por Grammarly decía: “¿Podrías comparar brevemente cómo los usuarios diarios de IA frente a los escépticos de IA articulan el riesgo, creando un hilo conductor que los lectores puedan seguir?”. La observación suena funcional, pero también bastante amplia y poco específica, especialmente si se la compara con el estilo más punzante y personal que suele caracterizar a la periodista real.

Newton decidió reenviar ese comentario a la verdadera Kara Swisher. La respuesta fue contundente y cargada de molestia. “Ustedes, ladrones de información e identidad voraces, mejor prepárense para que vaya a todo McConaughey sobre ustedes”, escribió Swisher por mensaje de texto en referencia a Grammarly. Luego añadió: “Además, apestan”.

La respuesta de Grammarly y el debate de fondo

Tras la reacción pública, Grammarly desactivó la función “Revisión de Expertos”. La medida fue confirmada por Shishir Mehrotra, CEO de Superhuman, en una publicación en LinkedIn. Aunque ofreció disculpas por lo ocurrido, su mensaje dejó claro que la compañía no abandonó del todo la lógica que inspiró el producto.

Mehrotra sostuvo que la idea apuntaba a replicar en formato digital una relación útil entre usuarios y figuras expertas. “Imagina a tu profesor afinando tu ensayo, a tu líder de ventas reformulando una presentación al cliente, a un crítico reflexivo desafiando tus argumentos, o a un experto destacado elevando tu propuesta”, escribió. “Para los expertos, esta es una oportunidad de construir ese mismo vínculo ubicuo con los usuarios, al igual que lo ha hecho Grammarly.”

Ese argumento refleja una tensión creciente en la industria de IA. Las empresas tecnológicas suelen presentar este tipo de herramientas como formas de escalar conocimiento especializado. Pero cuando ese conocimiento se asocia de forma explícita con nombres, trayectorias e identidades reconocibles, entran en juego derechos de imagen, reputación y control sobre el uso comercial de la persona.

El episodio también recuerda que no toda personalización basada en IA es equivalente. Una cosa es pedirle a un sistema que ofrezca comentarios en tono académico, periodístico o narrativo. Otra muy distinta es empaquetar esa experiencia como si fuera una aproximación comercial a la mente o criterio de personas reales que no autorizaron el uso de su nombre.

Por ahora, la herramienta fue retirada, pero el litigio podría convertirse en un caso de referencia sobre suplantación identitaria en productos de IA orientados al consumo masivo. Si más escritores y expertos deciden unirse a la demanda colectiva, Grammarly y su empresa matriz podrían enfrentar un conflicto más amplio sobre los límites legales del diseño de asistentes inteligentes basados en personas públicas.

En un mercado donde las compañías compiten por diferenciar sus productos de escritura asistida, la controversia muestra que la innovación rápida no elimina la necesidad de consentimiento. También deja una señal para otras plataformas de IA: convertir reputación humana en funcionalidad de software sin permiso puede derivar no solo en críticas, sino en consecuencias legales de alto perfil.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín