Grammarly desactivó una función de revisión experta basada en inteligencia artificial luego de recibir críticas de autores y periodistas, en un nuevo episodio que refleja la tensión creciente entre herramientas de IA y los límites éticos del trabajo editorial.
***
- Grammarly dio marcha atrás con una función de IA llamada “Expert Review” tras el rechazo de autores y periodistas.
- La controversia reavivó el debate sobre consentimiento, atribución y uso de contenidos humanos en productos de inteligencia artificial.
- El caso ilustra la presión pública que enfrentan las empresas tecnológicas cuando introducen funciones de IA en tareas creativas y editoriales.
Grammarly desactivó su función de revisión experta con inteligencia artificial después de enfrentar críticas de autores y periodistas, según reportó Decrypt. La decisión llega en medio de un debate cada vez más intenso sobre el papel de la IA en tareas asociadas a la escritura, la edición y la revisión profesional.
El episodio volvió a poner sobre la mesa una pregunta que atraviesa a buena parte de la industria tecnológica. Hasta dónde puede llegar una herramienta automatizada cuando entra en terrenos que antes dependían del criterio, la firma y la experiencia de especialistas humanos.
Para lectores menos familiarizados con este mercado, Grammarly es una de las plataformas de asistencia de escritura más conocidas del ecosistema digital. Su software se usa para corregir gramática, mejorar estilo, reescribir frases y ofrecer sugerencias de tono, tanto en entornos académicos como corporativos.
La controversia surgió por una característica identificada como “Expert Review”, una etiqueta que generó malestar entre profesionales de la escritura y del periodismo. Las críticas apuntaron al uso del término “experto” en una función impulsada por inteligencia artificial, así como a la forma en que la empresa presentó esta capacidad.
Una retirada tras el rechazo del sector editorial
De acuerdo con la información publicada por Decrypt, Grammarly optó por desactivar la función luego del rechazo de autores y periodistas. La respuesta de la compañía sugiere que la presión pública fue suficiente para forzar una corrección rápida en el producto.
El punto más sensible de la polémica no fue solo técnico. También fue semántico y profesional. En sectores donde el prestigio, la reputación y la autoría son fundamentales, la palabra “experto” tiene un peso particular y no suele aceptarse como simple recurso de marketing.
Para muchos críticos, una herramienta algorítmica no puede equipararse sin matices al juicio de un editor, un reportero o un escritor con trayectoria. Esa percepción se vuelve aún más fuerte cuando la IA se presenta como sustituto de un proceso intelectual que depende de contexto, intención y responsabilidad pública.
El caso de Grammarly ocurre además en un momento en que numerosas empresas de software están añadiendo funciones generativas a productos ya masificados. En varios casos, el problema no es solo la incorporación de IA, sino cómo se etiqueta, qué expectativas crea y qué trabajo humano parece desplazar.
El trasfondo de una tensión más amplia entre IA y creatividad
La reacción de autores y periodistas no apareció en el vacío. Durante los últimos dos años, industrias creativas y medios han cuestionado el uso de modelos de inteligencia artificial entrenados con enormes volúmenes de texto, imágenes y obras publicadas sin que siempre exista claridad sobre licencias, atribución o consentimiento.
En ese contexto, cada nuevo producto de IA se examina con más detalle. Las empresas deben enfrentar no solo preguntas sobre precisión, sino también sobre legitimidad. Cuando una función sugiere autoridad editorial o revisión especializada, la sensibilidad aumenta todavía más.
Para escritores y periodistas, el problema tiene una dimensión laboral y otra ética. Por un lado, existe temor a la sustitución o degradación del trabajo profesional. Por otro, preocupa que el público termine confundiendo una salida automatizada con una evaluación fundamentada por alguien con experiencia demostrable.
La decisión de Grammarly parece reconocer, al menos de forma implícita, que ese terreno exige cautela. Aunque las herramientas de apoyo pueden ser útiles para acelerar flujos de trabajo, su adopción no siempre resulta lineal cuando entran en conflicto con oficios construidos sobre criterio humano, confianza y responsabilidad autoral.
Por qué el lenguaje importa en productos basados en IA
El caso también revela un aspecto clave del negocio de la inteligencia artificial. Las funciones no se discuten solo por lo que hacen, sino por cómo se nombran. En tecnología, el etiquetado de una herramienta puede amplificar su recepción positiva o, como ocurrió aquí, desatar una reacción adversa inmediata.
Llamar “revisión experta” a una función automatizada puede interpretarse como una promesa de calidad equivalente a la de un profesional humano. En ámbitos como el periodismo, donde la verificación, la precisión y el contexto son esenciales, esa equiparación se percibe como especialmente delicada.
Además, la controversia expone una brecha entre la narrativa comercial de muchas plataformas de IA y la percepción de sus usuarios más críticos. Para las empresas, estas funciones pueden presentarse como asistentes eficientes. Para los profesionales, sin embargo, pueden parecer apropiaciones simbólicas de competencias que requieren años de práctica.
Ese choque de visiones se está volviendo común en la industria. La velocidad de lanzamiento de nuevas capacidades suele superar el tiempo necesario para construir consensos sociales sobre qué usos son aceptables y cuáles cruzan líneas sensibles para comunidades profesionales específicas.
Una señal para toda la industria tecnológica
La marcha atrás de Grammarly podría ser leída como un episodio puntual, pero también como una señal más amplia para empresas que desarrollan herramientas de IA. La aceptación del mercado no depende solo de la innovación técnica. También depende de la confianza, de la transparencia y de la manera en que se respetan identidades profesionales consolidadas.
En especial, las compañías que operan en sectores vinculados con conocimiento, medios, educación o creación de contenidos enfrentan un escrutinio mayor. No basta con prometer productividad. También deben demostrar que entienden los límites sociales y culturales del trabajo que buscan asistir o transformar.
Este tipo de reacción pública puede influir en futuros lanzamientos. Las tecnológicas probablemente tendrán que ser más precisas al describir qué hace una función, qué no hace, y en qué medida depende de sistemas automatizados en vez de intervención humana calificada.
Por ahora, el episodio deja una lección clara. En la era de la inteligencia artificial, las herramientas no solo compiten por eficiencia. También compiten por legitimidad. Y cuando una empresa parece atribuir a una máquina un nivel de experticia que muchos usuarios reservan para personas reales, el costo reputacional puede llegar con rapidez.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
xAI tropieza con Macrohard mientras Tesla acelera su propio agente de IA
Capital de Riesgo
Mind Robotics capta USD $500 millones y acelera la carrera por robots industriales con IA
Empresas
Google completa la compra de Wiz por USD $32.000 millones y marca récord en su historia comercial
Capital de Riesgo