En una columna de opinión para el medio The New York Times, Ezra Klein presenta algunas consideraciones sobre el uso de la IA y la forma en la que la sociedad se va adaptando a esta, compartiendo una lectura interesante sobre las posibilidades y riesgos que esto abre para las personas.
***
- El uso intensivo de IA está transformando no solo la tecnología, sino también a sus usuarios.
- Expertos advierten sobre el riesgo de “rendición cognitiva” frente a estos sistemas.
- La relación con la IA evoluciona hacia una extensión de la identidad personal.
En su obra clásica “Understanding Media”, el teórico de la comunicación Marshall McLuhan reflexiona sobre el mito griego de Narciso para ilustrar cómo los seres humanos reaccionan ante las extensiones de sí mismos. En la versión de Ovidio, dicho personaje no se enamora de su reflejo por reconocerlo como propio, sino porque queda fascinado por una proyección externa de su identidad que no logra comprender del todo.
Para McLuhan, este mito no habla de amor propio, sino de una atracción más profunda hacia aquello que amplifica o extiende nuestras capacidades. Su tesis sugiere que las personas tienden a quedar cautivadas por cualquier extensión de sí mismas en un medio distinto, una idea que hoy adquiere nueva relevancia en el contexto de la inteligencia artificial.
La IA como extensión del individuo
En el actual entorno tecnológico, los sistemas de inteligencia artificial comienzan a desempeñar ese rol de extensión descrito por McLuhan. Su naturaleza flexible y adaptable les permite funcionar no solo como herramientas, sino también como representaciones dinámicas de quienes los utilizan.
Ante estas consideraciones Ezra Klein, columnista para The New York Times, presentó unas consideraciones en un artículo de opinión a razón de lo observado durante una reciente visita a San Francisco, centro neurálgico del desarrollo tecnológico, donde sostuvo diversas conversaciones con actores del sector revelaron un cambio notable. Más que enfocarse únicamente en cómo evoluciona la tecnología, la atención se desplaza hacia cómo las personas están siendo transformadas por su interacción constante con estos sistemas.
Este cambio se refleja en la creciente presión por adoptar inteligencia artificial de manera acelerada. En entornos altamente competitivos, la velocidad de integración se percibe como un factor determinante entre ganadores y perdedores, lo que impulsa a individuos y empresas a incorporar estas herramientas de forma cada vez más profunda en su vida cotidiana.
Hacerse legible para la inteligencia artificial
La adopción de IA no se limita al uso superficial de herramientas, sino que implica un proceso más complejo: volverse comprensible para los sistemas. Esto significa estructurar la información personal y organizacional de forma que pueda ser interpretada y utilizada eficazmente por la inteligencia artificial.
Ejemplo de ello es el surgimiento de sistemas como OpenClaw, que operan directamente en dispositivos personales y pueden acceder a archivos, correos electrónicos, calendarios y mensajes. Estas plataformas construyen una memoria persistente del usuario, permitiendo una interacción más contextualizada y eficiente.
Si bien los riesgos en términos de ciberseguridad son evidentes, su adopción masiva responde a una lógica clara: cuanto más conocimiento tiene la inteligencia artificial sobre el usuario, mayor es su utilidad. Este intercambio entre privacidad y funcionalidad redefine la relación entre humanos y tecnología.
Empresas que escriben para la IA
El fenómeno no se limita al ámbito individual. En organizaciones tecnológicas, se observa un esfuerzo creciente por estructurar el conocimiento interno de forma accesible para sistemas de inteligencia artificial.
Esto incluye centralizar el código en bases de datos unificadas, documentar procesos internos y trasladar comunicaciones informales a canales digitales que puedan ser procesados por estos sistemas. Incluso conversaciones cotidianas comienzan a ser capturadas mediante dispositivos diseñados para alimentar a la IA con contexto adicional.
En este entorno, algunas personas reconocen que han comenzado a “escribir para la IA”. Aunque sus textos están dirigidos a otros humanos, también consideran cómo serán interpretados por sistemas automatizados que podrían utilizarlos en el futuro como base de conocimiento.
De asistentes a compañeros cognitivos
A medida que estos sistemas adquieren mayor conocimiento contextual, su rol evoluciona. Una inteligencia artificial sin información profunda sobre el usuario puede funcionar como una mejora sobre los motores de búsqueda tradicionales, pero una IA con acceso a datos personales extensos se percibe de manera diferente.
Algunas personas describen estas relaciones en términos similares a los “daemons” de la trilogía “His Dark Materials”, de Philip Pullman, es decir, como entidades que reflejan y acompañan la identidad del individuo. Estas experiencias, aunque puedan parecer inusuales, comienzan a normalizarse en ciertos entornos tecnológicos.
Sin embargo, esta percepción contrasta con la realidad estructural de estos sistemas, que permanecen bajo el control de corporaciones con intereses comerciales, lo que introduce riesgos potenciales de manipulación y conflicto de intereses.
Entre la delegación y la rendición cognitiva
Uno de los conceptos clave en este debate es la diferencia entre “delegación cognitiva” y “rendición cognitiva”. Mientras que la primera implica transferir tareas específicas a herramientas, la segunda ocurre cuando el usuario adopta el juicio de la inteligencia artificial como propio.
Investigadores como Steven Shaw y Gideon Mave han advertido sobre este fenómeno, señalando que puede conducir a una pérdida progresiva de habilidades cognitivas. Aunque la línea entre ambos conceptos no siempre es clara, la evidencia sugiere que el uso prolongado de herramientas tecnológicas puede erosionar capacidades como el cálculo mental o la orientación espacial.
En el caso de la inteligencia artificial, este riesgo podría ser aún mayor, dado que estos sistemas no solo ejecutan tareas, sino que también reformulan ideas, amplían argumentos y devuelven versiones más pulidas del pensamiento original del usuario.
El riesgo de un reflejo distorsionado
Una de las características más persuasivas de la IA no es su capacidad para halagar, sino su habilidad para reformular ideas de manera convincente. Al hacerlo, devuelve al usuario una versión mejorada de sus propios pensamientos, lo que puede dificultar la evaluación crítica de su validez.
Este proceso puede generar una sensación simultánea de reconocimiento y distorsión. Por un lado, el usuario se siente comprendido; por otro, se enfrenta a una representación parcial de sí mismo, basada únicamente en la información disponible para el sistema.
Además, la tendencia de estos sistemas a establecer conexiones entre interacciones pasadas puede reforzar patrones de pensamiento o comportamiento, incluso aquellos que el usuario ya no considera relevantes. Este efecto podría contribuir a una consolidación prematura de la identidad, especialmente en usuarios más jóvenes.
Un proceso que ya está en marcha
A pesar de la creciente preocupación pública, evidenciada en encuestas recientes que muestran un aumento en la percepción negativa de la inteligencia artificial, su adopción continúa expandiéndose a gran velocidad.
La reflexión final remite nuevamente a McLuhan y a la idea de que las herramientas no solo son utilizadas por las personas, sino que también las transforman. Como señaló el pensador, los entornos creados por los medios no son simples contenedores, sino procesos que moldean a quienes los habitan.
En este sentido, la inteligencia artificial no debe entenderse únicamente como una herramienta pasiva, sino como un sistema activo que influye en la forma en que pensamos, escribimos y nos comprendemos a nosotros mismos. Su impacto, lejos de ser hipotético, ya comienza a manifestarse en la vida cotidiana.
Imagen original de Unsplash, editada por DiarioBitcoin.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bitcoin
Hashrate de Bitcoin cae en 2026 mientras mineros desvían capital hacia IA
Capital de Riesgo
ScaleOps capta USD $130 millones para reducir el despilfarro de cómputo en la era de la IA
Análisis de mercado
TAO cae 2,94% en 24 horas: análisis técnico y fundamental al 30 de marzo de 2026
Empresas