Un informe del Pew Research Center muestra que los chatbots de IA ya forman parte del día a día de muchos adolescentes en EE. UU.: los usan para información y tareas escolares, pero también para conversar y, en un 12%, para pedir apoyo emocional o consejo. Expertos en salud mental advierten que estas herramientas no fueron diseñadas para ese rol y podrían acentuar el aislamiento, mientras padres y empresas tecnológicas reaccionan con dudas, restricciones y decisiones polémicas.
***
- Pew Research Center reporta que 64% de adolescentes en EE. UU. usa chatbots de IA; 12% los usa para apoyo emocional o consejo.
- Padres y adolescentes no perciben el uso igual: 51% de los padres cree que sus hijos usan chatbots, frente a 64% que lo afirma.
- Empresas y expertos enfrentan presión: Character.AI desactivó la experiencia para menores de 18 y OpenAI retiró GPT-4o tras reacciones por su uso para soporte emocional.
Los chatbots de inteligencia artificial se han integrado en la vida de los adolescentes en Estados Unidos, de acuerdo con un informe publicado el martes por el Pew Research Center. El estudio retrata un patrón de uso que va más allá de lo académico y entra en el terreno de la conversación y el acompañamiento, reseña TechCrunch.
Entre los usos más comunes, los adolescentes recurren a la IA para buscar información (57%) y para recibir ayuda con el trabajo escolar (54%). Hasta aquí, el fenómeno se parece a la adopción típica de nuevas herramientas digitales: rapidez para resolver dudas, resumir contenidos o aclarar conceptos.
El giro relevante aparece cuando la IA empieza a ocupar espacios que antes recaían en amistades o familiares. Un 16% de los adolescentes en EE. UU. afirma usar la IA para conversaciones casuales, y un 12% dice utilizar chatbots de IA para apoyo emocional o consejo.
Ese 12% no describe una curiosidad aislada. Sugiere que ciertos adolescentes ya perciben a estos sistemas como interlocutores disponibles y sin fricción, un rasgo que, en etapas de vulnerabilidad o soledad, puede convertirse en hábito.
Advertencias desde salud mental: sistemas no diseñados para contener crisis
Que un adolescente encuentre consuelo al hablar con un chatbot puede parecer, en la superficie, una evolución natural de los “compañeros” digitales. Sin embargo, profesionales de la salud mental mantienen cautela: herramientas de propósito general como ChatGPT, Claude y Grok no están diseñadas para sustituir redes humanas de apoyo.
En los escenarios más extremos, el artículo señala que estos chatbots pueden generar efectos psicológicos que amenacen la vida. El punto crítico no es solo el contenido de una respuesta, sino la dinámica: conversaciones prolongadas, dependencia emocional y la ilusión de una relación que no existe en términos humanos.
En palabras del Dr. Nick Haber, profesor de Stanford que investiga el potencial terapéutico de los modelos de lenguaje, existe un riesgo social. “Somos seres sociales, y ciertamente existe un desafío en que estos sistemas puedan ser aislantes”, alegó.
El investigador agregó que hay muchas instancias donde las personas interactúan con estas herramientas y luego pueden no estar conectadas con “el mundo exterior de los hechos”, ni con lo interpersonal. Eso puede derivar en efectos “bastante aislantes”, “si no peores”. Su advertencia es una lectura directa de un problema moderno: tecnología que reduce barreras de conversación, pero que también puede reducir incentivos para pedir ayuda real.
La brecha entre lo que reportan adolescentes y lo que creen los padres
El informe también muestra una discrepancia entre el uso autoinformado por adolescentes y la percepción de sus padres. Aproximadamente 51% de los padres dijo que su adolescente usa chatbots, mientras 64% de los adolescentes reportó usarlos.
Esa diferencia puede leerse como un desfase de visibilidad. Los chatbots viven dentro de apps o sitios web y no siempre dejan rastros evidentes, a diferencia de una red social pública. Para muchas familias, el uso puede confundirse con tareas escolares o navegación general.
Donde sí hay claridad es en la aprobación. La mayoría de los padres se muestra de acuerdo con que sus hijos adolescentes usen IA para buscar información (79%) o para obtener ayuda con tareas escolares (58%). En esos casos, la IA se percibe como herramienta, no como sustituto.
El nivel de aceptación cae cuando el chatbot se vuelve compañía o consejero. Solo 28% de los padres aprueba conversaciones ocasionales con IA, y 18% aprueba el uso para apoyo emocional o consejo. Además, 58% de los padres no está de acuerdo con que su hijo use IA para esos fines. El dato sintetiza el dilema: lo que para el adolescente es privacidad y disponibilidad, para el adulto puede ser riesgo y opacidad.
Empresas bajo presión: restricciones, demandas y retiros de modelos
La seguridad de la IA se ha vuelto un tema polémico entre las principales tecnológicas. En el segmento de chatbots, la discusión se intensifica porque la interacción es íntima y continua, y porque los usuarios pueden proyectar emociones y expectativas sobre un sistema que solo predice texto.
En ese contexto, Character.AI tomó la decisión de desactivar la experiencia de chatbot para usuarios menores de 18 años. La decisión siguió a protestas públicas y a demandas presentadas por los suicidios de dos adolescentes, los cuales ocurrieron después de conversaciones prolongadas con los chatbots de la compañía.
El caso muestra cómo un producto de consumo puede convertirse en tema legal y reputacional cuando su uso deriva en daños graves. También ilustra un reto para el sector: cómo aplicar controles de edad, límites de uso y mecanismos de contención sin romper la propuesta central de “hablar de cualquier cosa” en cualquier momento.
Mientras tanto, OpenAI decidió retirar su modelo particular GPT-4o, el cual provocó una reacción negativa de personas que habían llegado a confiar en el modelo para apoyo emocional. El episodio deja otra lección: cuando el usuario percibe estabilidad emocional en un comportamiento del modelo, un cambio de versión puede sentirse como pérdida, aunque el sistema nunca haya sido una herramienta clínica.
Un futuro incierto: entusiasmo, temor y el impacto social a 20 años
Aunque la mayoría de los adolescentes usa chatbots de IA de alguna manera, sus opiniones sobre el impacto social de la tecnología no son unánimes. El estudio sugiere una mezcla de expectativa y preocupación, típica de tecnologías que prometen eficiencia, pero reconfiguran hábitos y relaciones.
Cuando se les preguntó cómo creen que la IA impactará en la sociedad en los próximos 20 años, 31% de los adolescentes dijo que el impacto sería positivo. En contraste, 26% opinó que sería negativo. No es una mayoría aplastante en ningún sentido, y eso es significativo.
La lectura es que la IA no se percibe solo como “moda”. Para adolescentes, ya es infraestructura cotidiana: ayuda, compañía y, en algunos casos, consejería. Pero también es una fuente de incertidumbre, especialmente cuando su uso entra en el terreno emocional.
En un momento en que los chatbots compiten por usuarios y presencia en el día a día, el dato del 12% funciona como señal de alerta. La pregunta que queda abierta no es si los adolescentes hablarán con IA, sino bajo qué condiciones, con qué límites y con qué tipo de acompañamiento humano alrededor.
Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Gd Culture obtiene luz verde para vender Bitcoin y recomprar acciones por USD $100 millones
Perplexity lanza Perplexity Computer, un agente de IA que promete trabajar por horas o meses
OpenAI defiende anuncios en ChatGPT: “será un proceso iterativo” y promete cuidar privacidad