El Gobierno del Reino Unido quiere acelerar el uso de herramientas de tutoría con IA en escuelas secundarias para ayudar a alumnos desfavorecidos, pero la propuesta ya enfrenta una fuerte resistencia. Activistas, directivos escolares y sindicatos alertan que la tecnología no debe sustituir el apoyo humano, especialmente cuando se trata de estudiantes vulnerables y con necesidades especiales.
***
- El plan contempla herramientas de tutoría con IA para alumnos de entre 13 y 15 años en escuelas piloto desde este trimestre.
- La iniciativa cuenta con un presupuesto de GBP £23 millones y busca ampliar el acceso a tutoría para unos 450.000 estudiantes.
- Críticos advierten que el programa podría poner en riesgo a menores vulnerables si reemplaza apoyo docente probado.
El Reino Unido se encamina a probar herramientas de tutoría con inteligencia artificial en escuelas secundarias tan pronto como este verano, en una iniciativa que ya abrió un debate de alto voltaje sobre el papel de la automatización en la educación. La propuesta, respaldada por la secretaria de Educación Bridget Phillipson, apunta a estudiantes cuyos padres no pueden costear clases particulares.
La idea oficial es que la IA ayude a democratizar un servicio que hoy suele estar fuera del alcance de muchas familias. Sin embargo, la reacción no se ha hecho esperar. Activistas, sindicatos y líderes educativos sostienen que el Gobierno podría estar acelerando la adopción de sistemas todavía no probados en alumnos que requieren más apoyo humano, no menos.
De acuerdo con la información publicada por Daily Mail, el Departamento de Educación dio luz verde a laboratorios de IA y empresas EdTech para desarrollar y probar herramientas de tutoría con IA en escuelas secundarias. Entre los recursos evaluados figuran chatbots capaces de responder preguntas de los alumnos y sistemas que analizan y supervisan su progreso académico.
El programa contempla que las empresas seleccionadas puedan probar estas soluciones en escuelas piloto con jóvenes de entre 13 y 15 años desde este mismo trimestre. Después, si el cronograma se mantiene, las herramientas podrían estar disponibles de forma más amplia hacia finales del próximo año.
Un plan de GBP £23 millones para ampliar la tutoría
La iniciativa forma parte de un plan por GBP £23 millones. El Gobierno sostiene que estas herramientas seguras y personalizadas podrían mejorar los resultados de aprendizaje, con especial foco en alumnos desfavorecidos. La meta declarada es reducir la brecha entre quienes pueden pagar tutoría privada y quienes no.
Según el planteamiento oficial, la tutoría privada puede acelerar el aprendizaje hasta en cinco meses. Bajo esa lógica, llevar apoyo adicional mediante IA permitiría “nivelar el terreno” para cerca de 450.000 alumnos en el Reino Unido. Esa promesa de escala es precisamente uno de los argumentos que más peso tiene a favor del programa.
Para un público acostumbrado a seguir la evolución de la IA en sectores como finanzas, software o atención al cliente, el movimiento no resulta sorprendente. La educación se ha convertido en uno de los campos más observados para la automatización, porque combina altos costos operativos con una gran presión por mejorar resultados y personalizar la experiencia de cada usuario.
Pero la educación también tiene una diferencia clave frente a otros sectores. Aquí no se trata solo de eficiencia. Se trata de menores de edad, procesos de aprendizaje complejos y contextos emocionales y sociales que no siempre encajan en una interfaz conversacional o en un sistema de seguimiento automatizado.
Las críticas: “experimentar con niños desfavorecidos”
Las objeciones más duras apuntan a que el Gobierno estaría utilizando a estudiantes vulnerables como campo de pruebas. Molly Kingsley, cofundadora de SafeScreens, afirmó que, aunque el programa se presenta como una forma de igualar oportunidades, el Departamento de Educación está dejando de lado el apoyo liderado por docentes que estos alumnos más necesitan.
Kingsley también sostuvo que la medida parece priorizar el ahorro de costos sobre una educación con respaldo probado. A su juicio, Bridget Phillipson se adelantó al describir estas herramientas como “seguras”, pese a que la licitación acaba de emitirse, los contratos aún no han sido adjudicados y los sistemas todavía no han sido diseñados ni probados con docentes.
La activista fue más allá al señalar que esto no representa equidad, sino una falsa economía orientada a experimentar con niños desfavorecidos. Ese argumento toca un punto especialmente sensible en el debate tecnológico actual: cuándo una innovación se implementa para ampliar capacidades reales y cuándo se introduce, sobre todo, como mecanismo de reducción de costos.
En el centro de la controversia está una pregunta sencilla, pero difícil de responder. Si una herramienta está en fase de diseño, prueba y ajuste, ¿qué nivel de supervisión debe exigirse antes de ponerla frente a adolescentes que podrían depender de ella para recuperar rezagos de aprendizaje?
Docentes y directivos insisten en el valor de la interacción humana
Jane Lunnon, directora de Alleyn’s School en el sur de Londres, advirtió que las herramientas de IA solo deberían utilizarse para liberar tiempo valioso de los docentes y permitir que lo dediquen directamente a sus alumnos. En su visión, el verdadero apoyo y la chispa del aprendizaje siguen produciéndose en la interacción humana dentro del aula.
Su advertencia resume una preocupación compartida por gran parte del sector educativo. Si la IA se convierte en sustituto y no en apoyo, la promesa tecnológica cambia de naturaleza. Deja de ser una herramienta para potenciar al docente y pasa a ser una posible vía para erosionar el vínculo pedagógico que sostiene buena parte del aprendizaje efectivo.
El secretario general de la Association of School and College Leaders, Pepe Di’Iasio, también fue directo. Dijo que usar IA no sustituye la enseñanza cara a cara. Además, lamentó que, pese a reconocer los beneficios de la tutoría, el Gobierno no parezca dispuesto a reactivar un programa nacional de tutoría.
Para Di’Iasio, cerrar la brecha de desventaja es una tarea enorme que no puede resolverse de forma barata. Añadió que la IA puede ofrecer beneficios, pero no debe considerarse la única solución a un problema tan complejo y arraigado como la desigualdad educativa.
Riesgos adicionales para estudiantes con SEND
Otro frente de preocupación gira en torno a estudiantes con necesidades educativas especiales y discapacidades, conocidos en Reino Unido bajo la sigla SEND. Críticos del plan temen que estas herramientas puedan terminar usándose para reemplazar apoyo docente especializado en lugar de complementarlo.
El Dr. Nic Crossley, director ejecutivo de Liberty Academy Trust, que administra tres escuelas especiales para alumnos autistas, señaló que la IA no puede reemplazar ni replicar el lado humano de la enseñanza. En especial, remarcó que esto es aún más delicado cuando se trata de estudiantes desfavorecidos y de alumnos con SEND.
Crossley añadió que la idea de usar IA como forma de tutoría, incluso bajo supervisión de asistentes docentes, resulta particularmente arriesgada. A su juicio, existe el peligro de reducir el acceso a interacción de alta calidad con el profesor, justo en un ámbito donde la precisión, el contexto y la sensibilidad del acompañamiento importan más que la velocidad de respuesta.
También subrayó que, dado los problemas conocidos de precisión en sistemas de IA, sería esencial una supervisión humana robusta. Esa observación conecta con una discusión más amplia sobre modelos generativos y asistentes automáticos, cuyas respuestas pueden parecer convincentes incluso cuando contienen errores, omisiones o interpretaciones inadecuadas.
Innovación educativa bajo presión política y social
La controversia no implica que el uso de IA en educación esté descartado. Más bien revela que su adopción se encuentra en una etapa de fuerte escrutinio. Los defensores del plan ven una oportunidad para ampliar acceso a la tutoría; sus críticos advierten que la escala no puede imponerse sobre la seguridad, la evidencia pedagógica y la protección de alumnos vulnerables.
El caso británico ilustra un dilema que probablemente se repetirá en otros países. Cuando una herramienta tecnológica promete personalización, monitoreo y ahorro, suele ganar tracción política con rapidez. Sin embargo, en sectores sensibles como educación o salud, esa velocidad choca con la necesidad de validación, controles y límites claros.
En este contexto, la figura del docente sigue apareciendo como el punto de equilibrio. No solo por su papel académico, sino por su capacidad de interpretar señales emocionales, adaptar estrategias y detectar dificultades que una plataforma puede pasar por alto. Esa diferencia es central en el debate actual sobre IA aplicada al aprendizaje.
Por ahora, el plan del Gobierno británico avanza entre promesas de inclusión y acusaciones de imprudencia. Lo que ocurra en las escuelas piloto durante los próximos meses podría convertirse en una referencia clave para medir hasta dónde puede llegar la IA en el aula sin desplazar el componente humano que muchos consideran irremplazable.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Energía
La era de la IA se acelera: chips, robots y energía orbital redefinen 2026
Empresas
Acciones de Qualcomm suben 7,5% tras alianza con OpenAI para chips de IA en smartphones
Empresas
OpenAI reformula su alianza con Microsoft y limita el reparto de ingresos hasta 2030
Empresas