Distilado (del inglés distillation) es una técnica de compresión de modelos de inteligencia artificial que consiste en entrenar un modelo más pequeño (llamado estudiante) para que imite el comportamiento de un modelo grande y complejo (llamado maestro o profesor).
En lugar de aprender directamente de datos etiquetados, el modelo estudiante aprende observando las salidas del modelo maestro —como las probabilidades que asigna a distintas palabras o clases—, lo que le permite capturar patrones y conocimientos de alto nivel con menos parámetros.
El distilado permite crear versiones más livianas de modelos potentes, manteniendo gran parte de su precisión, pero con menor costo computacional, lo que los hace ideales para ejecutarse en teléfonos móviles, navegadores o dispositivos embebidos.
« Volver al índice del glosarioADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados

Synthetix (SNX) repunta 20% en 24 horas: Impulso del concurso de trading de USD $1 millón

Zec impulsa un repunte del 7% en 24 horas: Análisis del auge por demanda de privacidad

Dash alcanza repunte del 10%: Análisis del impulso alcista en octubre 2025
