Distilado (del inglés distillation) es una técnica de compresión de modelos de inteligencia artificial que consiste en entrenar un modelo más pequeño (llamado estudiante) para que imite el comportamiento de un modelo grande y complejo (llamado maestro o profesor).

En lugar de aprender directamente de datos etiquetados, el modelo estudiante aprende observando las salidas del modelo maestro —como las probabilidades que asigna a distintas palabras o clases—, lo que le permite capturar patrones y conocimientos de alto nivel con menos parámetros.

El distilado permite crear versiones más livianas de modelos potentes, manteniendo gran parte de su precisión, pero con menor costo computacional, lo que los hace ideales para ejecutarse en teléfonos móviles, navegadores o dispositivos embebidos.

« Volver al índice del glosario

ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín