Distilado (del inglés distillation) es una técnica de compresión de modelos de inteligencia artificial que consiste en entrenar un modelo más pequeño (llamado estudiante) para que imite el comportamiento de un modelo grande y complejo (llamado maestro o profesor).
En lugar de aprender directamente de datos etiquetados, el modelo estudiante aprende observando las salidas del modelo maestro —como las probabilidades que asigna a distintas palabras o clases—, lo que le permite capturar patrones y conocimientos de alto nivel con menos parámetros.
El distilado permite crear versiones más livianas de modelos potentes, manteniendo gran parte de su precisión, pero con menor costo computacional, lo que los hace ideales para ejecutarse en teléfonos móviles, navegadores o dispositivos embebidos.
« Volver al índice del glosarioADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Análisis de mercado
Fetch.ai (FET) sube 2,18% en rebote técnico clave el 20 de marzo
Análisis de mercado
Tao sube 10,94% a USD $289,29 en rally impulsado por volumen
Blockchain
WLFI lanza AgentPay SDK para que agentes de IA operen pagos con USD1 en redes EVM
Editorial