Distilado (del inglés distillation) es una técnica de compresión de modelos de inteligencia artificial que consiste en entrenar un modelo más pequeño (llamado estudiante) para que imite el comportamiento de un modelo grande y complejo (llamado maestro o profesor).
En lugar de aprender directamente de datos etiquetados, el modelo estudiante aprende observando las salidas del modelo maestro —como las probabilidades que asigna a distintas palabras o clases—, lo que le permite capturar patrones y conocimientos de alto nivel con menos parámetros.
El distilado permite crear versiones más livianas de modelos potentes, manteniendo gran parte de su precisión, pero con menor costo computacional, lo que los hace ideales para ejecutarse en teléfonos móviles, navegadores o dispositivos embebidos.
« Volver al índice del glosarioADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Citi proyecta Bitcoin a USD $143.000 para finales de 2026
FED evalúa la creación de cuentas de pago limitadas que podrían beneficiar a empresas cripto
SoFi presenta SoFiUSD, la primera stablecoin emitida por un banco nacional estadounidense