Perplejidad es una métrica que se utiliza comúnmente para evaluar el rendimiento de los modelos de lenguaje. En términos simples, mide qué tan bien un modelo predice una secuencia de palabras. Cuanto menor sea la perplejidad, mejor es la capacidad del modelo para anticipar correctamente las palabras que vienen a continuación en un texto.

Técnicamente, la perplejidad es la exponencial de la pérdida logarítmica promedio del modelo sobre un conjunto de datos. Por ejemplo, una perplejidad de 10 significa que, en promedio, el modelo considera que hay unas 10 opciones igualmente probables para la próxima palabra. Si la perplejidad baja a 2, el modelo es mucho más seguro en sus predicciones. Es una métrica clave para saber si un modelo sigue siendo útil después de procesos como la cuantización o el distilado.

« Volver al índice del glosario

ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín