GPT es el acrónimo de “Generative Pretrained Transformer”, que se puede traducir al español como “Transformador Preentrenado Generativo”. Es una arquitectura de modelo de lenguaje desarrollada por OpenAI.
El GPT está diseñado para generar texto que se asemeje al texto humano. Para ello, se entrena en grandes cantidades de texto y luego utiliza lo que ha aprendido para generar nuevas piezas de texto.
Una característica clave de los modelos GPT es que son “transformadores”, lo que significa que utilizan una estructura de red neuronal especializada para manejar datos de secuencia, como el texto. Los transformadores son particularmente buenos para comprender el contexto a largo plazo en una secuencia de texto.
« Volver al índice del glosarioADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados

Mercado inmobiliario tokenizado rumbo a los USD $4 billones en 2035, anticipa Deloitte

Capitalización de las stablecoins podría alcanzar los USD $3,7 billones para 2030, proyecta Citigroup

Banco holandés ING entre los que visualizan lanzar su propia stablecoin
