Google presentó Gemini 3 Flash, un nuevo modelo de inteligencia artificial diseñado para ofrecer razonamiento “de frontera” con latencia baja y costos reducidos. La compañía asegura que ya está llegando a millones de personas a nivel global como modelo predeterminado en la app Gemini y en el Modo AI de Búsqueda, mientras que los desarrolladores y empresas podrán usarlo vía API, Vertex AI y Gemini Enterprise.
***
- Google lanzó Gemini 3 Flash el 17 de diciembre de 2025 y lo posiciona como un modelo de “inteligencia de frontera” optimizado para velocidad y eficiencia.
- La empresa destaca resultados como 90,4% en GPQA Diamond, 33,7% en Humanity’s Last Exam (sin herramientas) y 81,2% en MMMU Pro, además de 78% en SWE-bench Verified.
- Gemini 3 Flash se despliega como modelo por defecto en la app Gemini y comienza a ser el estándar en el Modo AI de Búsqueda, con disponibilidad también para desarrolladores y empresas.
🚀🌐 ¡Lanzamiento de Google Gemini 3 Flash!
Un modelo de IA con latencia baja y costos reducidos ya disponible a nivel global.
Ofrece un rendimiento de frontera y es 3 veces más rápido que su predecesor.
Ideal para desarrollo de aplicaciones, análisis complejo y… pic.twitter.com/8mLu6K0UYr
— Diario฿itcoin (@DiarioBitcoin) December 17, 2025
Google anunció el lanzamiento de Gemini 3 Flash, su nuevo modelo de inteligencia artificial enfocado en ofrecer rendimiento de “frontera” con una prioridad clara: velocidad. La compañía presentó el modelo el 17 de diciembre de 2025 y afirmó que busca acercar capacidades avanzadas de razonamiento a un costo menor, con despliegue global para usuarios y disponibilidad para desarrolladores y empresas.
Según explicó la propia empresa en su blog oficial, Gemini 3 Flash forma parte de la familia Gemini 3 y llega después de la introducción de Gemini 3 Pro y del modo Gemini 3 Deep Think. Google aseguró que, desde el día de lanzamiento de esa generación, su API ha procesado más de 1 billón de tokens por día.
En un momento donde la competencia por modelos cada vez más rápidos, capaces y rentables se intensifica, el anuncio apunta a una tensión central del mercado: mejorar la inteligencia sin elevar demasiado la latencia ni el costo. Para comunidades que siguen de cerca tendencias tecnológicas, desde IA aplicada a finanzas hasta automatización de desarrollo, esta combinación se ha vuelto un diferenciador estratégico.
Google enmarcó el lanzamiento como una expansión de acceso: Gemini 3 Flash, dijo, se está implementando para millones de personas en todo el mundo. La disponibilidad abarca consumidores, desarrolladores y compañías, con integraciones en varios productos y plataformas del ecosistema de Google.
Qué es gemini 3 flash y por qué google lo prioriza
Gemini 3 Flash es descrito por Google como un modelo “rápido y rentable” construido para la velocidad. En términos prácticos, la propuesta consiste en conservar la base de razonamiento y capacidades multimodales de la línea Gemini 3, pero con la latencia y la eficiencia típicas de la serie Flash.
La empresa sostuvo que el modelo ofrece “razonamiento de nivel profesional” a la velocidad de Flash y a un costo más bajo. También lo recomendó para escenarios como codificación, análisis complejo y respuestas rápidas en aplicaciones interactivas, donde cada milisegundo puede afectar la experiencia del usuario.
En su explicación, Google enfatizó que Gemini 3 Flash puede modular “cuánto piensa”. Eso significa que puede extender el tiempo de deliberación para casos complejos, pero también completar tareas cotidianas con menos gasto de tokens cuando no hace falta un razonamiento prolongado.
De acuerdo con la compañía, en mediciones hechas sobre tráfico típico, Gemini 3 Flash utiliza 30% menos tokens en promedio que Gemini 2.5 Pro. Ese recorte, según el enfoque habitual de la industria, puede traducirse en costos menores en producción y en márgenes operativos más manejables para productos basados en IA.
Benchmarks y desempeño: lo que google afirma haber medido
Google respaldó el lanzamiento con cifras de desempeño en varios puntos de referencia. La compañía afirmó que Gemini 3 Flash entrega rendimiento de frontera en razonamiento y conocimiento, con 90,4% en GPQA Diamond y 33,7% en Humanity’s Last Exam sin herramientas.
La empresa agregó que el modelo rivaliza con modelos de frontera más grandes y que supera de forma significativa a Gemini 2.5 Pro en numerosos benchmarks. En esa misma línea, dijo que alcanza una puntuación de 81,2% en MMMU Pro, comparándola con el desempeño de Gemini 3 Pro.
En el terreno de programación y agentes, Google destacó el benchmark SWE-bench Verified, utilizado para evaluar capacidades de agentes de codificación. Allí, según la compañía, Gemini 3 Flash obtuvo 78% y superó tanto a la serie 2.5 como a Gemini 3 Pro.
Más allá de los números, el mensaje de producto es claro: Google busca convencer de que la velocidad no implica renunciar a la inteligencia. En un contexto donde la IA también compite por presupuesto, esta narrativa se alinea con el foco en eficiencia y con el interés de empresas que operan grandes volúmenes de inferencia.
Precio, velocidad y el argumento de eficiencia
Google afirmó que Gemini 3 Flash supera a Gemini 2.5 Pro mientras es 3 veces más rápido, con base en una comparación citada a Artificial Analysis. Ese dato se acompaña de un discurso sobre el “frente de Pareto” entre calidad, costo y velocidad, un concepto recurrente cuando se evalúa qué modelo conviene desplegar.
En precios, la compañía detalló que Gemini 3 Flash cuesta USD $0,50 por 1M de tokens de entrada y USD $3 por 1M de tokens de salida. También indicó que la entrada de audio mantiene un precio de USD $1 por 1M de tokens de entrada.
Estas cifras son relevantes para desarrolladores que presupuestan productos de alto uso, como chatbots, asistentes de investigación, herramientas de análisis y flujos de trabajo de automatización. En mercados sensibles al gasto, incluso variaciones pequeñas por millón de tokens pueden alterar costos mensuales de forma material.
Google también presentó a Gemini 3 Flash como una opción para desarrollo iterativo. En su narrativa, el modelo puede razonar y resolver tareas con baja latencia en flujos de trabajo de alta frecuencia, lo que apunta a usos como depuración, generación de código bajo demanda y agentes que operan de manera continua.
Disponibilidad: app gemini, modo AI en búsqueda y plataformas para developers
El despliegue se anunció como amplio. Google señaló que Gemini 3 Flash está disponible para desarrolladores mediante la API de Gemini en Google AI Studio, Gemini CLI y una nueva plataforma de desarrollo agente llamada Google Antigravity.
Para usuarios generales, la compañía indicó que el modelo ya es el predeterminado en la aplicación Gemini, reemplazando a 2.5 Flash. Bajo ese esquema, Google afirmó que los usuarios de Gemini en todo el mundo tendrán acceso a la experiencia Gemini 3 sin costo.
El anuncio también incluye el Modo AI en Búsqueda. Google sostuvo que Gemini 3 Flash comienza a implementarse como el modelo predeterminado para esa modalidad, con acceso para todos en todo el mundo.
En el frente corporativo, la disponibilidad se amplía a Vertex AI y Gemini Enterprise. Google aseguró que el modelo ya puede usarse en esas ofertas orientadas a organizaciones que requieren controles, escalabilidad y despliegues con gobernanza.
Capacidades multimodales: ver, escuchar y actuar más rápido
Google resaltó que, por sus capacidades multimodales, Gemini 3 Flash puede ayudar a “ver, escuchar y entender” información con rapidez. Entre los ejemplos, mencionó la posibilidad de pedirle al sistema que entienda videos e imágenes y que convierta ese contenido en un plan útil y accionable en segundos.
La compañía también dijo que el modelo está optimizado para la velocidad al punto de poder “ver y adivinar” lo que el usuario está dibujando mientras aún lo está bocetando. Este tipo de interacción apunta a experiencias creativas con retroalimentación casi inmediata.
Otro caso de uso descrito por Google consiste en cargar una grabación de audio para que el modelo identifique brechas de conocimiento, cree un cuestionario personalizado y entregue explicaciones detalladas sobre las respuestas. En términos de producto, esto se acerca a asistentes de estudio y entrenamiento guiado.
Además, Google afirmó que los usuarios podrían crear aplicaciones desde cero usando la voz, incluso sin conocimientos previos de programación. Según su descripción, el usuario dicta ideas y el sistema las transforma en una aplicación funcional en minutos.
Empresas y adopción: jetbrains, bridgewater y figma aparecen en el anuncio
Google afirmó haber recibido una “respuesta tremenda” de empresas que utilizan Gemini 3 Flash. En el texto del anuncio, la compañía nombró a JetBrains, Bridgewater Associates y Figma como organizaciones que ya lo estarían usando para transformar sus negocios.
De acuerdo con la empresa, estas compañías reconocerían que la velocidad de inferencia, la eficiencia y las capacidades de razonamiento del modelo están a la par con modelos más grandes. El argumento sugiere que, para ciertos flujos de trabajo, un modelo más ágil puede competir con alternativas de mayor tamaño.
El énfasis en agentes también es consistente con la tendencia del sector: no solo se trata de responder preguntas, sino de ejecutar tareas encadenadas, usar herramientas, operar sobre datos y sostener procesos. Google sostuvo que Gemini 3 Flash no solo sirve para tareas diarias, sino que es su modelo “más impresionante” para flujos de trabajo agente.
Para el ecosistema tecnológico, este tipo de despliegue puede influir en cómo se diseñan productos basados en IA, desde asistentes empresariales hasta automatización de análisis. Aunque el anuncio no aborda casos ligados a mercados financieros o cripto de forma directa, la infraestructura de modelos rápidos y baratos suele ser un habilitador transversal.
Una carrera de IA cada vez más relevante para mercados digitales
El lanzamiento se ubica en un ciclo de innovación acelerado, donde el costo por inferencia y la latencia se han convertido en métricas tan decisivas como la precisión. En sectores conectados a cripto, trading algorítmico y análisis de sentimiento, la velocidad de respuesta y el costo operativo pueden definir qué herramientas llegan a producción.
También crece la importancia de los modelos multimodales, que pueden incorporar señales de audio, imagen y video. Para usuarios que consumen grandes volúmenes de información digital, la promesa de transformar contenido en planes accionables en segundos sugiere flujos de trabajo más automatizados.
Google, por su parte, cerró su anuncio invitando a “probar Gemini 3 Flash hoy” en vista previa a través de la API de Gemini en Google AI Studio, Google Antigravity, Vertex AI y Gemini Enterprise. También mencionó herramientas de desarrollo como Gemini CLI y Android Studio, y reiteró el despliegue en la app Gemini y en el Modo AI en Búsqueda.
La compañía proyectó este lanzamiento como parte de una familia expandida, junto con Gemini 3 Pro y Gemini 3 Deep Think. Con ello, refuerza la idea de ofrecer opciones para distintos perfiles de uso, desde razonamiento más profundo hasta experiencias interactivas donde la velocidad manda.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Google presenta Disco, un navegador experimental con GenTabs impulsadas por Gemini 3
Minero de Bitcoin Hut 8 firma acuerdo de IA por USD $7.000 millones respaldado por Google
Xiaomi presenta MiMo-V2-Flash: su modelo abierto ultra rápido para agentes de IA
