Una investigación independiente asegura que Google Chrome puede descargar en silencio un modelo local de Gemini Nano de unos 4 GB en equipos compatibles. El caso reabre el debate sobre consentimiento, transparencia, control del usuario, procesamiento local de IA y hasta el costo ambiental de desplegar software pesado a gran escala.
***
- Un investigador documentó la aparición de un archivo llamado weights.bin dentro del directorio OptGuideOnDeviceModel en perfiles de Chrome.
- El reporte sostiene que la descarga ocurre sin consentimiento explícito y que, si el usuario la elimina, Chrome puede volver a instalarla.
- Además de los cuestionamientos legales y de privacidad, el autor estima que el despliegue podría implicar un costo climático relevante a escala global.
Google Chrome enfrenta nuevas críticas luego de que una investigación independiente afirmara que el navegador instala silenciosamente un modelo local de inteligencia artificial de aproximadamente 4 GB en ciertos dispositivos compatibles. El archivo, identificado como weights.bin, estaría asociado a Gemini Nano y aparecería dentro del directorio OptGuideOnDeviceModel sin una solicitud previa de consentimiento al usuario.
La denuncia fue presentada por Alexander Hanff en el artículo Google Chrome silently installs a 4 GB AI model on your device without consent. At a billion-device scale the climate costs are insane.. Allí sostiene que Chrome activa la descarga como parte de funciones de IA del navegador y que el proceso puede repetirse incluso después de que el usuario borre manualmente el archivo.
El tema resulta relevante más allá del ecosistema de navegadores. En un contexto donde la IA generativa gana espacio en sistemas operativos, motores de búsqueda y aplicaciones de productividad, también crece el escrutinio sobre cómo se distribuyen estos modelos, qué recursos consumen y quién decide cuándo deben instalarse en el hardware personal.
Según el reporte, el archivo pesa cerca de 4 GB y forma parte de Gemini Nano, el modelo local de Google para funciones como asistencia de escritura, detección de estafas y otras herramientas de IA integradas en Chrome. Hanff asegura que no existe una casilla visible en la configuración inicial que informe de forma clara que el navegador descargará un modelo de ese tamaño en el equipo.
Qué encontró la investigación
El autor explica que buscó evidencia en un perfil limpio de Apple Silicon creado para tareas automatizadas de auditoría. Su sistema, destinado a revisar sitios web mediante Chrome DevTools Protocol, cargaba páginas, esperaba cinco minutos y cerraba el navegador entre pruebas, pero no recibía interacción humana directa con teclado o ratón.
De acuerdo con su reconstrucción, el perfil fue creado el 23 de abril de 2026 y para el 29 de abril ya contenía unos 4 GB de pesos en OptGuideOnDeviceModel. Para rastrear el origen de los archivos, Hanff recurrió al registro del sistema de archivos de macOS, .fseventsd, que documenta creaciones, cambios y eliminaciones de archivos a nivel del kernel.
Con base en esos eventos, el directorio OptGuideOnDeviceModel se habría creado el 24 de abril de 2026 a las 16:38:54 CEST. Luego, a las 16:47:22 CEST, varios procesos de descompresión temporales generaron archivos como weights.bin, manifest.json, verified_contents.json y configuraciones de ejecución vinculadas al modelo.
Más tarde, a las 16:53:22 CEST, el archivo habría sido movido a su ubicación final en OptGuideOnDeviceModel/2025.8.8.1141/weights.bin, junto con otros elementos como adapter_cache.bin, encoder_cache.bin y metadatos de validación. El tiempo total del proceso, desde la creación del directorio hasta la ubicación final del binario, fue de 14 minutos y 28 segundos, siempre según la cronología del investigador.
Hanff añade que el perfil no recibió acción humana durante esa ventana. El punto central de su argumento es que el navegador habría instalado un modelo de IA completo en segundo plano mientras una pestaña permanecía abierta o en espera, sin una interacción que permitiera interpretar la acción como una decisión informada del usuario.
Las pruebas citadas y el mecanismo de descarga
La investigación no se limita a los eventos del sistema de archivos. También menciona entradas en el archivo Local State de Chrome, donde aparece un bloque optimization_guide.on_device con datos como model_validation_result, número de intentos, resultado de validación y la versión del componente, en este caso 2025.8.8.1141.
Ese mismo bloque, sostiene el autor, incluye información del hardware como performance_class: 6 y vram_mb: “36864”. Su interpretación es que Chrome evalúa CPU, GPU, memoria unificada y otros recursos para decidir si el dispositivo es apto para recibir el modelo local.
Además, el informe señala que en el archivo ChromeFeatureState aparecían habilitadas funciones como OnDeviceModelBackgroundDownload y ShowOnDeviceAiSettings. Para Hanff, esto sugiere que la descarga en segundo plano y la exposición posterior de controles de IA forman parte del mismo despliegue, lo que implicaría que la instalación puede arrancar antes de que el usuario vea una interfaz clara para administrarla.
El texto también menciona registros de GoogleUpdater que habrían descargado un componente de control del modelo desde una dirección de Google vinculada a diffgen-puffin. Ese paquete, de unos 7 MB, se habría instalado antes de la creación del perfil auditado y serviría como plano de control para que luego Chrome obtenga los pesos de varios gigabytes desde la infraestructura de distribución de Google.
Con esos elementos, Hanff afirma haber reunido cuatro capas de evidencia: los eventos del sistema de archivos de macOS, el estado interno del perfil de Chrome, las banderas de funciones activas y los registros del actualizador de componentes. En su visión, las cuatro apuntan al mismo comportamiento: una instalación no solicitada de Gemini Nano en el disco del usuario.
Privacidad, consentimiento y diseño del producto
Uno de los aspectos más duros del artículo es su crítica al diseño de la experiencia de usuario. El autor compara este caso con un episodio previo que atribuyó a Anthropic y sostiene que ambos comparten patrones similares: funciones activadas por defecto, falta de una aceptación explícita, reinstalación tras el borrado manual y escasa visibilidad para el usuario promedio.
Según su planteamiento, el problema no es solo técnico, sino de confianza. Un usuario puede instalar un navegador para navegar por la web, pero no esperar que ese mismo software use su almacenamiento local y ancho de banda para descargar un modelo de IA de gran tamaño sin una advertencia frontal y comprensible.
Hanff también cuestiona el nombre del directorio, OptGuideOnDeviceModel, al considerar que resulta poco transparente para la mayoría de las personas. En lugar de identificar claramente que se trata de un modelo local de Gemini Nano, el término emplea jerga técnica interna de Chrome que, en su opinión, dificulta descubrir qué ocupa espacio en el disco.
Otro punto delicado de su análisis es la relación entre la IA local y el llamado “AI Mode” de la barra de direcciones de Chrome. El autor sostiene que un usuario razonable podría inferir que esa función visible usa el modelo local ya descargado, cuando en realidad describe esa experiencia como una capa apoyada en la nube, donde las consultas se envían a los servidores de Google y no al modelo local Nano.
En consecuencia, argumenta que el usuario asume los costos de almacenamiento y descarga del modelo local, mientras la superficie de IA más visible seguiría procesando solicitudes en la nube. Para el investigador, eso reduce el supuesto beneficio de privacidad que tendría ejecutar tareas localmente en el equipo.
El debate legal y el costo ambiental
El artículo va más allá del plano técnico y plantea posibles implicaciones jurídicas en Europa y Reino Unido. Hanff interpreta que una práctica así podría chocar con el artículo 5(3) de la Directiva ePrivacy, así como con principios del RGPD relacionados con licitud, transparencia y protección de datos desde el diseño.
También menciona marcos como la CCPA en California y llega a sugerir que, dependiendo de la jurisdicción, podrían existir preguntas sobre uso indebido de sistemas informáticos. Sin embargo, esas conclusiones corresponden al análisis del autor y no equivalen a una resolución judicial ni a un pronunciamiento regulatorio formal.
Donde su texto intenta marcar una diferencia es en el impacto climático del despliegue. Usando una metodología propia basada en una intensidad energética de red de 0,06 kWh por GB y un factor de emisiones de 0,25 kg CO2e por kWh, calcula que entregar un modelo de 4 GB equivale a 0,24 kWh y a 0,06 kg CO2e por dispositivo.
Con esa referencia, su banda baja de 100 millones de equipos arroja unas 24 GWh y 6.000 toneladas de CO2e. La banda media de 500 millones eleva el total a 120 GWh y 30.000 toneladas de CO2e. En la banda alta de 1.000 millones de dispositivos, el resultado sería de 240 GWh y 60.000 toneladas de CO2e.
El autor insiste en que esas cifras solo contemplan la entrega inicial. No incluyen el consumo de inferencia local, las futuras actualizaciones del modelo, las reinstalaciones tras borrados manuales ni el costo material asociado al almacenamiento persistente en SSD. Por eso considera que el impacto real podría ser mayor si la práctica se extiende a gran escala.
Qué debería pasar ahora
Entre las medidas propuestas, Hanff plantea un enfoque directo: pedir permiso antes de la descarga, activar la instalación solo cuando el usuario invoque por primera vez una función de IA, mostrar los modelos descargados en la configuración de Chrome, ofrecer un botón permanente de eliminación y documentar claramente el tamaño de estos componentes en la página de descarga del navegador.
También sugiere que la eliminación del archivo debería respetarse como una preferencia estable del usuario y no tratarse como un estado temporal que el navegador corrige en segundo plano. Además, pide que Google revele en sus reportes de sostenibilidad la huella agregada de ancho de banda y carbono asociada a la distribución de modelos de IA a equipos de usuarios.
Por ahora, el caso vuelve a poner sobre la mesa una discusión cada vez más importante para la industria tecnológica: si la IA debe llegar como una función opcional y transparente, o si puede incorporarse como infraestructura invisible dentro de productos masivos ya instalados en miles de millones de dispositivos.
Para los usuarios, la controversia funciona como recordatorio de un cambio de época. Los navegadores ya no son solo puertas a internet. También se están convirtiendo en plataformas de distribución de modelos, políticas de hardware y decisiones de producto que impactan almacenamiento, privacidad, ancho de banda y consumo energético.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bancos y Pagos
Stripe, Visa y Microsoft avanzan hacia una economía dominada por agentes de IA
Análisis de mercado
Michael Saylor advierte que la IA devaluará el trabajo humano y reforzará el valor de Bitcoin
Artículos
Yann LeCun redobla su apuesta contra los LLM con JEPA y modelos de mundo
IA