Por Canuto  

Una investigación de la firma RedAccess halló más de 5.000 aplicaciones web creadas con herramientas de IA que estaban abiertas al público o protegidas con barreras mínimas. El caso reaviva el debate sobre los riesgos del llamado vibe coding, donde usuarios sin experiencia en seguridad pueden publicar software en producción y exponer datos corporativos y personales sin pasar por revisiones internas.

***

  • RedAccess aseguró haber encontrado más de 5.000 aplicaciones accesibles públicamente en dominios de Lovable, Replit, Base44 y Netlify.
  • Cerca del 40% de esas apps exponían datos sensibles, incluidos registros médicos, financieros, documentos estratégicos y conversaciones con chatbots.
  • Las plataformas cuestionadas sostienen que ofrecen controles de privacidad y que la configuración final depende del usuario que publica la aplicación.

 


El avance de las herramientas de codificación asistida por inteligencia artificial ha simplificado la creación de software hasta niveles inéditos. Hoy, una persona sin formación técnica profunda puede generar y publicar una aplicación web en pocos pasos, algo que ha impulsado la adopción de lo que en la industria ya se conoce como vibe coding.

Pero esa facilidad también está abriendo una nueva superficie de riesgo. Según un reporte citado por WIRED, el investigador Dor Zvi y su equipo en RedAccess identificaron miles de aplicaciones creadas con herramientas de IA que quedaron expuestas en internet sin mecanismos reales de seguridad o con protecciones tan débiles que cualquier usuario podía acceder a sus contenidos.

El hallazgo no se limita a errores clásicos de programación. Lo más preocupante, de acuerdo con Zvi, es que muchas de esas apps carecían por completo de autenticación. En otros casos, la barrera consistía apenas en iniciar sesión con cualquier dirección de correo electrónico, lo que dejaba información sensible al alcance de terceros.

La revisión se centró en aplicaciones creadas con Lovable, Replit, Base44 y Netlify. Estas plataformas permiten alojar los desarrollos en dominios propios del proveedor, lo que facilitó su localización mediante búsquedas simples en Google y Bing combinadas con términos específicos.

Más de 5.000 apps accesibles y casi 2.000 con datos aparentemente privados

RedAccess afirma haber detectado más de 5.000 aplicaciones web codificadas con IA que estaban disponibles para cualquiera que escribiera su URL en un navegador. Tras una inspección más detallada, el equipo encontró cerca de 2.000 casos que parecían revelar datos privados o corporativos.

Según Zvi, alrededor del 40% de las aplicaciones revisadas exponían información sensible. Entre los ejemplos señalados figuran datos médicos, información financiera, presentaciones corporativas, documentos estratégicos y registros completos de conversaciones entre clientes y chatbots.

Las capturas compartidas con WIRED, varias de las cuales ese medio verificó que seguían accesibles, mostraban aparentes asignaciones laborales de un hospital con datos personalmente identificables de médicos. También aparecían detalles de compras publicitarias, una presentación de estrategia de salida al mercado, registros de carga de una empresa de transporte y distintos archivos de ventas y finanzas de otras compañías.

En uno de los ejemplos más delicados, Zvi aseguró que algunas aplicaciones incluso le habrían permitido obtener privilegios administrativos sobre sistemas y eliminar a otros administradores. De confirmarse de forma amplia, ello implicaría un problema que va más allá de la simple exposición pasiva de archivos.

El investigador sostuvo que se trata de “uno de los mayores eventos de la historia” en materia de exposición involuntaria de información corporativa o sensible. Su argumento central es que las organizaciones están filtrando datos privados a través de aplicaciones generadas con herramientas de IA y publicadas sin controles suficientes.

El papel de las plataformas y la respuesta de las empresas involucradas

Cuando WIRED consultó a las cuatro compañías mencionadas, Netlify no respondió. Las otras tres cuestionaron el planteamiento de RedAccess y señalaron que no habían recibido suficientes detalles ni tiempo para evaluar plenamente los hallazgos, aunque no negaron que existieran aplicaciones expuestas.

El CEO de Replit, Amjad Masad, escribió que, con base en la información limitada recibida, la afirmación central parecía ser que algunos usuarios publicaron aplicaciones en la web abierta cuando en realidad debían haber sido privadas. Añadió que Replit permite elegir si una aplicación es pública o privada y que esa configuración puede cambiarse con un clic.

Lovable, por su parte, indicó en un comunicado que toma en serio los reportes sobre datos expuestos y sitios de phishing. La empresa aseguró que trabaja activamente para obtener la información necesaria con el fin de investigar y sostuvo que ofrece a los creadores herramientas para construir de forma segura, aunque la configuración final depende del usuario.

Blake Brodie, directora de relaciones públicas de Wix, matriz de Base44, afirmó que la plataforma ofrece herramientas robustas para configurar controles de acceso y visibilidad. También sostuvo que desactivar esos controles es una acción deliberada y sencilla, por lo que, si una aplicación queda pública, eso respondería a una elección del usuario y no a una vulnerabilidad de la plataforma.

Brodie además planteó que es trivial fabricar aplicaciones que parezcan contener datos reales, por lo que sin ejemplos verificados no podía evaluarse la validez de las acusaciones. RedAccess rechazó esa crítica y sostuvo que sí proporcionó ejemplos, al menos en el caso de Base44.

Phishing, datos de prueba y la dificultad de verificar exposiciones reales

El informe también incluye otro ángulo inquietante. En el caso de Lovable, Zvi dijo haber encontrado numerosos sitios de phishing que imitaban a grandes corporaciones como Bank of America, Costco, FedEx, Trader Joe’s y McDonald’s, alojados en el dominio del proveedor y aparentemente creados con su herramienta de codificación con IA.

Una dificultad importante en este tipo de investigaciones es distinguir entre datos reales, material de relleno y pruebas de concepto. Joel Margolis, investigador de seguridad que recientemente ayudó a descubrir la exposición de 50.000 conversaciones entre un juguete de chat con IA y niños en un sitio casi sin protección, explicó que este tipo de validación no siempre es simple.

Margolis señaló que una aplicación generada con vibe coding puede contener datos falsos o haber sido creada solo para experimentar. De hecho, Brodie dijo a WIRED que dos ejemplos compartidos con Base44 parecían ser sitios de prueba o contener datos generados por IA.

Aun así, Margolis consideró que el problema es real y frecuente. En su opinión, es habitual que integrantes de equipos no técnicos, como marketing, creen sitios o aplicaciones sin conocimientos sólidos de seguridad, apoyándose en herramientas que ejecutan instrucciones de forma literal y no priorizan la protección si el usuario no la exige.

Su diagnóstico resume bien el riesgo del momento. Las herramientas de IA hacen lo que se les pide. Si nadie solicita controles de autenticación, segmentación de acceso o restricciones de visibilidad, es muy posible que la aplicación funcione, sí, pero también que quede abierta al mundo.

Una nueva ola de exposición comparable al problema histórico de Amazon S3

Zvi advirtió que las más de 5.000 aplicaciones detectadas representan solo una fracción del universo total. Su búsqueda se limitó a desarrollos alojados en los dominios de las propias plataformas, por lo que podrían existir muchas más aplicaciones publicadas bajo dominios personalizados de los usuarios y, por tanto, más difíciles de rastrear.

El investigador comparó esta situación con la antigua ola de filtraciones provocadas por configuraciones erróneas en buckets de Amazon S3. En aquel episodio, empresas como Verizon y World Wrestling Entertainment expusieron grandes cantidades de datos sensibles debido a errores de configuración en el almacenamiento en la nube.

En ese caso, parte de la industria cuestionó no solo a los clientes, sino también a Amazon, al considerar que ciertas configuraciones de seguridad resultaban confusas y favorecían errores repetidos. Para Zvi, las herramientas modernas de codificación web con IA están provocando un fenómeno similar, producto de una mezcla de decisiones del usuario y falta de salvaguardas adecuadas.

Sin embargo, su crítica va más al fondo. El problema no sería solo una mala configuración puntual, sino el surgimiento de una nueva clase de creadores dentro de las organizaciones. Ahora, cualquier persona de un equipo puede generar una aplicación y llevarla a producción sin pasar por los procesos habituales de desarrollo, revisión y auditoría de seguridad.

Esa desintermediación acelera la innovación, pero también reduce los filtros. Para empresas que manejan datos financieros, historiales médicos, registros comerciales o información estratégica, el riesgo es evidente: una app útil y funcional puede convertirse en una puerta abierta si nadie verifica quién puede verla, modificarla o administrarla.

El episodio ilustra un dilema más amplio de la IA aplicada al software. La tecnología reduce barreras y multiplica la productividad, pero también distribuye capacidades sensibles entre usuarios que quizá no comprenden las implicaciones de publicar un sistema conectado a internet. En ese contexto, la seguridad deja de ser un detalle técnico para convertirse en una condición básica de gobernanza digital.

Para el ecosistema tecnológico, y en especial para sectores expuestos a automatización acelerada, la lección parece clara. Las herramientas de IA pueden democratizar el desarrollo, pero sin controles por defecto, revisiones internas y una cultura mínima de ciberseguridad, esa democratización también puede multiplicar errores a escala.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA.

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín