OpenAI presentó un nuevo paquete opcional de seguridad para cuentas de ChatGPT y selló una alianza con Yubico para integrar llaves físicas contra el phishing, en un momento en que crecen los riesgos para usuarios con información sensible almacenada en chats.
***
- OpenAI lanzó Seguridad Avanzada de la Cuenta, un conjunto de protecciones opcionales para usuarios de ChatGPT.
- Yubico se asoció con la empresa para ofrecer dos llaves co-marcadas: YubiKey C NFC y YubiKey C Nano.
- La medida apunta a periodistas, disidentes, investigadores, funcionarios y empresas expuestos a robo de acceso por phishing.
OpenAI anunció este jueves una nueva capa opcional de protección para cuentas de ChatGPT, en una señal de que la seguridad digital se está convirtiendo en un frente cada vez más relevante dentro de la industria de la inteligencia artificial. La iniciativa fue presentada bajo el nombre de Seguridad Avanzada de la Cuenta y está pensada especialmente para personas consideradas de alto valor, aunque podrá ser utilizada por cualquier usuario que la desee.
Como parte del lanzamiento, la compañía también concretó una asociación con Yubico, fabricante de dispositivos de autenticación física, para vincular dos nuevas llaves de seguridad a las cuentas de ChatGPT. El objetivo declarado es reducir la exposición de los usuarios al phishing, una amenaza que, según el reporte original de TechCrunch, viene creciendo en el entorno de los chatbots.
Las dos firmas introducirán un par de YubiKeys co-marcadas llamadas YubiKey C NFC y YubiKey C Nano. Ambos productos buscan ofrecer un método de autenticación más fuerte que las credenciales tradicionales, al requerir la posesión física de una llave compatible para completar el acceso a la cuenta.
La decisión de OpenAI ocurre en un momento en que los sistemas de IA conversacional concentran información personal, profesional y corporativa cada vez más sensible. En la práctica, las sesiones guardadas en estos servicios pueden incluir ideas de negocio, datos de investigación, borradores estratégicos o consultas privadas, lo que convierte a una cuenta comprometida en un objetivo especialmente valioso para actores maliciosos.
Una respuesta a usuarios de alto riesgo
OpenAI sugirió que este nuevo esquema de protección resulta especialmente adecuado para disidentes políticos, periodistas, investigadores y funcionarios electos. Se trata de perfiles que suelen enfrentar mayores riesgos de vigilancia, intrusión o campañas de engaño digital, sobre todo cuando su trabajo involucra asuntos políticamente delicados o entornos de alta exposición pública.
El anuncio también deja abierta una lectura empresarial. Aunque la empresa destacó a usuarios de alto riesgo en el terreno político y cívico, la lógica de esta protección también puede extenderse a organizaciones que resguardan secretos corporativos en conversaciones con ChatGPT. Para muchas compañías, la cuenta no solo da acceso a un chatbot, sino a un historial potencialmente crítico de información interna.
Jerrod Chong, CEO de Yubico, afirmó en un comunicado difundido con motivo del acuerdo que “en última instancia, nuestra intención es reducir drásticamente la amenaza de acceso no autorizado a datos sensibles en cuentas de OpenAI en todo el mundo”. La declaración sintetiza el enfoque del proyecto: reforzar la seguridad de la identidad digital en un producto que hoy se usa tanto a nivel personal como profesional.
Desde una perspectiva más amplia, este tipo de despliegues refleja un cambio en la percepción del riesgo alrededor de la IA generativa. Durante sus primeras etapas, gran parte de la atención se concentró en el rendimiento de los modelos, los costos de inferencia o los casos de uso. Ahora, el control del acceso a las cuentas empieza a ocupar un lugar más visible en la conversación.
Cómo funcionan las llaves de seguridad
Las llaves de seguridad son pequeños dispositivos de hardware que se conectan a una cuenta digital y se activan mediante puertos USB en una computadora. En términos simples, almacenan un identificador criptográfico único que permite verificar que la persona que intenta ingresar posee físicamente la llave autorizada.
Ese componente físico ofrece una barrera adicional frente a técnicas comunes de engaño. Si un atacante obtiene una contraseña por medio de phishing, todavía podría enfrentar una capa extra de validación que depende del dispositivo. Por esa razón, estas llaves suelen considerarse una opción más robusta que otros métodos de autenticación basados solo en códigos o contraseñas.
En el contexto de ChatGPT, la integración con YubiKey apunta directamente a ese problema. El phishing, que durante años se asoció con correo electrónico, banca o redes sociales, también está alcanzando a las plataformas de IA. A medida que más usuarios centralizan consultas delicadas y documentos de trabajo en estas herramientas, el atractivo para los ciberdelincuentes aumenta.
El artículo fuente señala que ya existe un creciente cuerpo de literatura que muestra que actores maliciosos están apuntando cada vez más a los usuarios de chatbots. Para los delincuentes, estas cuentas pueden contener material útil para extorsión o inteligencia previa, especialmente por la naturaleza íntima o confidencial de muchas conversaciones mantenidas con asistentes de IA.
Un frente de seguridad cada vez más importante en la industria de IA
La seguridad digital también se está transformando en un foco más amplio para las empresas del sector. Hace varias semanas, Anthropic anunció un nuevo modelo de ciberseguridad llamado Mythos. En ese contexto competitivo, OpenAI también ha encadenado varios anuncios ligados a defensa digital y protección de usuarios.
La noticia sobre Yubico llegó después de que OpenAI informara el lanzamiento de un nuevo marco para la defensa digital. Aunque los detalles de ese marco no se desarrollan en el texto base, la secuencia de anuncios sugiere que la empresa busca reforzar su narrativa de seguridad en paralelo al crecimiento de su plataforma y de su base de usuarios.
Ese movimiento tiene implicaciones relevantes más allá del consumidor promedio. La IA ya se usa en redacción, programación, análisis de datos, investigación, soporte y planeación. Eso significa que el valor de una cuenta comprometida no depende solo del perfil del usuario, sino también del tipo de información acumulada en sus interacciones anteriores.
Para lectores familiarizados con ciberseguridad, la señal es clara: la protección del acceso se está convirtiendo en una parte estructural del ecosistema de IA, no en una función secundaria. A medida que estas plataformas se integren más en procesos corporativos y públicos, el endurecimiento de credenciales será tan relevante como la capacidad del modelo mismo.
La contrapartida: más seguridad, pero menos margen de recuperación
OpenAI también advirtió sobre una consecuencia importante del uso de llaves físicas. Aunque una cuenta protegida con este tipo de hardware ofrece una defensa más fuerte frente a accesos no autorizados, existe una desventaja operativa evidente: si la llave se pierde, la empresa no podrá ayudar a recuperar el acceso.
En la práctica, eso implica que las conversaciones almacenadas en la cuenta podrían perderse para siempre. No se trata de un detalle menor, especialmente para usuarios que emplean ChatGPT como repositorio de trabajo, memoria de proyectos o espacio de intercambio de información sensible. La decisión de activar esta protección, por tanto, exige una evaluación cuidadosa entre seguridad y continuidad de acceso.
Ese equilibrio es conocido en el mundo de la custodia digital y también tiene paralelos con el ecosistema cripto. En ambos casos, los mecanismos que eliminan intermediarios o reducen puntos de fallo también pueden trasladar una responsabilidad mayor al usuario final. Más control puede significar, al mismo tiempo, más protección y más riesgo si se extravía la clave física.
Con esta nueva apuesta, OpenAI deja claro que el crecimiento de la IA generativa no solo depende de mejores modelos, sino de construir confianza en torno al resguardo de las cuentas y de los datos que pasan por ellas. La alianza con Yubico muestra que esa confianza ya no se busca solo con software, sino también con hardware diseñado para hacer más difícil el robo de identidad digital.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Google lleva su agente IA Gemini a millones de vehículos integrados con su sistema operativo
Empresas
Elon Musk admite que xAI entrenó a Grok en parte con modelos de OpenAI
Blockchain
Modelo Walrus apunta a resolver el cuello de botella de memoria que frena a la IA agéntica
Estados Unidos