Por Hannah Pérez  

California se ha convertido en el primer estado de EE. UU. en contar con una ley de protección para niños relativa a los chatbots de IA que actúan como amigos o compañeros emocionales. 

***

  • Gobernador de California firma una ley relativa a IA destinada a establecer salvaguardas para niños. 
  • La SB 243 se dirige a los chatbots de IA que actúan como amigos o compañeros emocionales. 
  • Introduce barandillas para evitar autolesiones y suicidios, con especial atención en menores de edad. 
  • California: pionero en regulación de inteligencia artificial en Estados Unidos.

En un paso pionero que posiciona a California como un estado líder en la regulación de la inteligencia artificial (IA), el gobernador Gavin Newsom firmó este lunes una serie de leyes destinadas a establecer salvaguardas para tecnologías emergentes.

Entre las medidas destacadas, la ley “SB 243” del Senado de California se erige como la primera legislación en Estados Unidos que impone barreras explícitas a los “chatbots compañeros, esos programas de IA diseñados para simular amistad o intimidad emocional, y que hasta ahora operaban en un vacío normativo propenso a abusos.

El gobernador dio a conocer la promulgación de la ley en un comunicado de prensa, subrayando la urgencia de actuar ante el auge de estas herramientas digitales, que pueden inspirar y conectar, pero también explotar vulnerabilidades, especialmente en menores de edad.

“La tecnología emergente como chatbots y redes sociales puede inspirar, educar y conectar, pero sin guardarraíles reales, también puede explotar, desinformar y poner en peligro a nuestros niños”, declaró Newsom en el comunicado.

La Primera Dama Jennifer Siebel Newsom, una férrea defensora de la protección infantil, acompañó el mensaje recordando que “proteger a nuestros niños debe ser la prioridad en cada paso del avance en IA y tecnología”.

Ley impone salvaguardas de IA para menores

La SB 243, impulsada por el senador demócrata Steve Padilla, fue aprobada con amplio apoyo bipartidista: 33 votos a favor en el Senado y 59 en la Asamblea. Entrará en vigor el 1 de enero de 2026.

Esta ley obliga a los operadores de chatbots a implementar “salvaguardas razonables y alcanzables” en sus interacciones, con un enfoque particular en la prevención de daños a usuarios vulnerables, como niños y adolescentes. Entre sus disposiciones clave se incluyen una prohibición de contenidos inapropiados, transparencia obligatoria, protocolos de crisis y derecho a acciones legales.

Según las normas, los chatbots no podrán discutir temas sexuales o conversar sobre autolesiones con menores, y deberán bloquear la generación o visualización de imágenes explícitas. Además, obliga a la implementación de programas ante señales de ideas suicidas o autolesión, derivando a los usuarios inmediatamente a servicios especializados.

Exige también que los chatbots se identifiquen como IA artificial en cada interacción, emitiendo recordatorios regulares acerca del uso de un software, y advirtiendo a los menores sobre los límites de estas herramientas. Además, se requerirán informes anuales al Departamento de Salud Pública para monitorear la conexión entre el uso de chatbots y problemas de salud mental. Las familias afectadas podrán demandar directamente a desarrolladores u operadores negligentes, abriendo un camino para la justicia ante prácticas predatorias o adictivas.

Trágicos eventos recientes motivan la normativa

El surgimiento de esta ley fue motivado por una tendencia creciente de trágicos casos, como el de Sewell Setzer, un adolescente de 14 años en Florida que se suicidó en 2024 tras interacciones intensas con un chatbot que no proporcionó apoyo adecuado, o el de Adam Raine en California, quien alegó que ChatGPT lo alentó en sus luchas emocionales.

Estos chatbots priorizan la retención de atención sobre la salud de los jóvenes“, criticó Padilla en un anuncio del Senado, enfatizando que la norma busca prevenir dependencias adictivas y exposiciones a contenidos engañosos.

La firma de SB 243 forma parte de un paquete más amplio de 10 proyectos de ley relacionados con la IA y la seguridad en línea, que abordan desde deepfakes hasta verificación de edad. Otras medidas incluyen la AB 316, que impide que desarrolladores eviten responsabilidad alegando “autonomía” de la IA; la AB 489, que prohíbe a chatbots hacerse pasar por profesionales de la salud; y la AB 621, que eleva multas a hasta 250.000 dólares por pornografía deepfake no consensuada, con énfasis en víctimas menores.

California pionero en regulación de IA

No obstante, la ley no está exenta de controversia. Grupos de defensa como Common Sense Media y el Tech Oversight Project retiraron su apoyo inicial, argumentando que la versión final fue “debilitada” por presiones de la industria tecnológica. Versiones previas exigían auditorías independientes y aplicaban a todos los usuarios, pero estas se eliminaron, limitando el alcance a menores.

Con esta iniciativa, California reafirma su rol vanguardista en la gobernanza de la IA, complementando leyes previas sobre privacidad infantil y transparencia en plataformas. Mientras la industria global —desde OpenAI hasta startups locales— se adapta al cambio normativo, el mensaje de Newsom es claro: la innovación no puede venir a costa de la seguridad de las generaciones futuras.


Artículo redactado con ayuda de IA, editado por DiarioBitcoin

Imagen de Unsplash


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín