Por Hannah Pérez  

Las principales potencias mundiales llegaron a un acuerdo sobre un conjunto de reglas internacionales para las empresas que desarrollan inteligencia artificial.

***

  • G7, conformado por las principales economías del mundo, acuerda un código ético para la IA
  • El marco de principios busca abordar los riesgos y preocupaciones en torno al uso de la tecnología
  • Insta a las empresas a divulgar información y pavimenta el camino para una regulación mundial para la IA

Las principales economías del mundo está trabajando para adoptar un marco normativo que garantice el desarrollo ético de la inteligencia artificial (IA).

El Grupo de los Siete (G7) anunció este lunes un nuevo acuerdo sobre un conjunto de principios rectores internacionales y un código de conducta para las empresas que desarrollan sistemas avanzados de IA, en un intento por abordar las preocupaciones sobre la privacidad y el riesgo de uso indebido de dicha tecnología.

Las economías que componen el G7, Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido, junto con la Unión Europea, han estado discutiendo la necesidad de estándares internacionales para aprovechar la tecnología en medio de la rápida evolución de herramientas de IA generativa tales como ChatGPT.

El proceso de discusión comenzó en mayo, durante un foro ministerial llamado ‘Proceso de Hiroshima sobre IA’, y están concluyendo este lunes con la firma de un acuerdo satisfactorio, según informó la Comisión Europea en un comunicado oficial.

G7 acuerda código de conducta para la IA 

El código de conducta consta de 11 principios rectores que brindarán orientación a las organizaciones que “desarrollan, implementan y utilizan sistemas avanzados de IA, como modelos básicos e IA generativa, para promover la seguridad y la confiabilidad  de la tecnología“, detalla el comunicado de la UE

El marco también incluye compromisos para mitigar los riesgos y el uso indebido e identificar vulnerabilidades” sin frenar la innovación. Insta a las empresas a tomar medidas adecuadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, así como a abordar incidentes y patrones de uso indebido después de que los productos de IA hayan sido comercializados.

Para garantizar esto, fomenta el intercambio responsable de información, la notificación de incidentes y la inversión en ciberseguridad, “así como un sistema de etiquetado para permitir a los usuarios identificar el contenido generado por IA“, agrega la nota.

En este sentido, insta a las empresas del sector a publicar informes públicos sobre las capacidades, limitaciones, el uso y mal uso de los sistemas de IA, y también invertir en controles de seguridad sólidos.

Entre los riesgos que merecen atención, el G7 señaló los riesgos químicos, biológicos y nucleares, citando que los sistemas avanzados de inteligencia artificial pueden “reducir las barreras de entrada, incluso para actores no estatales, para el desarrollo, la adquisición o el uso de armas“, así como la facilitación de desinformación y amenazas a la privacidad.

UE a la vanguardia regulatoria de IA

La presidenta de la Comisión Europea, Ursula von der Leyen, que estuvo entre los que suscribieron la declaración del G7, destacó los avances de la UE en materia de regulación de la IA, e hizo un llamado a que las empresas de tecnología se sumen a la iniciativa.

Los beneficios potenciales de la Inteligencia Artificial para los ciudadanos y la economía son enormes. Sin embargo, la aceleración de la capacidad de la IA también plantea nuevos desafíos. La UE, que ya es pionera en materia regulatoria con la Ley de IA, también está contribuyendo a las barreras de seguridad y la gobernanza de la IA a nivel mundial. 

“Me complace dar la bienvenida a los Principios Rectores internacionales del G7 y al Código de Conducta voluntario, que reflejan los valores de la UE para promover una IA confiable. Hago un llamado a los desarrolladores de IA para que firmen e implementen este Código de conducta lo antes posible”, añadió.

La Unión Europea introdujo este año una Ley de IA que impone reglas claras y estrictas según el nivel de riesgo que presenten los sistemas de IA. Esta ley clasifica los sistemas de “alto riesgo”, que pueden tener un impacto significativo en la vida de las personas, como los más regulados. Los sistemas de “riesgo moderado” y “riesgo leve” están sujetos a normas más flexibles, pero aún se requiere transparencia. La regulación de la IA en la UE también prohíbe sistemas de identificación biométrica.

En otros avances de esta materia, la administración de Joe Biden en Estados Unidos firmó este mismo lunes una orden ejecutiva que busca brindar la seguridad en el desarrollo de IA y garantizar privacidad a los consumidores.


Artículo de Hannah Estefanía Pérez / DiarioBitcoin

Imagen de Unsplash 

ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.