
SEÚL, Corea del Sur (AP) — Las principales empresas de inteligencia artificial del mundo se comprometieron al comienzo de una mini cumbre sobre IA a desarrollar la tecnología de forma segura, incluyendo desconectarla si no pueden controlar los riesgos más extremos.
Se espera que los líderes mundiales acuerden más compromisos sobre la inteligencia artificial al reunirse virtualmente el martes para discutir los posibles riesgos de la IA, pero también formas de promover sus beneficios e innovación.
La Cumbre de IA de Seúl es un seguimiento discreto a la destacada Cumbre de Seguridad de IA en Bletchley Park en el Reino Unido en noviembre, donde los países participantes acordaron trabajar juntos para contener los riesgos potencialmente "catastróficos" que plantean los avances acelerados en IA.
La reunión de dos días, coorganizada por los gobiernos de Corea del Sur y el Reino Unido, también tiene lugar mientras las principales empresas tecnológicas como Meta, OpenAI y Google lanzan las últimas versiones de sus modelos de IA.
...
Desde la reunión en el Reino Unido el año pasado, la industria de la IA se ha "centrado cada vez más en las preocupaciones más apremiantes, incluyendo la desinformación, la seguridad de datos, los sesgos y mantener a los humanos en la ecuación", dijo Aiden Gomez, CEO de Cohere, una de las empresas de IA que firmó el pacto. Es esencial que sigamos considerando todos los posibles riesgos, mientras priorizamos nuestros esfuerzos en aquellos más propensos a crear problemas si no se abordan adecuadamente.
...
Esta semana, la reunión es solo uno de los esfuerzos para establecer normas para la IA. La Asamblea General de la ONU ha aprobado su primera resolución sobre el uso seguro de los sistemas de IA, mientras que EE. UU. y China recientemente celebraron sus primeras conversaciones de alto nivel sobre la IA y la Ley de IA de la Unión Europea, la primera en el mundo, entrará en vigor más adelante este año.
__
Chan contribuyó a este informe desde Londres.