(Getty Images)

¿Cómo están Estados Unidos, la Unión Europea, China y Japón articulando sus marcos éticos de inteligencia artificial? ¿Cuáles son las ventajas y oportunidades de España en esta materia?

Fue a finales de noviembre de 2021 cuando se adoptó por primera vez un acuerdo a nivel internacional de recomendación sobre la ética de la inteligencia artificial (IA), concretamente por los países miembros de la Unesco. El objetivo es establecer un denominador común que permee a lo largo de todas las estrategias y marco-país.

Sin embargo, esto no es algo nuevo. Desde hace alrededor de tres años, hay cada vez más Estados llevando a cabo ejercicios de reflexión sobre cómo el desarrollo, diseño, implementación y uso de la inteligencia artificial debería modularse desde una perspectiva de principios éticos. Ahora bien, el enfoque difiere. Algunos optan por una lógica de seguridad nacional, como es el caso de la Iniciativa de IA de EE UU o que el propio Departamento de Defensa emitiera sus principios éticos para la inteligencia artificial, mientras que otros ponen el foco en crear una IA de confianza (trustworthy) en el terreno del bienestar económico y la cohesión social, como la Unión Europea. Casos como el de China articulan la armonía y la construcción de una "comunidad de destino común" en los Principios de la IA de Pekín, lo que lo hace parte de un proyecto político más amplio, mientras que el enfoque de otro país asiático como es Japón opta más bien por hablar de “principios” o “guías de uso de la IA”.

Entender cómo Estados Unidos, China, Japón o la propia Unión Europea (UE) están articulando sus marcos éticos de IA es clave para aprovechar las ventajas y oportunidades que España tiene en esta materia en la que ya está trabajando como promotor ...