(Getty Images)

¿Cómo están Estados Unidos, la Unión Europea, China y Japón articulando sus marcos éticos de inteligencia artificial? ¿Cuáles son las ventajas y oportunidades de España en esta materia?

Fue a finales de noviembre de 2021 cuando se adoptó por primera vez un acuerdo a nivel internacional de recomendación sobre la ética de la inteligencia artificial (IA), concretamente por los países miembros de la Unesco. El objetivo es establecer un denominador común que permee a lo largo de todas las estrategias y marco-país.

Sin embargo, esto no es algo nuevo. Desde hace alrededor de tres años, hay cada vez más Estados llevando a cabo ejercicios de reflexión sobre cómo el desarrollo, diseño, implementación y uso de la inteligencia artificial debería modularse desde una perspectiva de principios éticos. Ahora bien, el enfoque difiere. Algunos optan por una lógica de seguridad nacional, como es el caso de la Iniciativa de IA de EE UU o que el propio Departamento de Defensa emitiera sus principios éticos para la inteligencia artificial, mientras que otros ponen el foco en crear una IA de confianza (trustworthy) en el terreno del bienestar económico y la cohesión social, como la Unión Europea. Casos como el de China articulan la armonía y la construcción de una "comunidad de destino común" en los Principios de la IA de Pekín, lo que lo hace parte de un proyecto político más amplio, mientras que el enfoque de otro país asiático como es Japón opta más bien por hablar de “principios” o “guías de uso de la IA”.

Entender cómo Estados Unidos, China, Japón o la propia Unión Europea (UE) están articulando sus marcos éticos de IA es clave para aprovechar las ventajas y oportunidades que España tiene en esta materia en la que ya está trabajando como promotor del Humanismo Tecnológico desde varios frentes. También lo es ver el propio trabajo de España a nivel interno y en organismos internacionales, donde ha tenido un rol activo para el propio acuerdo de la Unesco.

 

Un repaso comparativo de los marcos éticos de IA

Antes de entrar en qué principios éticos un actor u otro tienen en cuenta para la IA, hay que hablar del enfoque. La propuesta de Reglamento de IA de la UE de 2021 y el Libro Blanco de IA de 2020 parten de un enfoque basado en el riesgo, y orientado a proteger al individuo, en especial aquel de determinados grupos demográficos o vulnerables. Es decir, la UE regula la inteligencia artificial según qué riesgo o consecuencias negativas puede crear; es decir, busca prevenir efectos dañinos. Al contrario, los Principios de Gobernanza para una Nueva Generación de IA del Ministerio de Ciencia y Tecnología (MOST) de China ya marcan desde 2019 que el objetivo es promover buenas prácticas de IA desde una perspectiva orientada a objetivos siempre ascendentes y dirigido a la comunidad, buscando mejorar “todas las industrias” y reducir todas las “disparidades regionales”.

Estados Unidos también pone el foco en el individuo y no ...