(Getty Images)

¿Cómo están Estados Unidos, la Unión Europea, China y Japón articulando sus marcos éticos de inteligencia artificial? ¿Cuáles son las ventajas y oportunidades de España en esta materia?

Fue a finales de noviembre de 2021 cuando se adoptó por primera vez un acuerdo a nivel internacional de recomendación sobre la ética de la inteligencia artificial (IA), concretamente por los países miembros de la Unesco. El objetivo es establecer un denominador común que permee a lo largo de todas las estrategias y marco-país.

Sin embargo, esto no es algo nuevo. Desde hace alrededor de tres años, hay cada vez más Estados llevando a cabo ejercicios de reflexión sobre cómo el desarrollo, diseño, implementación y uso de la inteligencia artificial debería modularse desde una perspectiva de principios éticos. Ahora bien, el enfoque difiere. Algunos optan por una lógica de seguridad nacional, como es el caso de la Iniciativa de IA de EE UU o que el propio Departamento de Defensa emitiera sus principios éticos para la inteligencia artificial, mientras que otros ponen el foco en crear una IA de confianza (trustworthy) en el terreno del bienestar económico y la cohesión social, como la Unión Europea. Casos como el de China articulan la armonía y la construcción de una "comunidad de destino común" en los Principios de la IA de Pekín, lo que lo hace parte de un proyecto político más amplio, mientras que el enfoque de otro país asiático como es Japón opta más bien por hablar de “principios” o “guías de uso de la IA”.

Entender cómo Estados Unidos, China, Japón o la propia Unión Europea (UE) están articulando sus marcos éticos de IA es clave para aprovechar las ventajas y oportunidades que España tiene en esta materia en la que ya está trabajando como promotor del Humanismo Tecnológico desde varios frentes. También lo es ver el propio trabajo de España a nivel interno y en organismos internacionales, donde ha tenido un rol activo para el propio acuerdo de la Unesco.

 

Un repaso comparativo de los marcos éticos de IA

Antes de entrar en qué principios éticos un actor u otro tienen en cuenta para la IA, hay que hablar del enfoque. La propuesta de Reglamento de IA de la UE de 2021 y el Libro Blanco de IA de 2020 parten de un enfoque basado en el riesgo, y orientado a proteger al individuo, en especial aquel de determinados grupos demográficos o vulnerables. Es decir, la UE regula la inteligencia artificial según qué riesgo o consecuencias negativas puede crear; es decir, busca prevenir efectos dañinos. Al contrario, los Principios de Gobernanza para una Nueva Generación de IA del Ministerio de Ciencia y Tecnología (MOST) de China ya marcan desde 2019 que el objetivo es promover buenas prácticas de IA desde una perspectiva orientada a objetivos siempre ascendentes y dirigido a la comunidad, buscando mejorar “todas las industrias” y reducir todas las “disparidades regionales”.

Estados Unidos también pone el foco en el individuo y no en la comunidad, pero no lo hace desde una perspectiva de prevención de daños. Uno de los 10 principios de la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca afirma que “no es necesario mitigar cada uno de los riesgos previsibles”. Esto le aleja del modelo europeo ex ante, que sí busca evitar cualquier tipo de daño o riesgo posible antes del uso del sistema de IA. En este sentido, lo que postula el modelo estadounidense es realizar procesos de evaluación y gestión de riesgos a medida que se van detectando al usarse la inteligencia artificial, bajo un enfoque de caso por caso ex post. Japón no termina de posicionarse entre el ex ante y el ex post, aunque sus Guías de Utilización de la IA —que no principios éticos— piden a los proveedores y desarrolladores no producir daños.

Estos enfoques explican las diferencias en el orden de prioridad de los principios éticos, así como en el propio contenido de los mismos. Un claro ejemplo es que la rendición de cuentas solo sea un principio ético en sí en los casos de la UE y de Japón. En el resto de casos aparece dentro de un apartado, pero no es un principio rector como tal.

Ahora bien, el crecimiento económico y el bienestar social, así como la justicia (fairness) en un sentido de tratamiento igual y justo, son los dos pilares en los que todos los marcos están de acuerdo. Coinciden en que estos son los dos primeros principios de IA articulados por la OCDE a escala internacional, de un total de cinco. Pero esto no significa que hablen de lo mismo. EE UU se refiere a que los sistemas de IA no produzcan una discriminación no intencionada, injusta o ilegal, esto es, desproporcionada en comparación a procesos ya existentes. El modelo de la UE da un doble significado a la justicia o fairness: por un lado, se refiere a garantizar una distribución equitativa y justa tanto de los beneficios como de los costes; y, por otro lado, busca que los individuos y los grupos estén libres de prejuicios, discriminación y estigmatización injustos.

La diferencia clave entre ambos modelos es que el europeo da prioridad a la no-discriminación por delante de los beneficios y costes de la IA, mientras que el de EE UU no quiere que la IA acelere más o nuevas discriminaciones, más allá de las ya existentes, como el europeo, pero no lo antepone necesariamente a los beneficios y costes de este tipo detecnología. Esto es de especial interés cuando vemos que Estados Unidos no solo tiene principios éticos de IA desde la Oficina de la Casa Blanca, sino que también el propio Departamento de Defensa creó los suyos propios —una IA que sea responsable, igualitaria, trazable, de confianza, y gobernable— y da prioridad a gobernarla para evitar consecuencias no deseadas o no intencionadas, y que haga un tratamiento igual.

En este sentido, lo que el modelo europeo propone es la supervisión y prevención de daños ex ante —mirando tanto que el sistema de IA ni repita las discriminaciones estructurales ya existentes en la sociedad ni cree nuevas discriminaciones—, mientras que el modelo estadounidense prioriza que se utilice primero el sistema de la IA y, en caso de que tras su despliegue se detecte un uso discriminatorio, se apliquen mecanismos de respuesta ex post, y se haga caso por caso. Es decir, no se aporta un paquete de soluciones cerrado y exhaustivo que se vaya a aplicar a todas las situaciones, sino que se esperará a ver el caso particular para decidir cómo proceder.

Un visitante pasa frente a un póster con el tema de la inteligencia artificial en Shanghai, China. (Chen Yuyu/VCG via Getty Images)

El modelo chino ve que los prejuicios y las discriminaciones producidas por la IA podrán ser eliminadas tanto como se pueda por el propio sistema a medida que este vaya mejorando en capacidades y gestión. A este segundo principio se une el sexto de “responsabilidad compartida”, que no habla de prevenir sino de informar de los riesgos potenciales por adelantado a los usuarios antes de que lo usen. La palabra “riesgo” solamente aparece en esta ocasión y en el octavo principio de “gobernanza ágil”, en donde China se compromete a trabajar continuamente en más investigación para descubrir los riesgos potenciales en los sistemas avanzados de IA del futuro —aunque no se refiere a los riesgos actuales per se.

Vista la forma en que los distintos modelos se aproximan al rol del individuo o la comunidad —como actores pasivos que recibirán un sistema de IA minimizado de riesgos, o como actores activos que deben ser parte de una responsabilidad compartida—, podría concluirse que la forma de involucrar a estos actores en los principios éticos de IA sigue el mismo patrón. Sin embargo, no es así.

Tal y como afirma un informe de MERICS, aunque el debate sobre la ética de la IA en China se adscribe a los objetivos del Partido, es una conversación multiactor en la que activamente se crean espacios de diálogo para contribuir con input y permear los principios resultantes a lo largo de todos los sectores. Y no solamente con universidades o empresas privadas; también en el propio nivel municipal los ayuntamientos implementan sus zonas piloto de IA con unos principios éticos que suelen partir del programa central, pero que amplían o adaptan ciertos principios según la realidad económica de la ciudad. También existe un rol proactivo por parte de las empresas en varios sentidos: primero, con autorregulación corporativa, siendo Tencent la empresa con los principios éticos de IA más completos; y, segundo, con el posicionamiento de empresas en grandes foros internacionales en la materia de ética de la inteligencia artificial. En el caso de Japón también se busca una conversación constante con las empresas autóctonas, cuya máxima expresión es que estas participaron en el Grupo de Expertos para establecer los principios de uso de la IA de julio de 2021 dirigidos al Gobierno de Japón.

La UE creó un Grupo de Expertos de Alto Nivel para la Ética de la IA, en el que se involucró a académicos y personas expertas a lo largo de toda la Unión. Este grupo definió el marco base por el que se articula que la UE debe construir una IA confiable (trustworthy) con cuatro principios éticos —respeto a la autonomía humana, prevención de daños, justicia y explicabilidad— y siete requisitos —agencia y supervisión humana; robustez técnica y seguridad; privacidad y gobernanza de datos; transparencia; diversidad, no-discriminación y justicia; bienestar social y medioambiental; y rendición de cuentas. Mientras, el proceso de elaboración del Reglamento de IA de la UE ha sido sometido a consultas en las que los actores interesados enviaban sus comentarios, pero no ha habido un espacio de diálogo como ocurrió al inicio. Ahora bien, algo que la UE sí ha hecho y le diferencia del resto es que ha establecido cuatro niveles de riesgo por los que se prohíbe completamente el uso de la IA, se exigen evaluaciones independientes para determinar la conformidad, o se permite el libre uso de la IA, y en estos se tienen en cuenta casos específicos de grupos vulnerables —como los niños, o las personas migrantes.

La vicepresidenta ejecutiva europea, Margrethe Vestager, da una conferencia de prensa sobre inteligencia artificial (European Commission / Pool/Anadolu Agency via Getty Images).

Sin embargo, como en toda política pública, la confianza y legitimidad ciudadana es un aspecto esencial. Este punto es de especial interés —también para España—, puesto que no es solo que se comuniquen los principios éticos. También es que se les haga partícipes de ese propio proceso de elaboración. En este aspecto EE UU y la UE comparten un enfoque común, que es el de conseguir que haya confianza ciudadana en los sistemas de IA, y que esta tecnología sea de confianza para la ciudadanía; es decir, un efecto bidireccional. En el caso de Japón el principio de dignidad humana postula que la inteligencia artificial debe respetar a la ciudadanía, aunque no se habla de un rol activo de la sociedad. En el caso chino se da prioridad a la “seguridad societaria” —referida al mantenimiento de un bienestar colectivo, no individual—, y busca que la sociedad tenga un “alto sentido de responsabilidad social y autodisciplina, cumpliendo estrictamente con las leyes, regulaciones, principios éticos, estándares técnicos y normas sociales”. En este sentido, todos los modelos abordan el rol de la ciudadanía, pero ninguno termina de darles un papel proactivo como tal: o son actores receptores, o actores con parte de responsabilidad.

 

El papel de España

Existe un mapa de iniciativas de organizaciones de la sociedad civil, acciones gubernamentales y de participación de empresas en foros sobre ética de la IA más allá de España que le permiten configurar varias oportunidades para posicionarse como promotor de la ética de la IA. También hay algunos aspectos donde hay todavía ventanas de oportunidad que no pueden desaprovecharse ni dejarse de lado, pues sería un error.

Primero, España ha tenido un papel proactivo en el proceso de negociación intergubernamental de la Recomendación de Ética de la IA de la Unesco con una representación española pública en el puesto de vicepresidencia en el Bureau de estas negociaciones. Junto con la presencia eslovena, son los dos únicos altos cargos de la UE en este proceso, lo que le da un diferencial proactivo en la definición de los principios éticos. Si bien es cierto que no ha habido representación española en el Grupo Ad Hoc de Expertos Internacionales, en los que hay figuras relevantes de Japón, Estados Unidos, China, Francia, Países Bajos y otros países africanos y latino y centroamericanos. Además, España forma parte del grupo de 25 miembros del Global Partnership on AI (GPAI), propuesto por el G7 y auspiciado por la OCDE.

Segundo, a escala de la UE, España no solamente sigue las iniciativas de la Unión, sino que también tiende a promover nuevas actividades, como fue la de convertirse en el “campo de testeo-país” (country testbed) de la propuesta de Reglamento de IA para determinar su impacto social.

En el ámbito español, existe una creciente movilización de organizaciones de la sociedad civil, aunque —como ocurre en otros países— no tiene todavía la visibilidad pública y mediática que tienen otros temas, como el cambio climático a día de hoy. Ahora bien, el debate ahonda en el detalle, y existen tanto organizaciones que trabajan en la mirada ética entre academia, sector privado y con la puntual colaboración de la administración pública —como sería el caso de GuIA, la iniciativa que pretende aterrizar medidas reales y concretas a los principios éticos autorregulados por las corporaciones—, como también las organizaciones que buscan ir más allá de la ética y buscan un enfoque de derechos humanos y de democratizar el conocimiento del impacto social de la IA en las ONG, que todavía no tienen un conocimiento extenso y recursos humanos y materiales para abordar este tema. Este es el caso de la plataforma AlgoRights.

Asistente del congreso da un abrazo a Roboy 2.0, el único robot que imita la estructura del cuerpo humano, exhibido durante el Mobile World Congress en Barcelona, ​​España (Joan Cros/NurPhoto via Getty Images).

Una de las particularidades del caso español es que se suma a los principios éticos de la IA, pero añade al enfoque de la no-discriminación el debate sobre el género y de personas con diversidad funcional. En la Estrategia Nacional de Inteligencia Artificial, la ética es mencionada 24 veces y los derechos humanos en una ocasión. La Carta de Derechos Digitales articula medidas ex ante de prevención de riesgos, aunque se han planteado mejoras de la misma desde varios frentes.

En este sentido, el modelo español es el de sumarse a la propuesta de principios éticos de la UE, e incorporar particularidades desde la idiosincrasia española. Sin embargo, existe una serie de oportunidades para España que podrían explotarse más y que le permitirían mejorar su posicionamiento a nivel europeo e internacional.

En primer lugar, el rol de la comunicación pública es esencial. Disponer de toda la documentación en inglés es clave para alcanzar nuevas audiencias más allá del ámbito español. Ello permite tener mayores recursos para escribir artículos de opinión en medios de comunicación extranjeros, desde donde se creen imaginarios de las fortalezas existentes en España.

En segundo lugar, construir una agenda sólida en la Delegación Permanente de España ante la UE es clave en el corto y largo plazo. En especial, el foco es el de la Presidencia española del Consejo de la UE en 2023. Este espacio es uno donde las delegaciones permanentes intentan elevar sus temas de mayor interés. En la Presidencia portuguesa, el país consiguió insertar más temas de cables submarinos. La Presidencia francesa de la primera mitad de 2022 pretende acelerar los procesos de lanzamiento de las Leyes de Servicios y Mercados Digitales (DSA y DMA) para que el detalle sea consensuado en el Consejo de la UE bajo su mandato. España tiene la oportunidad de hacer lo mismo en 2023 con los avances que haya para entonces con la propuesta de Reglamento de IA, en donde la ética es parte fundamental —tanto para los cuatro niveles de riesgo, como para el alcance de protección de derechos fundamentales—, pero también en el caso de la Ley de Gobernanza de Datos y la Ley de Datos, que no tocan directamente la IA, pero son materia prima de ella en muchos casos.

En tercer lugar, es evidente que la ética de la IA no significa derecho vinculante, ni a nivel internacional ni estatal. Sin embargo, la ética de la IA se ha convertido en un asunto geopolítico que, bajo la forma de estándares técnicos en agencias de la ONU que deciden las “patentes de estándares” de obligada aplicación por todos los países, debería tener un recorrido mayor desde un punto de vista diplomático, con el fin de que las propuestas españolas entren en el primer nivel de las agendas de estas organizaciones internacionales, como es la ITU.

Hay un sinfín de oportunidades y retos que España no debe dejar de lado. En algunas iniciativas se está plasmando el empeño por ser promotor de un Humanismo Tecnológico, que promueva que el desarrollo tecnológico y el impacto social de esta transformación se haga siempre con el foco puesto en el ser humano, en su bienestar y derechos, y que ante una emergencia digital se garantice una respuesta que priorice los intereses de las personas. En otras iniciativas y áreas queda un espacio por rellenar incalculable, al que será esencial prestar atención, no solo por el elemento liderazgo, sino también por el factor de no quedarse atrás en este debate sobre la ética de la IA que cada vez es más estratégica para los Estados. Como potencia media, España tiene un valor añadido: es un país a nivel global con una imagen exterior positiva, es punto de entrada de varios continentes hacia el interior de Europa (también en lo tecnológico; véase los centros de datos o los cables submarinos), y es un país confiable según la percepción exterior. Desplegar ahora medidas de comunicación pública hacia fuera de España es pues uno de los mecanismos más necesarios para promover lo que se está haciendo a nivel interno, y ampliar nuevos espacios de influencia.