(Getty Images)

Puede que llegue un día, no muy lejano, en que este texto habrá sido escrito por una máquina y usted no lo sepa. O tal vez sí y no le importe. Es a lo que se enfrentan desde hace unos meses miles de profesores en todo el mundo. Con la irrupción de ChatGPT 4 parece haberse abierto la caja de los truenos. Esa que ha dado acceso a la inteligencia artificial generativa a, literalmente, todo el que quiera usarla. Y con ello se han avivado todo tipo de escenarios distópicos en los que el ser humano acabará siendo, indefectiblemente, sustituido por robots. 

Para entender mejor qué significa el desarrollo de la IA en los muy diferentes frentes -el personal, el colectivo, el geopolítico, el económico- he hablado con Adrián González Sánchez, responsable de datos e IA para el sector público en Microsoft España, profesor universitario, miembro del Observatorio OdiseIA y colaborador de esglobal.

González desmiente, para empezar, esa posibilidad dibujada por la ciencia ficción. “Se nos olvida que hace falta electricidad para que corra una máquina”, afirma. “No creo que lleguemos a ver que la IA supera la inteligencia humana. Estamos más en un ciclo en el que puede ser muy útil para todo tipo de actividades y que complemente a las acciones humanas. Es como una inteligencia aumentada”.

Entre esas actividades cabe todo. Como apuntaba anteriormente, la educación es uno de los más visibles, con estudiantes de todo el mundo usando programas de IA generativa para escribir sus trabajos. ¿Es el fin de la enseñanza tradicional? ¿Hay que prohibir o abrazar la tecnología? El debate está que arde. “Esto tampoco es nuevo”, cuenta González. “Me acuerdo del Rincón del vago [un sitio web que se lanzó a finales de los 90, donde se encontraban una gran variedad de documentos escolares]. Ahora se puede copiar contenido de cualquier página web. Lo importante es, primero, enseñar a interpretar los resultados y segundo a hacer referencia, a citar. Es cierto, no vas a pensar de la misma manera. Pero son tendencias inevitables. Hay que ayudarles a que entiendan principios estadísticos, a detectar lo que llaman “alucinaciones”, información que parece correcta, pero es errónea”. 

Recientemente el Russell Group, que aglutina 24 universidades de prestigio, incluidas Oxford y Cambridge, ha anunciado que sus estudiantes podrán utilizar la inteligencia generativa. La idea es que, si va a formar parte del paisaje -ya lo hace-, entonces mejor aprender a manejarlo bien, a adaptar los sistemas de enseñanza y de aprendizaje y a tener una relación crítica con la tecnología. Lo que hay detrás, sobre todo, es desarrollar un modo ético, que recoja las mejores prácticas y que sea capaz de adaptarse según van evolucionando los cambios tecnológicos. En esa misma línea, hace unas semanas, en España, IE University publicó un manifiesto en el que declaraba su intención de seguir abrazando toda innovación que contribuya a avances en la educación.

Otro de los campos en donde el debate es más intenso es el del trabajo. O más bien, el del fin de muchos puestos de trabajo tal como los conocemos. 

Se han publicado todo tipo de estudios, análisis y especulaciones sobre la ingente cantidad de empleos que desaparecerán por la robotización y la inteligencia artificial. Es cierto que algunas funciones -se suele mencionar la de operadores de telemarketing- parecen estar llamadas a ser sustituidas casi por completo. Otras sufrirán, ya están sufriendo, importantes transformaciones. Un ejemplo: Estados Unidos perdió 6 millones de puestos de trabajo en fabricación entre los años 2000 y 2020. Solo uno de cada seis tuvo que ver con China -a quien se ha acusado habitualmente-; el resto se debió a procesos de automatización. La historia también demuestra que los avances tecnológicos sí han provocado la desaparición de determinadas tareas, para dar paso a continuación a otras nuevas, más cualificadas.

González Sánchez cuenta cómo las empresas han empezado a probar sistemas de inteligencia artificial internamente. “Los chatbots han hecho que el nivel de conocimiento de los empleados pueda llegar a converger en tareas de call center o de programación. Se habla de cifras del 46% de mejora de la productividad”. Una tendencia, por tanto, que será imparable. La educación, de nuevo, y la capacidad de adaptación serán fundamentales en ese proceso.

Las innovaciones en este campo están siendo introducidas por un puñado de empresas. Son los gigantes tecnológicos de Estados Unidos, sobre todo, y China, los que están liderando la carrera. En Europa, ya se sabe, vamos más rezagados, aunque Adrián González apunta a iniciativas como Mistral AI, en Francia, que nace de un conjunto de profesionales. “Tenemos un tablero bastante internacional. Esto va a cambiar mucho en los próximos 18 meses. Nuevas empresas que se están creando, start ups, mucho dinero que se está moviendo”. 

Pero junto a la evolución del panorama empresarial y el liderazgo tecnológico a nivel global, el otro gran debate es el de la regulación. Como es habitual, la discusión oscila entre quienes abogan por una libertad casi absoluta que facilite la innovación y los que quieren ejercer un determinado control desde ya mismo. En el fondo, las diferencias de modelos, sobre todo a ambos lados del Atlántico. Pero los desarrollos van tan deprisa y las implicaciones son tan profundas que va aumentando la demanda general para regular su uso; incluso por algunos de los que han sido pioneros de esta tecnología.

Y en este terreno, sí, Europa lleva la voz cantante. Ya en abril de 2021 la Comisión Europea propuso un primer marco regulador de la Unión para la IA, en función de los riesgos que implica para los usuarios. Recientemente, a mediados de junio, el Parlamento Europeo aprobó su posición final sobre la Ley de Inteligencia Artificial. Se abre así el proceso de negociaciones, con el objetivo de que culminen durante la Presidencia española del Consejo de la UE, y de que entre en vigor en 2026.

La propuesta recoge, entre otros aspectos, la prohibición total del uso de la IA para la supervisión biométrica, el reconocimiento de emociones o la vigilancia policial predictiva (que evalúa el riesgo de una persona de cometer un delito según su perfil, su localización o su pasado criminal). También introduce la obligación para los sistemas de IA generativa de declarar qué contenido ha sido generado por ellos o aquellos que se utilicen para influenciar a los votantes en las elecciones. La idea es regular por niveles de riesgo y casos de uso, y garantizar siempre la protección de los derechos y las libertades de la ciudadanía. Poco después, un grupo de empresas grandes europeas emitieron un comunicado alertando de cómo la Ley puede poner en peligro la competitividad y la buscada soberanía tecnológica europea, en contraposición con sus competidores estadounidenses. El debate está servido.

La buena noticia es que “hay todo un proceso de aprendizaje, puesto que hay sandbox (bancos de prueba); en España precisamente somos un ejemplo de proactividad para crear uno, o con la agencia de supervisión de algoritmos. Como lo fue GDPR, pero un poquito menos traumático, a mi parecer. Aquí ya se empieza a entender y hay una base de principios éticos, de iniciativas responsables de las empresas, de gobernanza. Yo creo que estamos bien posicionados y es un experimento”. En cualquier caso, es interesante la voluntad de alinear iniciativas entre Estados Unidos y la UE.

Precisamente, en torno a la gobernanza de la tecnología esglobal organizó hace unos meses un taller del que se extrajeron una serie de interesantes conclusiones, que pueden ser consultadas aquí.

Con Adrián González hablé también de cómo eliminar los sesgos -de género, de raza- que muestran las herramientas de inteligencia artificial, simplemente porque los datos de los que se alimentan están sesgados. Ahora se da prioridad al “data-centric approach, que trata de analizar los datos antes de inyectarlos al sistema. Se busca el mismo rendimiento con menos datos. Filtrar, verticalizar o evitar datos que no sean de calidad”, explica. 

Y comentamos también sobre los avances en desarrollar músculo en español en inteligencia artificial, otro de sus campos de trabajo. En los últimos años, se han ido coordinando mejor las diferentes iniciativas -a ello ha contribuido el PERTE del español-, antes muy fragmentadas. Pero sí sería interesante ver cómo se desarrollan proyectos y empresas de lenguaje masivo en nuestro idioma.

Para terminar, me quedo con las propias conclusiones de Adrián González: “Lo que ha cambiado el debate es que la IA está llegando al público en general. Esa capacidad de que las personas interactúen con un sistema complejo de manera natural, simplemente a través del lenguaje. Y la gente está tratando de aprender a cómo utilizarlo. Pero hay que explicar las cosas, desmitificar, que se entienda el potencial y las limitaciones”. Precisamente, por su voluntad de acercar la tecnología a todo tipo de audiencias y por su facilidad para transmitirlo y para desmontar los mitos y los miedos que está provocando la inteligencia artificial, merece la pena charlar con este experto. Puede verse mi conversación completa con él aquí.

Comienza el mes de julio con la Presidencia española del Consejo de la UE. Desde esglobal deseamos todos los éxitos a este esfuerzo colectivo por contribuir a seguir avanzando en las prioridades del proyecto comunitario, entre ellas, sí, la regulación de la inteligencia artificial.

Gracias siempre por su apoyo y buen verano.

Cordialmente,

Cristina Manzano