La imagen muestra una mano fantasmal dentro de una compleja red de circuitos informáticos en una imagen sobre los piratas informáticos, el riesgo y las desventajas de la tecnología (John Lund via Getty Images)

¿Es posible crear algoritmos humanos? ¿Cómo deberían ser?

En un enjambre digital

La tecnología no es ni buena ni mala, pero tampoco es neutral. Transmite valores. Cuando recibes un whatsapp recibes dos mensajes: uno, lo que dice su contenido; el otro, lo transmite la propia naturaleza de la aplicación y dice “esto es inmediato”. Un whatsapp transmite el valor de la inmediatez, y por ello nos sentimos abocados a responder de manera inmediata. De hecho, si tardamos unos minutos en responder, podemos obtener un nuevo mensaje de reproche por parte de quien nos escribió: “hola???” (cuantos más interrogantes, más reprimenda).

Todo medio de comunicación es en sí mismo un mensaje. Marshall McLuhan lo expresó en 1964 diciendo que el mensaje es el medio. Hace unos años lo explicó muy bien Reid Hoffman, cofundador de LinkedIn, cuando habló de los pecados capitales que transmiten las redes sociales, como, por ejemplo, LinkedIn la codicia o Facebook, la vanidad.

Nos encontramos en un enjambre digital constituido por individuos aislados. Las redes sociales son una concentración casual de personas que no forman una masa. Les falta un alma, un nosotros. Por ejemplo, en Twitter vemos perfiles con nombres simpáticos que simplemente retuitean, responden lacónicamente o indican que algo les gustó. Uniones temporales circunstanciales. No hay una voz, solo ruido.

En este enjambre digital, disponemos de muchos medios de comunicación, pero no por ello tenemos más información para tomar decisiones más acertadas. La suma de información por sí sola no engendra ninguna verdad. Demasiada, deforma. Por eso hoy en día hay gente que piensa que la Tierra es plana. La razón está dormida.

El opio del pueblo

La tecnología digital nos ha llevado a un imperio global en el que no existe un orden dominante. Aquí cada uno se explota a sí mismo, y lo hace feliz porque se cree libre. Cada minuto en Internet se visualizan 167 millones de vídeos en Tiktok, se publican 575 mil tuits, 65 mil fotos en Instagram o 240 mil en Facebook. ¡En un minuto! Para ello, no es necesario obligar, basta con prometer un paraíso lleno de “likes” y soltar de vez en cuando un eslogan sonriente del tipo “sal de tu zona de confort” o “tú puedes”.

Hemos llegado a un enjambre que cualquiera puede moldear. Diego Hidalgo dice que estamos anestesiados. Hace unos años la tecnología era “sólida”. Teníamos ese teléfono de mesa, con auricular y micrófono formando un asa, que requería deslizar un disco para marcar el número. Una tecnología poco problemática porque sabíamos cuándo la usábamos y cuándo no. Actualmente, la tecnología es “líquida” o incluso “gaseosa”. Ahora no sabemos dónde está, cuándo la usamos o si ella nos usa a nosotros. Tenemos relojes que se conectan con el móvil, o asistentes inteligentes que te marcan el número de teléfono a la orden de tu voz. Es una tecnología ubicua, cada vez más invasiva y más autónoma. Su incremento de autonomía puede ser nuestra disminución de soberanía.

La tecnología digital se ha convertido en el opio del pueblo, parafraseando a Karl Max. De vez en cuando en las noticias vemos narcopisos con plantaciones de marihuana alimentadas bajo potentes focos de luz. De una manera más sutil, en nuestras casas disponemos de plantaciones de adormideras, en forma de múltiples dispositivos móviles. ¿Quién alimenta esta plantación de opio digital? La inteligencia artificial.

Nuestra autonomía en manos de la inteligencia artificial

La inteligencia artificial es muy buena reconociendo patrones de comportamiento. Mediante esta se puede identificar fácilmente aquello que nos gusta o nos disgusta. Basta con analizar nuestra actividad en las redes sociales o en Internet. Esto permite a las empresas hacernos amables sugerencias sobre qué comprar o qué contenido seleccionar. Esta idea partió con el loable fin de conocer al usuario para que éste tuviera una mejor experiencia de cliente. En un principio, parecía que lo hacían por nuestro bien, pero algo se debió torcer en el camino.

La inteligencia artificial se puede utilizar para mantenernos activos en las redes sociales el mayor tiempo posible. Así lo denuncia el reportaje The Social Dilema, producido por distintos exdirectivos de empresas de redes sociales. En virtud de ese conocimiento que tienen de nosotros, la inteligencia artificial sabe qué tipo de notificación mandarnos o qué publicidad presentar y cuándo hacerlo. En el momento adecuado para no saturarnos o bien para animarnos. Además, escondida en la tecnología que nos rodea sabe darnos la dosis adecuada de adormidera.

También potencia al límite esa tecnología gaseosa de la que habla Diego Hidalgo. Trabaja, verdaderamente, a escondidas. Cuando hablamos de inteligencia artificial pensamos en robots y en el riesgo de que nos quiten puestos de trabajo. Esta cuestión es seria, pero también es sólida. Un robot es una tecnología sólida, la vemos venir y por ello sabremos controlarla. Existe otra inteligencia artificial que no vemos, que está impulsada por las aplicaciones móviles y que puede afectar a nuestros niveles de autonomía.

Algoritmos humanos

Médico utilizando una interfaz virtual holográfica mostrando un sistema respiratorio en un quirófano de Bangkok, Tailandia (MR.Cole_Photographer via Getty Images).

Se impone la necesidad de controlar la acción de la inteligencia artificial. Más que limitar nuestra autonomía, la inteligencia artificial puede, y debe, servir para aumentar nuestras capacidades e incluso para aumentar nuestra condición humana. Para ello es necesario crear lo que Flynn Coleman llama algoritmos humanos, que consiste en dotar a la inteligencia artificial de valores éticos humanos para que tome decisiones moralmente aceptables. La idea es buena, pero no está exenta de complejidad, como el mismo autor reconoce.

Un primer punto es determinar de qué valores éticos humanos dotamos a la inteligencia artificial. Posiblemente, no lleguemos a un acuerdo, dado que estos dependen de nuestra cultura y de nuestros valores personales. Pero quizás, con algo de optimismo, podríamos llegar a un acuerdo mínimo sobre aquellos valores que hacen que podamos considerar a una sociedad como “humana”. Adela Cortina propone unas virtudes públicas, tales como la solidaridad, la responsabilidad o la tolerancia. Imposible negar estos valores, al menos en una sociedad democrática inspirada en la Ilustración. Los podemos considerar (casi) universales. Vale, pero ¿cómo los programamos en un algoritmo?

Ésa es la segunda cuestión de complejidad. ¿Cómo podemos cuantificar la solidaridad, para programarla en un algoritmo? ¿Cómo definimos la tolerancia, para pasarla a fórmulas matemáticas? ¿Es un algoritmo responsable de algo?

Una posible solución podría ser entrenar a la inteligencia artificial con toda esa información recopilada sobre nuestro comportamiento y sobre las decisiones que tomamos, y que conforman una idea de nuestra esencia como seres humanos, pues somos lo que hacemos. Pero existe un riesgo: la inteligencia artificial podría aprender nuestras fortalezas y bondades, pero también nuestras debilidades y maldades. Sería una inteligencia artificial humana como nosotros, pero no más humana.

De una manera más práctica, la Comisión Europea propone unos principios éticos que deben regir la inteligencia artificial: respeto de la autonomía humana, prevención del daño, equidad y explicación. Algunos de estos principios, como la explicación o el respeto de la autonomía dependen de nosotros. La explicación consiste en garantizar que un sistema inteligente ha de ser transparente en el sentido de poder comunicar cómo funciona y cuál es su finalidad. Otros principios, como la equidad o la prevención del daño, siguen siendo conflictivos: ¿qué es la justicia? ¿qué daño evitar? (con la vacuna, me dolió el brazo).

De algoritmos humanos a humanos con algoritmos

Actualmente, el diseño de posibles algoritmos humanos se encuentra en una fase académica y experimental. Es una preocupación a la cual todavía se le está dando solución. Mientras tanto, la salida con la que se trabaja hoy en día es cambiar ligeramente el punto de vista. No tanto disponer de algoritmos que puedan tomar decisiones humanas, sino de humanos que tomen decisiones, apoyados por una inteligencia artificial. Es lo que se llama una cooperación humano-algoritmo.

Consiste en utilizar la inteligencia artificial para que realice ciertas tareas, aquellas más relacionadas con el análisis de la información, y dejar a las personas aquellas que requieren necesariamente la intervención humana, porque implican elementos irracionales, emocionales o éticos. Suelen ser tareas implicadas en la toma de decisiones. En definitiva, dejamos la decisión ética en manos humanas, apoyada en la información que puede proporcionar la inteligencia artificial.

Se ha visto que se obtienen mejores resultados cuando se trabajan de manera conjunta las capacidades humanas con las funcionalidades de los algoritmos. El siguiente debate es determinar esa línea de actuación entre un algoritmo y un humano. ¿Qué peso tiene cada uno? Según una investigación reciente de la Universidad de Gante, ese límite de actuación se sitúa en toma de decisiones con un peso de un 70% para los humanos y un 30% en los algoritmos. 

Más allá de porcentajes, debemos tener presente que la solución depende de nosotros. La tecnología no es ni buena, ni mala, ni neutral. El resultado de su uso depende de las decisiones que tomamos sobre qué hacer con ella. Ya sea una tecnología que esconde una inteligencia artificial “gaseosa” o una inteligencia artificial “sólida” y manifiesta. Podemos decidir apagar el móvil, a pesar de recibir una notificación inspirada por una inteligencia artificial o podemos decidir el contenido de un tuit, con independencia de recibir solo ciertos contenidos dirigidos por la misma inteligencia artificial. Podemos decidir crear una inteligencia artificial de reconocimiento de imágenes para detectar enfermedades con más antelación, o bien para identificar etnias y reprimirlas. Todas estas acciones comienzan con el verbo decidir en acción de primera persona, porque depende de nosotros. Y solo decide el que está despierto. Esto exige despertar de la dormidera del opio digital para crear un mundo digital verdaderamente humano.