Neurotecnología e inteligencia artificial (Getty Images)

La neurotecnología y el reto de la gobernanza tecnológica.

El economista de la salud Martin Buxton dijo en cierta ocasión que “siempre parece demasiado pronto para evaluar una tecnología, hasta que de repente, es demasiado tarde”. Esta frase refleja un dilema metodológico habitual en los estudios de evaluación de la tecnología que se conoce como el “dilema del control de Collingridge”. Por un lado, vemos que las consecuencias sociales de una nueva tecnología no pueden anticiparse fehacientemente cuando la tecnología está aún implantándose (problema de la información). Sin embargo, llegado el momento en que tenemos evidencias palpables de sus impactos negativos, a menudo la tecnología está ya tan arraigada en la sociedad que su control resulta extremadamente difícil (problema del poder).

Este dilema está presente hoy en diversas tecnologías en ciernes, entre ellas las relativas al campo de la neurotecnología. De manera muy general, esta describe un amplio y diverso catálogo de prácticas, sistemas e instrumentos que establecen una vía de conexión con el cerebro humano y que pueden registrar y/o alterar la actividad neuronal. Dichas neurotecnologías se dividen de forma general en dos grandes grupos: las invasivas y las no invasivas. Las neurotecnologías invasivas –basadas en implantes neurales– registran y/o alteran la actividad cerebral desde el interior del cráneo y, por consiguiente, han de ser quirúrgicamente implantadas en el cerebro. Las no invasivas registran y/o alteran la actividad cerebral desde el exterior del cráneo, por lo que pueden utilizarse de manera similar a como, por ejemplo, opera la maquinaria biomédica de obtención de imágenes del cerebro. En este campo, son las Interfaces Cerebro-Máquina (ICM) las que cobran una relevancia especial desde el punto de vista ético y social. Las ICM pueden establecer una vía de comunicación directa entre el cerebro humano y un sistema de computación externo (por ejemplo, un ordenador personal, un brazo robótico o una silla de ruedas electrónica). Esta vía de conexión directa y mediada por la Inteligencia Artificial (IA) entre el cerebro y el mundo digital supone un salto cualitativo importante y es capaz de plantear problemas éticos únicos y sin precedentes.

El reto ético planteado por las ICM y otras neurotecnologías nos obliga a abordar una cuestión ético-socio-legal y política fundamental: determinar si –o en qué condiciones– es legítimo acceder o interferir en la actividad cerebral de una persona. Esta cuestión invita al debate en los diversos niveles de gobernanza.

Cuando se crearon las primeras plataformas –hace aproximadamente 15 años– estas contaron de partida con poca o ninguna supervisión, dado que sus repercusiones sociales y éticas a medio y largo plazo eran aún una incógnita. Sin embargo, ahora que contamos con información profusa de sus consecuencias indeseables –como la propagación de noticias falsas, el fenómeno de los filtros burbuja, la polarización política o el riesgo de manipulación online– estas tecnologías están ya tan implantadas en la sociedad y en el mercado, que resultan prácticamente imposibles de regular y de controlar.

En lo relativo a la neurotecnología, no podemos correr este riesgo. Esto es así porque el cerebro no es una fuente de información más –como tantas otras que pueblan la infoesfera digital, sino que constituye el órgano en el que reside la mente humana. En consecuencia, la neurotecnología, con su habilidad para leer y escribir la actividad cerebral, abre la puerta a descodificar y modificar el contenido de nuestra mente. Es más: la actividad cerebral y la vida mental que genera son el sustrato crítico de la responsabilidad moral y legal de la identidad personal. En consecuencia, la lectura y la manipulación de la actividad neural por medio de técnicas neurotecnológicas mediadas por la IA podrían tener repercusiones sin precedentes en la identidad de las personas, e introducir un elemento de ofuscación en la atribución de responsabilidades morales e incluso legales.

Para evitar estos riesgos, y a la luz del principio de precaución, la gobernanza anticipatoria es la apuesta más segura. Tenemos la obligación moral de ser proactivos y canalizar el desarrollo de estas tecnologías en base a unos principios éticos y sociales democráticamente acordados. Es fundamental, sin embargo, que estos enfoques anticipatorios al desarrollo y a la gobernanza de la tecnología se desplieguen de una forma sistemática, empíricamente fundamentada y no especulativa.

 

Los derechos humanos actuales no son suficiente: hacia una propuesta de neuroderechos 

Dada la complejidad, tanto del cerebro humano como de las implicaciones éticas, legales y sociales que suscita, parece difícil que los enfoques de marco-único a su gobernanza, más generalistas, acaben dando buen resultado. Por el contrario, parece que sea cual sea el marco de gobernanza global de la neurotecnología, ésta deberá operar ineludiblemente a múltiples niveles. El fundamento de este marco de gobernanza multinivel, sin embargo, tiene que estar en consonancia con los derechos humanos fundamentales. La razón es que, como hemos visto, los procesos mentales son la quintaesencia de lo que nos hace humanos.

En un escenario tecnológico de rápida evolución, resulta básico definir en primer lugar qué derechos ostentan los individuos en relación con su dimensión mental. En particular, junto con el jurista y experto en bioética Roberto Andorno, hemos abogado por la interpretación evolutiva y la reconceptualización de los derechos humanos existentes, e incluso, por la creación de nuevos derechos humanos neuroespecíficos, que hemos denominado neuroderechos. Particularmente, hemos propuesto cuatro:

El primero, el derecho a la libertad cognitiva, consagra el derecho de los individuos a tomar decisiones libres y competentes relativas a su uso de la neurotecnología. En su connotación negativa, garantiza la protección de los individuos frente al uso coercitivo y no consentido de dichas tecnologías.

En segundo lugar, el derecho a la privacidad mental, busca proteger a los individuos de la intrusión no consentida de terceras partes en sus datos cerebrales, así como de la recopilación no autorizada de dichos datos.

Tercero, el derecho a la integridad mental, es un derecho ya reconocido por la legislación internacional (Artículo 3 de la Carta de los derechos fundamentales de la UE) respecto a la promoción de la salud mental, y debe ampliarse para que proteja también de la manipulación ilícita y nociva de la actividad mental de las personas que hacen posible las neurotecnologías. Entre las nuevas formas de amenaza a la integridad mental se cuentan la neuroestimulación no deseada, el neurohacking malicioso y la manipulación de la memoria potencialmente perjudicial. Este derecho es particularmente relevante en el contexto de la seguridad nacional y de la neurotecnología militar.

Finalmente, el derecho a la continuidad psicológica, pretende preservar la identidad de las personas y la continuidad de su vida mental, frente a la alteración externa no consentida de terceros. A diferencia del derecho a la integridad mental, este derecho se aplica también a intervenciones no consentidas que pretenden cambiar la personalidad, aunque no impliquen un daño físico o psicológico directo a la víctima. El derecho a la continuidad psicológica es particularmente relevante también en relación con las estrategias de marketing invasivas.

 

¿Qué iniciativas legislativas están ya en marcha?

Neurobiólogo trabajando en Computadora con Pantalla mostrando Neuroimagen de un Cerebro. (Getty Images)

Diversos actores gubernamentales, intergubernamentales y no gubernamentales están actualmente involucrados en la gobernanza de la neurotecnología. Un paso importante tuvo lugar en 2019 con la “Recomendación sobre Innovación Responsable en Neurotecnología”, adoptada por el Consejo de la Organización para la Cooperación y el Desarrollo Económico (OCDE), que estableció el primer estándar internacional en este campo. Si bien la Recomendación de la OCDE se centra principalmente en la gobernanza responsable de los actores de la industria de la neurotecnología, también incluye disposiciones sobre la privacidad mental y la libertad cognitiva. Otras organizaciones internacionales están poniendo los neuroderechos en el centro de sus estrategias de gobernanza. El Consejo de Europa, por ejemplo, ha lanzado un Plan de Acción Estratégica quinquenal centrado en los derechos humanos y en nuevas tecnologías biomédicas, incluida la neurotecnología. Paralelamente, los legisladores nacionales también están activos en esta área. El desarrollo político más importante en este ámbito es la reciente aprobación por parte del Senado chileno de una ley de reforma constitucional que defina la integridad mental como un derecho humano fundamental, y de una ley sobre neuroprotección que salvaguarde los datos cerebrales y aplique la ética médica existente, codificada en el actual código médico chileno, al uso de las neurotecnologías en poblaciones de no pacientes. Por otra parte, la Secretaría de Estado española de Digitalización e Inteligencia Artificial ha publicado recientemente una Carta de Derechos Digitales que incorpora ya los neuroderechos como parte de los derechos de los ciudadanos de la nueva era digital. Finalmente, la Agencia Italiana Garante per la Protezione dei Dati Personali dedicó el Día de la Privacidad de 2021 a la investigación de los neuroderechos, avalando la necesidad de abordar adecuadamente las implicaciones de la neurotecnología sobre los derechos humanos.

Desentrañar el enigma científico del cerebro humano acelerando la innovación neurotecnológica e impulsándola para desarrollar soluciones efectivas para los pacientes neurológicos y psiquiátricos es uno de los grandes retos de nuestro tiempo. Sin embargo, el reto para la ética y la política es garantizar que la necesaria innovación en este terreno no se emplea de forma abusiva, que está en consonancia con valores éticos y sociales, y que su objetivo es la promoción del bienestar humano.

 

Este artículo se publicó con anterioridad en el Anuario Internacional Cidob 2021.