IA_ciudades_portada
Adobe Stock; zapp2photo

Las urbes están trabajando a pasos agigantados en la mejora de su interconectividad a través de tecnologías aplicadas mediante Inteligencia Artificial. La seguridad en las ciudades es una de las áreas de mayor implementación. Las oportunidades que brinda están también reconfigurando un nuevo entramado de riesgos y dilemas que va a tener que asumirse en un futuro cercano. De una mayor colaboración multinivel y una comprensión inclusiva del asunto dependerá su éxito.

La Inteligencia Artificial (IA) fue una vez algo perteneciente al mundo de la ciencia ficción. Ahora, está presente en nuestro día a día, de forma visible e invisible: a través de chatbots, estableciendo nuestras preferencias musicales en Spotify, las novedades en Twitter, o ayudando a personas con dependencia en sus hogares. Su potencial también está utilizándose para promover un marco de Inteligencia Artificial para el Bien Social. Empresas como Google están trabajando en proyectos sobre emergencias para pronosticar inundaciones de forma más rápida y precisa, o en salud para predecir el riesgo de problemas cardíacos mediante el uso masivo de datos. Otros, como la Universidad de Southern California-Los Angeles mediante su software PAWS, dedican sus esfuerzos a detectar de forma temprana la caza ilegal de animales en peligro de extinción en zonas protegidas del Este de África.

Así, el uso de la inteligencia artificial está transformando la gobernanza y la forma en que los recursos son utilizados para con la ciudadanía. La IA no es una tarea que apele solamente a personas especializadas en ingeniería o computación informática. Es también una llamada a expertos/as de otras disciplinas, como educación, sociología, periodismo, economía, salud, derecho o seguridad. Aprovechar las virtudes de este sistema se presenta como una oportunidad para refinar la prestación de servicios a la población de una forma más eficiente y particularizada. Hacer de las aplicaciones sociales de la IA algo cotidiano, normalizado y aceptado en el día a día de las personas es un reto todavía mayor en el que se debe trabajar desde las administraciones públicas, el mundo privado y el tercer sector. En este sentido, uno de los retos de la IA es superar el escepticismo social que todo nuevo sistema de cambio tiene en sus inicios, pero que con el tiempo brinda grandes oportunidades y allana caminos.

De esta manera, esta concienciación debe ir necesariamente de la mano de una consideración crítica previa: el sistema de IA todavía requiere mejorar las habilidades de autocorrección de los distintos sesgos que generan sus propios algoritmos. Esto significa que el impacto de las tecnologías desarrolladas por inteligencia artificial no es neutral, bien porque los datos recopilados históricamente no están completos, bien porque no son representativos o exactos. Así, puede agravar prejuicios ya existentes, ampliar las desigualdades sociales, sobrerepresentar a grupos vulnerables o amplificar prejuicios culturales, por ejemplo, a través de bases de datos sobre criminalidad. Este aspecto es precisamente importante en el uso que se hace de la IA en la seguridad urbana.

 

Policía inteligente: nuevos ‘softwares’ y riesgos a resolver

Un sector de expertos en políticas públicas para la tecnología argumenta que aquellas ciudades que quieran mejorar la seguridad pública necesitan también estar a la vanguardia de las nuevas tecnologías. Concretamente, la IA está empezando a ser utilizada como tecnología de vigilancia con varios objetivos: la mejora de la gestión municipal, la protección civil, la prevención de la criminalidad, la respuesta a emergencias y la provisión de servicios públicos. De hecho, según el último informe sobre la aplicación de la IA de McKinsey & Company, la respuesta a crisis, así como la seguridad y justicia son dos de las esferas en donde más se utiliza IA –entre 16 y 17 capacidades–, solo por detrás de salud y medio ambiente. Tres técnicas están utilizándose principalmente: ciudades inteligentes y seguras, sistemas de reconocimiento facial y policía inteligente.

Concretamente, el uso de sensores, aparatos de seguimiento y tecnologías de vigilancia están proveyendo a la policía y a las fuerzas de seguridad de mayores capacidades para la predicción, prevención y reducción de hechos delictivos. Por ejemplo, el software PredPol se encarga de hacer un análisis algorítmico que acumula datos sobre localización geográfica, historial de arrestos o delitos más comunes, para determinar áreas de alto riesgo y mejorar la distribución de las patrullas operativas en la ciudad. Este software está utilizándose en más de doce ciudades en Estados Unidos y ha generado una acalorada polémica. Por un lado, los contratos de los gobiernos locales con esta empresa no se han hecho siempre públicos. Por otro lado, presentan un dilema ético respecto a la necesidad o no de consentimiento por parte de los ciudadanos. La ciudad de Montevideo, en Uruguay, es la primera cliente no estadounidense en haber recurrido a los servicios de dicho software: sin sustituir el análisis policial tradicional, aspira a mejorar la eficiencia de las patrullas.

policia_USA
Un policía de la ciudad de Nueva York monitorea las cámaras de seguridad.John Moore/Getty Images

Otro software es ShotSpotter, orientado a la rápida detección y localización de disparos en menos de 60 segundos, de los que la policía recibe una notificación automática. Dos tecnologías de IA son utilizadas. Primero, los lectores de licencias de armas, que sirven para verificar quién es el propietario del arma usada. Segundo, los vehículos aéreos no tripulados, también conocidos como drones, que graban los espacios afectados por disparos y mejoran el análisis de las pruebas recogidas en los incidentes.

Además de los peligros todavía no resueltos en materia de privacidad de datos, vulneración de derechos fundamentales y nuevas capas de discriminación, existen dos riesgos añadidos en el uso de la llamada policía inteligente a causa de los sesgos algorítmicos que pueden generarse como consecuencia de la imprecisión de los datos. En primer lugar, lo que se denomina overpolicing, esto es, el incremento del control policial a niveles más altos de lo necesario, con el consiguiente descontento vecinal ante la presencia de estas fuerzas de seguridad. Esto puede generar un aumento de las hostilidades entre ambos actores, así como la creación de nuevas formas de autogestión vecinales para la resolución de las diferencias en esos barrios, paralelas u ocasionalmente contrarias a las vigentes por la policía. En cualquier caso, la consecuencia directa es el distanciamiento, la desconfianza y la construcción de narrativas de confrontación simbólica. En segundo lugar, puede generar la creación de puntos calientes de alto riesgo que condenen tales barrios a una mala reputación y perpetúen mayores niveles de desigualdad.

 

La vigilancia vía IA versus derechos fundamentales

La recopilación de datos por parte de los gobiernos permite la detección de anomalías, una herramienta útil a hora de prevenir ataques a infraestructuras críticas esenciales para el mantenimiento de la economía. También permite alertar sobre violencia electoral: al mapear los colegios electorales, se puede alertar a la población de cuándo puede haber posibles ataques en países con riesgo de conflictividad durante la jornada electoral. No obstante, pese a sus virtudes, la IA también puede ser utilizada para limitar el grado de libertad de asociación y expresión de sus ciudadanos.

En primer lugar, la inteligencia artificial puede usar datos disponibles sobre comportamiento y actitudes, así como el procesamiento de lenguaje natural, con el objetivo de filtrar sentimientos. Entendidos como “micro-objetivos psicográficos”, la IA puede identificar grupos homogéneos de personas afines (también denominados “cámaras de eco”) y dónde suelen concentrarse. Esto disminuye su anonimato y las posibilidades de movilización.

camaras_Londres
Una cámara CCTV en una calle de Londres, Reino Unido.TOLGA AKMEN/AFP via Getty Images

En segundo lugar, los sistemas de reconocimiento tanto facial como de voz están utilizándose más a menudo, pese al vacío legal existente con respecto a las posibilidades de acceso y uso de bases de imágenes. Esto puede generar sesgos raciales, especialmente en países multiétnicos en donde este factor es clave para la participación política. También puede dar lugar a sesgos de género. Un importante sub-campo de la IA es el machine learning, el cual permite, a partir de datos existentes, establecer patrones que expliquen fenómenos actuales y predigan eventos futuros. Al contrario que el deep learning, que da un paso adelante al actuar como una mente propia que simula la forma de pensar de las neuronas, el machine learning no está tan avanzado y, al absorber los datos existentes, se limita a repetir los sesgos estereotipados derivados de la desigualdad de género.

En tercer lugar, debido a la falta de regulaciones nacionales completas, todavía es difícil establecer hasta qué punto el uso de la IA cumple con los principios de necesidad  y proporcionalidad. Tampoco queda claro dónde está el límite entre un uso legítimo o abusivo de la misma. Este dilema es especialmente relevante en el caso de la protección humanitaria de personas o grupos en situación de vulnerabilidad, o en el uso de nuevas tecnologías de defensa, como los vehículos no tripulados o drones, armas autónomas, cibercapacidades o tecnologías para el espacio exterior. En este asunto, cada vez se hace más presente la existencia de una pluralidad de voces que está uniéndose para tratar de desarrollar una normatividad internacional que regule –o en algunos casos prohíba– el uso de estas tecnologías de IA. El caso más conocido es la campaña Stop Killer Robots, coordinada por Human Rights Watch y compuesta por asociaciones de los cinco continentes. Desde el plano regulativo, en las reuniones anuales en Ginebra sobre la Convención sobre Ciertas Armas Convencionales Excesivamente Nocivas o de Efectos Indiscriminados se debate cómo se podría garantizar que estas armas respetaran las Convenciones de Ginebra, que regulan el Derecho Internacional humanitario, especialmente ahora que buena parte del conflicto se desarrolla en entornos urbanos.

 

Oportunidades de futuro de la IA

Así, la Inteligencia Artificial es un sistema que puede aplicarse a múltiples ámbitos. Sin embargo, en materia de seguridad urbana, el país más representativo es Estados Unidos. En primer lugar, porque es una de las industrias de IA más potentes en el mundo, gracias a la colaboración entre centros de investigación universitarios, empresas privadas y hubs conjuntos. En segundo lugar, porque ya están buscando métodos para mitigar las consecuencias negativas de la IA, por ejemplo a través de Red Teams, grupos independientes que atacan los sistemas de un software para identificar vulnerabilidades y mejorar su efectividad.

En materia de ciudades inteligentes y de reconocimiento facial –y todas sus implicaciones en privacidad–, el último informe “2019 Global Cities Report” de AT Kearney indica que Nueva York, Londres y París son las urbes más completas en materia de conectividad. No obstante, este documento no es representativo, ya que no especifica el impacto que las tecnologías de inteligencia artificial aplicadas tienen sobre sus ciudadanos. Aun con todo, Tokio y Hong Kong se sitúan en la cuarta y quinta posición del ranking. Ambas destacan por la monitorización de las actividades de sus habitantes dentro de las empresas y en los espacios públicos.

ciudad_inteligente
Unos vistantes en GSMA Mobile World Congress 2019, Barcelona, España. David Ramos/Getty Images

Mientras, ¿qué está ocurriendo en España? Con el Plan Nacional de Ciudades Inteligentes y la elevada inversión, de casi 190 millones de euros por parte del Gobierno y 108 millones por parte del Fondo Europeo de Desarrollo Regional, se aspira a garantizar un desarrollo sostenible de las urbes. Con más de 60 ciudades inteligentes, España está convirtiéndose en uno de los líderes europeos en conectividad, así como en gestión de energía, aguas y residuos, situándose sólo por detrás de Londres, París y Bruselas. Del mencionado ranking mundial, Madrid se sitúa en la 15ª posición, y Barcelona en la 23ª. Así pues, en el caso español las tecnologías de IA para la seguridad todavía se encuentran en una fase temprana. Si bien ya incluyen sistemas de reconocimiento facial, por ahora este plan –promovido por el Ministerio de Energía, Turismo y Agenda Digital– se focaliza en promover el sector tecnológico y su capacidad de internacionalización, así como la creación de ciudades inteligentes y destinos turísticos inteligentes más eficientes.

En conclusión, la definición de los límites mínimos y máximos de uso de la IA a través de regulaciones nacionales, el desarrollo de futuras herramientas que complementen a las actuales, la mejora de las comunicaciones entre las fuerzas de seguridad civiles y la sociedad, la generación de medidas de confianza, o la creciente inserción de la inteligencia artificial en los sistemas de educación y salud, son solo algunas de las áreas a emprender y que llevarán a este sistema de tecnologías hacia adelante como un entramado de oportunidades. En España ya están haciéndose muchos de estos esfuerzos gracias a la Estrategia de I+D+i para Inteligencia Artificial. Este es solo un embrión de la Estrategia Nacional para IA, que actualmente está desarrollándose desde el Grupo de Trabajo Interministerial en Inteligencia Artificial, coordinado por el Ministerio de Ciencia, Innovación y Universidades. Junto a ello, está trabajándose en la creación de un ecosistema de mayor participación público-privada, la mayor visibilidad de este reto a través de los principales medios de comunicación del país y la implementación de nuevas formas de microaprendizaje en el mundo de la educación.

La manera de enfrentarse a los riesgos que implica la inteligencia artificial podrían hacerse mediante la creación de redes de colaboración para detectar y mitigar sus vulnerabilidades, y no bajo el lema del escepticismo. Sólo así los proyectos en IA, ya en desarrollo, podrán aprovecharse como ventanas de oportunidad. Es necesaria una regulación común sobre el acceso y uso de productos que vaya de la mano de medidas que verifiquen que los impactos no generan desigualdad. Así, si la inteligencia artificial está siendo la revolución del siglo XXI, tanto para tecnooptimistas como para los más pesimistas está en nuestra mano que sus aplicaciones sean no solamente para todos, sino de todos.