Los sesgos discriminatorios de los algoritmos, la invasión de la privacidad, los riesgos del reconocimiento facial y la regulación de las relaciones entre humanos y máquinas son retos que la IA necesita afrontar. Sin embargo, los intereses de gobiernos y grandes empresas priman muchas veces sobre las buenas prácticas.
La inteligencia artificial (IA) ya no es cosa de ciencia ficción, está en todas partes. Tu banco la usa para saber si te va a dar un crédito o no y los anuncios que ves en tus redes sociales salen de una clasificación llevada a cabo por un algoritmo, que te ha microsegmentado y ‘decidido’ si te muestra ofertas de cremas antiarrugas o de coches de alta gama. Los sistemas de reconocimiento facial, que utilizan aeropuertos y fuerzas de seguridad, también se basan en esta tecnología.
“Las máquinas no tienen una inteligencia generalista, tampoco hemos logrado que tengan sentido común, pero sí disponen de inteligencias específicas para tareas muy concretas, que superan la eficiencia de la inteligencia humana”, explica a Sinc Carles Sierra, director del Instituto de Investigación de Inteligencia Artificial (IIIA) del CSIC.
Por ello –agrega– “la IA tiene un enorme potencial en la mejora de procesos industriales, el diseño de nuevos medicamentos o para lograr mayor precisión del diagnóstico médico, por citar unos pocos ejemplos”.
Pero aparte de un gran avance, la IA es ahora mismo un enorme negocio, que se estima en unos 190.000 millones de dólares (unos 170.000 millones de euros) para 2025, incluyendo hardware, software y servicios alrededor de la tecnología. Los datos son considerados ahora como el nuevo petróleo.
Este negocio tan apetitoso se lo disputan, entre otros, gigantes tecnológicos como Amazon Google, Facebook, Microsoft e IBM, “cuyos intereses comerciales priman muchas veces sobre las consideraciones éticas”, dice Sierra.
Muchas de estas firmas –señala– “están ahora creando comités éticos en el ámbito de la IA, pero lo han hecho más de una forma reactiva que proactiva”, tras las críticas recibidas por el uso inapropiado de la IA en ámbitos relacionados con la privacidad de los usuarios o la utilización sin la debida supervisión de algunas aplicaciones.
Según comenta a Sinc Carme Artigas, experta en big data y embajadora en España del programa Women in Data Science de la Universidad de Stanford, un ejemplo de estos usos controvertidos fue el llevado a cabo por Microsoft cuando decidió lanzar su bot Tay. Este chatbot basado en IA “estuvo navegando por sí solo en Twitter y al cabo de unas horas empezó a publicar tuits racistas y misóginos porque había cogido lo mejor de cada casa en esta red social”. A las 16 horas del lanzamiento la firma tuvo que desactivarlo.
“Lo que ocurre –dice Artigas– es que cuando un sistema de inteligencia artificial no está supervisado se corre el riesgo de que no haya filtro, y eso es lo que ocurrió con este bot.
La ética de la IA es una cuestión que está ahora en una fase incipiente de desarrollo y tendrá que afrontar importantes retos. Uno de ellos, en opinión de esta experta, es lo que denomina la “dictadura de los algoritmos”.
Por ejemplo –señala– los algoritmos de clasificación, lo que hacen “es microsegmentar a las personas, es decir, clasificarlas por su comportamiento, lo cual puede conducir, si no se regula o si el proceso no es transparente, a que al final se le limiten a la gente sus opciones para elegir libremente”.
“Imagina –añade Artigas– que un algoritmo microsegmenta a alguien como una persona de renta media baja, deduce que nunca se va a poder comprar un Ferrari o un Porche y, por tanto, en los anuncios nunca le va a mostrar un coche de gama alta porque sabe que no se lo puede permitir. Este es un ejemplo que puede parecer poco importante, pero deberíamos preguntarnos si es ético no presentar algo a la gente ni siquiera para que sueñe porque ya ha sido preclasificada”.
Otra cuestión relevante y que ocasiona graves problemas de sesgo “es que, como los algoritmos de machine learning se alimentan con datos históricos, corremos el riesgo de perpetuar en el futuro los prejuicios del pasado”. Artigas habla para ilustrar este aspecto de los “típicos estudios de criminalidad en EE UU, que apuntan a que las personas afroamericanas tienen más probabilidades de cometer delitos”.
El algoritmo –prosigue– “ha estado entrenado con millones de datos de hace 30 años en los que se mostraba que si eras afroamericano, tenías más probabilidades de ir a la cárcel. También nos pasa con los sesgos de género. Si partimos de datos históricos, el algoritmo seguirá reproduciendo los clásicos problemas de discriminación”, subraya.
En esta misma línea, Isabel Fernández, directora general de Inteligencia Aplicada en Accenture, hablaba en una entrevista con Sinc sobre la necesidad de un protocolo que regule los sesgos en IA. “No me cabe ninguna duda de que esto va a haber que regularlo. Ya no solo se trata de buenas prácticas. Igual que ocurre en un quirófano para garantizar que está limpio, creo que tiene que haber un protocolo o una acreditación para evitar los sesgos en los datos”, subrayaba.
Según Carme Artigas, hay otro gran requerimiento ético que se debe pedir a cualquier empresa u organización que trabaje con IA y que se sitúa alrededor de la transparencia y lo que se denomina explainability. Esto es, explica, “si el banco te deniega un crédito porque, según el algoritmo, no eres apto, tienes el derecho a que la entidad te explique por qué y cuáles son los criterios para desecharte”.
¿Qué ocurre? Que en los procesos que siguen los algortimos, sobre todo en los de aprendizaje profundo (deep learning), no se sabe muy bien qué hay entre los inputs y los outputs, advierte Artigas.
Un programa basado en este tipo de algoritmos de deep learning es el Alpha Zero Go de Google, que no solo ha aprendido a jugar al Go –un antiguo juego oriental considerado como un gran reto para la IA– sino que ha descubierto nuevas estrategias abstractas por sí mismo. Pero ni los expertos saben bien cómo funcionan estos algoritmos.
“Esta opacidad es lo que se denomina cajas negras de los algoritmos”, comenta a Sinc Aurélie Pols, responsable de protección de datos (DPO, por sus siglas en inglés) de la firma mParticle y consultora de privacidad.
“En estas cajas negras la entrada y el procesamiento no siempre son claros o explicables. Estos resultados opacos pueden tener consecuencias en la vida de las personas y posiblemente no estarán alineados con sus valores ni con sus opciones”, subraya Pols.
Patrick Riley, científico de computación de Google, abundaba también en esta misma idea en un artículo en la revista Nature del pasado mes de julio. “Muchos de estos algoritmos de aprendizaje automático son tan complicados que es imposible inspeccionar todos los parámetros o razonar sobre cómo se han manipulado las entradas. A medida que estos algoritmos comiencen a aplicarse cada vez más ampliamente, los riesgos de interpretaciones y conclusiones erróneas, y esfuerzos científicos desperdiciados se multiplicarán”, advertía Riley.
A todas estas reflexiones, se suman los problemas relacionados con la protección de los datos personales. En IA “es importante que los modelos de datos que se usen para alimentar estos sistemas y su tratamiento respeten la privacidad de los usuarios”, destaca Carme Artigas.
En Europa –dice– “tenemos el Reglamento General de Protección de Datos, pero hay países como China, que ahora mismo está liderando este negocio, donde no existe la misma sensibilidad que en la sociedad europea respecto a la privacidad. Allí, por ejemplo, en los temas de vigilancia y reconocimiento de imagen no existe ninguna cortapisa. Y esto puede marcar distintas velocidades de desarrollo de la tecnología, pero los datos personales son algo que, desde el punto de vista social, se deben proteger”, recalca.
Artigas se refiere además a otro de los viejos retos éticos vinculados a la IA, que es el de cómo regular las nuevas relaciones entre humanos y máquinas. “Si utilizas un paralelismo como ha hecho la UE de la leyes de la robótica de Asimov y las traduces a normativa, esta te dice, por ejemplo, que no se deben establecer relaciones emocionales con un robot . Y esto entra en contradicción con algunas aplicaciones de los robots sociales, que se usan, precisamente, para provocar emociones en personas con autismo o con enfermedades neurodegenerativas, ya que esta vinculación ha demostrado ser beneficiosa y positiva en terapias”.
Para resumir, esta experta señala que “falta mucho por hacer en materia de legislación y en el análisis de las repercusiones éticas de la inteligencia artificial”. Lo que debemos lograr –añade– “es que haya transparencia y que las compañías y gobiernos nos informen sobre qué hacen con nuestros datos y para qué”.
Por su parte, Ramón López de Mántaras, profesor de investigación del CSIC en el IIIA, hablaba en una reciente conferencia de la importancia que tiene en el desarrollo de la inteligencia artificial aplicar el principio de prudencia. “No hay que lanzarse alegremente a desplegar aplicaciones sin que antes hayan sido bien verificadas, evaluadas y certificadas”, subrayaba.
Este principio es uno de los puntos destacados de la Declaración de Barcelona, promovida por López de Mántaras y otros expertos, en la que se incluye un manifiesto que pretende servir de base para el desarrollo y uso adecuado de la IA en Europa.
Un ejemplo de la aplicación de este principio –señalaba– “lo ha protagonizado la ciudad de San Francisco, cuyas autoridades han decidido prohibir los sistemas de reconocimiento facial. Algo de lo que me congratulo porque es una tecnología con muchos fallos, que puede acabar teniendo repercusiones tremendas en la vida de la gente cuando es utilizada por gobiernos o fuerzas de seguridad”. Un ejemplo reciente de este uso es el llevado a cabo por la policía con los manifestantes de las revueltas de Hong Kong, que ha sido ampliamente criticado.
Microsoft también se ha replanteado el uso de esta tecnología. Según cuenta a Sinc Tim O'Brien, responsable de ética en IA de la firma, “hace un año planteamos la necesidad de una regulación gubernamental y medidas responsables por parte de la industria para abordar los problemas y riesgos asociados con los sistemas de reconocimiento facial”.
O'Brien opina que “hay usos beneficiosos, pero también riesgos sustanciales en las aplicaciones de estos sistemas y necesitamos abordarlos para asegurar que las personas sean tratadas de manera justa, que las organizaciones sean transparentes en la forma en que la utilizan y rindan cuentas de sus resultados. También es preciso asegurar que todos los escenarios de uso sean legales y no impidan el ejercicio de los derechos humanos básicos”, destaca.
Otro de los aspectos éticos problemáticos puestos de relieve por López de Mántaras en su intervención está relacionado con el uso de armas autónomas basadas en IA. “Hay principios básicos como los de discernimiento y proporcionalidad en el uso de la fuerza que ya resultan difíciles de evaluar para los seres humanos. Veo imposible que un sistema autónomo pueda tener en cuenta estos principios”, señalaba.
Este Premio Nacional de Investigación se preguntaba cómo un sistema autónomo “va a ser capaz de distinguir –por ejemplo– a un soldado en actitud de ataque, de rendición, o a uno herido. Me parece absolutamente indigno delegar en una máquina la capacidad y la decisión de matar”.
El científico es un firme partidario de imbuir los principios éticos en propio diseño de la tecnología. “Los ingenieros de IA deberían firmar una especie de juramento hipocrático de buenas prácticas”. Al igual que otros expertos, también se mostró favorable a impulsar la certificación de los algoritmos para evitar sesgos. Pero, en su opinión, “esta validación deberían hacerla estamentos o instituciones independientes. A mí no me vale con que Google certifique sus propios algoritmos, debería ser algo externo”.
Según López de Mántaras, “afortunadamente se está produciendo una creciente toma de conciencia de los aspectos éticos de la IA, no solamente a nivel de estados o de la UE, sino también por parte de las empresas. Esperemos que no sea todo maquillaje”, concluía.