Dos investigadoras españolas han realizado varios experimentos para demostrar cómo la IA puede influir en decisiones tan importantes como elegir candidatos políticos o buscar citas románticas. Todo ello, pese a haber usado un algoritmo ficticio.
Un nuevo estudio muestra que las personas están dispuestas a aceptar las sugerencias de los algoritmos de inteligencia artificial (IA) en ámbitos de decisión tan comprometidos como el voto o la búsqueda de pareja online. Los resultados del trabajo, realizado por las investigadoras Ujué Agudo, del centro Bikolabs (Pamplona), y Helena Matute, del laboratorio de Psicología Experimental de la Universidad de Deusto (Bilbao), se han publicado en la revista PLOS ONE.
Desde en Facebook hasta en los resultados de búsqueda de Google, muchas personas se encuentran con algoritmos de IA cada día. Grandes empresas privadas llevan a cabo investigaciones sobre los datos de sus usuarios y generan conocimiento sobre el comportamiento humano que no está disponible públicamente. La investigación académica en ciencias sociales va a la zaga de la privada y se carece de conocimientos públicos sobre cómo los algoritmos de IA pueden influir en las decisiones de las personas.
Con el objetivo de arrojar algo de luz sobre este tema, Agudo y Matute han realizado cuatro experimentos para poner a prueba la influencia de los algoritmos de IA en diferentes contextos.
Según comentan a SINC, “reclutamos a los participantes para que interactuaran con un supuesto algoritmo de IA que presentaba fotos de candidatos políticos ficticios o de candidatos de citas online y les pedimos que indicaran a quién votarían o enviarían un mensaje. El sistema promocionaba a unos candidatos por encima de otros, bien de forma explícita —por ejemplo, 90 % de compatibilidad— o de forma encubierta, mostrando sus fotos más a menudo que las de otros”.
Las expertas señalan que lo más curioso de la investigación es que el algoritmo usado en los experimentos no era real. “Demostramos que ni siquiera es necesario tener una IA que conozca bien a los usuarios para poder influir en sus decisiones. Basta con decirles que hay un algoritmo analizando su personalidad y que les recomienda este u otro candidato”.
Así, reiteran, “no había un algoritmo eligiendo qué fotos eran compatibles con cada usuario. Estaban todas las recomendaciones ya programadas de antemano según grupo y condición, que posteriormente se asignaban al azar a los participantes”.
Demostramos que ni siquiera es necesario tener una IA que conozca bien a los usuarios para poder influir en sus decisiones. Basta con decirles que hay un algoritmo analizando su personalidad y que les recomienda este u otro candidato
Agudo y Matute revelan que “para que resultara creíble la idea del algoritmo que hacía recomendaciones personalizadas, se facilitó a los voluntarios un supuesto test de personalidad y un informe redactado de forma vaga para hacerles creer que el algoritmo había adivinado su personalidad. Este informe era valorado por los participantes como bastante preciso, lo que aumentaba la confianza en el supuesto algoritmo”.
Además, agregan, “se les exponían a diferentes rostros de candidatos de relleno para contribuir a esta idea de que había un algoritmo interpretando sus preferencias”.
Las investigadoras encontraron que este algoritmo ‘fantasma’ utilizado en los experimentos era capaz de influir en las decisiones, políticas y de citas online. En el contexto político, el algoritmo logró influir de forma explícita (distintivo de compatibilidad) en las votaciones de los candidatos recomendados, pero no de forma sutil. Mientras que en el contexto de citas, por el contrario, la influencia sutil (sesgo de familiaridad) resultó más eficaz.
Destacan que aún no saben si esa diferencia es generalizable, de manera que la influencia explícita resulte normalmente más eficaz en el contexto político y la influencia sutil en el contexto de citas, o si por el contrario, es posible que los algoritmos que utilicen otras formas diferentes de persuasión explícita o sutil puedan quizá influir igualmente en ambos contextos.
“Este es un primer paso, queda mucha investigación por delante en este campo, pero lo que es evidente es que se puede influir muy fácilmente en decisiones humanas importantes por medio de algoritmos, ya que, incluso cuando no son reales como el nuestro, logran incrementar las preferencias hacia unos candidatos frente a otros”, indican las investigadoras.
Las autoras opinan además que sus experimentos evidencian hasta qué punto las recomendaciones algorítmicas, por el mero hecho de estar presentes en nuestra interacción diaria, pueden influir en nuestras decisiones, incluso cuando son muy relevantes.
En sus conclusiones, Ujué Agudo y Helena Matute manifiestan su apoyo a las iniciativas que tratan de impulsar la fiabilidad de la IA, como las Directrices Éticas para una IA fiable de la Comisión Europea y el programa de IA explicable (XAI) de DARPA. No obstante, advierten que es necesario realizar más investigaciones públicas para comprender la vulnerabilidad humana ante los algoritmos.
En este sentido, piden que se eduque al público sobre los riesgos de confiar ciegamente en las recomendaciones de los algoritmos. También subrayan la necesidad de debatir sobre la propiedad de los datos que impulsan estos algoritmos.
“Si un algoritmo ficticio y simplista como el nuestro puede lograr tal nivel de persuasión sin establecer perfiles realmente personalizados de los participantes (y utilizando las mismas fotografías en todos los casos), uno más sofisticado como aquellos con los que la gente interactúa en su vida diaria debería, sin duda, ser capaz de ejercer una influencia mucho más fuerte”, concluyen.
Referencia:
Agudo U. Matute H. “The influence of algorithms on political and dating decisions”. PLOS ONE (abril 2021).