Investigadores de EE UU y Brasil han desarrollado un sistema que ayuda a garantizar que los algoritmos de aprendizaje automático, usados en IA, funcionen adecuadamente y no reproduzcan sesgos discriminatorios. La técnica ha sido probada con éxito en aplicaciones de educación y salud.
Los sesgos discriminatorios de los algoritmos, la invasión de la privacidad, los riesgos del reconocimiento facial y la regulación de las relaciones entre humanos y máquinas son retos que la IA necesita afrontar. Sin embargo, los intereses de gobiernos y grandes empresas priman muchas veces sobre las buenas prácticas.
Es habitual calificar a los millennials y a la generación Z como menos respetuosos o inteligentes comparados con generaciones anteriores. Pero es todo una ilusión fruto de recuerdos sesgados, tal y como revela una investigación estadounidense. Este fenómeno no es exclusivo de nuestra sociedad: lleva repitiéndose más de 2.500 años.
La periodista de ciencia Angela Saini analiza en su nuevo libro Superior el resurgimiento de la ciencia racial y del racismo científico. Teme que esta ‘resurrección’ sea debida al auge de la ultraderecha y el nacionalismo, y considera que la raza es, ante todo, una cuestión de poder.
Cada publicación sobre si hay o no variaciones importantes en el cerebro de hombres y mujeres genera encendidas reacciones incluso entre la comunidad científica. Muchos alertan de que el área avanza lastrada por sesgos que inducen a ignorar las evidencias, a un mal diseño de los experimentos y a errores de interpretación, en un círculo vicioso que perpetúa los estereotipos.