Los tecnólogos deben estar preparados para salir de su zona de confort y comprometerse más con los expertos y las comunidades afectadas por los algoritmos de inteligencia artificial (IA). De lo contrario, los sistemas que se dedican a crear reforzarán y agravarán los problemas sociales (ver La IA que evalúa a delincuentes perpetúa la injusticia hacia las minorías). Así lo afirma la investigadora de ciencias de la computación de la Universidad de Cornell (EE.UU.) Rediet Abebe, especializada en algoritmos, inteligencia artificial y su aplicación para el bien social .
Durante su ponencia en la reciente conferencia en EmTech Digital de MIT Technology Review, la experta alertó de que ha descubierto una sorprendente falta de colaboración en ciertas áreas de la investigación de la IA. Según sus palabras, «las soluciones basadas en algoritmos y en inteligencia ya están integradas en cada aspecto de nuestras vidas: en las decisiones sobre préstamos, vivienda, en las interacciones con el sistema de justicia penal. Pero no hay conexión entre los investigadores y los profesionales que las usan y las comunidades afectadas».
Las consecuencias involuntarias de los modelos algorítmicos generan cada vez más controversia. Ya sabemos, por ejemplo, que las herramientas de evaluación de riesgo que funcionan con IA están entrenadas con datos históricos sesgados. Además, los sistemas de reconocimiento facial entrenados con conjuntos de datos sesgados son mucho más propensos a identificar erróneamente a las mujeres negras que a las de piel clara. Los intentos de solucionar un problema a menudo perpetúan otros problemas sistémicos.
La investigadora afirmó: «Hace falta una representación adecuada de las comunidades afectadas. Deben estar presentes y contarnos los problemas a los que se enfrentan. También nos hace falta información de los expertos en ciertas áreas como las ciencias sociales y las humanidades… Ellos llevan trabajando y pensando en esto desde antes de que yo naciera. Estas oportunidades perdidas de usar la IA para el bien social, suceden cuando nos falta una o más de estas perspectivas».
Abebe explicó que intenta abordar este problema desde el Diseño de Mecanismos para el Bien Social, un gran grupo de investigación interdisciplinario del que es cofundadora y que cree que podría servir demodelo para aumentar la colaboración y participación.
La organización ha centrado sus esfuerzos en algunas áreas como la desigualdad global, la aplicación de la IA en los países en desarrollo, el sesgo algorítmico y la discriminación, y el impacto de la toma de decisiones algorítmicas en áreas políticas específicas, como los mercados laboralesonline, la asistencia médica y la vivienda.
Como ejemplo de su trabajo, Abebe destacó un proyecto para usar la IA para investigar qué familias deberían recibir ayuda económica del Gobierno cuando se ven afectadas por un «shock de ingresos», por ejemplo, cuando no cobran su sueldo mensual o reciben una factura inesperada.
En vez de utilizar modelos tradicionales, su equipo de Cornell y Princeton probó un método interdisciplinario que aportó datos y experiencia de las comunidades afectadas. La responsable detalló: «Pudimos identificar a familias con dificultades económicas que normalmente no encontraríamos. Existen muchas familias que aparentan estar bien [cuando son analizadas por los modelos típicos de IA]… pero son más susceptibles a un shockeconómico».
También señaló el trabajo realizado por el economista ganador del Premio Nobel Alvin Roth en la Universidad de Stanford (EE.UU.). El experto ha utilizado la investigación interdisciplinaria para desarrollar modelos que combinen mejor a los donantes de riñón con los pacientes. Además, mencionó un proyecto de la investigadora de la Universidad de Michigan (EE.UU.) Tawanna Dillahunt que ha diseñado una herramienta parademandantes de empleo de bajos recursos. Y advirtió que los investigadores deberían seguir su ejemplo y tratar de estar mejor informados antes de introducir sus tecnologías en el mundo.
La experta concluyó: «Simplemente les recomiendo que salgan de su zona de confort. Que vayan a una charla a la que normalmente no asistirían, por ejemplo, sobre desigualdad. Si encuentran algo interesante, pueden aprender los puntos de vista de otras comunidades».
Artículo publicado en technologyreview.es