El tiempo en: Córdoba
Viernes 19/04/2024
 

Córdoba

Un estudio pone en alerta de los "sesgos de desigualdad" que reproduce la IA

Concluye que el software BOSCO, que determina quién tiene acceso al bono social de electricidad, se lo denegaba "a personas que sí tienen derecho al mismo"

Publicidad Ai Publicidad AiPublicidad Ai Publicidad Ai
  • Ordenador. -

Un estudio realizado por la organización CIVIO y en el que participa la Universidad de Córdoba (UCO) ha alertado de que la Inteligencia Artificial (IA) reproduce los "sesgos de desigualdad" que existen en la sociedad.

Según el investigador de la UCO Javier Sánchez Monedero, que participa en la investigación, se concluye que el software BOSCO, que determina quién tiene acceso al bono social de electricidad, se lo denegaba "a personas que sí tienen derecho al mismo".

Además, el simulador del ingreso mínimo vital, que permite saber si una persona podría ser beneficiaria del mismo y así orientarle sobre si comenzar o no la tramitación, se inicia "preguntando sobre el estatus migratorio de la persona y el tiempo de residencia en España".

"En caso de no residir de forma continuada, el simulador estima que no tendría derecho al IMV aún cuando la ley establece excepciones al año de residencia en España", expone el investigador.

El estudio explica que la aplicación EPV-R, que usa la Ertzaintza para predecir el riesgo de violencia de género, pregunta en primer lugar "la nacionalidad de víctima y agresor y estudios previos han establecido que la nacionalidad no es un factor determinante".

Son alguno de los casos de discriminación en la Inteligencia Artificial que recoge el informe "Una introducción a la IA y la discriminación algorítmica para movimientos sociales" realizado dentro del proyecto AlgoRace, en el que participa Sánchez Monedero.

Este estudio se orienta como una herramienta pedagógica para que colectivos de Derechos Humanos y que luchan contra la discriminación racial puedan entender, a través de ejemplos concretos, cómo funciona la IA y qué problemas puede causar.

El informe, que se realizó durante un año, concluye que la IA no es neutral ni objetiva ya que parte de un contexto previo de desigualdad.

"No se trata de errores en los algoritmos, sino que son consecuencia de la desigualdad estructural y de cómo funciona el mundo. Por eso la IA no funciona igual para todas las personas", advierte el investigador.

Igualmente, Paula Guerra Cáceres, una de los coordinadores de AlgoRace, afirma que "la IA es un producto de la sociedad, como lo es el cine, la publicidad o la literatura", por lo que "reproduce y amplifica las desigualdades sociales".

Esto es así porque "todas estas tecnologías se piensan, desarrollan e implementan en un marco general de racismo estructural y, por lo tanto, en ese marco surgen tecnologías con sesgos racistas, machistas, clasistas..., porque vivimos en un mundo que por estructura es así", concluye Guerra.

El estudio indica que estas situaciones de desigualdad podrían evitarse de tres modos, como son que los algoritmos "no se usen para cuestiones que tiene que ver con derechos sociales", que sería lo "ideal", que los equipos que desarrollan los softwares sean "multidisciplinares y diversos" y que los algoritmos sean "públicos, auditables y revisables". 

TE RECOMENDAMOS

ÚNETE A NUESTRO BOLETÍN