Los algoritmos arrastran sesgos de raza y género hace décadas y el problema solo empeora

Un estudio del MIT encontró que los tres programas de reconocimiento facial más utilizados del mundo tienen sesgos.

En las últimas horas, medios de todo el mundo se hicieron eco de una noticia que vincula a Facebook, la inteligencia artificial y el racismo.

El algoritmo de Facebook había etiquetado un video de personas negras como “gorilas” y en las recomendaciones de reproducción sugería videos de primates. La red social salió a pedir disculpas diciendo que se trató de un error “inaceptable”.

Sin embargo, la comunidad negra y los usuarios en general no se sorprendieron. No es la primera polémica vinculada a los algoritmos y su potencial de ser racistas o de discriminar a ciertos grupos.

Google tuvo hace algunos años un episodio idéntico con la etiqueta “gorilas”. Sucedió en 2015 y la única solución que encontró entonces una de las empresas tecnológicas más importantes del mundo fue sacar la etiqueta.

También Twitter fue el centro de la discusión hace poco cuando una investigación destapó que privilegia imágenes de personas blancas y hegemónicas.

La inteligencia artificial y su ejército de algoritmos cada vez toman más decisiones por nosotros. Qué película ver, qué canción escuchar, qué marcas consumir o qué camino recorrer para llegar del trabajo a casa.

Estas son decisiones secundarias para la vida de una persona. Pero la inteligencia artificial también es utilizada por empresas, organizaciones y gobiernos para tomar otro tipo de decisiones. Por ejemplo, quién tiene derecho a acceder a un préstamo hipotecario, qué tratamiento médico debe recibir una persona enferma y hasta quién es mejor candidato para acceder a un puesto de trabajo o una beca universitaria.

Diversos estudios ya demostraron que todos estos algoritmos que toman decisiones, tienen sesgos de raza y género. Y que, por lo tanto, sus decisiones son discriminatorias.

Un estudio del MIT, por ejemplo, encontró que los tres programas de reconocimiento facial más utilizados del mundo tenían sesgos. “En el caso de las fotografías de hombres blancos el riesgo de mal etiquetado era de 1%, porcentaje que se incrementó a 7% cuando se trataba de mujeres. En algunos casos los sistemas fallaron hasta en un 12% cuando se trataba de hombres de piel oscura y hasta en un 35% cuando eran mujeres de piel oscura”, detalló Xataka.

Otro estudio de investigadores de Harvard encontró que si buscás en Google un nombre con un origen en culturas negras -como la africana- los resultados suelen tener más vinculación a antecedentes penales o hechos de violencia, aunque la persona en cuestión no haya tenido nada que ver.

Lo mismo sucede en Facebook, Twitter e Instagram con las fotos de mujeres. Por ejemplo, aquellas imágenes en las que las retratadas tienen menos ropa tienen más chances de ser destacadas por el algoritmo.

El problema persiste desde la década de 1980 cuando se empezaron a hacer los primeros ensayos con esta tecnología. Entonces, ¿por qué nadie pudo solucionarlo?

El problema es complejo, pero se puede resumir con una cita del director del Instituto de Investigación en Inteligencia Artificial de España: “Ningún sistema de inteligencia artificial tiene intencionalidad, pero las decisiones que aprende están basadas en los datos con los cuales fue entrenado. Y si esos datos están sesgados (intencionalmente o no), el algoritmo decidirá sesgado, y ese sesgo puede tener consecuencias muy drásticas que afectan la vida de las personas”.

De esta forma usar datos inadecuados o que el procesamiento de los datos sea inadecuado genera un espiral en los algoritmos que termina replicando patrones históricos de discriminación en una sociedad. Por ejemplo, si una empresa siempre tuvo hombres blancos en cargo ejecutivos, el sistema entenderá automáticamente que son preferibles a los hombres negros o las mujeres.

Las empresas encargadas de moderar los algoritmos aseguran estar trabajando en detectar y mitigar los sesgos. Y aunque los resultados todavía no están a la vista, un artículo del Instituto de Investigación de Data & Society asegura que “corregir la discriminación en los sistemas algorítmicos no es algo que se pueda resolver fácilmente. Es un proceso continuo, al igual que la discriminación en cualquier otro aspecto de la sociedad”.


Las Más Vistas