¿Por Qué La Inteligencia Artificial Tiene Sesgo Contra La Mujer?


Hace unos años, Amazon empleó una nueva herramienta de contratación automatizada para revisar los currículums de los solicitantes de empleo. Poco después del lanzamiento, la compañía se dio cuenta de que los currículums para publicaciones técnicas que incluían la palabra "mujeres" (como "capitana del club de ajedrez femenino"), o contenían referencias a las universidades femeninas, fueron rebajados. La respuesta a por qué este fue el caso se redujo a los datos utilizados para enseñar el sistema de Amazon. Basado en 10 años de currículums predominantemente masculinos presentados a la empresa, el "nuevo" sistema automatizado de hecho perpetúa situaciones "antiguas", otorgando puntajes preferenciales a aquellos solicitantes con los que estaba más "familiarizado".

Definida por AI4ALL como la rama de la informática que permite a las computadoras hacer predicciones y decisiones para resolver problemas, la inteligencia artificial (IA) ya ha tenido un impacto en el mundo, desde los avances en medicina hasta las aplicaciones de traducción de idiomas. Pero como muestra la herramienta de reclutamiento de Amazon, la forma en que enseñamos a las computadoras a tomar estas decisiones, conocida como aprendizaje automático, tiene un impacto real en la equidad de su funcionalidad.

Toma otro ejemplo, esta vez en reconocimiento facial. Un estudio conjunto, "Gender Shades" llevado a cabo por la poeta de código del MIT Joy Buolamwini y una científica investigadora sobre la ética de la IA en Google Timnit Gebru evaluó tres sistemas de visión de clasificación de género comercial basados ​​en su conjunto de datos cuidadosamente seleccionados. Descubrieron que las mujeres de piel más oscura eran el grupo más mal clasificado con tasas de error de hasta 34.7 por ciento, mientras que la tasa de error máxima para los hombres de piel más clara era de 0.8 por ciento.

A continuación puedes ver un video sobre este tema. Habilita subtitulos en español.


A medida que los sistemas de inteligencia artificial, como las herramientas de reconocimiento facial, comienzan a infiltrarse en muchas áreas de la sociedad, como la aplicación de la ley, las consecuencias de una clasificación errónea podrían ser devastadoras. Los errores en el software utilizado pueden conducir a la identificación errónea de los sospechosos y, en última instancia, significa que se les acusa injustamente de un delito.

Para poner fin a la discriminación nociva presente en muchos sistemas de IA, debemos mirar hacia atrás a los datos de los que el sistema aprende, lo que en muchos aspectos es un reflejo del sesgo que existe en la sociedad.

En 2016, un equipo investigó el uso de la inclusión de palabras, que actúa como un tipo de diccionario para el significado de las palabras y las relaciones en el aprendizaje automático. Entrenaron a un generador de analogías con datos de Google News Articles, para crear asociaciones de palabras. Por ejemplo, "el hombre es rey, como las mujeres es x", que el sistema completó con reina. Pero cuando se enfrentó al caso "el hombre es para el programador de computadoras como las mujeres para x", se eligió la palabra ama de casa.

Otras analogías entre mujeres y hombres, como "enfermera a cirujano", también demostraron que las inserciones de palabras contienen sesgos que reflejan los estereotipos de género presentes en la sociedad en general (y, por lo tanto, también en el conjunto de datos). Sin embargo, "debido a su uso generalizado como características básicas, las incrustaciones de palabras no solo reflejan dichos estereotipos sino que también pueden amplificarlos", escribieron los autores.

Las máquinas de IA también perpetúan los estereotipos dañinos. Los asistentes personales virtuales de género femenino, como Siri, Alexa y Cortana, han sido acusados ​​de reproducir supuestos normativos sobre el papel de las mujeres como sumisas y secundarias a los hombres. Su respuesta programada a preguntas sugestivas contribuye aún más a esto.

Los estereotipos sexistas son frecuentes en los sistemas de inteligencia artificial, como los asistentes personales virtuales.

Según Rachel Adams, especialista en investigación del Consejo de Investigación de Ciencias Humanas de Sudáfrica, si le dices a la voz femenina del Asistente Personal Virtual de Samsung, Bixby, "Hablemos sucio", la respuesta será "No quiero terminar arriba en la lista traviesa de Santa. Pero pregunte a la voz masculina del programa, y ​​la respuesta es "He leído que la erosión del suelo es un verdadero problema de suciedad".

Aunque cambiar la percepción de género de la sociedad es una tarea gigantesca, comprender cómo este sesgo se arraiga en los sistemas de inteligencia artificial puede ayudar a nuestro futuro con esta tecnología. Olga Russokovsky, profesora asistente en el Departamento de Ciencias de la Computación de la Universidad de Princeton, identificó tres causas fundamentales de la misma, en un artículo de The New York Times.

"El primero es el sesgo en los datos", escribió. "Para categorías como raza y género, la solución es muestrear mejor para obtener una mejor representación en los conjuntos de datos". A partir de ahí está la segunda causa raíz: los algoritmos mismos. "Los algoritmos pueden amplificar el sesgo en los datos, por lo que debe tener en cuenta cómo construye realmente estos sistemas", continuó Russokovsky.

La causa final mencionada es el papel de los humanos en la generación de este sesgo. "Los investigadores de IA son principalmente personas que son hombres, que provienen de ciertos grupos demográficos raciales, que crecieron en áreas de alto nivel socioeconómico, principalmente personas sin discapacidades", dijo Russokovsky. "Somos una población bastante homogénea, por lo que es un desafío pensar ampliamente sobre los problemas mundiales".

Un informe del instituto de investigación AI Now, describió el desastre de la diversidad en todo el sector de IA. Solo el 18 por ciento de los autores en las principales conferencias de IA son mujeres, y solo el 15 y el 10 por ciento de los puestos del personal de investigación de IA en Facebook y Google, respectivamente, están ocupados por mujeres. Las mujeres negras también se enfrentan a una mayor marginación, ya que solo el 2.5 por ciento de la fuerza laboral de Google es negra, y en Facebook y Microsoft solo el 4 por ciento lo es.

Muchos investigadores de todo el sector creen que la clave para resolver el problema del sesgo en la Inteligencia Artificial surgirá de la diversificación del grupo de personas que trabajan en esta tecnología. "Hay muchas oportunidades para diversificar este grupo, y a medida que crece la diversidad, los propios sistemas de IA serán menos sesgados", escribió Russokovsky.

La diversificación debe empezar por los mismo programadores.


Kate Crawford, codirectora y cofundadora del Instituto AI Now de la Universidad de Nueva York, subrayó la necesidad de hacerlo. "Como todas las tecnologías anteriores, la inteligencia artificial reflejará los valores de sus creadores", escribió en The New York Times. Darles a todos un asiento en la mesa, desde el diseño hasta los consejos de administración de las empresas, permitirá debatir el concepto de "justicia" en la IA y volverse más inclusivo de una gama más amplia de puntos de vista. Por lo tanto, los datos suministrados a las máquinas para su aprendizaje permitirán que sus capacidades sean menos discriminatorias y brinden beneficios para todos.

Los intentos de hacerlo ya están en marcha. Buolamwini y Gebru introdujeron un nuevo conjunto de datos de análisis facial, equilibrado por género y tipo de piel para su investigación, y Russokovsky ha trabajado para eliminar categorías ofensivas en el conjunto de datos ImageNet, que se utiliza para el reconocimiento de objetos en el aprendizaje automático.

El momento de actuar es ahora. AI está a la vanguardia de la cuarta revolución industrial y amenaza con impactar desproporcionadamente a los grupos debido al sexismo y el racismo incrustado en sus sistemas. Producir IA que esté completamente libre de sesgos puede parecer imposible, pero tenemos la capacidad de hacerlo mucho mejor de lo que somos actualmente. Y esto comienza con una mayor diversidad en las personas pioneras de esta tecnología emergente.


Fuente: https://www.iflscience.com/editors-blog/why-artificial-intelligence-is-still-gender-biased/

0/Post a Comment/Comments

Artículo Anterior Artículo Siguiente