Microsoft Reemplaza A Sus Editores Por Inteligencia Artificial. Una Semana Después Es Acusada De Racismo

Inteligencia artificial Curiosciencia



A finales de mayo de 2020, Microsoft tomó la decisión de despedir a docenas de periodistas a favor de reemplazarlos con inteligencia artificial (IA).

Los periodistas y editores despedidos dirigieron el sitio web de MSN News, la página de inicio automática del navegador Microsoft Edge. El sitio no escribe noticias en sí, sino que saca noticias de otras fuentes y divide los ingresos publicitarios con los editores originales. Solía ​​ser curada por humanos, que seleccionaban historias que se ajustaban a sus pautas editoriales y editaban artículos, fotos y titulares cuando era necesario.

Ahora, solo unas semanas después de reemplazar a esos humanos con software, los robots de MSN News han sido acusados ​​de racismo por Jade Thirlwall, miembro de la banda británica Little Mix, después de que MSN publicara una historia sobre su apertura sobre el racismo que experimentó en la escuela, acompañada de una imagen de su compañera de banda de Little Mix, Leigh-Anne Pinnock.

Thirlwall no sabía que la noticia había sido colocada en el sitio de MSN por un algoritmo, y la atribuyó al periodismo vago.

Jade Thirlwall / Instagram


"Esta mierda le sucede a @leighannepinnock y a mi TODO EL TIEMPO que se ha convertido en una broma", escribió Thirlwall en Instagram.

"Es un periodismo vago. Es ignorante. Es grosero. Me ofende que no pudieras diferenciar a las dos mujeres de color de cuatro miembros de un grupo. ¡Incluso hay imágenes mías en el artículo seguidas de una imagen de Leigh como si no pudieran decir que no somos la misma persona de raza mixta?!?!

"HACERLO MEJOR."

Según lo informado por The Guardian, las imágenes que acompañan al artículo fueron seleccionadas por el software de IA. Como hemos aprendido (o aparentemente no) una y otra vez, la IA y la tecnología de aprendizaje automático tienen un problema de racismo. Desde dispensadores de jabón racistas que no dispensan jabón hasta autos sin conductor que tienen más probabilidades de atropellar si el peatón es negro porque no reconocen los tonos de piel más oscuros, hay numerosos ejemplos de tecnología de aprendizaje automático que no funciona como debería porque no se probó lo suficiente (o en absoluto) teniendo en cuenta a las personas no blancas.

inteligencia artificial curiosciencia
Los autos sin conductor que tienen más probabilidades de atropellar si es el peatón negro porque no reconocen los tonos de piel más oscuros. dibujo: EMILIANO PONZI


El reconocimiento de imagen no es diferente. Google, por ejemplo, una vez tuvo que disculparse por su aplicación de foto de etiquetado automático, que etiquetaba a dos personas negras como gorilas. El software es tan bueno como los datos en los que está entrenado. Un conjunto de datos clásico es ImageNet.

En 2009, los científicos informáticos de Stanford y Princeton intentaron entrenar a las computadoras para que reconozcan prácticamente cualquier objeto que haya. Para hacer esto, acumularon una enorme base de datos de fotografías de todo, desde espárragos hasta regaderas. Luego hicieron que la gente clasificara las fotos, incluidas muchas, muchas fotos de humanos, en categorías.

El resultado fue ImageNet, un enorme (y más citado) conjunto de datos de reconocimiento de objetos, completo con sesgos incorporados puestos por los humanos y propagados por la IA.


IFLScience
@IFLScience
Herramienta de IA viral que le muestra cómo la IA lo ve a usted como una persona racistattps: //www.iflscience.com/technology/viral-ai-tool-that-shows-you-how-ai-sees-you-turns-out- ser racista / ...


El software utilizado por MSN no pudo distinguir entre Thirlwall y Pinnock, dos mujeres de color de raza mixta, lo que sugiere que puede tener problemas similares. El problema fue corregido por un humano, pero demasiado tarde.

En un giro extraño para la historia, The Guardian informa que el resto del personal humano de MSN ha sido advertido de que el software de inteligencia artificial podría intentar publicar el artículo de The Guardian sobre su mezcla racista de software de inteligencia artificial, y deberían intentar eliminar la historia si es que lo hace. Luego, la IA puede intentar "anular" el intento de eliminación del ser humano y volver a publicar la historia en el sitio web.

Según los informes, los humanos restantes ya tuvieron que eliminar las historias publicadas por el algoritmo que critican su publicación de la confusión de Little Mix, antes de que se revelara que fue publicado por una IA en primer lugar. Quizás los medios de comunicación todavía necesitan humanos después de todo, y es el racismo sistémico el que debe abordarse primero antes de avanzar hacia el futuro.


0/Post a Comment/Comments

Artículo Anterior Artículo Siguiente