La inteligencia artificial es sexista al igual que la sociedad

Los algoritmos que se usan para insuflar vida a los sistemas de inteligencia artificial como los chatbots o bots conversacionales así como toda clase de asistentes automatizados sean o no virtuales, absolutamente todos están heredando ese sesgo de género tan arraigado a nuestra sociedad. Nuevas investigaciones apuntan en ese sentido, y la culpa la tiene el método utilizado para dotar a las máquinas y a los algoritmos del don del verbo, habilidades para hablar y conversar.

Todos recordarán el chatbot de Microsoft, Tay, que fue desactivado por sus comentarios racistas, sexistas y xenófobos en Twitter. Algo parecido pasó con Flickr y su sistema de etiquetado intuitivo de fotos, varias personas de tipo afro vieron la etiqueta chimpancé agregada debajo de sus fotos de vacaciones… esos fallos podrían exacerbar injusticias existentes en nuestra sociedad.

Si lo que deseamos es cambiar esa sociedad sexista y llena de injusticias, no podemos repetir patrones existentes que mantienen el status quo, así que hay que innovar esos métodos para que los programas de IA no reflejen una sociedad pasada o cambiante sino el futuro deseado. Pero no todo el mundo piensa igual. ¿Deberían los algoritmos reflejar la sociedad tanto en lo bueno como en lo malo o debería seguir unas pautas de ética a favor de una evolución? Sexismo, especismo, xenofobia…

Enseñar el sesgo de género en sistemas IA tiene dividida la opinión

captura-de-pantalla-2016-11-24-a-las-16-05-30

El reto no sólo está en limar esas asperezas de género sino en pensar en el futuro y clase de sociedad que queremos. Algunos están a favor de que la inteligencia artificial sea el fiel reflejo de la sociedad, incluyendo sus derivas sexistas y racistas, para funcionar acorde al mundo en el que evolucionan; de lo contrario no serían tan útil y ofrecerían predicciones erróneas. Así lo piensa el profesor Arvind Narayanan, a favor de que los prejuicios formen parte del aprendizaje IA.

Pero no todo el mundo piensa como Arvind, entre otros Barbara Grosz de la Universidad de Harvard. Piensa que una vez que se haya detectado un fallo es necesario reajustar la relación matemática entre la palabra de género neutro y la de género definido para evitar reforzar conductas que alimenten una desigualdad de género. La sociedad está en evolución permanente y resulta difícil programar un sistema de inteligencia artificial para que lo haga a la par que la sociedad.

James Zou, de la Universidad de Stanford, lo reconoce: existe un sesgo de género en los mismos datos que se utilizan para enseñar a los algoritmos y programas de IA. Esto es así porque las palabras y formas de expresarlas conforman las normas sociales escritas y no escritas de la sociedad en la que vivimos. El método empleado para enseñar está sesgado. Se dota a los sistemas de libertad para establecer relaciones entre los vocablos pero les faltan mecanismos para neutralizar el sesgo. ¿Qué es lo que deseamos para el día de mañana?

El potencial peligro de los sistemas y programas de IA

captura-de-pantalla-2016-11-24-a-las-16-07-55

Los bots conversacionales inteligentes ya han llegado a Facebook, Messenger, Google y WhatsApp entre otras muchas redes sociales y aplicaciones de mensajería; hasta puedes usarlos para aprender un idioma como el bot de Duolingo o el popular Andy para aprender inglés. Telegram ya lleva tiempo usando bots pero otras plataformas digitales como Skype o Amazon serán pastos de los bots también, programas de IA que nos permiten acceder a cualquier información.

Han venido para quedarse, y se alimentan de la big data; un simple pero tremendamente potente concepto que consiste en el almacenamiento de cantidades de datos ilimitados en la nube. Ahí está todo lo que compartes online, muchos datos personales utilizados por los bots para detectar patrones y hacer predicciones en respuesta a tus consultas… ¿eres consciente del valor que tienen esos datos? Las empresas sí lo saben, para eso quieren ser tu colega.

Hay que tener presente el sesgo que pueden tomar las conversaciones de IA de los bots en el futuro, podría acarrear consecuencias negativas a la hora de buscar un trabajo si el bot encargado de la entrevista es racista o si valora más a un hombre para un puesto de programador por ejemplo. Las conexiones semánticas que establecen las máquinas entre las palabras no siempre son acertadas. Investigadores de la Universidad de Boston y del Microsoft New England Research en el Instituto Tecnológico de Massachusetts se dieron cuenta de que los sistemas IA establecían una relación similar entre la palabra mujer y ama de casa.

captura-de-pantalla-2016-11-24-a-las-16-10-19

Entender el diseño de estos sistemas IA es primordial, y analizar sus posibles impactos y derivas también. Jacqueline Feldman, encargada de escribir la personalidad del chatbot MyKai para Kasisto, considera que la cuestión del género queda fuera de la ecuación de la personalidad. Así es, muchos bots promueven actualmente estereotipos de género, muchos se camuflan entre lo que llaman huevos de pascua. Son pequeñas replicas programadas para crear esos momentos what the fuck, de sorpresa con respuestas graciosas a preguntas que no vienen a cuento.

Siri es un crack en ello aunque cuando se le pregunta si es un chico o una chica, dice que aunque hable con voz femenina, no tiene sexo. La gran mayoría de los bots tienen voz de chica también. Esos huevos de pascua no deberían de existir y dejar el sesgo de género fuera, ya que en la vida real es más que probable que te fueran a mandar a paseo… porque en su mayoría caen en la trampa del chiste sexista. Perpetrar los estereotipos en los sistemas IA no hace más que reforzar el subconsciente sexista de la sociedad. Los estándares de los asistentes de IA se definen ahora, así que dejemos el sesgo de género fuera de la ecuación.