¿Es racista el algoritmo de Twitter? Eso sostiene Toni Arcieri, un informático que ha demostrado los sesgos de la red social a la hora de procesar fotografías. En un simple experimento, el desarrollador publicó dos pares de imágenes, una del expresidente de los Estados Unidos, Barack Obama, y otra del senador republicano Mitch McConell.
En cada serie se invirtió el orden de aparición de los políticos, pero Twitter siempre eligió el rostro blanco de McConell en sus publicaciones. El motivo aparente de esta decisión es que cuando el sistema se enfrenta a imágenes demasiado grandes, las recorta primando los rostros que no son negros.
Los problemas del 'machine learning'
Arcieri cambió algunos detalles, como el color de la corbata, pero el resultado siguió siendo el mismo. Solo cuando el algoritmo se enfrentó a dos rostros oscurecidos, eligió la cara de Obama como destacada. "Twitter es sólo un ejemplo más del racismo que se manifiesta a través de los algoritmos de aprendizaje automático", sentencia Arcieri.
Sin embargo, el problema no es tanto el código concreto de Twitter como el método de programación utilizado por la red social. El aprendizaje automático (machine learning, en inglés) funciona a base del reconocimiento de patrones. Tras el procesamiento de miles y miles de ejemplos, el software establece protocolos de comportamiento que pueden dar lugar a sesgos raciales, sexuales o de cualquier otro tipo.
Twitter toma nota
Si el repositorio de imágenes con que se ha entrenado la plataforma contiene una cantidad desproporcionada de rostros blancos, Twitter habrá aprendido a destacar más estas caras que otras. Además, en las técnicas de reconocimiento visual, los rostros más claros puntúan más que el resto ya que ofrecen más información por su elevado contraste. De hecho, otros usuarios han realizado test semejantes con personajes de ficción y animales con los mismos resultados.
En cualquier caso, la compañía ha asegurado que estudiará la situación para corregir el algoritmo si fuese necesario. "Nuestro equipo realizó pruebas para detectar sesgos antes de activar el modelo y no encontró evidencia de sesgo racial ni sexual", afirmó Liz Kelly, portavoz de la red social. "Pero está claro por estos ejemplos que tenemos que analizar más. Lo revisaremos y continuaremos compartiendo todo lo que aprendamos así como las acciones que tomemos", resumió.