La irrupción de la inteligencia artificial (IA) en los últimos años ha captado la atención de todos. Se discute en conferencias, aparece en los medios de comunicación y es un tema recurrente en foros académicos.

Sin embargo, pese a su creciente notoriedad, muchas personas solo tienen una comprensión superficial de lo que es realmente la IA y cómo funciona. Abarca desde algoritmos de aprendizaje automático hasta redes neuronales profundas, pero sigue siendo un misterio para la mayoría.

Se trata de una herramienta que promete revolucionar numerosos sectores y tiene el potencial de cambiar el mundo de una forma que apenas comenzamos a comprender.

Estamos inmersos en la era digital, y la IA se ha convertido en parte fundamental de nuestra vida cotidiana. Está detrás desde los motores de búsqueda hasta las recomendaciones de contenidos que recibimos en las redes sociales. No obstante, su omnipresencia ha traído consigo una preocupación creciente por el sesgo en los algoritmos que la impulsan.

La IA se basa en el procesamiento de grandes volúmenes de datos que reflejan las visiones, valores y prejuicios de quienes los generan y analizan. Esto significa que los sistemas de IA pueden heredar y amplificar estos sesgos, hecho que lleva a unos resultados que no son representativos ni inclusivos.

Los sistemas de IA pueden perpetuar estereotipos de género de manera sutil, pero significativa.

Una de mis experiencias con la IA me demostró estos sesgos profundos y muy arraigados en nuestra sociedad. Para ilustrar y promocionar el evento Diálogos de vecindad en un mundo global entre España y Marruecos que organiza la Fundación Tanja, decidí utilizar una herramienta de inteligencia artificial para generar una imagen basada en una descripción textual. El objetivo era reflejar de manera creativa e innovadora la riqueza y diversidad de los temas y participantes del evento. No obstante, los resultados iniciales fueron desalentadores. Ninguna de las imágenes generadas incluía mujeres.

Lo intenté de nuevo añadiendo la frase "incluir mujeres" en la descripción. Aunque la imagen resultante sí incorporó a féminas, en menor número que a los hombres, la representación fue estereotipada. Mostró a las mujeres marroquíes únicamente con velo y túnicas.

El ejemplo tiene otras repercusiones más preocupantes. Este sesgo se repite, igualmente, en los algoritmos que se usan en la contratación de personal. Y esto lleva a una discriminación de las mujeres debido a patrones históricos dominados por los hombres.

Incluso los sistemas de asistencia por voz como son Siri o Alexa, los más populares del mercado, se basan en configuraciones predeterminadas que perpetúan estereotipos de género. Responden de forma sumisa o coqueta a las preguntas de los hombres.

La recomendación de productos o servicios puede estar sesgada por supuestos de género, hecho que afecta de forma negativa a la representación y reconocimiento de las personas de diferentes géneros y perpetúan los desequilibrios y brechas de género.

La falta de representación de mujeres y minorías en los equipos de desarrollo de IA es un factor crítico que contribuye al sesgo. Equipos compuestos principalmente por hombres de un solo grupo demográfico es menos probable que consideren las necesidades y perspectivas de mujeres y minorías, resultando en sistemas no equitativos ni inclusivos. Solo el 26% de los profesionales de IA en todo el mundo son mujeres.

La IA ha revolucionado muchos aspectos de nuestras vidas y lo seguirá haciendo mucho más. Sin embargo, es importante reconocer que no se trata de una tecnología neutral desde el punto de vista de género. Por ello es esencial adoptar medidas que garanticen el desarrollo ético y sostenible de la IA y que esta respete la diversidad y la inclusión.