El increíble desarrollo de los algoritmos ha generado nuevas oportunidades para la ciudadanía, pero también ha acarreado la creación de sesgos invisibles contra colectivos vulnerables. En el marco de la jornada Humanism in the digital age, cuatro expertas en inteligencia artificial (IA) han debatido sobre la promesa incumplida de la "democracia algorítmica".
"Siempre hablo de dictadura algorítmica, pero no de democracia algorítmica. Cuando asociamos el desarrollo y el progreso tecnológico a una mejora de la calidad democrática pecamos de ser naifs sobre las posibilidades de las tecnologías. En los últimos 20 años hemos pagado el precio de la falta de preguntas que no realizamos en su momento", ha aseverado Gemma Galdón, consejera delegada y fundadora de ETICAS.
La amenaza de los 'tech bros'
Fenómenos como la concentración de poder empresarial --en los tech bros, como son conocidos los directivos de grandes compañías como Google, Apple y Facebook--, la insuficiente tarea de control de los parlamentos y la falta de atención de las oenegés convencionales en torno la carrera tecnológica contribuyen a separar las demandas de equidad de los desarrollos informáticos. De ahí que se sigan incluyendo sesgos en los softwares contra grupos como las mujeres, las minorías raciales y las personas envejecidas.
Galdón ha precisado que "no hablamos de justicia algorítmica porque los algoritmos no nos traerán justicia, y del mismo modo los algoritmos no nos traerán la democracia, pero sí podemos vivirla como una reivindicación dentro de los algoritmos". Por eso ha pedido que estos sistemas "dejen de estar en manos de unos pocos" y se replantee, incluso, si se necesitan otras infraestructuras para rediseñar el entorno digital.
Gobernanza algorítmica
Pero más allá del cómo, también hay un debate sobre el qué. Como han expuesto Raquel Jorge Ricart, analista de políticas de tecnología, digital y ciber del Real Instituto Elcano, y Andrea G. Rodríguez, investigadora del Barcelona Centre for International Affairs (CIDOB), faltan estándares compartidos sobre la ética vinculada con la IA y las nuevas tecnologías.
"La gobernanza algorítmica se está limitando a una serie de países, ¿pero dónde están los países de América Latina, los del África subsahariana, incluso algunos de la Unión Europea?", se ha planteado Jorge. La analista también ha echado en falta un papel más activo de los actores de la sociedad civil, aunque ha destacado iniciativas como Amnesty Tech y The Citizen Lab. "Lo que ocurre con las oenegés locales es que falta conocimiento, no hay recursos para tenerlo ni tiempo", ha lamentado.
Un estándar compartido
A su vez, Rodríguez ha avanzado los resultados de una investigación efectuada en el CIDOB que ha examinado 20 documentos del sector público y privado acerca de estándares éticos. La conclusión es clara: no existe un esquema compartido por parte de los actores relevantes sobre qué hacer y qué no hacer con el código. Por eso, el think tank ha diseñado un marco mínimo de seis principios (justicia algorítmica, sostenibilidad fundamental, transparencia, rendición de cuentas, ciberseguridad y protección de datos) para avanzar hacia un horizonte compartido.
Por último, Nerea Luis, jefa de inteligencia artificial en Singular, ha reconocido que "cuando estás en la parte que hace la tecnología te das cuenta del descontrol que hay y de la responsabilidad" de la ingeniería de software. "Los datos son un negocio, pero te das cuenta de lo desprotegidos que estamos", ha apostillado. Por eso ha pedido que los ciudadanos se conciencien de la importancia de esta cuestión para que los algoritmos estén al servicio de las personas. Y no al revés.