Los creadores de una de las instalaciones más populares del festival Sónar +D, Daniela Nedovescu y Octavian Mot, basada en inteligencia artificial (IA), han abierto nuevas incógnitas de los algoritmos: “no sabemos si la máquina nos habla en serio o es irónica”. Del mismo modo, a pesar de que ellos hayan sido los creadores de la instalación The Confessional, que juzga por el aspecto físico y dice si quien se sienta en frente, le gusta a o no, también admiten que “no sabemos cómo la máquina acaba determinando por qué alguien le gusta, o no”.
Crónica Global se ha puesto en contacto con ellos, para conocer qué hay detrás de una de las atracciones que se hizo más viral en redes sociales durante el festival. ¿Cómo se ha programado? ¿Cómo se consigue que una IA pueda emitir prejuicios? ¿Cómo toma las decisiones? Muchas son las preguntas que surgen tras pasar por esta máquina. Pero todavía son más las que quedan, después de reflexionar acerca de los nuevos escenarios que abren los algoritmos.
La premisa
The Confessional es un algoritmo diseñado, precisamente, para emitir prejuicios basándonos en el aspecto físico de quien se ponga delante de la cámara. Nedovescu explica que la idea de crear algo así era la de plantear nuevas preguntas acerca del uso de algoritmos. También, tras el paso por el Sónar +D, sugirió que “una de las cosas más interesantes es preguntarse por qué los seres humanos queremos ser juzgados por una IA”.
Por su parte, Mot es quien se ha encargado de la parte técnica de la instalación. El reconocimiento facial, el lenguaje generativo, y preguntas diseñadas específicamente para la máquina, son tres de los ingredientes clave. No obstante, ha explicado que “nosotros diseñamos la IA para que estuviera lo más sesgada posible”.
Sesgos
Los sesgos de la IA son un tema muy importante en la agenda del desarrollo de esta tecnología. Estos, que acaban siendo introducidos por los desarrolladores, hacen que no funcionen de una manera neutral, sino que lo hagan basándose en las ideas preconcebidas o el entorno social y ambiental de quien la diseña. Por ello, pueden ofrecer respuestas condicionadas. En la gran mayoría de ocasiones, es algo que se debe evitar. No obstante, en este caso era lo que se pretendía.
“Una máquina por sí misma no te va a decir qué le gusta o qué no. Nosotros tomamos de base un modelo de reconocimiento facial, al cual le empezamos a plantear una batería de treinta preguntas. De esta forma, íbamos condicionando a la máquina. Le dábamos indicaciones sobre la procedencia de la persona, en función de rasgos físicos, e incluso, le planteábamos interrogantes como: ¿es esta persona un criminal?”, explica Mot.
Añade que “el objetivo era ver qué pasaba si una IA estaba sesgada a tope”. No obstante, además de la parte del reconocimiento facial, también infirieron en el lenguaje. “Aunque esta parte nos fue mucho más difícil, modelos de lenguaje como GPT-4 tratan a las personas de buenas maneras, incluso, de forma complaciente. Nosotros queríamos que el algoritmo fuera lo más crudo posible a la hora de hablar con la gente”.
Primer problema
Este hecho presenta uno de los primeros escenarios. “No queríamos que los niños usaran la máquina, ya que teníamos miedo de que el algoritmo se volviera loco y pudiera decir cosas que hirieran su sensibilidad”.
Ante este panorama, Xavi Salla, especialista en Tecnologías de la Información y Comunicación (TIC) y en Protección de Datos, explica que “si un niño se expone ante un ordenador que le hace comentarios hirientes y se siente mal, ¿quién se lleva la responsabilidad de los efectos que causa? ¿El creador del modelo? ¿Quién lo implementa? ¿Los millones de personas de las cuales ha tomado los datos para ser entrenada? Es un escenario inédito, en el cual un algoritmo tiene el potencial de hacer sentir mal a un niño. Y de momento, esto no está regulado”.
Los creadores, al ser conscientes de esta realidad, tomaron un primer criterio de autorregulación, que precisamente consiste en acotar el público al cual van dirigidos.
¿Qué le gusta?
Nedovescu, explica que “en el Sónar, la máquina ha dado un porcentaje de “Me gusta” mucho más alto que en otros festivales a los que hemos acudido. Normalmente, no suele ser tan amable con la gente”.
Mot añade que “aunque haya veces que dé más “Me gusta” que en otras ocasiones, a pesar de haber sido nosotros quiénes la hemos programado, no sabemos por qué la IA acaba tomando una decisión u otra. Es más, tras ver lo que ha pasado en el Sónar, tampoco sabemos si la máquina estaba hablando en serio con la gente, o si, por el contrario, estaba siendo irónica cuando lanzaba cumplidos”.
Ironía
Salla, por su parte, ha explicado por qué puede darse esta situación. El experto pone sobre la mesa el factor de la verosimilitud, pues todo algoritmo, cuántos más datos tiene, más preciso es en su respuesta. Pero la cosa no termina ahí. Además, esto se combina con la manera con la cual el algoritmo ha sido entrenado: “cuántos más parámetros de lenguaje irónico se le haya dado a la IA, más probabilidades hay de que sea irónica”. Aun así, sigue siendo desconocido el porqué de las decisiones, ya que la máquina no traslada si su decisión es sincera o sarcástica.