Portada del libro 'Vida 3.0' de Max Tegmark / AMAZON

Portada del libro 'Vida 3.0' de Max Tegmark / AMAZON

Ciencia

Inteligencia Artificial, ¿quién tiene miedo?

Las grandes tecnológicas desarrollan algoritmos para saber qué mostrar a sus clientes en cada momento y en la UE quieren regular esas prácticas

20 diciembre, 2020 00:00

En un futuro no tan lejano, la inteligencia artificial (IA) estará presente en casi todas las facetas de nuestras vidas. ¿Va a ser esto bueno o malo? ¿Tenemos que estar ilusionados o aterrorizados? Eso mismo se pregunta el físico y cosmólogo sueco-estadounidense Max Tegmark cada vez que es invitado a hablar en público sobre los desafíos y oportunidades de la IA.

Profesor de Física del MIT, Tegmark publicó en 2017 Vida 3.0, un libro a caballo entre ciencia ficción y ensayo riguroso, donde se plantea cómo afectará la IA al crimen, a la guerra, a la justicia, al trabajo, a la sociedad y al sentido de nuestras vidas.

 

 

Max Tegmark en dando una conferencia en TED TALK / TED TALK

 “No trato de adivinar cómo será el futuro, sino como debería ser, de manera que podamos adaptar nuestros intereses a la IA”, comentó Tegmark en una conferencia online celebrada el pasado 2 de diciembre en el marco del #ForoTelos2020, organizado por la Fundación Telefónica.

Tegmark, en su intento por reducir el alarmismo generalizado ante un futuro inmediato controlado por la IA, insiste primero en recordar que “la inteligencia es una cuestión de procesar información, y da igual si la procesan átomos de carbono en las neuronas del cerebro o los átomos de silicio de los ordenadores”, dijo. Por lo tanto, recalcó, “no podemos juzgar moralmente la IA, ni ninguna otra tecnología, porque éstas no distinguen el bien del mal. Solo podemos juzgar la forma con que las empleamos”, añadió el físico del MIT, poniendo como ejemplo un cuchillo: ”puede servir para cocinar una deliciosa paella, o para matar a alguien”.

Polarizar la política

No obstante, la IA es “mucho más potente” que cualquier otra tecnología desarrollada, excepto quizás las armas nucleares, “que ya nos han demostrado que no podemos permitirnos errores”, dijo.

Tegmark y su equipo del MIT llegaron a la conclusión de que en lugar de “aprender de los errores”, en lo que se refiere al desarrollo de la IA es mejor ser “proactivo”, prever lo que ocurrirá. “Es lo que en el MIT llamamos “ingeniería de seguridad ( “safety engineering”): todo lo que puede salir mal está estudiado y detallado. Y esto no es alarmismo, como algunos me critican”, explicó Tegmark.

Imagen de un robot con inteligencia artificial / PIXABAY

Imagen de un robot con inteligencia artificial / PIXABAY

 

Y en IA, que algo salga bien o mal en el futuro --incluyendo garantizar el sistema democrático-- dependerá principalmente de en manos de quién esté. 

“Hasta hoy, solo la UE ha dado un paso adelante, desarrollando un proyecto de reglamento general de protección de datos que establezca nuevas normas para la IA. Algo fantástico”, explicó, “aunque --evidentemente-- todas las grandes empresas americanas, como Google o Facebook, ya han empezado a escribir cartas a la UE diciendo “no, no, no, no, no nos reguléis, confiad en nosotras”, remarcó el científico con sorna.  

Una consecuencia directa de la falta de control sobre la IA es que los medios de comunicación estén cada vez más polarizados: “No es por culpa de las diferencias en política de inmigración, género, vivienda, etc. que siempre han estado ahí, sino por culpa de la IA”, explicó, detallando que empresas como Google y Facebook han desarrollado algoritmos tan potentes que permiten entender exactamente cómo piensa la gente y comprender qué deben mostrarles para maximizar la cantidad de tiempo que pasan viendo anuncios publicitarios. “Y han descubierto que es mucho mejor mostrar a la gente cosas que les hagan sentir muy enfadados o con las que ya están de acuerdo, sin importar que sean ciertas. Esto ha sido un desastre para la democracia”, concluyó el físico del MIT.

Cómo ser más resilientes

En el terreno político, Tegmark alerta que la IA ha permitido a los gobiernos llevar al extremo la manipulación política gracias a su capacidad para elaborar perfiles de los votantes, o a ganar una guerra a miles de kilómetros de distancia. “Es el caso del conflicto bélico del Alto Karabaj, donde decenas de civiles han sido matados por drones controlados por IA desde Turquía”, explicó.

El segundo gran desafío para el futuro es conseguir una IA más potente y menos limitada, algo que en el MIT llaman Inteligencia Artificial General, IAG. Entre los avances en este campo, Tegmark destacó el caso de DeepMind, una IA desarrollada por Google, que puede aprender a jugar no solo a un juego, sino a decenas de juegos distintos; y de AlphaZero, IA dedicada al ajedrez que ha conseguido saber jugar también al Go y el Shogi, el ajedrez japonés.

Imagen de una base de datos / EP

Imagen de una base de datos / EP

¿Cómo alcanzar una IA más potente, que permita reducir la desigual social y sea capaz de generar una mayor riqueza y mejor repartida para todos?, se plantea Tegmark. La respuesta: que exista una visión común, una colaboración global para alcanzar una especie de “bienestar 3.0” que diga “disponemos de la tecnología más potente que hayamos tenido jamás, capaz de mejorar la situación de empresarios y gente pobre”, detalló el físico sueco. Pero, aunque es posible hacer esto, no lo estamos haciendo. “Cuando se habla del futuro, solemos hablar de todo lo que puede salir mal, no percibo ese enfoque optimista. Incluso en las películas de ciencia ficción suelen pintar siempre un futuro complicado: son distopías donde, de un modo u otro, todo se va al garete”, constató Tegmark, insistiendo que nuestro deber como sociedad no es tanto preguntarnos qué pasará en el futuro, sino ¿qué queremos que pase? Él lo tiene claro: “una IA más potente para ser más resilientes a pandemias y a desastres, y construir un mundo mejor para todos.”.