Carlos Santana, divulgador de Inteligencia Artificial (IA) conocido como Dot CSV

Carlos Santana, divulgador de Inteligencia Artificial (IA) conocido como Dot CSV Cedida

Vida tecky

Dot CSV: "Con la IA aprendemos más de la naturaleza humana que de las máquinas"

El conocido divulgador compara el impacto social de la IA con el que tuvo Internet hace 20 años

25 junio, 2023 22:20

Carlos Santana, alias Dot CSV, es uno de los divulgadores sobre inteligencia artificial (IA) más conocidos en España. Crónica Global aprovecha su paso por Barcelona para charlar con el youtuber sobre las disrupciones de las máquinas que piensan, su impacto social y la posibilidad de una IA sin sesgos.

Del cero al cien, ¿cuán preocupado estás porque la IA nos quite a todos el trabajo?
No estoy tan preocupado si hablas de todos. Pero sí me preocupa que haya una revolución en el mercado de trabajo, un proceso de cambio muy radical que en poco tiempo genere fricciones y conflicto. En eso podría decirte que estoy preocupado al 80%. Pero no veo plausible que a largo plazo el trabajo se vea afectado en su totalidad. Ni tampoco lo veo problemático.
Te lo pregunto porque los periodistas tendemos a hacer dicotomías: o va a ser un desastre o vamos a dar un salto adelante. ¿Cómo valoras el impacto social de la IA?
Suelo comparar esta revolución con la que vivimos hace 20 años con la llegada de Internet. A día de hoy, la sociedad ha vivido una transformación en todas sus esferas. Ahora mismo un político que no haga política en Twitter nos parece impensable. Y esto mismo lo vemos trasladado a la medicina, la economía... a todos los sectores de la sociedad. Pues con la inteligencia artificial va a ser igual. Va a ser una tecnología que va a capilarizar muchos sectores. Y en esta dicotomía soy bastante positivo. Aun cuando hay muchos riesgos de por medio, nos va a llevar a un escenario donde vamos a estar mucho mejor. Igual que si ahora calculas el saldo creo que estamos en uno positivo. En muchos sentidos, somos una sociedad mucho mejor que hace 20 o 25 años.

¿Entonces no se va a crear una casta de programadores, no se va a dar aún más poder a las tecnológicas?

Fíjate que ahora mismo los programadores están viendo parte de su trabajo comprometido. Realmente no es tanto una casta de programadores, sino que los programadores están viendo cómo la inteligencia artificial está consiguiendo automatizar su trabajo. Entonces no, no creo que vaya por ahí. Creo que todo esto va a repercutir porque al final el tejido de nuestra sociedad es tecnología y la inteligencia artificial viene a colocarse en ese tejido.
Siempre me ha fascinado el diferencial de optimización de la IA. Pueden crearse sinfonías pero no distinguir un chihuahua de un muffin. ¿Se debe a que la industria no hace un desarrollo paralelo de todas las áreas? ¿O porque hay áreas más complejas en sí mismas para la IA?
Hay un poco de todo. En parte se debe a los incentivos de la industria y también del público objetivo. A lo mejor nos parece mucho más atractivo que una IA pueda generar una imagen que un modelo 3D. Aparte de esto luego hay problemas que son más difíciles que otros. He comentado justo el de hacer modelos 3D. Evidentemente este es un tipo de dato que tiene una dimensión extra por su propia naturaleza, lo cual hace el problema mucho más complicado para la propia inteligencia artificial. También depende de los datos, que son la materia prima que usamos para entrenar estos sistemas. Hay problemas que están más digitalizados que otros. Tenemos un montón de imágenes en Internet porque vivimos en una sociedad digitalizada con mucho contenido multimedia.
En una entrevista te oí decir que te había sorprendido el avance obtenido en la parte creativa.
Sí, porque la premisa desde hace años era que la inteligencia artificial venía a aprender y automatizar tareas que los humanos podían hacer instantáneamente. Tareas que deduces al momento, en las que consigues hacer lo que se llama una inferencia al momento, eran susceptibles de ser automatizadas por la inteligencia artificial siempre que tuviera datos. Y lo que se ha demostrado en los últimos años es que esa predicción estaba equivocada porque lo importante era tener datos. Si esa tarea estaba digitalizada y contábamos con datos, parece que la inteligencia artificial lo puede resolver. Incluso la creatividad humana, eso sí que es sorprendente.

¿Quizá la creatividad humana no es para tanto?

Con la inteligencia artificial aprendemos más de la propia naturaleza humana que de las máquinas. Y creo que parte de la confrontación que tenemos con la propia inteligencia artificial se debe al miedo que nos despierta, porque está colisionando con el ego de qué es lo que nos hace humanos. Hace cuatro años alguien podría haber argumentado que el hombre desarrolló el lenguaje y que una máquina no podía hablar. Lo siguiente fue que una máquina no podía pintar un cuadro, componer una sinofía... Cada vez vamos reduciendo el margen de qué es lo que nos hace humanos. Es un poco absurdo decir que hay algo que no podrá hacer una IA. Desde mi punto de vista, considero que en nuestra cabeza lo que tenemos es una maquinaria, unos circuitos implementados con un sustrato biológico. La barrera que no terminamos de entender y que es más compleja es la conciencia. ¿Llegará una máquina a tener conciencia?

También se ha dado un salto en la comodificación, la mercantilización. Los desarrollos ya no solo están en un repositorio para ingenieros, sino que son accesibles para todos.

En 2022 se dio este salto y fue muy importante. Hasta ese momento, muchos de los productos eran solo de interés para los investigadores, pero el resultado no lo podías usar en ningún trabajo. Y en 2022 empezamos a ver como tanto GPT-3, el motor que está detrás de ChatGPT, como Dall-E 2 empezaban a generar imágenes y textos que podías empezar a usar para trabajar. Por un parte, eso despierta el interés de un público que está dispuesto a pagar por esa tecnología. Al mismo tiempo, OpenAI, la empresa que está detrás de estos desarrollos, hace un movimiento interesante que es habilitar una API para que cualquier persona se pueda conectar a su tecnología. Se ha creado esta sensación de que cada día sale un producto nuevo.

¿Qué opinas del debate sobre los sesgos de la IA? ¿Qué significa hablar de una IA ética?

El tema de los sesgos es complicado. Históricamente hemos visto que cuando entrenas a un sistema con datos, que al final no dejan de ser una proyección de la actividad humana, la máquina también aprende los sesgos. Sí puedo decir que a lo largo de los años esto se ha ido mitigando. Uno de los logros que consiguió OpenAI fue domar a esta bestia cargada de sesgos e inyectarle un cierto sentido de ética o moralidad, como le queramos llamar. Es decir, si a ChatGPT le pides "quiero hacer una bomba", no te va a dar los pasos sobrecómo construir una bomba. El debate también es que aunque todos tengamos nuestro paquetito de sesgos, al final es una variable aleatoria que cuando se va acumulando con otros sesgos se va mitigando. Tú tienes un sesgo hacia un lado, yo hacia otro... y van desapareciendo. El problema es que cuando todo el mundo usa un sistema con ese sesgo lo estamos multiplicando ese sesgo.
Continuamente se habla de crear guías de desarrollo ético, tanto desde el ámbito público como del privado. Pero parece que estas propuestas estén descoordinadas. ¿Se puede crear algo así como una ética mínima de programación?
Hay mucho interés por regular la IA. Pero me sorprende, por ejemplo, que en Europa nos estamos centrando antes en cómo regular la IA, en cómo controlarla y acotarla sin tener primero una base de innovación fuerte como está pasando en Estados Unidos o China.
Europa siempre ha puesto el principio de precaución por delante.

Sí creo que es interesante regularla, hacer normas... para tener unos mínimos. Ahora que Estados Unidos se está haciendo fuerte sobre todo a través de OpenAI, Google y estos actores, hemos visto que Sam Altman se ha hecho el paseo por muchos países europeos haciendo lobi para inyectar también su voluntad dentro de la AI Act que Europa está firmando ahora. Seguramente va a haber una coordinación y una regulación, pero es tan nuevo que todos se están dando prisa por hacerlo primero en su casa. La coordinación vendrá a posteriori.

Sobre los riesgos de una IA fuerte que se vuelva en nuestra contra: ¿los escenarios de Skynet son fantasiosos o hay algo de cierto en ellos?
Desde mi punto de vista, me alejo de esos discursos. No veo ni siquiera el salto lógico de por qué si una IA supera el umbral de inteligencia en ciertas capacidades, no decimos todas, eso deba traducirse en un peligro para la humanidad. Una calculadora es más lista que un humano. Es cierto que el abanico de tareas que la IA puede hacer cada vez es mayor. Eso nos hace meterla cada vez en más sistemas. Sí me preocupa un uso equivocado de la inteligencia artificial en determinados sistemas, es decir, si eres tan incompetente como para meter a una inteligencia artificial para controlar la seguridad en una central nuclear pues a lo mejor tienes un problema. Pero no veo motivo por el que un chat GPT-4, siendo cinco o seis veces más potente, siga los pasos lógicos de destruir a la humanidad.
No sé si viste la noticia de una máquina del ejército estadounidense que se volvió contra su controlador, que concluyó que la mejor forma de resolver un escenario era cargarse a su operador.
Pero era dentro de una simulación. Lo que ocurre ahí es lo que se llama en inteligencia artificial un error de especificación, que se da cuando planteas un objetivo y en el proceso de cumplir esa tarea aparece un comportamiento inesperado. ¿Cómo se está mitigando esto? De nuevo, lo que no vamos a hacer es ponerle al dron la inteligencia artificial que ha matado a este pobre hombre en la simulación. Pero vamos a entrar a la inteligencia artificial para que cumpla un objetivo supervisando el proceso. Es decir, te voy a enseñar todos los pasos necesarios para cumplir una tarea para que aprendas un sentido común de cómo resolver tareas como haría un humano. No irte a que la mejor solución es matar al operador la máquina.
Y en el tema de las imágenes falsas, ¿cómo se resuelve para que no nos engañen?
Primero habría que aplicar un código odontológico en una sociedad audiovisual. Luego en la parte más técnica se está trabajando. Al final piensa que las empresas que han desarrollado esto tienen su mayor interés en que los riesgos desaparezcan y solamente quede la virtud de esta tecnología, por lo que están trabajando mucho en hacer una marca de agua invisible que permita identificarlas. Puedes meter píxeles codificados dentro de una imagen, un patrón oculto que se puede detectar. Pero al comprimir un poco la imagen puede ser que ese patrón desaparezca. El problema es que si el algoritmo no está bien hecho o que una persona malintencionada usa una IA open source que no tenga marca de agua ni nada. Es complicado.
Las empresas se quejan constantemente de que hay más demanda que oferta. ¿El problema lo tiene la universidad? ¿Está preparado el mundo académico para la revolución de la IA?
Hace dos años había una demanda de profesionales de la IA y ahora hay una excesiva demanda porque todas las empresas quieren ingenieros. No tenemos cantera suficiente y el talento se cotiza muy alto. Sigo dando charlas en universidades y me encuentro con alumnos que están viendo en la asignatura de inteligencia artificial lo que yo vi hace 12 años, que ya era algo que consideraba muy anticuado. Por cómo de rígida es una universidad, está mal preparada para dar formación de calidad. Si eso está ocurriendo en algunas universidades es porque hay profesores que son héroes y están consiguiendo meter nuevo contenido en la programación.