Carlos Santana: “Prohibir ChatGPT haría menos competitivas a las empresas españolas”
El experto en inteligencia artificial más conocido como DotCSV comparte su punto de vista sobre los peligros y oportunidades del “crecimiento exponencial” de estas tecnologías
26 abril, 2023 00:00No es un guitarrista de leyenda, sino uno de los expertos en Inteligencia Artificial (IA) con más visibilidad de España en la actualidad. Carlos Santana, más conocido por su alias DotCSV en YouTube y el resto de redes sociales, se dedica a la divulgación desde el año 2017 y reúne en su canal de la citada plataforma a casi 760.000 suscriptores. En él, comparte de una forma accesible y entendible las últimas noticias sobre los últimos modelos tecnológicos que están irrumpiendo en el sector, aunque sin escatimar en detalles relevantes: “Ese es el trabajo del divulgador, ¿no? Intentar explicar los avances de la forma más técnica posible en la que la pueda entender el público general”, sostiene.
Como curiosidad, su apodo es un juego de palabras que une la extensión de archivos informáticos ".csv" (utilizados en estadística y otros ámbitos de la IA y cuyo acrónimo, a su vez, significa Comma-Separated Values) con las siglas de su nombre completo: Carlos Santana Vega. El experto ha charlado con Crónica Global sobre las recientes investigaciones a la empresa estadounidense OpenAI, responsable de ChatGPT, en lo que se refiere a la protección de datos, así como sobre otras cuestiones éticas en este tipo de tecnologías disruptivas.
--Pregunta: Hace unos días la Agencia Española de Protección de Datos anunció que iba a investigar a OpenAI por posibles incumplimientos de la normativa española en este aspecto. ¿Crees que ChatGPT será prohibido pronto en este país?
--Respuesta: No me extrañaría que fuera la propia empresa la que diera el paso y decidiera bloquear el servicio en el país hasta que pudiera adaptar su herramienta a lo que la Administración pide o se llegara a algún tipo de acuerdo. La cosa aquí es que llegar a prohibir este servicio en una fase tan prematura podría cerrar las puertas a mucha gente. Estamos en un momento delicado, teniendo en cuenta la ventaja competitiva que se puede alcanzar integrando esta herramienta. Es un recurso muy poderoso que no tendríamos aquí y vetarlo podría suponer ponernos un palo en la rueda.
--¿Cómo describirías la situación de Italia con este modelo ahora mismo?
--El detonante allí fue un problema de seguridad con la filtración de informaciones como los datos de tarjetas de crédito de algunos usuarios a otros. Esta incidencia no está tan relacionada con la parte de inteligencia artificial del chat como con el propio funcionamiento de la herramienta. Por otro lado, parte de los datos que se van enviando al chat no cumplen ciertos filtros, y aquí en Europa intentamos ser más respetuosos con esos temas que en Estados Unidos. En general, hay muchos aspectos que están haciendo que muchas agencias regulatorias quieran poner un ojo sobre ChatGPT.
--Hace unas semanas vimos cómo cientos de figuras del sector firmaban un manifiesto en el que pedían frenar el desarrollo de la IA durante seis meses. Hablaban de grandes riesgos para la humanidad, entre los que se encuentra la posibilidad de “perder el control de nuestra civilización”. ¿Es alarmista?
--Entre los firmantes de esta carta hay muchos intereses mezclados. Había posturas muy legítimas: hablaban de que la rápida llegada de esta tecnología a la sociedad puede generar fricción y un impacto para el que no estamos preparados a nivel laboral, por ejemplo. Por otro lado, también teníamos en esa lista de personas a perfiles como el de Elon Musk, que quiere frenar todo esto, seguramente, por unos intereses que le convienen a él. Hace unos días anunció que estaba creando su propio laboratorio de IA, que competirá directamente con OpenAI. Después tenemos una postura que yo considero irreal y de ciencia ficción, que señala que si seguimos entrenándolas podrían llegar a convertirse en superinteligencias capaces de acabar con la humanidad. Es un grupo muy heterogéneo de personas.
--¿Cuál es tu postura?
--Creo que va a ser duro, que vamos a tener muchas transformaciones y mucha incertidumbre, pero no creo que frenarlo vaya a ser una solución. Llevamos 10 años anunciando que estos debates iban a ocurrir, pero se están produciendo ahora porque ChatGPT se ha abierto al público. Pienso que están intentando retrasar estas cuestiones todavía más. En general, somos reactivos a los problemas y no proactivos.
--¿Por qué parece que todo esto nos ha pillado desprevenidos?
--Lo que pasa es que la inteligencia artificial ha tenido un desarrollo exponencial. En el ámbito de la generación de imágenes, por ejemplo, hace tres años una IA podía generar una especie de imagen medio amorfa de algo que le pidieras con texto, y ya nos parecía bastante impresionante a nivel académico, ya que estábamos empezando a ver capacidades que nunca habíamos visto en una máquina. Ahora, tres años después, esa imagen amorfa es una imagen perfecta que compite con el trabajo de diseñadores, fotógrafos e ilustradores y que empieza a poder difundir desinformación en redes. No hemos sabido tomarnos en serio esta tendencia porque ha llegado muy pronto. Yo mismo pensaba que todavía tendrían que pasar unos cinco años para que ChatGPT o Dall-E 2 estuvieran en nuestra vida.
--El mes pasado tuiteaste que si dependiera de ti “irías haciendo una copia de seguridad de internet” por si se nos fuera de las manos el tema de la IA. ¿Cuánto de broma y de verdad hay en esa inquietud?
--De broma es el hecho de que hacer un backup de todo internet es algo bastante irreal, pero sí que creo que el problema está ahí. Nos estamos moviendo hacia un futuro en el que habrán en la red textos, imágenes y vídeos generados por IA que no vamos a saber identificar. Estamos creando herramientas que pueden automatizar a escala, a lo bestia, lo que antes llevaba mucho tiempo. El que antes te quería estafar online podía usar Photoshop o After Effects, pero no era algo que pudieras escalar a millones de usuarios en segundos. Creo que todos podemos estar de acuerdo en que Google y el resto de buscadores ya estaban pervertidos por toda la dinámica del SEO y la optimización para que las empresas saquen el máximo beneficio económico, y eso me hace pensar que pasará lo mismo y veremos cómo se manipula la opinión pública con la IA. Las redes sociales difícilmente van a poder lidiar con todo ese contenido. Por eso creo que es probable que en cinco o 10 años nos demos cuenta de que vivimos en un internet contaminado y queramos volver a un punto del pasado en el que todo era mejor.
--Me da la sensación de que todavía está costando que arranquen del todo las IAs de vídeo y música. ¿Es así? ¿Cuánto queda para que los resultados de estas IAs empiecen a ser tan presentables como los de Stable Diffusion, por ejemplo?
--Es difícil predecirlo, pero las cosas están llegando antes de lo esperado. No me extrañaría que en dos años ya pudiéramos ver un vídeo realista generado con IA de Donald Trump siendo detenido, por ejemplo.
--¿Y en cuanto a accesibilidad y usabilidad? Desde fuera del mundo tech parece un poco complicado entrenar con mi ordenador un modelo para que la voz de Kanye West suene a Michael Jackson. ¿Acabarán siendo estas IAs de música y vídeo tan sencillas como ChatGPT y Midjoruney?
--Sí, totalmente. Yo creo que un factor importante en la llegada de la IA al mainstream ha sido hacerlas más accesibles. El éxito de OpenAI con ChatGPT surge cuando abre su modelo a todos. Ahora es una herramienta en la que escribes un prompt y ya funciona, pero para utilizar muchos de estos modelos antes, en el ámbito académico, era necesario entrar en un repositorio de código, hacer instalaciones en tu ordenador, tener un hardware avanzado… Poco a poco se ha ido simplificando y ahora hay muchas empresas con un nuevo modelo de negocio que se basa en hacer esa labor de ofrecer al usuario una interfaz bonita. Vamos a acabar pudiendo pedir a una IA una canción del estilo que queramos con una sencilla frase de texto.
--¿Qué me dices de productos comerciales y masivos realizados con IA? El año pasado se remezcló un álbum de The Beatles separando las pistas originales con estas tecnologías. ¿Veremos canciones hechas completamente con modelos generativos en las listas de éxitos?
--Hoy estaba ganando mucha popularidad en las plataformas una canción de Drake y The Weeknd ('heart on my sleeve') en la que todas las voces están generadas con IA. Ya estamos empezando a ver esa realidad como algo de nuestro día a día. La gente está escuchando estas canciones, está identificando las voces de sus artistas favoritos y les están gustando. Y nos empieza a costar diferenciar qué productos están hechos por humanos y cuáles no. Esta semana ha ganado un concurso de fotografía una imagen hecha con IA, por ejemplo.
--Muchas de estas IAs son de pago, al menos algunas de sus funcionalidades. ¿Terminarán habiendo alternativas gratuitas de todas ellas?
--Efectivamente, muchas de estas inteligencias son de laboratorios que han dedicado un montón de recursos para entrenarlas, así como para financiar su coste de computación. Toda esa infraestructura de ordenadores les obliga a tener cierto modelo de negocio, pero, si lo comparas con alternativas, son mucho más baratas. En Midjourney estás consiguiendo una imagen que puedes usar para cualquier proyecto por una fracción de dólar, mientras que la otra opción es acudir a un mercado de stock de imágenes que a lo mejor te cobra 30 euros por una fotografía. No obstante, creo que hay que tener en cuenta el boom de todas las iniciativas Open Source que están apareciendo en paralelo. En el campo de la generación de imágenes tenemos a Stable Diffusion, que ha sido desarrollo por una empresa que, por sus valores o por lo que sea, ha decidido convertirlo en un modelo libre para que cualquier usuario con un hardware medianamente potente lo pueda ejecutar gratuitamente. También están empezando a surgir otras alternativas abiertas como LlaMA (de Meta), Alpaca o Vicuna. Lo que estamos viendo a partir de esto es un horizonte de posibilidades mucho más grande y menos controlable: el usuario lo ejecuta en su ordenador sin ningún sistema de control o términos de uso que prohíben hacer ciertas cosas.
--¿Crees que debería haber límites respecto a lo que se puede hacer con la generación de imágenes? Al final… son ficción, ¿no? Cualquiera puede coger un lápiz y un papel y dibujar lo que quiera.
--Cuando se lanzó Dall-E 2 en abril del año pasado no se podía introducir la palabra 'Ucrania', ya que se consideró que no se podían generar imágenes de ese tipo. Esta clase de restricciones pueden ser excesivas. Sin embargo, sí entiendo que de alguna forma tenemos que controlar lo que se puede generar. Con Stable Diffusion puedes generar imágenes pornográficas y también imágenes de niños. Podrías generar pornografía infantil sin ningún problema, aun cuando la IA nunca ha sido entrenada para ello. Hay un debate ahí que se abre en la sociedad: si un usuario tiene su ordenador lleno de este tipo de imágenes, ¿es un delito? Creo que a día de hoy lo es y se está persiguiendo. Es cierto que tú con un lápiz puedes generar cualquier cosa, pero el número de usuarios a los que puede llegar es mucho más pequeño y el número de personas que elaborarán un resultado realista de esta manera también.
--Es un escenario bastante terrorífico.
--Sí, y creo que ya han habido detenciones por eso mismo.
--Estos días estás en Barcelona con motivo del EdTech Congress, que en esta edición gira en torno a la IA en el sector de la Educación. ¿Crees que los profesores que se tendrán que adaptar a estos cambios son los de hoy o los de las generaciones futuras?
--Deberían ser todos, pero sí es cierto que estas tecnologías acaban generando una brecha generacional. Fíjate, yo soy nativo digital y nací en la era de internet, y cuando era pequeño no acababa de entender por qué a mis padres a lo mejor les costaba más adaptarse a esos avances que a mí cuando siempre se ha considerado que las generaciones anteriores son más capaces, ¿no? Ahora me estoy empezando a dar cuenta de por qué sucede esto, y es que cuesta mucho desaprender los procesos que tenemos aprendidos. Hoy te llega una IA que puede crear en segundos lo que tú antes considerabas que era un proceso que seguía una serie de pasos. Por eso creo que las generaciones nuevas van a saber utilizar de forma más efectiva estas herramientas, que van a ayudar tanto en lo positivo (facilita nuevas formas de aprendizaje y estudio, así como una educación personalizada al alcance de cualquiera) como en lo negativo.
--Me da la sensación de que muchos profesores creen que las implicaciones negativas se reducen a que ChatGPT sea capaz de hacer los deberes de los estudiantes. ¿Qué más podrían suponer?
--Estas herramientas no son perfectas, así que una de las cosas que pueden pasar es que los alumnos se acaben apoyando demasiado en ellas sin ser críticos y asuman que toda la información que sale de estos modelos es correcta. Todo esto también nos presenta un horizonte de mucha incertidumbre laboral y de mucho estrés para el alumno y el profesional. Ahora mismo, cuando el primero intente buscar una orientación profesional sobre a qué se podría dedicar se va a encontrar con gente que no va a saber orientarle de forma efectiva. Si a mí me preguntas ahora mismo si Informática es una de las carreras del futuro, no sabría qué decirte al 100%.
--¿Se notará la brecha digital entre los alumnos con más recursos y el resto?
--Si la entendemos como el acceso a medios, un ordenador y una conexión a internet que sea decente, sí, seguirá estando ahí. Por ahora seguimos interactuando con la IA a través de la nube.
--Menciona algunos modelos de IA de los que no se esté hablando demasiado y que te estén llamando la atención ahora mismo.
--Todo el mundo conoce ChatGPT, pero la gente tiene que saber que este funciona con un modelo que se llama GPT-4 y que no hemos visto todas sus capacidades porque todavía no las han activado. Hay una que creo que tendrá repercusión próximamente y que es una herramienta a la que le puedes pasar una imagen y preguntarle cosas sobre esta. Después hay otras como Whisper, que puede hacer transcripciones de audio perfectas de horas de audio en segundos, algo que es impresionante. También está habiendo un renacer de modelos como SAM, de Meta, aunque cuesta todavía entender por qué van a ser útiles para la sociedad en general. Esta última permite seleccionar y extraer determinadas partes de una imagen y etiquetarlas.
--¿Qué te da más miedo de este nuevo paradigma?
Me da miedo cómo acabará aterrizando. Me remito a las palabras de un amigo que lo dijo muy claro: a todos nos gusta lo que nos dio la Revolución Industrial, pero nadie quiere vivir la Revolución Industrial. Nadie quiere pasar por ese proceso de trauma, de fricciones y de conflicto social que sabemos que acaba sucediendo por no preparar a la sociedad para los cambios. No se está tomando en serio y no se están tomando medidas adecuadas para que esta llegada sea más paulatina, más acomodada.
--Y... ¿qué es lo que más te entusiasma?
Pensar en cuando se empiece a aplicar de forma efectiva en el desarrollo de los avances científicos. Vamos a vivir en una sociedad en la que lo que ahora creemos que es el futuro nos va a parecer muy primitivo.