Una imagen a partir del cerebro humano y la inteligencia artificial / FOTOMONTAJE-LETRAGLOBAL

Una imagen a partir del cerebro humano y la inteligencia artificial / FOTOMONTAJE-LETRAGLOBAL

Filosofía

ChatGPT: un sistema sin conciencia

La llamada inteligencia artificial tiene el riesgo de que deje en manos de una empresa la gestión de una cantidad enorme de datos, pero no compite con la mente humana

8 abril, 2023 19:30

Hace unos días, en un artículo publicado en The New York Times y titulado La falsa promesa del ChatGPT, Noam Chomsky señalaba las dificultades del programa para responder a la siguiente pregunta: “¿Tu indiferencia moral es inmoral?” La cuestión es pertinente porque, en opinión del conocido lingüista, “la verdadera inteligencia también está capacitada para el pensamiento moral”, lo que no ocurre con esta herramienta ni con las similares de las empresas Microsoft o Google. ¿Qué hace el ChatGPT? Responde en lenguaje ordinario a cualquier pregunta. Elabora sus respuestas a partir de los datos disponibles en la red, sean ciertos o no, y de una serie de algoritmos que deciden el orden probable en una determinada secuencia terminológica. Aunque su discurso pueda parecer original, no lo es. “Como modelo de lenguaje, no tengo la capacidad de crear pensamiento original de forma consciente e intencional. Mi capacidad está limitada a generar respuestas basadas en patrones y relaciones en los datos”, explica ChatGPT de sí mismo. Y añade: “Es posible que mis respuestas a veces puedan parecer originales o creativas, dependiendo del contexto y de la forma en que se me hacen las preguntas. En última instancia, cualquier pensamiento original que pueda surgir de mis respuestas sería el resultado de la combinación y aplicación de los datos con los que fui entrenado, y no de una capacidad personal para generar ideas nuevas y creativas”.

Partiendo de la obra del filósofo Daniel Dennet De las bacterias a Bach (editorial Pasado y Presente), Ramón López de Mántaras, investigador del CSIC, asegura que los actuales sistemas de inteligencia artificial no son propiamente “inteligencia sino habilidades sin comprensión”, es decir, “sistemas que pueden llegar a ser muy hábiles llevando a cabo tareas concretas sin comprender absolutamente nada sobre su naturaleza debido a la ausencia de conocimientos generales sobre el mundo”.

Erik J. Larson (El Mito de la Inteligencia Artificial. Por qué las máquinas no pueden pensar como nosotros lo hacemos, Shackleton Books), atribuye su incapacidad para generar pensamiento a su imposibilidad de realizar inferencias, el proceso que lleva a establecer conclusiones a partir de determinadas premisas o hipótesis. En una reciente entrevista (Eldiario.es) afirmaba: “Es obvio que ChatGPT no sabe de lo que está hablando”. También el filósofo Daniel Innerarity participa de esta opinión: “El ChatGPT y otros artefactos que le sucederán son productos increíblemente capaces de procesar información y lenguaje sin saber de qué va, es decir, hasta el límite en el que comienza la comprensión del mundo”.

Filosofar, lejos de sus posibilidades

Chomsky argumenta que este tipo de programas son incapaces de pensar en el sentido en que pueda hacerlo un ser humano. No operan con la estructura profunda de los lenguajes naturales. “Por muy útiles que puedan resultar en determinados ámbitos (pueden ser de gran ayuda para la programación informática, por ejemplo, o para proponer rimas para la poesía cómica), sabemos gracias a la ciencia de la lingüística y la filosofía del conocimiento, que difieren profundamente de nuestra manera de razonar y utilizar el lenguaje”, ya que “estos programas están estancados en una fase prehumana o no humana de la evolución cognitiva”. No son, en sentido estricto, una “verdadera inteligencia”. Filosofar, por tanto, queda lejos de sus posibilidades. Pueden reconstruir una narración de lo que pasa y de lo que pasó, pero no son capaces de señalar lo que no pasa y podría pasar o no pasar, para lo que la decisión moral resulta clave.

Fotografía de archivo de un robot con Inteligencia Artificial / PEXELS - EUROPA PRESS

Fotografía de archivo de un robot con Inteligencia Artificial / PEXELS - EUROPA PRESS

Una de las características de “la inteligencia humana es su capacidad de habérselas con la novedad en sus diversas formas: la innovación, el cuestionamiento y la ruptura de lo existente, la capacidad crítica, la gestión de la incertidumbre o la aportación de ideas nuevas”, apunta Innerarity, pero nada de ello puede ser atribuido a la inteligencia artificial.

Esta incapacidad para pensar en un sentido fuerte le inhabilita también para filosofar. ¿Lo hará en el futuro? “Los ordenadores y la inteligencia artificial no se están acercando a la inferencia humana y ahora mismo no conocemos un camino para que lo hagan. De momento, ese sendero sólo existe en nuestra imaginación. Podríamos descubrirlo, o podríamos no hacerlo”, afirma Larson.

La inteligencia artificial carece hoy de dos elementos esenciales en la actividad filosófica: la conciencia y la capacidad de autocrítica. Lo reconoce el propio programa: “No tengo conciencia de mí mismo ni intenciones propias”, responde al ser preguntado al respecto. Y también: “No tengo la capacidad de hacer autocrítica o evaluar mi propio desempeño”. También se reconoce incapaz de ofrecer un verdadero contenido filosófico: “Aunque puedo proporcionar respuestas que se parezcan a las de un filósofo, es importante tener en cuenta que no tengo una comprensión profunda o personal de la filosofía, ya que no soy un ser humano con experiencias y emociones propias”.

Saber lo que se quiere saber

Y le falta aún una tercera habilidad: la de mentir intencionadamente. Puede equivocarse e inducir a error dando respuestas falsas, pero nada de eso forma parte de la mentira intencional, verdadera característica de los humanos.

ChatGPT no tiene criterio propio para organizar los datos. Combina y agrega la información de que dispone, pero no la reelabora. Le falta una de las cualidades que Innerarity asigna a la inteligencia humana: la capacidad de reacción innovadora. Chomsky sugiere algo similar: “No todas las explicaciones humanas son correctas; somos falibles, pero eso forma parte de lo que significa pensar: para tener razón se tiene que poder estar equivocado. La inteligencia no consiste sólo en conjeturas creativas, sino también en una crítica creativa”.

ChatGPT, sobre todo en su nueva y más potente versión (GPT-4 que es de pago y oculta su estructura interna), puede ser de gran utilidad para la historiografía filosófica. Lo que pasó figura registrado, aunque conviene -afirma el propio programa-, revisar por si acaso lo que dice. Si, por ejemplo, se le solicita información sobre la concepción de la filosofía de Aristóteles, su respuesta facilita diversas disciplinas: física, metafísica, lógica, ética, poética… Habrá que hacerle una pregunta dirigida para que ofrezca una respuesta más comprimida: hay una actividad teórica y otra práctica, además de la productiva. Y, por supuesto, salvo que se le pregunte directamente, no relaciona este contenido con, es un decir, Kant. Como apunta Innerarity, para obtener cierta información, “hay que saber antes lo que se quiere saber”. Buscar no es una actividad que suponga una tabula rasa. Como sugería un hoy apenas citado Friedrich Engels, “la peor hipótesis es mejor que la falta de hipótesis”. Por eso se pregunta Innerarity, “¿quién enseña a buscar y cómo saber que se ha encontrado lo que realmente se buscaba? Solo se puede entender la información de Wikipedia si se tienen conocimientos previos”.

La historia de la filosofía es una actividad importante en la formación del filósofo, pero no la única. Tras estudiar lo dicho cabe aventurarse por nuevos caminos filosóficos en cualquiera de sus áreas. Las aportaciones innovadoras, precisamente las que ningún programa de inteligencia artificial puede, al menos de momento, realizar son las que se consideran propiamente filosóficas. Pueden hacerse desde las aportaciones del pasado o prescindiendo de ellas, aunque esto implique el riesgo de reiterar lo que otros ya dijeron.

Simulación gráfica de la Inteligencia Artificial / PIXBAY

Simulación gráfica de la Inteligencia Artificial / PIXBAY

Sintéticamente, los filósofos se dividen en dos grandes grupos: quienes tratan de abrir nuevos horizontes, casi siempre a partir de los ya entrevistos, y los que reflexionan sobre actividades que no tienen por qué ser filosóficas en sí mismas, buscando perfilar la validez de los mecanismos del conocimiento alcanzado y la visión global que se deriva.

La filosofía de la ciencia, de la historia o del lenguaje, por citar algunos casos, pertenecen al segundo grupo. Ahora bien, para que la actividad sea considerada filosófica en sentido fuerte necesita vincularse una cosmovisión, que parte de la conciencia y de la relación entre el sujeto y el mundo en el que se integra. Ya sea para saber cómo se accede a él (teoría del conocimiento) ya sea para ahondar en el puesto del hombre en ese cosmos. Este tipo de reflexión se da también cuando el filósofo se centra en el análisis de los problemas de la filosofía que, para seguir la tradición aristotélica, se ha dado en llamar práctica, compuesta por la ética y la política, que se ocupa de lo verdaderamente importante: la felicidad.

La capacidad humana de mentir

Desde Aristóteles se asume la existencia de dos tipos de conocimientos: instrumentales y finales. Los primeros no son un fin en sí mismos. La medicina busca garantizar la salud de los individuos y eliminar el dolor que impide el bienestar y la felicidad. Es, por tanto, un saber instrumental. De cómo lograr y mantener la felicidad se ocupa la única ciencia final, la política, que organiza la convivencia, buscando reducir los conflictos que derivan de la escasez y los sufrimientos de la vida. Dice Aristóteles: “La felicidad la elegimos siempre por sí misma y nunca por otra cosa, mientras que los honores, el placer, la inteligencia y toda virtud las elegimos, desde luego, por ellas mismas (pues elegiríamos a cada una de ellas aunque de ellas nada resulte), pero también por causa de la felicidad, por suponer que vamos a ser felices por su causa. Nadie elige la felicidad por causa de éstas”.

Alegoría futurista de un mundo gobernado por la inteligencia artificial

Alegoría futurista de un mundo gobernado por la inteligencia artificial

Esto supone establecer prioridades. Algo que no hacen de momento los diversos programas disponibles de inteligencia artificial. Aunque sí pueden hacerlo sus programadores.

Decidir si la posición del hombre en la escala evolutiva es continua o discontinua, lo que supone definir su lugar en el mundo, no es algo que haga ChatGPT, aunque pueda escorar las respuestas induciendo interpretación. Wendy Hall, catedrática en Ciencia Computacional en Southampton, señala: “Lo que va a ser realmente transformador no va a ser el Chat en sí, sino el hecho de que una empresa tenga el poder de gestionar una cantidad tan grande de datos. Quien pueda analizar y procesar la información es quien va a dominar el mundo”.

Se busca controlar algo que hasta ahora se resistía: el pensamiento. Para comprenderlo quizás sirva un poema de Brecht: “General, tu tanque es muy potente / aplasta a cien hombres y arrasa el pinar / pero tiene un defecto: necesita un hombre que lo pueda guiar (...) General, el hombre es muy útil, puede volar, puede matar, / pero tiene un defecto: / puede pensar”.

Hay quien está convencido de que la finalidad, hoy por hoy en el futuro, de la inteligencia artificial es dirigir la formación de ese pensamiento. Anular la conciencia y la posibilidad de autocrítica. Erradicar la capacidad humana de mentir, que pasaría a ser monopolio de esas empresas, en connivencia o no con el poder político.