Declaración de Barcelona sobre la Inteligencia Artificial

El objetivo es reflexionar sobre esta nueva tecnología y elaborar un documento de consenso “para el desarrollo adecuado y utilización de la IA en Europa”

Científico manipulando un robot / EFE

Científico manipulando un robot / EFE

Expertos en Inteligencia Artificial (IA) se han reunido durante dos días esta semana en Barcelona invitados por B·Debate, una iniciativa de Biocat y la Obra Social “La Caixa”, para que reflexionaran sobre esta nueva tecnología y elaboraran un documento de consenso “para el desarrollo adecuado y utilización de la IA en Europa”. La IA es una colección de componentes computacionales para construir sistemas que emulan funciones del cerebro humano, y comenzó a desarrollarse a mediados de los años 50 del siglo pasado, aunque ha pasado por ciclos de “ilusión, entusiasmo, crítica y duda”, señalan los científicos.

La “Declaración de Barcelona” explica que la IA basada en datos, se ha comenzado a aplicar en la última década y funciona con grandes bases de datos procesados mediante algoritmos estadísticos para extraer patrones con los que hacer predicciones o emular un comportamiento humano. La IA basada en datos requiere usar el Big-Data y una gran potencia informática para alcanzar niveles de rendimiento adecuados. Por eso, los científicos hacen un llamamiento para que las empresas europeas inviertan en el desarrollo de IA “a una escala acorde al desafío actual y de tal manera que todas las regiones europeas y los ciudadanos puedan beneficiarse”. Esta inversión, según los autores de la declaración, debe dirigirse a crear “una red de laboratorios de investigación de alto nivel” y a la formación de muchos ingenieros especializados.

Según los científicos, “el salto hacia adelante en la IA ha sido causado por un desarrollo de las tecnologías, una mayor potencia informática en almacenamiento de datos, la mayor disponibilidad de plataformas de provisión de servicios por Internet y una mayor disposición de muchos actores económicos para llevar dicha tecnología a su propio dominio de aplicación”. Entre los riesgos, destacan los denominados chat-bot. La IA ha permitido que estos chat-bots sean lo suficientemente realistas como para que los usuarios confiados no sean capaces de distinguir y sean engañados, y por eso los científicos proponen “exigir que siempre esté claro si una interacción proviene de un humano o de un sistema de IA y que, en el caso de un sistema de IA, sus responsables puedan ser rastreados e identificados”. Otro problema que vislumbran los expertos es que “el innegable entusiasmo por la IA puede llegar a dar la impresión de que la inteligencia humana ya no es necesaria, llevando a algunas empresas a despedir empleados y reemplazarlos por los sistemas de IA”.

Utilizamos cookies propias y de terceros para mejorar la experiencia de navegación y mostrarle publicidad y contenidos de su interés. Al continuar navegando, consideramos que acepta su uso. Más información