Menú Buscar
Pablo Rodríguez, autor de una reflexión sobre el futuro de los humanos y las máquinas y su relación mediante la inteligencia artificial / CG

Pablo Rodríguez: “El futuro está en nuestras manos, no en el de las máquinas”

El responsable del proyecto Alpha de Telefónica ha publicado un libro en el que repasa las innovaciones y los retos de la inteligencia artificial

9 min

Pablo Rodríguez es doctor en informático y experto en tecnologías de internet. En los últimos 15 años ha trabajado en Telefónica, un periodo en el que ha sido observador y protagonista de los avances que han llevado al nivel actual de Inteligencia Artificial (IA). Especialmente desde Alpha, la unidad de negocio de la multinacional que impulsa los llamados proyectos disruptivos. Las iniciativas que se ponen en marcha con una gran innovación técnica para hacer una sociedad mejor.

Relata la experiencia acumulada en el libro Inteligencia Artificial, cómo cambiará el mundo (y tu vida), que acaba de publicar la editorial Deusto.

--¿De dónde salió la idea del libro?

--De un momento de oportunidad única por los avances informáticos, en Inteligencia Artificial (IA) y robótica que se han dado. La humanidad tiene grandes retos que ahora se han acentuado como la diversidad, el acceso a recursos, las catástrofes naturales, el cambio climático o la redefinición del mundo del trabajo. Me apetecía mucho escribir un libro que tuviera como base estos cambios.

--¿Cómo va a ayudar esta tecnología a superar los retos descritos?

--Ayudará a redefinir el futuro que vamos a vivir. El contexto del mundo y de nuestra vida. 

--¿Y cómo lo hará o ya lo hace?

--Ya está presente en gran parte de lo que hacemos, desde que nos levantamos hasta la hora de ir a dormir. Cuando se busca algo en internet y se intenta anticipar a la palabra que queremos decir, por ejemplo, es IA. El algoritmo de un mapa que nos dice cómo llegar al punto A y al punto B, las cámaras que regulan el tráfico o las que ayudan a los radiólogos a detectar tumores también. Estamos de lleno en ello.

--Pero deberá avanzar más.

--Sí, como la ley de Moore, la rapidez en que mejora la computación. Llevamos 30 años en ella. Ahora generamos 200 millones de correos y 200.000 tuits por segundo. Para 2020 llegaremos a los 50 millones de dispositivos conectados. La clave está en el desarrollo de los algoritmos.

--¿Qué quiere decir?

--Las recetas que siguen los ordenadores para resolver un problema complejo. Han avanzado mucho en los últimos años y ahora toman el cerebro humano, la forma que tiene de pensar, como forma de inspiración. La IA no deja de ser la inteligencia de las máquinas y está aquí para quedarse.

--¿De dónde salen las reflexiones del libro?

--De mi experiencia en Telefónica. He intentado dar forma al libro que me podría haber leído a los 17 años en verano para poder enterarme hacia dónde avanza el mundo. Se detallan experiencias reales y concretas de mis 15 años en la compañía. De ver como, por ejemplo, gracias a esta tecnología y a partir de datos móviles se puede estudiar cómo se propaga la pandemia de la gripe aviar en México, un trabajo que realizamos de la mano de la ONU y Unicef.

--¿No da un poco de miedo esta sociedad que se perfila?

--Los cambios siempre dan un poco de respeto, pero son oportunidades que se deben entender bien. Los humanos debemos liderar la transformación. Debemos entender que el futuro está en nuestras manos, no en las máquinas y que la IA acelera estos cambios. Los algoritmos pueden extraer patrones más completos y llegan donde no lo hace ni la vista ni el oído humano. Cada vez se comunican de una forma más parecida a la nuestra.

--¿En qué sentido?

--Vemos como la interacción entre las personas y las máquinas es más cercana. Como ocurre con los asistentes del hogar, que son más realistas [Movistar Home llegará a las tiendas en octubre]. Incluso pueden generar cierta empatía. En el futuro tendremos mayor conexión con las máquinas, comprenderán mejor las emociones y podremos conectar con ellas.  

--¿Y qué papel tienen los humanos?

--Es muy importante tomar espacio, perspectiva y desconectar. Se deben evitar las adicciones y las burbujas de información. Es necesario que podamos desarrollar nuestro propio criterio y hacer elecciones individuales. Eso requiere entrenamiento y distancia. Debemos volver a reconectar con nuestra humanidad.

--¿Qué quiere decir?

--Pasar momentos del día en el que se es capaz de desarrollar tu propia reflexión y criterio digital, especialmente entre los más jóvenes. El 40% de los trabajos actuales cambiarán en los próximos años. Se desarrollarán con creatividad, resolución de problemas, pensamiento crítico y colaboración. Las máquinas han desarrollado una parte de la inteligencia, la capacidad de percepción y de extraer patrones. Pero los humanos disponen de sentido común, razonamiento, analogía y planificación. No lo debemos perder, nos harán tener un papel importante del mundo.

--¿Llegará un momento que las máquinas aprendan de los humanos?

--Se habla mucho de la singularidad. En algunos contextos han pasado ya el Test de Turing [la habilidad que tienen para mostrar una inteligencia similar a la humana], como cuando un asistente virtual llama a un restaurante. El que está al otro lado del teléfono no sabe si la reserva la hace una persona o una máquina. Esta complejidad pasará a otros contextos, aunque la actual IA tiene el cerebro de un ratón.

--¿Y llegaremos a los humanoides?

--Estamos a unos 100 años de esta visión futurista. Los problemas, oportunidades y retos actuales de este campo están en el acceso a los datos. La propiedad, transparencia en el uso y el control de ellos. Ya se ha dado la primera discusión, la General Data Protection Regulation (GDPR) Europea. La segunda se moverá alrededor de los algoritmos. Cómo se generan de forma justa, ecuánime y sin excluir a las minorías. Con cierta ética y valores.

--¿La inteligencia artificial es justa hoy en día?

--Este es un debate. Por ejemplo, en EEUU decidieron que en las condenas a un reo se aplicaran algoritmos con datos de su familia, el barrio y otras casuísticas personales. Al final se sugería una pena y el juez estaba ante la disyuntiva de confiar más en su propia decisión o en la de las máquinas. La IA es una caja negra difícil de entender y a veces toma decisiones que son de vida o muerte. El reto es el del control de los datos y las decisiones.

--¿Hay ética en ello?

--Cada vez que navegamos por internet y hacemos una compra, ponemos un Me Gusta, un tuit o se lee un periódico se deja un rastro, el alma digital. Es cálida y lleva parte de nuestras emociones, de cómo nos sentimos. Los algoritmos cada vez van a tener más en cuenta este ámbito para tomar decisiones que sean ecuánimes, que no ignoren a minorías y puedan explicarse y entenderse. En el fondo, los problemas en este sentido son humanos. No de las máquinas.