Habla el extranjero Crónica Global Barcelona
Interesante artículo en el Financial Times acerca del misil que el pasado 28 de febrero cayó sobre una escuela de Minab, en el sur de Irán, y mató a 170 o 180 niñas.
¿Pero quién cometió un crimen tan atroz? ¿Quién es tan desalmado para asesinar a tantas inocentes niñas en su escuela?
El exterminador sólo podría ser Dios… o el diablo. Pero es evidente que estas entidades altísimas no se ocupan mucho de nuestras niñas ni de sus sufrimientos y alegrías, ya que están permanentemente dedicadas a emitir su “gélida risa espacial”, de la que habla el poema de Hermann Hesse en El lobo estepario.
Si a las niñas no las mató ni Dios, ni las mató el diablo, ¿las mató el ser humano? Aunque, desde luego, que en este mundo hay gente muy mala (sin ir más lejos: ¡mi vecino, el del sótano!), tampoco es plausible que tal grado de perversidad, el que se necesita para bombardear niñas, sea cosa propia de los seres humanos.
No, aquí tiene que haber intervenido una cuarta entidad. Una que está sujeta a “alucinaciones”. El editorial del Financial Times del sábado pasado apuntaba a ello. Lo reproduzco a continuación, y a renglón seguido expondré una conclusión:
Bombardeo en una escuela en Minab, Irán
“En Irán, la IA ha llegado al campo de batalla. Las fuerzas estadounidenses están utilizando esta tecnología para mejorar la toma de decisiones, ayudar a procesar enormes volúmenes de datos para identificar objetivos y optimizar la logística militar.
>> Inevitablemente, conflictos como este se convierten en campos de prueba para tecnologías de vanguardia. Esto no hace sino subrayar la necesidad urgente de una gobernanza eficaz, junto con límites claros sobre cuándo y cómo se utiliza la IA en los sistemas de armas.
>> Uno de los riesgos reside en el control inadecuado de los datos, que son el elemento vital de todos los sistemas de IA. Los modelos son tan buenos como la información con la que se entrenan. No hay pruebas de que la IA haya sido responsable del reciente y devastador ataque con misiles contra una escuela de niñas en el sur de Irán, pero la investigación debería poner el foco en cómo se verifican los datos utilizados en la selección de objetivos.
>> Otro riesgo es que las personas encargadas de tomar decisiones de vida o muerte basándose en recomendaciones de sistemas de IA puedan tener dificultades para cuestionar a las máquinas. Algunos expertos advierten que esto ya podría estar ocurriendo en el conflicto iraní, dada la dificultad para que un ser humano comprenda todos los factores que intervienen en la evaluación de un modelo de IA.
>> También existe una presión creciente para eliminar por completo a los humanos del proceso, por ejemplo en situaciones en las que la interferencia enemiga en las comunicaciones hace imposible mantener el control humano directo sobre un arma. Estados Unidos ya está trabajando en drones totalmente autónomos para defender Taiwán ante un posible ataque chino. Esto añade una nueva urgencia a la necesidad de limitar el uso de sistemas de armas autónomas letales (LAWS, por sus siglas en inglés).
>> Al menos por ahora, parece apropiada una moratoria sobre su uso, y eventualmente podría ser necesaria una prohibición total. Una de las razones para hacerlo es la falta de fiabilidad. La IA actual, basada en sistemas probabilísticos propensos a las llamadas “alucinaciones”, no es lo bastante fiable como para confiarle el poder sobre la vida y la muerte. Esta fue una de las razones por las que Anthropic se opuso a ceder el control total de su IA al Pentágono para uso clasificado, lo que llevó al gobierno estadounidense a tomar la drástica medida, a principios de este mes, de prohibir su tecnología en las cadenas de suministro militar.
>> También existe un argumento moral contra las armas autónomas: que la decisión de arrebatar una vida humana no debería subcontratarse a una máquina. Incluso aunque tuviera una autonomía total, sin embargo, siempre habría una persona responsable de activar el arma, lo que podría mantener una línea directa de responsabilidad.
>> También podría plantearse un argumento moral a favor de las armas automatizadas, si se demostrara que reducen los errores humanos que provocan víctimas civiles. El argumento más fuerte para limitar la expansión de la IA en el campo de batalla es que, como otras tecnologías transformadoras, podría cambiar por completo la naturaleza misma de la guerra.
>> Es imposible predecir todas las formas en que esto podría suceder, pero algunas de las posibilidades que se han sugerido son verdaderamente horribles, como el uso de enjambres de drones de bajo costo para rastrear y eliminar a grandes cantidades de oponentes.
>> No estaría mal, para comenzar, que Estados Unidos y China, como superpotencias en IA, acordaran algunos límites prácticos sobre su propio uso de armas autónomas, junto con medidas para evitar la proliferación de esta tecnología. Otro paso sería que el grupo de la ONU que lleva años debatiendo una posible prohibición internacional de las armas autónomas, similar a la prohibición de las armas químicas y biológicas, llegase a una conclusión.
>> Cada vez es más urgente actuar. Con cada nuevo conflicto internacional, la incursión de la IA en la guerra no hará más que acelerarse”.
Refinería de petróleo de Shahran tras el ataque aéreo en Teherán, Irán
Hasta aquí el editorial del mencionado diario. Y ahora mi conclusión: hemos creado algo maravilloso, la IA, pero es tan desalmada e incontrolable como tu último novio, aquel que tanto te puteó.
Ha vuelto, y con ganas de revancha. 200 niñas iraníes no es nada, comparadas con lo que viene. Prepárate, preparémonos todos.