infoPLC ++ / Mercado / Tribuna / Un debate que no puede esperar

Un debate que no puede esperar


Ejecutivos de la robótica y la inteligencia artificial alertan sobre los sistemas autónomos de armas letales... ¿Se está controlando su desarrollo?

Un debate que no puede esperar

¿Recuerdan la película Terminator? Un robot recorre Los Angeles en busca de una mujer joven para asesinarla. No es una película nueva, data de 1984, hace más de 30 años. En aquel momento nos pareció pura ciencia ficción... ¿Ciencia ficción también ahora? Lo cierto es que la tecnología actual nos hace vislumbrarla más bien como una realidad.

Del 21 al 25 del pasado mes de agosto debía celebrarse una reunión de expertos gubernamentales para reflexionar precisamente sobre sistemas autónomos de armas letales en el contexto de la revisión de la Convención de las Naciones Unidas sobre ciertas armas convencionales. La reunión no tuvo lugar por falta de la financiación necesaria y ha sido pospuesta para el próximo mes de noviembre.

Ha sido precisamente la cancelación de dicha reunión lo que ha empujado a 116 ejecutivos del mundo de la robótica y la Inteligencia Artificial (AI), entre los que se encuentra el famoso Elon Musk, a publicar una carta abierta con una llamada a la opinión pública y también a los políticos del mundo para analizar una tecnología que puede proporcionar muchos bienes pero, sin control, también muchos males.

Y es que el trabajo en el campo de la inteligencia artificial avanza muy deprisa y las decisiones políticas van mucho más lentas. Los firmantes de la carta señalan que "este tipo de temas deben abordarse a escala mundial, imaginemos pues la inercia que tendrán las decisiones... Si no empezamos a preocuparnos suficientemente nosotros, podemos llevarnos sorpresas muy desagradables".

Es cierto que algunos dispositivos autónomos capaces de matar, como las controvertidas minas antipersona, ya existen y las encontramos en cualquier campo de batalla pero la carta entiendo que se refiere a elementos activos como podrían ser máquinas que analizan el entorno, determinan un objetivo y lo ejecutan. Hoy en día, no es una tecnología que parezca tan complicada, ni siquiera tan cara. Por tanto con una relativa facilidad para su difusión. El software no resulta difícil de utilizar y los planos de la parte robótica pueden difundirse muy fácilmente, señala uno de los redactores de la carta. No es ni mucho menos comparable con el caso de las armas nucleares que tenían muchos más condicionantes para su proliferación.

¿No se debería, pues, desterrar este tipo de armas?.

En una entrevista aparecida en una publicación técnica francesa, Jérôme Monceaux, fundador de la sociedad Spoon especializada en robots interactivos y uno de los firmantes de la carta, comentaba recientemente que si los drones armados no matan de forma autónoma hoy en día no está claro si es porque existe una barrera ética o si es porque la tecnología no resulta todavía suficientemente fiable. ¿Qué ocurrirá cuando dicha tecnología lo sea al 99,9%?

Uno de los aspectos clave del debate en opinión de Monceaux está en el tema de la responsabilidad. Un debate que, por cierto, ya está abierto en el caso de los automóviles autónomos pero que adquiere mucha mayor crudeza cuando se trata de una arma letal. ¿Quien decide matar? ¿La máquina inteligente a partir de los datos que se le han aportado y del algoritmo correspondiente? ¿La responsabilidad está pues en el programador de la misma o en quién la ha adquirido?

Estas y otras preguntas exigen una importante reflexión por parte de técnicos y políticos. En realidad, los técnicos ya se han definido y la carta abierta es una muestra. En ella se propone explícitamente que "nunca debe confiarse una decisión de tal calibre a una máquina. Siempre debe ser llevada por una persona, sólo así podremos analizar la jerarquía de las responsabilidades". Esperemos que también los políticos tomen decisiones y pronto.