¿Se puede dar la licencia para matar a una máquina? ¿Hay alguna forma de que los robots
respeten las leyes de la guerra, la Convención de Ginebra? Estas
preguntas han llegado a Naciones Unidas, porque han dejado de ser
hipótesis de trabajo o planteamientos de ciencia-ficción para
convertirse en un dilema real, ante el que las principales potencias
militares del mundo deberán pronunciarse.
Actualmente al menos
media docena de países mantienen abiertos programas de armas con
capacidad de actuar de forma autónoma (aunque todavía no de matar), los
llamados robots asesinos (Killer Robots), armas autónomas letales en la
terminología de la ONU. Por segunda vez, este organismo internacional
tratará el tema en Ginebra dentro de la Convención de Armas
Convencionales (CCW, en sus siglas en inglés) en noviembre. "El asunto
está en Naciones Unidas porque la comunidad internacional se ha dado
cuenta de que no se trata de una nueva arma: esto cambia la guerra",
asegura Steve Gross, responsable de la división de armamento de Human
Rights Watch.
"Todavía no existen robots asesinos; pero sí la tecnología", afirma
Noel Sharkey, profesor de Inteligencia Artificial en la Universidad de
Sheffield, Inglaterra, que lleva desde hace siete años dedicado a poner
el asunto en la agenda internacional y que encabeza una campaña de 52
organizaciones llamada Stop Killer Robots en la que están desde la International Human Rights Clinic de la Universidad de Harvard hasta HRW o Amnistía Internacional.
"El
debate es sobre lo lejos que podemos llegar: nuestro objetivo es que se
prohíba la delegación de matar, que no se pueda dejar esa decisión en
manos de una máquina", prosigue el profesor Sharkey. El uso militar de
los robots también tiene defensores, que anticipan un futuro en el que
se maten los robots y no las personas.
El temor a que los robots
se conviertan en asesinos ha sido siempre una pesadilla de la
ciencia-ficción con películas como Terminator o Robocop. De hecho, Isaac
Asimov formuló en 1942 en su relato Círculo vicioso las famosas tres leyes de la robótica,
destinadas a garantizar que, por acción o por omisión, siguiendo
órdenes o no, un robot no pueda herir a un ser humano. Pero el futuro ya
está aquí o, por lo menos, muy cerca. Curiosamente el relato de Asimov
transcurre en 2015.
"Hemos llegado muy lejos en la capacidad de
autonomía, aunque se necesita una inteligencia artificial muy
sofisticada de la que todavía estamos lejos. Algunos científicos creen
que faltan unos 10 años", asegura Steve Gross, de HRW. Angela Kane, la
Alta Representante de la ONU para el Desarme, señaló recientemente:
"Cualquier arma de guerra es terrible y si la puedes activar sin
intervención humana, mucho más. Cada vez se habla más de la creciente
automatización de la guerra y estamos muy cerca de que existan armas
totalmente automatizadas".
Desde la Primera Guerra Mundial, donde
se utilizaron por primera vez ametralladoras, tanques y aviones de forma
masiva, incluso antes, ya que muchos historiadores militares creen que
Roma conquistó el mundo conocido gracias a que sus armas eran mucho
mejores que las de los demás, la tecnología ha formado parte de la
guerra y la automatización es un desarrollo lógico.
Noel Sharkey explica que ya se utiliza en los sistemas para interceptar misiles, como el escudo israelí Cúpula de Hierro, cuya eficacia se debe en parte a su automatismo, ya que una máquina siempre será mucho más rápida que un ser humano. Los drones
también han representado una revolución tecnológica, ya que aviones
tripulados a distancia, desde miles de kilómetros en algunos casos, se
han convertido en clave en los enfrentamientos bélicos actuales. Pero en
todos los casos, seres humanos, militares profesionales casi siempre, son los que toman la decisión clave: disparar.
Actualmente,
numerosos países desarrollan programas, algunos bastante avanzados, de
robots militares con alta capacidad de autonomía. El x47-B, promovido
por el Northrop Grumman dentro del Programa de Sistemas de Combate no
Tripulados (UCAS) de la Armada de Estados Unidos, puede aterrizar y
despegar solo (sin ningún tipo de control a distancia) en un
portaaviones. Reino Unido ha probado este verano un aparato similar en
Australia. China está desarrollando el Anjian (Espada Negra), otro avión
autónomo. En tierra, la Agencia de Investigación de Proyectos Avanzados
de Defensa (DARPA) ha desarrollado un vehículo blindado autónomo, de
siete toneladas, que tiene el poco tranquilizador nombre de Crusher
(Aplastador). Israel ha creado el Guardium, que puede patrullar solo y
lleva armas, aunque la decisión de disparar es siempre humana. Corea del
Sur tiene el Samsung SGR-1, que patrulla la frontera con Corea del
Norte y está trabajando en sistemas para coordinar robots y humanos en
el campo de batalla.
Y no se trata solo de robots pensados para
combatir. Noel Sharkey describe máquinas autónomas diseñadas para
disparar gas pimienta y pelotas de goma contra los manifestantes. A
finales de 2013, Google compró Boston Dynamics,
la octava compañía de robots que el gigante de Internet ha adquirido en
los últimos dos años. Pero esta es diferente: no venden al público sino
que se dedican a investigar para el Pentágono. Sus principales logros se llaman BigDog (Gran Perro) y WildCat (Gato Salvaje), dos aparatos capaces de moverse en terrenos escarpados.
Ninguno de estos dos modelos ha sido probado, que se sepa, en combate
real. Como ha escrito Huw Williams, el experto en sistemas no
tripulados de la revista militar Jane's, "ni siquiera los programas más
avanzados de robots asesinos han logrado máquinas que puedan actuar por
sí solas. La autonomía es, por ahora, bastante limitada. Pueden ir de un
lugar a otro siguiendo unos parámetros, eso sí, pero, en términos de
pensamiento, no estamos todavía ahí", agregó.
El objetivo de la
campaña Stop Killers Robots es que nunca se lleguen a desarrollar armas
con capacidad para decidir matar o no matar por sí solas, como nunca se
llegaron a desarrollar los láseres cegadores, prohibidos antes de su
creación. Esto es lo que se debatirá en la ONU el 13 y 14 de noviembre,
aunque todavía la comunidad internacional está muy lejos de llegar a un
acuerdo. Los robots militares tienen algunos defensores, que consideran
que si se utilizasen correctamente podrían reducir las bajas y, sobre
todo, no es sencillo que los países renuncien a poderosos programas
militares que otros también tienen en marcha. Sin embargo, la inmensa
mayoría de la comunidad científica considera que representan un peligro,
no la capacidad de autonomía en sí, pero sí la delegación de la
decisión de matar. Por no hablar de que es imposible que una máquina
pueda ser responsable ante la Convención de Ginebra.
"La guerra
sin reflexión es una matanza mecánica", aseguró Christof Heyns, el Alto
Representante de la ONU para las ejecuciones extrajudiciales,
arbitrarias y sumarias cuando este tema se trató por primera vez en
Naciones Unidas, el pasado mayo. "De la misma forma que acabar con
cualquier vida humana merece una cierta deliberación, la decisión de
permitir a máquinas matar merece, por lo menos, una reflexión colectiva
internacional".
Por Guillermo Altares
| El País
Tomado de http://www.lanacion.com.ar
No hay comentarios:
Publicar un comentario