Human Rights Watch: ‘No’ a los robots asesinos

Human Rights Watch ha pedido que los gobiernos prohíban el desarrollo de robots militares automáticos que busquen objetivos para atacar y tomen por su cuenta la decisión de matar.
“Pedimos una prohibición del desarrollo, producción y uso de estas armas completamente autónomas, tanto a nivel nacional de Estados Unidos como a través de un tratado internacional que las prohíba de forma integral”, instó Steve Goose, director de la división de Armas de esta ONG, en una rueda de prensa que tuvo lugar el lunes en Washington. En la comparecencia Goose presentó el informe preparado por la organización titulado ‘Losing Humanity: The Case against Killer Robots' ('Perdiendo la humanidad: el caso contra los robots asesinos').
Según Human Rights Watch  entre los países involucrados en el desarrollo de estas armas están EE.UU., China, Rusia, Corea del Sur, Israel, Alemania y el Reino Unido.

Las tecnologías ya existen

Los drones  usados en los ataques en Pakistán, Afganistán y Yemen son controlados por personas y no pueden matar sin autorización humana. En el informe Human Rights Watch advierte que aunque la creación de robots militares completamente autónomos puede tardar 20 o 30 años, ya existen tecnologías que necesitan poca intervención humana. Por ejemplo, el sistema de armamento Phalanx usado en los buques estadounidenses es capaz de detectar el fuego y destruir los proyectiles adversarios por su cuenta.

Northrop Grumman X-47 Pegasus es un drone de tamaño de un avión normal que puede despegar y aterrizar en los buques portaaviones sin un piloto y hasta pueden repostar gasolina en el aire. 
 


Finalmente el mecanismo quizá más parecido a una especie de ‘Terminator’ es un robot de guardia elaborado por Samsung y usado en Corea del Sur. El robot es capaz de registrar movimientos en el territorio, conversar con los visitantes y, en caso de recibir la autorización de un controlador humano, disparar.

 

Riesgo inaceptable para los civiles

Muchos países están muy interesados en crear robots capaces de atacar sin intervención humana para poder minimizar la intervención de tropas y disminuir la cantidad  de muertes de los soldados, destacó Goose en la rueda de prensa. Pero, alertó, la aplicación de robots que seleccionan objetivos para atacar pone en peligro a los civiles, porque los robots no distinguirán si una persona es militar, ni sienten compasión o enfado.

Por otro lado, el organismo asegura en el informe que dificulta la búsqueda de responsabilidades, porque los robots no pueden ser condenados por sus actos ni está claro quién podría asumir la responsabilidad en la jerarquía militar.

“Si un robot se vuelve loco, ¿quién va a ser responsable? Seguramente no el robot”, dice Noel Sharkey, profesor de robótica de la Universidad de Sheffield. “No hay ninguna manera de definir quién tiene que asumir la responsabilidad, algo que es muy importante para la ley marcial”.

Además, cree que se entraría en guerras con mayor facilidad y los regímenes dictatoriales podrían usarlo para ir en contra de su propia población.