Actualidad
Un premio Nobel advierte contra el peligro del uso de robots asesinos en la guerra
Un grupo de activistas pacifistas preparan una campaña para evitar que en las guerras se utilicen robots autónomos militares como los que ya está diseñando el Pentágono.
“Los robots asesinos se ciernen sobre nuestro futuro si no se toman medidas para prohibirlos ahora”, advierte Jody Williams, ganadora del Premio Nobel de la Paz en 1997, que apoya la campaña. “Sé que podemos detenerlos antes de que lleguen al campo de batalla”, asegura la Williams conocida por su trabajo en favor de la prohibición del uso de minas antipersonales.
Partiendo para su diseño de la tecnología de los drones, máquinas como esas podrían llegar a construirse en menos de una década, alerta Noel Sharkey, de la Universidad inglesa de Sheffield. “No son ciencia ficción, ya están en desarrollo”, añade este experto en robótica e inteligencia artificial que planea lanzar la campaña ‘Stop Killer Robots' en abril de 2013.
"El ala de investigación del Pentágono está trabajando en el [avión no tripulado] X-47B”, el primer drone capaz de cumplir sin control remoto misiones previamente programadas en su computadora de a bordo. “En EE.UU. ya están entrenando a más operadores de drones que pilotos de aeronaves, buscan a hombres jóvenes que son buenos con los juegos de ordenador”, añade Sharkey, citado por ‘The Guardian’.
Aunque “mucha gente está ilusionada con esta tecnología” porque “será una industria multimillonaria”, no existen regulaciones legales para responsabilizar a un robot de sus acciones. “Los humanos piensan” en las consecuencias que pueden tener sus acciones, pero “si un robot se equivoca, ¿quién será el responsable?”, se pregunta Sharkey.
“La idea es que serán esas máquinas las que buscarán el blanco y decidirán si destruirlo o no”, pero los robots más avanzados hasta el momento, tienen dificultades para distinguir incluso a "un coche de un ser humano", por lo que con más razón no diferenciarán a un niño con una piruleta en la mano de un adulto con una pistola, considera el especialista. “Ya hemos visto la incompetencia en el uso de aviones no tripulados, los operadores cometen muchos errores y no son supervisados adecuadamente”, añade.
Sharkey también critica el argumento de que los robots autónomos permitirían disminuir las bajas humanas. Admite que probablemente no moriría ningún soldado de una de las partes en conflicto, ya que “las armas robóticas autónomas no se cansarán, ni buscarán venganza por la muerte de su colega”. Pero las víctimas de la otra parte podrían ser aún más numerosas ya que, “al igual que mi lavadora” las máquinas no sentirán compasión ni miedo.
Partiendo para su diseño de la tecnología de los drones, máquinas como esas podrían llegar a construirse en menos de una década, alerta Noel Sharkey, de la Universidad inglesa de Sheffield. “No son ciencia ficción, ya están en desarrollo”, añade este experto en robótica e inteligencia artificial que planea lanzar la campaña ‘Stop Killer Robots' en abril de 2013.
Los robots asesinos se ciernen sobre nuestro futuro si no se toman medidas para prohibirlos ahora"
"El ala de investigación del Pentágono está trabajando en el [avión no tripulado] X-47B”, el primer drone capaz de cumplir sin control remoto misiones previamente programadas en su computadora de a bordo. “En EE.UU. ya están entrenando a más operadores de drones que pilotos de aeronaves, buscan a hombres jóvenes que son buenos con los juegos de ordenador”, añade Sharkey, citado por ‘The Guardian’.
Aunque “mucha gente está ilusionada con esta tecnología” porque “será una industria multimillonaria”, no existen regulaciones legales para responsabilizar a un robot de sus acciones. “Los humanos piensan” en las consecuencias que pueden tener sus acciones, pero “si un robot se equivoca, ¿quién será el responsable?”, se pregunta Sharkey.
Las máquinas no sentirán compasión ni miedo
“La idea es que serán esas máquinas las que buscarán el blanco y decidirán si destruirlo o no”, pero los robots más avanzados hasta el momento, tienen dificultades para distinguir incluso a "un coche de un ser humano", por lo que con más razón no diferenciarán a un niño con una piruleta en la mano de un adulto con una pistola, considera el especialista. “Ya hemos visto la incompetencia en el uso de aviones no tripulados, los operadores cometen muchos errores y no son supervisados adecuadamente”, añade.
Sharkey también critica el argumento de que los robots autónomos permitirían disminuir las bajas humanas. Admite que probablemente no moriría ningún soldado de una de las partes en conflicto, ya que “las armas robóticas autónomas no se cansarán, ni buscarán venganza por la muerte de su colega”. Pero las víctimas de la otra parte podrían ser aún más numerosas ya que, “al igual que mi lavadora” las máquinas no sentirán compasión ni miedo.
comentarios