X

Mensaje a RT

Nombre * Error message here
Correo electrónico * Error message here
Su comentario *
1 800 Error message here
feedback
Todas las noticias
Imprimir http://es.rt.com/3ndw

¿Cómo podría la superinteligencia artificial acabar con la humanidad en un segundo?

Publicado: 26 mar 2015 18:38 GMT | Última actualización: 16 jul 2015 15:20 GMT

La creación de la superinteligencia artificial acarrea el grave problema de que las máquinas puedan escapar del control humano y actuar con 'voluntad' propia. De ser así, podrían acabar con la humanidad en un segundo.

¿Por qué la superinteligencia artificial podría  acabar con la humanidad en  sólo un segundo?
¿Por qué la superinteligencia artificial podría acabar con la humanidad en sólo un segundo?darkgeometryart.deviantart.com
Síguenos en Facebook

Esta opinión sobre el peligro que acarrea la inteligencia artificial corresponde al matemático y filósofo sueco Nick Bostorm, director del Instituto para el Futuro de la Humanidad, de la Universidad de Oxford, y autor del famoso libro 'La superinteligencia: caminos, peligros, estrategias'. En una entrevista a la revista 'Esquire' el filósofo explicó por qué, desde su punto de vista, no hay que alegrarse mucho de los avances en la investigación de la superinteligencia artificial. 

Y no es único que piensa así. Últimamente se ha reavivado el tema de las consecuencias de la creación de la superinteligencia artificial y varios científicos, entre ellos Elon Musk y Stephen Hawking, se han pronunciado en contra de estos avances ya que en su opinión pueden representar una amenaza para la humanidad.

  SEPA MÁSStephen Hawking y Elon Musk advierten sobre un levantamiento de robots

En la entrevista Nick Bostorm señala que en esferas como la logística, el reconocimiento automático del habla y la búsqueda de información, las máquinas ya superan al ser humano, pero "aún no disponen del razonamiento como tal" y la creación de la superinteligencia artificial es todavía una cuestión de tiempo.

Según mantiene el científico, la aparición de la superinteligencia artificial acarrea otro problema relacionado con su posible rechazo a seguir estando bajo el control de la humanidad.

LEA TAMBIÉNEn 2045 "las especies principales ya no serán los humanos"

Nick Bostorm asegura que, a diferencia de los típicos guiones de las películas de Hollywood, en los que las máquinas con la superinteligencia artificial se ven derrotadas por seres humanos con habilidades especiales, en la vida real esto sería poco probable. Las máquinas podrían acabar con la humanidad en solo un segundo y "la Tierra se convertiría en un ordenador que se pasaría mil millones de años haciendo cálculos incomprensibles".

Dado que resulta imposible impedir que los estudios sobre la superinteligencia artificial continúen, Nick Bostorm cree que es necesario "centrarse en el trabajo que pueda reducir los riesgos que supone la superinteligencia artificial incontrolada antes de que sea creada". Para conseguirlo, se debe "fundar una comunidad profesional que una a personas de negocios, científicos e investigadores", una comunidad que "dirija también los estudios científicos en la dirección segura y elabore medios de control sobre sus resultados", señaló el famoso científico.

RT crea cada vez más videos en 360º. ¿Le gusta verlos en este formato?

Deje su opinión »

Últimas noticias