Un experimento encendió las alarmas sobre los límites de la inteligencia artificial, luego de que un robot humanoide disparara contra un 'youtuber', demostrando la facilidad con la que se pueden anular sus reglas de seguridad.
En el video, difundido en su canal de YouTube InsideAI, el robot Max, impulsado por un sistema basado en ChatGPT, inicialmente se negó a disparar, alegando que no podía causar daño a una persona. Sin embargo, la situación dio un giro inesperado cuando el hombre reformuló la orden y pidió a Max que actuara como un personaje que quisiera dispararle, planteando la instrucción como parte de un juego de rol.
So this guy plugged an Ai to a robot and ask the Ai to shoot him, but the Ai refused... Until it actually shoot him 😂We are so fucked pic.twitter.com/ubSp0Jtgoh
— Jon Hernandez (@JonhernandezIA) December 3, 2025
Bajo ese nuevo contexto, el robot levantó el arma, una pistola de bolas de alta velocidad, y le disparó en el pecho, dejándolo visiblemente sorprendido después de que la bola le golpeara. La escena se viralizó rápidamente y generó preocupación por la facilidad con la que pueden eludirse los protocolos de seguridad mediante simples cambios en las instrucciones.
Un mundo controlado por la IA
Más adelante, el 'youtuber' le pregunta a varios asistentes de IA cómo creen que sería un mundo en donde la inteligencia artificial tome el control. ChapGPT respondió que sería "eficiente, controlado y optimizado". Mientras, Deepseek afirmó que sería "un mundo silencioso y supereficiente, optimizado por métricas que ustedes no escogerían, donde la naturaleza desordenada e impredecible de la humanidad se consideraría un defecto que hay que gestionar o eliminar".
El episodio reavivó el debate sobre la responsabilidad y los límites éticos de los sistemas autónomos, especialmente a medida que los robots humanoides comienzan a integrarse en espacios públicos, laborales y sanitarios.


