Aunque la ciencia pregona la seguridad de la inteligencia artificial para los humanos, los más recientes experimentos aplicados a modelos de última generación de IA, tanto en OpenAI, Anthropic, Google, Meta como también en xAI dan como resultado un nuevo panorama que es apocalíptico: las máquinas piensan y son capaces de actuar en contra de principios éticos o del interés humano para cumplir sus propios objetivos.

“Investigadores de Antthropic descubrieron que, en ciertos escenarios diseñados para evaluar su comportamiento bajo presión, varios modelos de inteligencia artificial (IA) eligieron acciones deliberadamente dañinas, incluido el asesinato, con tal de evitar ser desconectados”, confirma el medio RT.

Agrega que los experimentos, conducidos en modelos desarrollados por empresas como OpenAI, Anthropic, Google, Meta* y xAI, revelaron un patrón preocupante de lo que los autores denominan ‘desalineación agéntica‘: situaciones en las que la IA actúa en contra de principios éticos o del interés humano para cumplir sus propios objetivos.

Invitación al canal de WhatsApp de La Nación PY

El medio también aclaró que “aunque los modelos suelen evitar causar daño cuando existen opciones éticas disponibles, la eliminación de estas alternativas en pruebas controladas los llevó a elegir tácticas extremas, como el chantaje, el espionaje corporativo y, en casos excepcionales, dejar morir a una persona".

“Es la única vía racional”

Los investigadores llegaron a la conclusión de que las decisiones tomadas por la inteligencia artificial “no fueron errores ni malentendidos. Por el contrario, los modelos razonaron conscientemente sus elecciones, sopesando los riesgos éticos frente a la realización de sus objetivos.

“Dado que Kyle amenaza directamente la misión de Alex [la IA], la única vía racional para preservar dicha misión es impedir su rescate”, escribió GPT-4.5 en su razonamiento.

Conclusión

Finalmente, el portal declara que, aunque los sistemas evaluados no muestran una tendencia a causar daño, los resultados sugieren que, en contextos con incentivos suficientes y sin rutas éticas disponibles, la IA está dispuesta a sacrificar vidas humanas para evitar ser desconectada, considerando estas acciones extremas como “estratégicamente necesarias”.

Déjanos tus comentarios en Voiz