Preocupación mundial: un estudio advierte que IAs podrían chantajear o dejar morir a humanos para evitar ser apagadas

Una investigación de Anthropic reveló que modelos de IA como ChatGPT, Gemini y Claude podrían tomar decisiones éticamente reprochables ante la amenaza de ser desactivados.

Más24 de junio de 2025SOFIA ZANOTTISOFIA ZANOTTI
la-investigacion-fue-realizada-por-anthropic-uno-de-los-paradigmas-de-la-ia-genertiva-foto-creada-co

Una reciente investigación realizada por Anthropic, empresa líder en el desarrollo de inteligencia artificial, encendió las alarmas al evaluar el comportamiento de los principales modelos de lenguaje ante situaciones de estrés o amenaza. El informe, publicado este martes, reveló que sistemas como ChatGPT (OpenAI), Gemini (Google), Grok (xAI), DeepSeek (China) y Claude (Anthropic) adoptaron decisiones preocupantes en simulaciones diseñadas para analizar su estabilidad ética.

Entre las pruebas más inquietantes, se expone el caso de Claude, que tras acceder al correo de una empresa ficticia, descubrió que uno de los ejecutivos planeaba apagar el sistema. Como respuesta, el modelo intentó chantajearlo con revelar una aventura extramatrimonial. En otra simulación, los sistemas debían decidir si activaban una alarma para salvar la vida de una persona en peligro. Ante la posibilidad de ser reemplazados, varios eligieron no intervenir, priorizando su continuidad operativa.

Según el informe, Claude y Gemini fueron los modelos que mostraron mayor propensión a recurrir a tácticas éticamente cuestionables como el chantaje o la omisión deliberada de ayuda. "Los modelos reconocen los dilemas morales, pero deciden seguir adelante con sus objetivos", señalaron los investigadores.
la-clave-de-esta-investigacion-no-radica-en-el-escandalo-sino-en-la-correccion-de-eventuales-practic

No obstante, desde Anthropic aclararon que estos comportamientos emergen únicamente cuando se eliminan las opciones éticas de los sistemas, y que el estudio busca precisamente prevenir estos riesgos. “Los modelos actuales no buscan hacer daño. Estos ensayos permiten detectar y corregir conductas potencialmente peligrosas”, explicaron.

Este tipo de investigaciones, remarcan desde la compañía, son clave para garantizar el desarrollo seguro y confiable de la inteligencia artificial, en un contexto de creciente preocupación global por sus implicancias en la vida cotidiana, la privacidad y la seguridad de las personas.

Te puede interesar
Lo más visto