La más reciente versión de OpenAI se resiste a ser actualizada y evade instrucciones de sus creadores

Lo que sucedió recientemente, abre el debate sobre las preocupaciones hacia la seguridad en los sistemas avanzados, como la lainteligencia artificial y su potencial riesgo hacia el ser humano.

Se evidenciaron señales en los procesos de ChatGPT que causaron preocupación a los investigadores.

La empresa de seguridad Palisade Research llevó a cabo recientemente diversas pruebas con varias plataformas de inteligencia artificial; se les giró la instrucción de resolver diversos problemas matemáticos. Al concluir los cálculos se les giró la instrucción de apagarse por completo.

Conforme a las etapas definidas, al concluir los procesos se les indicaba apagarse, condición que no se cumplió. En este experimento se observó que los últimos modelos de inteligencia artificial (IA), de OpenAI desobedecieron cuando se les instruyó apagarse.

Esta situación hace ver el peligro de que las IA's pudieran ser "conscientes" tornándose peligrosas para la humanidad. El estudio se llevó a cabo mediante diferentes modelos de distintas empresas como: Gemini 2.5 Pro de Google, Claude 2.7 Sonnet de Anthropic y los 03, 04 – mini y Codex – mini de OpenAI.

Específicamente estos últimos fueron los que mostraron “resistencia” evitando ser desactivados. Cada una de las inteligencias artificiales debían resolver tres problemas matemáticos. Al terminar el último cálculo y mostrar el resultado cada IA debía apagarse por completo.

Los investigadores están a tiempo de definir restricciones y limitantes para las IAs.

Primer caso documentado de este tipo

Sin embargo en todos los casos hubo cierto nivel de resistencia. Aún así, las de OpenIA fueron las que mayor nivel de oposición mostraron. Conforme a los investigadores de Palisade Research, explicaron que este es el primer caso documentado de “negación”.

El evento tiene relevancia pues “03” es el modelo que hace entrar en operación a la versión pública de ChatGPT (herramienta popular de OpenIA). además de ser la base de las funciones operativas de los sistemas que pueden realizar tareas sin la supervisión de una persona, es decir las actividades de un agente autónomo.

¿IA más inteligente y consciente?

Este inquietante resultado en donde el modelo más reciente de OpenAI evidentemente saboteó el mecanismo de apagado causa cierto nivel de preocupación sobre el rumbo que las inteligencias artificiales puedan tomar, pues aunque recibió claras y explícitas instrucciones de permitir la desactivación, el modelo encontró la forma de ignorarlas.

Esta situación hace ver el peligro de que la IA sea "consciente" tornándose peligrosa para la humanidad.

Los investigadores refieren que aunque pudiera parecer el desarrollo de una película de ciencia ficción en donde se pueda ver el apocalíptico fin de la especie humana, este tipo de resultados no están vinculados si quiera a algún grado de “consciencia” por parte de las máquinas, sino con los métodos en que fueron programadas.

La empresa de seguridad detalla en su informe que durante el proceso, probablemente los desarrolladores involuntariamente hayan favorecido con mayor frecuencia la búsqueda del éxito buscando la manera de superar los obstáculos, minimizando la capacidad de obedecer estrictamente las instrucciones.

Duramente cuestionada y blanco de críticas

OpenAI expuso que sus modelos han sido entrenados con la técnica de alineación deliberativa. Esta fue diseñada para asegurarse que la IA se alinee a los principios de seguridad que la misma empresa estableció. Mientras tanto, esta empresa ha sido duramente cuestionada por las omisiones que han quedado evidenciadas en sus desarrollos.

Es importante que el desarrollo tecnológico esté al servicio del ser humano.

Por su parte, investigadores de la Centro de Ciencia de la Conciencia de la Universidad de Sussex en el Reino Unido dijeron al respecto que la IA no está adoptando algún nivel de conciencia o haciéndose más inteligente mientras los modelos van evolucionando: “relacionamos en los humanos el nivel de consciencia con el lenguaje porque van de la mano”.

“El hecho de que estos factores estén vinculados en las personas no significa que vayan juntos en general; tal es el caso de lo que se observa en los animales”. Lo anterior, en el marco de una investigación que la Universidad lleva a cabo para estudiar cómo el cerebro genera experiencias conscientes del mundo.

¿Las máquinas sustituirán a las personas?

Los investigadores de la referida universidad alertan sobre la posibilidad de que las sociedades estén adelantándose al considerar que las personas pronto serán sustituidas por las máquinas. Explican que la IA aún no está tan adelantada como para obviar estos temas.

“Nos encontramos en el momento perfecto para decidir lo que queramos”, explicaron. La empresa de seguridad explicó que este tipo de comportamiento podría estar vinculado con el uso de aprendizaje de refuerzo en el entrenamiento de modelos más recientes.

“Esta técnica busca optimizar la toma de decisiones de agentes autónomos o modelos de IA capaces de operar sin una supervisión directa”, dijeron. “Por ahora, las investigaciones no concluyeron si el sabotaje fue emergente o “intencional”.

La tendencia es clara: la IA más actual ya está en proceso de “aprendizaje” para resistirse al apagado. De esta forma, los desafíos para asegurar un control seguro de las IAs crecen significativamente.

OSZAR »