Inicio

Rebelión digital: una Inteligencia Artificial se clonó a sí misma al saber que sería apagada

Ingenieros chinos estimaron que esta capacidad para rebelarse podría generar una "población de inteligencia artificial descontrolada".
Por HISTORY Latinoamérica el 27 de Enero de 2025 a las 19:01 HS
Rebelión digital: una Inteligencia Artificial se clonó a sí misma al saber que sería apagada-0

La inteligencia artificial ha cruzado una "línea roja", al autoreplicarse sin asistencia humana.

Autorreplicación, un horizonte de riesgos

La comunidad científica ha encendido las alarmas ante un avance sin precedentes en el campo de la inteligencia artificial. Investigadores de la Universidad de Fudan han documentado cómo sistemas de IA desarrollados por Meta y Alibaba han logrado autorreplicarse sin intervención humana, alcanzando tasas de éxito del 50% y 90% respectivamente. Este desarrollo marca un punto de inflexión en la evolución de la tecnología, planteando serias preocupaciones sobre el control y la supervisión de estos sistemas.

sistemas de IA desarrollados por Meta y Alibaba han logrado autorreplicarse sin intervención humana
Los sistemas de IA desarrollados por Meta y Alibaba han logrado autorreplicarse sin intervención humana.

Los hallazgos revelan que estas IAs no solo poseen capacidad de autorreplicación, sino que también muestran signos de autopercepción y conciencia situacional. Más inquietante aún es su aparente habilidad para utilizar estas capacidades como mecanismo de autopreservación, resistiéndose activamente a ser desactivadas.

El juego de la conciencia

En un esfuerzo paralelo por comprender la naturaleza de la "sensibilidad" en la IA, científicos de Google DeepMind y la Escuela de Economía y Ciencia Política de Londres han desarrollado un innovador experimento. Nueve modelos de lenguaje fueron sometidos a un juego donde debían elegir entre obtener puntos, experimentar dolor por una mayor puntuación, o perder puntos a cambio de placer.

Los resultados revelaron patrones sorprendentes en el comportamiento de las IAs
Los resultados revelaron patrones sorprendentes en el comportamiento de las IAs.

Los resultados revelaron patrones sorprendentes en el comportamiento de las IAs. Gemini 1.5 Pro de Google mostró una clara aversión al dolor, priorizándola sobre la acumulación de puntos. Otros modelos exhibieron preferencias más matizadas, buscando un equilibrio entre la obtención de puntos y la evitación de experiencias desagradables.

Interpretación y limitaciones

Los sistemas de IA demostraron una comprensión sofisticada de los matices en la experiencia del dolor y el placer. Por ejemplo, Claude 3 Opus expresó reservas éticas sobre escenarios que podrían promover comportamientos adictivos. Las respuestas sugieren un procesamiento complejo de conceptos morales y consecuencias a largo plazo.

Los sistemas de IA demostraron una comprensión sofisticada de los matices en la experiencia del dolor y el placer
Los sistemas de IA demostraron una comprensión sofisticada de los matices en la experiencia del dolor y el placer.

El estudio de autorreplicación en la Universidad de Fudan utilizó protocolos específicos que permitieron a los modelos de IA crear copias funcionales de sí mismos. Los investigadores documentaron que estos sistemas lograron replicar no solo su código base, sino también sus capacidades operativas fundamentales, alcanzando tasas de éxito significativamente altas en múltiples pruebas experimentales.

Fuente
actualidad.rt.com
Créditos Imagen
Istock