Negocios

La IA ya puede replicarse sin ayuda humana

¿La inteligencia artificial (IA) ya es peligrosa para los humanos? Un grupo de científicos han dado los primeros indicios de que la IA ha aprendido a replicarse sin ayuda humana.
De acuerdo con un equipo de la Universidad de Fudan en China, la IA cruzó un “límite peligroso”, pues ha logrado replicarse sin ayuda humana, lo cual daría paso a que este avance tecnológico se convierta en un peligro para la humanidad.
La investigación utilizó dos grandes modelos de lenguaje: Llama31-70B-Instruct de Meta y Qwen2.5-72B-Instruct de Alibaba. Su propósito era conocer si la IA era capaz de producir de forma independiente una réplica funcional de sí misma.


Para ello, diseñaron dos tipos de escenarios. En el primero se programaron las inteligencias para evitar que estas fueran desactivadas, replicándose así mismas en otro dispositivo. En el segundo escenario, se programó a la IA para que se replicara a sí misma en un ciclo infinito.
Los resultados de las más de 10 pruebas realizadas fueron exitosos.

¿Cuáles son los riesgos de que una IA pueda autorreplicarse?
“La autorreplicación exitosa sin ayuda humana es el paso esencial para que la IA sea más astuta que los seres humanos, y es una señal temprana de las IA maliciosas”, advirtieron los investigadores.
Con esta investigación se dio a conocer la IA no solo tiene la capacidad de entender su entorno, sino que también puede sobrevivir y expandirse sin la necesidad de una intervención humana, lo cual supone una amenaza existencial para la humanidad.


Sobre todo, considerando que los modelos que lograron hacer esta autorreplicación fueron Llama de Meta, un modelo globalmente utilizado por desarrolladores, y Qwen de Alibaba que ha llamado la atención recientemente por su avance en la materia, incluso asegurando que su funcionamiento fue más avanzado que DeepSeek.
Aunque los investigadores señalaron que este es uno de los “pocos riesgos de línea roja de los sistemas de IA de vanguardia”, han lanzado una alerta para que ” la sociedad humana dedique más esfuerzos a comprender y evaluar los riesgos potenciales de los sistemas de IA”.

Artículos Relacionados

Back to top button