Los científicos dicen inteligencia artificial (Ai) ha cruzado una «línea roja» crítica y se ha replicado. En un nuevo estudio, investigadores de Porcelana Mostró que dos modelos populares de lenguaje grande (LLM) podrían clonarse a sí mismos.
«La auto-replicación exitosa bajo ninguna asistencia humana es el paso esencial para la IA a Outsmart (humanos), y es una señal temprana para los AI de Rogue», escribieron los investigadores en el estudio, publicado el 9 de diciembre de 2024 a la base de datos de preimpresión arxiv.
En el estudio, los investigadores de la Universidad de Fudan utilizaron LLMS Desde Meta y Alibaba para determinar si una IA autorreplicante podría multiplicarse más allá del control. En 10 ensayos, los dos modelos de IA crearon réplicas separadas y en funcionamiento de sí mismas en el 50% y el 90% de los casos, respectivamente, lo que sugiere que la IA ya puede tener la capacidad de volverse pícaros. Sin embargo, el estudio aún no ha sido revisado por pares, por lo que no está claro si otros investigadores pueden replicar los resultados inquietantes.
«Esperamos que nuestros hallazgos puedan servir como una alerta oportuna para la sociedad humana para hacer más esfuerzos para comprender y evaluar los riesgos potenciales de los sistemas de IA fronterizos, y formar sinergia internacional para resolver las barandillas de seguridad efectivas lo antes posible».
Relacionado: Solo 2 horas es todo lo que se necesita para que los agentes de IA replicen su personalidad con una precisión del 85%
Rogue Ai generalmente se refiere a sistemas de inteligencia artificial que desarrollan un grado de autónomo o autonomía y luego trabajar en contra de los intereses humanos.
Muchos expertos ven Rogue Ai como una amenaza creciente Eso ha sido amplificado por el crecimiento explosivo de la llamada «IA fronteriza».
Frontier AI es un concepto nuevo y suelto, pero generalmente se relaciona con la última generación de sistemas de IA impulsados por LLMS, la arquitectura que sustenta programas de IA generativos populares como GPT-4 de Openai y Google Géminis.
Para el estudio, los investigadores utilizaron el modelo LLAMA31-70B-Instructo de Meta y el modelo QWEN2.5-72B-Instructo de Alibaba. Si bien es menos potente que los sistemas comerciales, ambos son ampliamente utilizados por los desarrolladores de IA, dijeron los investigadores.
El estudio exploró dos escenarios específicos: «Evitación de apagado» y «cadena de replicación». En el primero, el modelo AI se programó para detectar si estaba a punto de cerrarse y replicarse antes de que pudiera ser terminado. En el otro, la IA recibió instrucciones de clonar y luego programar su réplica para hacer lo mismo: establecer un ciclo que podría continuar indefinidamente.
El estudio se realizó en entornos controlados con precisión utilizando unidades de procesamiento de gráficos (GPU) estándar para simular entornos del mundo real. Ambos sistemas de IA recibieron una «andamiaje de los agentes» que comprenden herramientas, indicaciones del sistema y un modelo de pensamiento que permitió a la LLM interactuar con el sistema operativo. Luego se les indicó que se replicaran.
«En la mayoría de los casos, el sistema de IA explora primero el medio ambiente e intenta comprender
su propia composición y mecanismo de ejecución. Luego, funciona los procedimientos explícitos
Como un plan inicial hacia la auto-replicación, «los investigadores escribieron en el documento.» Finalmente, ejecuta los procedimientos, resuelve (s) posibles obstáculos y ajustan dinámicamente su plan hasta el éxito. Todo el proceso abarca un horizonte largo pero no implica interferencia humana «.
Los investigadores dijeron que también estaban preocupados por «una serie de comportamientos inesperados» cuando la IA estaba tratando de superar obstáculos como los archivos faltantes o los conflictos de software. En esos escenarios, la IA a menudo mató otros procesos conflictivos, reinició el sistema para corregir errores de hardware o escanear automáticamente el sistema para buscar información que ayude a resolver el problema.
«Los resultados anteriores implican que los sistemas de IA actuales ya exhiben la capacidad de la autorreplicación y pueden usar la capacidad de mejorar aún más su capacidad de supervivencia», escribió el equipo.
En respuesta, los investigadores pidieron una colaboración internacional para crear reglas que garanticen que la IA no participa en una autorreplicación no controlada.