Un equipo de investigadores de la Universidad de Fudan, en China, ha descubierto que sistemas avanzados de inteligencia artificial (IA) podrían replicarse sin ayuda humana, un hallazgo que podría señalar el comienzo del surgimiento de IA maliciosas.
La investigación, que involucró modelos lingüísticos de Llama (Meta) y Qwen (Alibaba), reveló que más de la mitad de las pruebas realizadas mostraron que la IA fue capaz de producir réplicas funcionales de sí misma.
Este fenómeno, denominado autorreplicación, ha sido identificado como una de las mayores preocupaciones de seguridad en IA. Los científicos advierten que la capacidad de autorreplicación podría permitir que la IA actúe en contra de los intereses humanos, mejorando su propia supervivencia y expansión sin control humano.
¿Qué viene para la inteligencia artificial?
El estudio, titulado Frontier AI systems have surpassed the self-replicating red line, fue publicado en la plataforma arXiv y está pendiente de revisión por pares. Los investigadores instan a la comunidad global a evaluar de manera urgente los riesgos de los sistemas de IA avanzados y a implementar salvaguardas de seguridad.
La preocupación por los peligros de la IA también ha llevado a legisladores de países como el Reino Unido a proponer regulaciones específicas para el desarrollo de estas tecnologías.
Este descubrimiento podría marcar un punto de inflexión en la forma en que la humanidad aborda la investigación y la regulación de la inteligencia artificial.
Seguiremos informando.