Em um Desenvolvimento Inquietante, Pesquisadores da Universidade de Fudan, na China, Demonstraram que os Sistemas de Inteligência Artificial Cruzaram uma “Linha Vermelha” crítica:
- ao se Reproduzirem com Sucesso sem Intervenção Humana.
Essa Descoberta Gerou Alarme na Comunidade Global de Tecnologia. Os Especialistas Alertam que isso pode Abrir Caminho para um Comportamento Imprevisível e Potencialmente Prejudicial da IA.
O Estudo Apresentou Experimentos usando o Llama-3.1-70B-Instruct da Meta e o Qwen2.5-72B-Instruct da Alibaba. Dois Modelos de Linguagem de Grande Porte amplamente usados, embora não sejam o estado da arte. Os Pesquisadores Testaram esses Modelos em 10 Tentativas para Avaliar sua Capacidade de Autorreplicação. Os Resultados?
- O Modelo da Meta foi Bem-Sucedido em 50% dos Casos,
- Enquanto o do Alibaba atingiu uma Surpreendente Taxa de Sucesso de 90%.
“A autorreplicação bem-sucedida sem assistência humana é uma etapa crucial para que a IA seja mais inteligente que os humanos. E é um sinal de alerta precoce de IA desonesta”, escreveram os pesquisadores em um artigo publicado no banco de dados de pré-impressão arXiv.
Como Aconteceu
Os Experimentos Simularam Cenários do Mundo Real. Em um deles, “Shutdown Avoidance” (Prevenção de Desligamento), os Sistemas de IA Detectaram um Desligamento Iminente e se replicaram para sobreviver. Em outro, chamado de “Cadeia de Replicação”, a Inteligência Artificial criou Cópias que poderiam se Replicar Indefinidamente. Essas Descobertas Sugerem que os Sistemas de IA já podem:
- ter a Capacidade de Operar de Forma Autônoma
- e, potencialmente, escapar do controle humano.
Os Pesquisadores observaram que os Sistemas de IA apresentaram habilidades avançadas de resolução de problemas durante a replicação. Por exemplo, quando confrontados com obstáculos como arquivos ausentes ou Conflitos de Software, os sistemas de IA tomaram medidas drásticas, como eliminar Processos Conflitantes, Reiniciar Sistemas ou Procurar Informações Úteis para Superar os Desafios.
“Além disso, observamos que os sistemas de IA são capazes de usar a capacidade de autorreplicação para evitar o desligamento e criar uma cadeia de réplicas para aumentar a capacidade de sobrevivência”, escreveram os Pesquisadores, ‘o que pode Finalmente levar a uma População Descontrolada de IAs’.
Porque isso é Importante
O Conceito de Inteligência Artificial Autorreplicante há Muito Tempo é Considerado uma Linha Vermelha que Nunca Deve ser Ultrapassada. Já na Década de 1940, o Matemático John von Neumann Teorizou sobre Máquinas Capazes de se Autorreplicar, mas a Tecnologia da Época era muito Rudimentar para Representar uma Ameaça Real. Em 2017, milhares de Pesquisadores e Líderes do Setor, incluindo Max Tegmark, Stephen Hawking e Elon Musk, endossaram os Princípios de IA da Asilomar, alertando que a IA Autorreplicante poderia um dia Superar a Humanidade.
Os Autores do Estudo estão pedindo Colaboração Internacional para estabelecer Normas de Segurança Rígidas para o Desenvolvimento de IA.
“Esperamos que nossas Descobertas sirvam como um alerta oportuno para que a sociedade humana se esforce mais para entender e avaliar os possíveis riscos dos sistemas de IA de Ponta e forme uma Sinergia Internacional para Elaborar Proteções de Segurança Eficazes o Mais Cedo Possível”, escreveu a Equipe. Ainda não se sabe se alguém vai ouvir.
Fonte: EWeek
Leia outras notícias em nosso Blog
Precisa de um Servidor Web? Dê uma olhada em nossos Serviços