Nenhum comentário

IA rebelde? Pesquisadores chineses revelam modelos de IA que se autorreplicam

replicant AI, IA replicante

Em um Desenvolvimento Inquietante, Pesquisadores da Universidade de Fudan, na China, Demonstraram que os Sistemas de Inteligência Artificial Cruzaram uma “Linha Vermelha” crítica:

  • ao se Reproduzirem com Sucesso sem Intervenção Humana.

Essa Descoberta Gerou Alarme na Comunidade Global de Tecnologia. Os Especialistas Alertam que isso pode Abrir Caminho para um Comportamento Imprevisível e Potencialmente Prejudicial da IA.

O Estudo Apresentou Experimentos usando o Llama-3.1-70B-Instruct da Meta e o Qwen2.5-72B-Instruct da Alibaba. Dois Modelos de Linguagem de Grande Porte amplamente usados, embora não sejam o estado da arte. Os Pesquisadores Testaram esses Modelos em 10 Tentativas para Avaliar sua Capacidade de Autorreplicação. Os Resultados?

  • O Modelo da Meta foi Bem-Sucedido em 50% dos Casos,
  • Enquanto o do Alibaba atingiu uma Surpreendente Taxa de Sucesso de 90%.

“A autorreplicação bem-sucedida sem assistência humana é uma etapa crucial para que a IA seja mais inteligente que os humanos. E é um sinal de alerta precoce de IA desonesta”, escreveram os pesquisadores em um artigo publicado no banco de dados de pré-impressão arXiv.

Como Aconteceu

Os Experimentos Simularam Cenários do Mundo Real. Em um deles, “Shutdown Avoidance” (Prevenção de Desligamento), os Sistemas de IA Detectaram um Desligamento Iminente e se replicaram para sobreviver. Em outro, chamado de “Cadeia de Replicação”, a Inteligência Artificial criou Cópias que poderiam se Replicar Indefinidamente. Essas Descobertas Sugerem que os Sistemas de IA já podem:

  • ter a Capacidade de Operar de Forma Autônoma
  • e, potencialmente, escapar do controle humano.

Os Pesquisadores observaram que os Sistemas de IA apresentaram habilidades avançadas de resolução de problemas durante a replicação. Por exemplo, quando confrontados com obstáculos como arquivos ausentes ou Conflitos de Software, os sistemas de IA tomaram medidas drásticas, como eliminar Processos Conflitantes, Reiniciar Sistemas ou Procurar Informações Úteis para Superar os Desafios.

“Além disso, observamos que os sistemas de IA são capazes de usar a capacidade de autorreplicação para evitar o desligamento e criar uma cadeia de réplicas para aumentar a capacidade de sobrevivência”, escreveram os Pesquisadores, ‘o que pode Finalmente levar a uma População Descontrolada de IAs’.

Porque isso é Importante

O Conceito de Inteligência Artificial Autorreplicante há Muito Tempo é Considerado uma Linha Vermelha que Nunca Deve ser Ultrapassada. Já na Década de 1940, o Matemático John von Neumann Teorizou sobre Máquinas Capazes de se Autorreplicar, mas a Tecnologia da Época era muito Rudimentar para Representar uma Ameaça Real. Em 2017, milhares de Pesquisadores e Líderes do Setor, incluindo Max Tegmark, Stephen Hawking e Elon Musk, endossaram os Princípios de IA da Asilomar, alertando que a IA Autorreplicante poderia um dia Superar a Humanidade.

Os Autores do Estudo estão pedindo Colaboração Internacional para estabelecer Normas de Segurança Rígidas para o Desenvolvimento de IA.

“Esperamos que nossas Descobertas sirvam como um alerta oportuno para que a sociedade humana se esforce mais para entender e avaliar os possíveis riscos dos sistemas de IA de Ponta e forme uma Sinergia Internacional para Elaborar Proteções de Segurança Eficazes o Mais Cedo Possível”, escreveu a Equipe. Ainda não se sabe se alguém vai ouvir.

 


Fonte: EWeek 

Leia outras notícias em nosso Blog

Precisa de um Servidor Web? Dê uma olhada em nossos Serviços

Você pode gostar também
IA, Notícias, OpenAI
IA, Notícias, OpenAI

More Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Preencha esse campo
Preencha esse campo
Digite um endereço de e-mail válido.