Nenhum comentário

OpenAI interrompe 20 campanhas globais que usam IA para crimes cibernéticos e desinformação

 

Na quarta-feira, a OpenAI anunciou que havia interrompido com sucesso mais de 20 operações maliciosas e redes enganosas em todo o mundo que tentaram usar indevidamente sua plataforma desde o início do ano.

Essas atividades incluíam depuração de malware, conteúdo para sites, geração de biografias para mídias sociais e criação de fotos de perfil geradas por IA para contas falsas em plataformas como X.

“Embora os agentes de ameaças continuem se adaptando e experimentando nossos modelos, não há evidências que indiquem avanços significativos em sua capacidade de criar novos malwares ou ganhar força viral”, afirmou a empresa de IA .

A OpenAI também observou que interrompeu as operações de geração de conteúdo de mídia social vinculado às eleições nos EUA, Ruanda e, em menor grau, na Índia e na União Europeia.

No entanto, nenhuma dessas redes conseguiu atrair engajamento generalizado ou construir um público duradouro. Uma operação em destaque envolveu uma empresa comercial israelense, STOIC (também conhecida como Zero Zeno), que gerou conteúdo de mídia social sobre as eleições indianas. Isso foi relatado anteriormente pela Meta e OpenAI em maio.

Algumas das campanhas cibernéticas detalhadas pela OpenAI incluem:

  • SweetSpecter: Um adversário suspeito baseado na China usando os modelos da OpenAI para técnicas de reconhecimento, pesquisa de vulnerabilidade, script e evasão. O grupo também tentou, sem sucesso, fazer spear-phishing em funcionários da OpenAI com o SugarGh0st RAT.
  • Cyber ​​Av3ngers: Um grupo ligado ao Corpo da Guarda Revolucionária Islâmica Iraniana (IRGC), que usou os modelos da OpenAI para pesquisar controladores lógicos programáveis.
  • Storm-0817: Outro ator iraniano que aproveitou os modelos da OpenAI para depurar malware do Android, raspar perfis do Instagram usando Selenium e traduzir perfis do LinkedIn para o persa.

A OpenAI também tomou medidas contra grupos de contas, incluindo aqueles por trás das campanhas de influência A2Z e Stop News, que publicavam conteúdo em inglês e francês em sites e mídias sociais. Notavelmente, a Stop News frequentemente usava imagens geradas por DALL·E, apresentando imagens vibrantes, semelhantes a desenhos animados, para atrair atenção.

Além disso, redes como Bet Bot e Corrupt Comment foram descobertas usando API da OpenAI para interagir com usuários no X, levando-os a sites de apostas ou gerando comentários para postar na plataforma.

Esta divulgação segue o banimento anterior da OpenAI de contas vinculadas ao Storm-2035, uma operação de influência iraniana usando o ChatGPT para criar conteúdo com foco na próxima eleição presidencial dos EUA.

“Normalmente, os agentes de ameaças utilizavam nossos modelos em fases intermediárias de suas operações — após obter ferramentas básicas como acesso à internet e contas de mídia social, mas antes de lançar seus produtos ‘acabados’, como postagens de mídia social ou malware”, escreveram Nimmo e Flossman.

Apesar da crescente preocupação com o uso indevido de IA generativa para operações de fraude e deepfake, a empresa de segurança cibernética Sophos alertou em um relatório publicado na semana passada que essa tecnologia também poderia ser explorada para espalhar desinformação altamente direcionada por meio de e-mails personalizados.

Isso envolve alavancar modelos de IA para fabricar sites de campanha política, criar personas geradas por IA em várias ideologias políticas e elaborar e-mails que microdirecionam indivíduos com base em mensagens de campanha. Essa automação abre a porta para que a desinformação seja disseminada em uma escala maior.

“Com ajustes mínimos, os usuários poderiam produzir qualquer coisa, desde materiais de campanha legítimos até desinformação deliberada e ameaças prejudiciais”, explicaram os pesquisadores Ben Gelman e Adarsh ​​Kyadige .

Eles também observaram: “É possível vincular qualquer movimento político ou candidato a políticas que eles podem não apoiar. Essa desinformação intencional pode levar as pessoas a se alinharem com candidatos que normalmente não apoiariam ou a se distanciarem daqueles com os quais achavam que concordavam.”


Fonte: TheHackerNews

Você pode gostar também

More Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Preencha esse campo
Preencha esse campo
Digite um endereço de e-mail válido.