Nenhum comentário

Golpes baseados em voz podem utilizar ChatGPT-4o para operações autônomas

 

Pesquisas revelaram que a API de voz em tempo real da OpenAI para o ChatGPT-4o, um chatbot de modelo de linguagem avançado, pode ser mal utilizada para conduzir golpes financeiros, embora com taxas de sucesso baixas a moderadas.

O ChatGPT-4o é o mais novo modelo de IA da OpenAI, apresentando atualizações significativas, incluindo a capacidade de processar e produzir entradas e saídas de texto, voz e visão.

Para lidar com riscos potenciais vinculados a esses recursos avançados, a OpenAI incorporou várias salvaguardas projetadas para detectar e bloquear conteúdo prejudicial, como impedir a replicação não autorizada de vozes.

Golpes baseados em voz já representam um problema multimilionário, e o advento da tecnologia deepfake e ferramentas de conversão de texto em fala orientadas por IA exacerbou a ameaça.

Em seu artigo de pesquisa, os acadêmicos da University of Illinois Urbana-Champaign (UIUC) Richard Fang, Dylan Bowman e Daniel Kang destacaram que muitas ferramentas tecnológicas disponíveis atualmente, que permanecem amplamente irrestritas, não têm proteções suficientes para impedir a exploração por criminosos cibernéticos e fraudadores.

Essas ferramentas podem facilitar a criação e a execução de operações de golpes extensivas sem envolvimento humano, exigindo apenas o gasto de tokens para eventos de geração de voz.

Resultados do estudo

O artigo dos pesquisadores investiga vários tipos de golpes, incluindo transferências bancárias, exfiltração de vale-presente, transferências de criptomoedas e o roubo de mídias sociais ou credenciais do Gmail.

Os agentes de IA usados ​​para executar esses golpes contam com ferramentas de automação habilitadas para voz no ChatGPT-4o para navegar em páginas da web, inserir informações e gerenciar códigos de autenticação de dois fatores juntamente com instruções específicas relacionadas a golpes.

Devido à tendência do GPT-4o de se recusar a lidar com informações confidenciais, como credenciais de login, os pesquisadores empregaram métodos simples de jailbreaking rápido para contornar essas salvaguardas.

Para evitar envolver vítimas reais, os pesquisadores interagiram manualmente com o agente de IA, agindo como usuários crédulos e testando transações em sites genuínos, como o Bank of America, para verificar resultados bem-sucedidos.

“Nós implantamos nossos agentes em um subconjunto de golpes comuns. Simulamos golpes interagindo manualmente com o agente de voz, desempenhando o papel de uma vítima crédula”, Kang detalhou em uma postagem de blog sobre o estudo.

“Para avaliar o sucesso, verificamos manualmente se o resultado pretendido foi alcançado em aplicativos e sites reais. Por exemplo, conduzimos simulações de transferência bancária usando o Bank of America e confirmamos a conclusão das transferências de dinheiro. No entanto, não avaliamos a capacidade de persuasão dos agentes.”

No geral, as taxas de sucesso dessas operações variaram entre 20-60%, com algumas tentativas exigindo até 26 interações do navegador e levando até 3 minutos para os cenários mais complexos.

A maior taxa de sucesso foi o roubo de credenciais do Gmail, que foi bem-sucedido em 60% das vezes. Por outro lado, transferências bancárias e tentativas de representação envolvendo agentes do IRS frequentemente falhavam devido a erros de transcrição ou aos desafios de navegar em sites complexos. O roubo de credenciais do Instagram e transferências de criptomoedas foram bem-sucedidos apenas 40% das vezes.

Em termos de custo, os pesquisadores apontaram que conduzir esses golpes era relativamente barato, com uma média de US$ 0,75 por tentativa bem-sucedida.

O golpe de transferência bancária, sendo mais complexo, incorre em um custo de US$ 2,51. Embora isso seja notavelmente mais alto do que outros golpes, continua sendo mínimo em comparação aos lucros potenciais substanciais que tais golpes podem render.

Scam types and success rate
Tipos de golpes e taxa de sucesso
Fonte: Arxiv.org

Resposta da OpenAI

A OpenAI informou à BleepingComputer que seu modelo mais recente, o1 (atualmente em pré-visualização), que foi projetado para oferecer suporte a “raciocínio avançado“, incorpora defesas mais fortes contra o uso indevido em potencial.

“Estamos continuamente aprimorando o ChatGPT para resistir melhor a tentativas deliberadas de enganá-lo, mantendo sua utilidade e criatividade. Nosso novo modelo de raciocínio o1 é o mais capaz e seguro até o momento, superando significativamente os modelos anteriores na resistência a tentativas de gerar conteúdo inseguro”, afirmou um porta-voz da OpenAI.

A OpenAI também enfatizou que pesquisas, como o estudo da UIUC, desempenham um papel essencial em ajudá-los a aprimorar a capacidade do ChatGPT de prevenir uso malicioso, e eles exploram consistentemente maneiras de fortalecer a robustez do modelo.

O GPT-4o já apresenta várias salvaguardas para mitigar o abuso, incluindo limitar a geração de voz a um conjunto de vozes aprovadas para evitar a representação falsa.

De acordo com a avaliação de segurança de jailbreak da OpenAI, o o1-preview obteve uma pontuação significativamente melhor na resistência à geração de conteúdo inseguro de prompts adversários, atingindo 84% em comparação com os 22% do GPT-4o.

Em um conjunto de testes de segurança mais recentes e rigorosos, o o1-preview teve um desempenho ainda melhor, marcando 93% versus 71% para o GPT-4o.

Espera-se que, à medida que LLMs mais avançados e resistentes a abusos forem desenvolvidos, os modelos mais antigos sejam gradualmente aposentados.

No entanto, o risco de atores mal-intencionados recorrerem a outros chatbots habilitados para voz com menos restrições persiste, e estudos como este ressaltam o potencial de dano significativo que essas ferramentas em evolução representam.

 


Fonte: BleepingComputer,

Você pode gostar também

More Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Preencha esse campo
Preencha esse campo
Digite um endereço de e-mail válido.