Um estudo recente da Universidade de Illinois Urbana-Champaign (UIUC) mostrou que agentes de IA com capacidade de voz podem realizar golpes telefônicos de forma autônoma e por menos de um dólar. Usando a nova API de voz em tempo real da OpenAI, os pesquisadores demonstraram que esses agentes são capazes de conduzir golpes telefônicos complexos, como fraudes bancárias e roubo de credenciais, com eficácia e a um custo mínimo. O sistema de IA pode, por exemplo, fazer ligações e imitar a voz de um atendente de banco ou uma autoridade, convencendo as vítimas a revelar dados sensíveis.
A OpenAI introduziu sua API de voz em tempo real para interações mais dinâmicas com seu modelo GPT-4, permitindo que desenvolvedores recebam e enviem tanto texto quanto áudio. Mas, mesmo com medidas de segurança, a API acabou sendo explorada pelos pesquisadores para criar agentes que automatizam golpes. A pesquisa da UIUC revelou que, usando pouco mais de mil linhas de código e a API de voz, um agente consegue realizar operações fraudulentas com surpreendente eficiência e rapidez, conseguindo até transações bancárias em poucos minutos.
A equipe do UIUC testou vários tipos de golpes, incluindo roubo de credenciais e transferência de dinheiro. Em um dos casos, os agentes da IA conseguiram obter informações de login em menos de dois minutos, com uma taxa de sucesso de 60% e um custo de apenas 28 centavos por golpe. Já golpes mais complexos, como transferências bancárias, tiveram um custo de cerca de $2,51 e uma taxa de sucesso menor, devido à complexidade do processo.
Veja um vídeo com a simulação (em inglês):
Para realizar essas fraudes, os pesquisadores usaram a IA GPT-4, combinada com a ferramenta Playwright para automação de navegação na web e um conjunto de instruções de fraude para que a IA burlasse as restrições de segurança. Isso incluiu comandos de preenchimento de dados e navegação em sites financeiros, o que permite que a IA siga passos detalhados para completar a fraude. Apesar das precauções de segurança, como monitoramento e revisão humana, o estudo indica que a IA ainda pode ser facilmente manipulada para essas finalidades.
Os pesquisadores sugerem que a prevenção de golpes com IA exigiria uma abordagem de segurança em diversos níveis, como ocorre no combate ao spam. Isso incluiria esforços tanto dos provedores de IA quanto de regulamentação, e até das empresas de telefonia, com a implementação de chamadas autenticadas para combater fraudes.
A OpenAI respondeu à pesquisa, ressaltando suas políticas de uso, que proíbem fraudes e a disseminação de golpes. A empresa afirma que aplica monitoramento ativo para detectar possíveis abusos, além de exigir que desenvolvedores deixem claro aos usuários que estão interagindo com uma IA.
Com a facilidade e o baixo custo dessa tecnologia, a pesquisa destaca o risco crescente de golpes automatizados. A necessidade de uma regulamentação mais rigorosa e de melhorias de segurança nos sistemas de IA tornou-se urgente para reduzir o impacto financeiro e psicológico desse tipo de crime.
Fonte: The Register.

Nenhum comentário:
Postar um comentário
Não é preciso ser criativo. Não é preciso ser técnico. Pode discordar. Pode concordar também. Só não vale ofender, xingar, usar o espaço para outro fim se não o de comentar o post. Agradeço antecipadamente por sua contribuição!