Pesquisa revela que 77% dos entrevistados já foram vítimas de golpes envolvendo a inteligência artificial

  


A ascensão da inteligência artificial (IA) trouxe inúmeras inovações e avanços em vários setores da sociedade, mas, infelizmente, também abriu portas para um tipo diferente de ameaça: golpes virtuais. A McAfee, provedora global de proteção online,  entrevistou 7.054 pessoas de sete países e revelou que 77% dos entrevistados já perderam dinheiro com crimes envolvendo essa nova tecnologia.

Os golpes envolvendo IA estão se tornando cada vez mais sofisticados e insidiosos, explorando os avanços tecnológicos para enganar e prejudicar indivíduos e empresas. Alguns dos golpes mais preocupantes incluem:

1) Deepfakes Manipuladores: Os golpistas usam IA para criar vídeos e áudios altamente convincentes que podem falsificar discursos de figuras públicas, enganar investidores e extorquir dinheiro de vítimas.

2) Assistentes Virtuais Maliciosos: Os cibercriminosos desenvolvem assistentes de IA maliciosos que se passam por empresas legítimas, induzindo as pessoas a fornecer informações pessoais e financeiras.

3) Phishing Aprimorado: A IA é usada para personalizar e otimizar campanhas de phishing, tornando-as mais difíceis de serem detectadas e, consequentemente, mais perigosas.

4) Ataques de Ransomware Preditivos: Utilizando algoritmos de IA, hackers são capazes de identificar alvos valiosos e adaptar seus ataques de ransomware de maneira mais eficaz.

5) Golpes de Investimento Automatizado: Plataformas de investimento fraudulentas são impulsionadas por IA para enganar investidores com promessas de lucros extraordinários.

Além dos cinco tópicos descritos acima, o especialista em inteligência artificial e engenheiro de software Paul Hodel reforça que com o avanço na adoção dessas ferramentas, surgem oportunidades inéditas para ataques cibernéticos nas mais diversas frentes. Por exemplo, geradores de texto e revisores ortográficos podem ser empregados para criar rapidamente textos sofisticados e com gramática impecável, possibilitando que e-mails maliciosos transponham os filtros de spam e concretizem golpes convincentes contra indivíduos e empresas.

"Sistemas autônomos identificam vulnerabilidades, superam bloqueios de Captcha e são capazes de coletar dados sobre indivíduos usando redes sociais e outras plataformas, facilitando o acesso a informações confidenciais e potencializando ataques direcionados. Todavia, um dos aspectos mais alarmantes desta evolução é a habilidade de empregar a IA em técnicas de engenharia social, como a clonagem de vozes em tempo real e a criação de imagens e vídeos deepfake incrivelmente realistas”, reforça.


Com o avanço da tecnologia e o aumento acelerado dos golpes envolvendo a inteligência artificial, o especialista aponta que juízes e autoridades na esfera criminal necessitarão de novas ferramentas, como legislações e diretrizes bastante específicas. Por isso os governos e as instituições, de modo inadiável, devem estabelecer marcos regulatórios robustos, assegurando que a IA seja desenvolvida e utilizada de forma ética e segura.

"As tecnologias de IA podem transformar positivamente a nossa sociedade, mas não podemos negligenciar seus riscos. Ao que parece, o Legislativo brasileiro ainda não compreendeu a urgência dessa discussão. Por isso, torna-se essencial abordar o tema, reconhecer os desafios que ele engloba e mobilizar a sociedade para um futuro que já está diante de nós", complementa.
Postagem Anterior Próxima Postagem