A ascensão da inteligência artificial (IA) trouxe inúmeras inovações e avanços em vários setores da sociedade, mas, infelizmente, também abriu portas para um tipo diferente de ameaça: golpes virtuais. A McAfee, provedora global de proteção online, entrevistou 7.054 pessoas de sete países e revelou que 77% dos entrevistados já perderam dinheiro com crimes envolvendo essa nova tecnologia.
Os golpes envolvendo IA estão se tornando cada vez mais sofisticados e insidiosos, explorando os avanços tecnológicos para enganar e prejudicar indivíduos e empresas. Alguns dos golpes mais preocupantes incluem:
1) Deepfakes Manipuladores: Os golpistas usam IA para criar vídeos e áudios altamente convincentes que podem falsificar discursos de figuras públicas, enganar investidores e extorquir dinheiro de vítimas.
2) Assistentes Virtuais Maliciosos: Os cibercriminosos desenvolvem assistentes de IA maliciosos que se passam por empresas legítimas, induzindo as pessoas a fornecer informações pessoais e financeiras.
3) Phishing Aprimorado: A IA é usada para personalizar e otimizar campanhas de phishing, tornando-as mais difíceis de serem detectadas e, consequentemente, mais perigosas.
4) Ataques de Ransomware Preditivos: Utilizando algoritmos de IA, hackers são capazes de identificar alvos valiosos e adaptar seus ataques de ransomware de maneira mais eficaz.
5) Golpes de Investimento Automatizado: Plataformas de investimento fraudulentas são impulsionadas por IA para enganar investidores com promessas de lucros extraordinários.
Além dos cinco tópicos descritos acima, o especialista em inteligência artificial e engenheiro de software Paul Hodel reforça que com o avanço na adoção dessas ferramentas, surgem oportunidades inéditas para ataques cibernéticos nas mais diversas frentes. Por exemplo, geradores de texto e revisores ortográficos podem ser empregados para criar rapidamente textos sofisticados e com gramática impecável, possibilitando que e-mails maliciosos transponham os filtros de spam e concretizem golpes convincentes contra indivíduos e empresas.
"Sistemas autônomos identificam vulnerabilidades, superam bloqueios de Captcha e são capazes de coletar dados sobre indivíduos usando redes sociais e outras plataformas, facilitando o acesso a informações confidenciais e potencializando ataques direcionados. Todavia, um dos aspectos mais alarmantes desta evolução é a habilidade de empregar a IA em técnicas de engenharia social, como a clonagem de vozes em tempo real e a criação de imagens e vídeos deepfake incrivelmente realistas”, reforça.
Com o avanço da tecnologia e o aumento acelerado dos golpes envolvendo a inteligência artificial, o especialista aponta que juízes e autoridades na esfera criminal necessitarão de novas ferramentas, como legislações e diretrizes bastante específicas. Por isso os governos e as instituições, de modo inadiável, devem estabelecer marcos regulatórios robustos, assegurando que a IA seja desenvolvida e utilizada de forma ética e segura.
"As tecnologias de IA podem transformar positivamente a nossa sociedade, mas não podemos negligenciar seus riscos. Ao que parece, o Legislativo brasileiro ainda não compreendeu a urgência dessa discussão. Por isso, torna-se essencial abordar o tema, reconhecer os desafios que ele engloba e mobilizar a sociedade para um futuro que já está diante de nós", complementa.
1) Deepfakes Manipuladores: Os golpistas usam IA para criar vídeos e áudios altamente convincentes que podem falsificar discursos de figuras públicas, enganar investidores e extorquir dinheiro de vítimas.
2) Assistentes Virtuais Maliciosos: Os cibercriminosos desenvolvem assistentes de IA maliciosos que se passam por empresas legítimas, induzindo as pessoas a fornecer informações pessoais e financeiras.
3) Phishing Aprimorado: A IA é usada para personalizar e otimizar campanhas de phishing, tornando-as mais difíceis de serem detectadas e, consequentemente, mais perigosas.
4) Ataques de Ransomware Preditivos: Utilizando algoritmos de IA, hackers são capazes de identificar alvos valiosos e adaptar seus ataques de ransomware de maneira mais eficaz.
5) Golpes de Investimento Automatizado: Plataformas de investimento fraudulentas são impulsionadas por IA para enganar investidores com promessas de lucros extraordinários.
Além dos cinco tópicos descritos acima, o especialista em inteligência artificial e engenheiro de software Paul Hodel reforça que com o avanço na adoção dessas ferramentas, surgem oportunidades inéditas para ataques cibernéticos nas mais diversas frentes. Por exemplo, geradores de texto e revisores ortográficos podem ser empregados para criar rapidamente textos sofisticados e com gramática impecável, possibilitando que e-mails maliciosos transponham os filtros de spam e concretizem golpes convincentes contra indivíduos e empresas.
"Sistemas autônomos identificam vulnerabilidades, superam bloqueios de Captcha e são capazes de coletar dados sobre indivíduos usando redes sociais e outras plataformas, facilitando o acesso a informações confidenciais e potencializando ataques direcionados. Todavia, um dos aspectos mais alarmantes desta evolução é a habilidade de empregar a IA em técnicas de engenharia social, como a clonagem de vozes em tempo real e a criação de imagens e vídeos deepfake incrivelmente realistas”, reforça.
Com o avanço da tecnologia e o aumento acelerado dos golpes envolvendo a inteligência artificial, o especialista aponta que juízes e autoridades na esfera criminal necessitarão de novas ferramentas, como legislações e diretrizes bastante específicas. Por isso os governos e as instituições, de modo inadiável, devem estabelecer marcos regulatórios robustos, assegurando que a IA seja desenvolvida e utilizada de forma ética e segura.
"As tecnologias de IA podem transformar positivamente a nossa sociedade, mas não podemos negligenciar seus riscos. Ao que parece, o Legislativo brasileiro ainda não compreendeu a urgência dessa discussão. Por isso, torna-se essencial abordar o tema, reconhecer os desafios que ele engloba e mobilizar a sociedade para um futuro que já está diante de nós", complementa.