Segunda-feira, 28 de abril de 2025

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail ou WhatsApp.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

Tecnologia Empresas recorrem à inteligência artificial contra criminosos digitais que usam a mesma tecnologia

Compartilhe esta notícia:

Prevenção contra golpes e "deepfakes" entra no radar de executivos, que criam tecnologias para distinguir o que é verdadeiro ou criado artificialmente. (Foto: Freepik)

O norte-americano Patrick Hillmann era diretor de Comunicações da maior corretora de criptomoedas do mundo quando teve vídeos seus disponíveis na internet utilizados para a criação de uma versão falsa dele próprio e que disparava convites para reuniões com potenciais clientes. Então executivo da Binance, Hillmann precisou ir a público para explicar que cibercriminosos usavam a inteligência artificial (IA) para aplicar golpes em seu nome.

A técnica que o recriou é a mesma usada recentemente por adolescentes de uma escola particular no Rio de Janeiro para distribuir falsos nudes de alunas: “deepfake”. Trata-se de imagem, vídeo ou áudio gerado por IA que podem simular voz, fotografias ou até mesmo sequências de uma pessoa em movimento, com pouca nitidez entre o que é falso e verdadeiro.

Casos similares se espalham pelo mundo, num risco crescente para pessoas, de anônimos a celebridades, mas também para os negócios, diante da capacidade da inteligência artificial de multiplicar o potencial — e os danos — de crimes cibernéticos. Por isso, do outro lado da trincheira, empresas de tecnologia aplicam a própria IA no desenvolvimento de verdadeiros antídotos, soluções capazes de barrar o mau uso da nova tecnologia.

Veja 4 ameaças favorecidas pela IA:

* ‘Deepfakes’ melhores: Manipular vídeos, imagens e áudios se torna uma tarefa acessível a quase todo mundo a partir de sistemas de inteligência artificial generativa. O resultado também é mais realista.

* Hackeamento de senhas: Cibercriminosos usam inteligência artificial para aperfeiçoar algoritmos usados para decifrar senhas. A adivinhação fica mais rápida e precisa, e os hackers ganham eficiência.

* Engenharia social: Com IA, hackers automatizam processos para gerar ataques que buscam induzir usuários de dispositivos ao erro por meio de manipulações, seja com ‘deepfakes’ ou ‘phishing’.

* Envenenamento de dados: Nesse caso, o foco é a própria IA. Hackers alteram dados de treinamento usados por um algoritmo de IA para influenciar as decisões que um sistema toma, o que pode ser difícil de detectar.

A batalha entre a IA dos criminosos e a dos que exploram esse novo mercado de proteção já é bilionária. Segundo a consultoria Allied Market Research, a IA na indústria de segurança cibernética movimentou US$ 19,2 bilhões no mundo em 2022 e deve alcançar US$ 154,8 bilhões em 2032, o equivalente a R$ 760 bilhões.

Acesso mais fácil

Os riscos também estão na casa dos bilhões. Ataques cibernéticos — com uso de IA ou não — devem gerar prejuízos de US$ 10,5 bilhões por ano até 2025, estima a McKinsey. É um aumento de 300% em relação aos níveis de 2015.

“Da mesma forma que podemos alavancar a IA generativa para o bem, infelizmente existe o outro lado. Os ataques baseados em IA podem ser mais sofisticados e difíceis de detectar”, diz Patrick Rinski, sócio da consultoria no Brasil.

Criar e alterar imagens de maneira muito convincente ficou mais fácil e acessível com a IA. A técnica já era usada há alguns anos, mas agora se difundiu em uma profusão de ferramentas na internet, muitas gratuitas, enquanto a regulação não tem mesma velocidade. Por trás de alguns sistemas populares desse tipo estão desde startups promissoras como Midjourney e Prisma AI até big techs como a Microsoft, que tem no buscador Bing um recurso desse tipo.

Plataformas e aplicativos se multiplicam em parte pelo fluxo de capital para o setor. Um relatório da PitchBook, empresa de dados que monitora o mercado de inovação, mostra que fundos de venture capital (capital de risco) investiram US$ 187,7 milhões (R$ 920 milhões), só no ano passado, em startups desse segmento. Em 2017, esse fluxo tinha sido de apenas US$ 1 milhão.

O problema não está na tecnologia — que já abre novas oportunidades de negócios em vários aspectos e se mostra útil, por exemplo, na criação de conteúdo publicitário, como no comercial da Volkswagen que recriou a cantora Elis Regina —, mas em como ela pode ser usada por criminosos, facilitando golpes. Por isso, empresas de segurança digital e as próprias big techs (preocupadas com o peso que a regulação pode ter sobre seus planos) usam a própria IA em mecanismos de proteção.

No Brasil, golpistas usam deepfake, por exemplo, para ultrapassar barreiras de segurança que usam o rosto ou a voz como chave. Bancos e instituições financeiras estão entre os principais alvos. A ideia de simular uma imagem para aplicar um golpe não é nova, diz Adriano Volpini, diretor setorial do Comitê de Segurança Cibernética da Febraban, entidade que reúne os bancos, mas a IA se tornou um facilitador.

“O que essa nova fase da tecnologia traz é mais acessibilidade e simplificação para quem quer fazer um ataque ou uma fraude. Você não precisa ter um conhecimento técnico tão avançado porque fica mais fácil usar a ferramenta e acessar informações. Essa é a grande mudança”, diz o executivo, que também é diretor de Segurança Corporativa do Itaú Unibanco, lembrando que essa mesma lógica se aplica do outro lado.

tags: Você Viu?

Compartilhe esta notícia:

Voltar Todas de Tecnologia

Reese Witherspoon quebra o silêncio sobre rumores de que estaria namorando Kevin Costner
Descubra a fortuna dos atores da série “Friends”; valor ultrapassa bilhões de dólares
https://www.osul.com.br/empresas-usam-inteligencia-artificial-contra-crimes-digitais-que-usam-a-mesma-tecnologia/ Empresas recorrem à inteligência artificial contra criminosos digitais que usam a mesma tecnologia 2023-11-12
Deixe seu comentário
Pode te interessar