quarta-feira, novembro 6, 2024
spot_img
HomeDestaque'Eram meu rosto e minha voz, mas era golpe': como criminosos 'clonam...

‘Eram meu rosto e minha voz, mas era golpe’: como criminosos ‘clonam pessoas’ com inteligência artificial

Poucas horas depois de ver a filha sair de casa para trabalhar, a advogada aposentada Karla Pinto recebeu uma chamada de vídeo em seu celular.

Do outro lado do vídeo, sua filha, a advogada criminalista Hanna Gomes, pedindo uma transferência via pix de R$ 600.

Três fatores fizeram a aposentada desconfiar da situação: na chamada de vídeo sua filha estava com uma blusa diferente da que havia saído de casa; a conta para a qual o dinheiro deveria ser transferido seria de uma amiga da filha e não a dela própria e, principalmente, a filha não havia chamado a mãe pelo apelido carinhoso que as duas comumente usam entre elas.

Ao notar essas situações desconexas, a aposentada decidiu checar se realmente era Hanna que aparecia no vídeo e perguntou qual era o nome do cachorro da família e do vizinho que mora em frente à casa delas. Depois disso, a chamada foi desligada.

“Eram o meu rosto, meu cabelo e a minha voz. O único detalhe é que a voz estava um pouco em descompasso com o vídeo, mas sabemos que isso pode acontecer devido à conexão com a internet. É assustador ver a evolução desse tipo de golpe”, diz Hanna à BBC News Brasil.

Hanna sorrindo para foto em retrato
Hanna Gomes relata que sua família foi vítima de golpe usando deep fake

A advogada explica que acredita que criminosos tenham usado inteligência artificial (IA) para criar um “clone” dela e tentar aplicar golpes com sua imagem.

Esses conteúdos são produzidos em softwares que usam IA para recriar a voz de pessoas, trocar o rosto em vídeos e sincronizar movimentos labiais e expressões.

“Tenho diversos conteúdos de aulas online e vídeos nas redes sociais que facilmente podem ter sido usado pelos criminosos para criar essa deep fake. E mesmo a gente tomando alguns cuidados como salvar os contatos dos familiares pelo nome, e não como pai e mãe, não foram suficientes para driblar a ação de criminosos”, conta a advogada.

A família registrou o caso na Delegacia de Crimes Virtuais da Polícia Civil do Distrito Federal (DF), que investiga o ocorrido. Segundo a Polícia Civil do DF não estatísticas fechadas sobre esse tipo de crime usando IA.

Estelionatos por meio eletrônico cresceram no Brasil

Golpes como o que os criminosos tentaram aplicar na mãe de Hanna e que exigem transferências bancárias por aplicativos de celular ou no ambiente virtual entram na categoria do estelionato eletrônico.

Dados do Anuário Brasileiro de Segurança Pública 2023 mostram que no ano passado foram registrados 200.322 casos de estelionato por meio eletrônico, número 65% maior do que o registrado em 2021, quando esse número foi de 120.470.

Os Estados com mais casos desse tipo de golpe são Santa Catarina (64.230), Minas Gerais (35.749), Distrito Federal (15.580) e Espirito Santo (15.277).

Segundo o levantamento, os Estados de Bahia, Ceará, Rio de Janeiro, Rio Grande do Norte, Rio Grande do Sul e São Paulo não disponibilizaram dados sobre esse tipo de crime até a conclusão da pesquisa.

Uso de IA para aplicar golpes

Idoso segurando cartão e celular
CRÉDITO,GETTY IMAGES – Uma das recomendações para se proteger de golpes é fazer perguntas específicas

Com o avanço da tecnologia e da IA, é cada vez mais comum surgirem softwares que conseguem reproduzir a imagem de uma pessoa com voz dela, criando frases completas e imitando até mesmo os trejeitos de fala e sotaque.

Para fazer essa criação basta ter acesso a poucos segundos de imagem ou da voz da pessoa — como, por exemplo, um vídeo postado nas redes sociais ou até mesmo um áudio enviado em aplicativos de mensagem.

“Uma pessoa curiosa, que busca tutoriais sobre essas ferramentas, consegue fazer isso em poucos minutos. Não precisa ser um especialista em tecnologia. Hoje temos filtros que a pessoa consegue falar e a voz dela é alterada em tempo real”, explica Arthur Igreja, especialista em Tecnologia e Inovação. Esses são os chamados vídeos deep fake.

Já no caso das chamadas de vídeo fake, realizadas em tempo real como no caso da Hanna, a criação é um pouco mais complexa. Para isso é necessário um computador um pouco mais potente e programas mais avançados.

“É como se você pudesse criar um personagem de videogame que pode falar e agir como uma pessoa real, usando a voz e a imagem de alguém. Essa tecnologia pode ser usada para fazer chamadas de vídeo, onde parece que você está conversando com alguém, mas, na verdade, é uma versão criada por IA dessa pessoa. No entanto, isso exige tecnologia mais avançada e pode não estar tão facilmente disponível para todos”, explica Rogério Guimarães, diretor-executivo da Covenant Technology.

Distinguir se um conteúdo é verdadeiro ou criado pela tecnologia é um desafio. Mas segundo os especialistas ouvidos pela BBC News Brasil, algumas características desses vídeos e imagens pode ajudar a verificar se ela é real ou não.

“A falta de naturalidade na movimentação da pessoa pode levantar suspeitas, assim como a inconsistência da iluminação e a falta de sincronização. É importante, em caso de dúvidas, buscar comprovar a identidade da pessoa. Perguntar coisas que somente esta pessoa seria capaz de responder e até mesmo pedir para filmar algo da casa”, ensina Rafael Sampaio, gerente nacional da NovaRed, conglomerado ibero-americano de cibersegurança.

Veja 7 dicas para se proteger de golpes que usam IA

Fique atento: tenha consciência que esse tipo de golpe existe e desconfie de qualquer tipo de conteúdo em vídeo, áudio ou imagem;

Use o telefone ou fale pessoalmente: na dúvida se é realmente a pessoa que está interagindo por uma chamada de vídeo ou em um vídeo use o telefone e ligue direto para aquele contato ou tente falar com ele pessoalmente;

Atenção aos detalhes: analise detalhes de movimentações dos olhos e da boca, eles podem indicar algumas inconsistências e falta de naturalidade;

Qualidade da conexão: se a imagem ou o som parecem perfeitos demais, ou, ao contrário, artificialmente distorcidos, pode ser um sinal;

Perguntas específicas: faça perguntas a respeito de situações que só você e a pessoa vivenciaram ou criem uma frase, ou palavra-chave para confirmar a autenticidade de quem está do outro lado da chamada;

Mude de assunto: se você suspeitar que algo está errado durante uma ligação ou chamada de vídeo, tente mudar de assunto, perguntando como está no trabalho. Muitos golpistas acabam desligando nessas situações;

Atenção redobrada em pedidos de dinheiro: ⁠casos que envolvam pedidos de dinheiro, seja por PIX ou outras transferências eletrônicas, redobre a atenção. Nesses casos existe uma chance muito grande de ser um golpe.

BBC

Noticias relacionadas

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -spot_img

Mais Lidas

Commentarios