Portal NDC
Variedades

Golpistas usam inteligência artificial para roubar imagem de influencer e falar sobre o pênis do marido

Foto: Reprodução/ Instagram

Curta nossa Página no Facebook

Michel Janse estava com o marido curtindo a neve no Maine (EUA) quando os seus seguidores deram o alerta. Imagens da influencer cristã, especializada em viagens, decoração e dicas para preparação de casamento, haviam sido roubadas e manipuladas com ajuda de uma ferramenta de inteligência artificial (IA).

Um clone seu estava falando no YouTube sobre suplementos contra a disfunção erétil. Num vídeo, Michel aparecia na sua cama verdadeira, usando suas roupas reais, mas falando de um parceiro, não existente, com problemas sexuais. “Michael passou anos tendo muita dificuldade em manter uma ereção e tendo um membro muito pequeno”, diz a Michel de IA.

Casos como o de Michel, de 27 anos, estão se tornando cada vez mais frequentes na web. Está mais simples e mais barato usar conteúdo real para produzir vídeo falsos. Golpistas estão coletando vídeos nas redes sociais que correspondem ao alvo de uma promoção de vendas e criando uma outra realidade. Segundo especialistas, aproxima-se uma explosão de anúncios feitos com identidades roubadas.

Os golpistas parecem ter roubado e manipulado um dos vídeos mais populares de Michel – um relato sensível do divórcio do casamento anterior – provavelmente usando uma nova onda de ferramentas de inteligência artificial que facilitam a criação de deepfakes realistas, um termo genérico para mídia alterada ou criada com IA.

Com apenas alguns segundos de filmagem, os golpistas agora podem combinar vídeo e áudio usando ferramentas de empresas como HeyGen e Eleven Labs para gerar uma versão sintética da voz de uma pessoa real, trocar o som de um vídeo existente e animar os lábios do locutor, tornando o resultado manipulado mais confiável.

Celebridades como Taylor Swift, Kelly Clarkson, Tom Hanks e a estrela do YouTube MrBeast tiveram suas imagens usadas nos últimos seis meses para vender suplementos dietéticos enganosos, promoções de planos odontológicos e brindes de iPhone. Mas à medida que estas ferramentas proliferam, aqueles com uma presença mais modesta nas redes sociais enfrentam um tipo semelhante de roubo de identidade – vendo os seus rostos e palavras distorcidos pela IA para promover produtos e ideias muitas vezes ofensivos.

Foi o que viveu a ucraniana Olga Loiek, uma universitária da Universidade da Pensilvânia (EUA). Ela descobriu ter sido clonada em mais de 5 mil vídeos que se espalharam por redes na China. Num deles, “Olga” aparece na frente do Kremlin, sede do poder em Moscou, dizendo que “a Rússia é o melhor país do mundo” e exaltando o presidente Vladimir Putin.

“Eu me senti extremamente violada. Aquilo foi uma coisa que eu nunca faria na minha vida”, desabafou a jovem.

Os criminosos online ou os programas de desinformação patrocinados por Estados estão essencialmente “administrando uma pequena empresa, onde há um custo para cada ataque”, disse Lucas Hansen, cofundador da organização sem fins lucrativos CivAI, que aumenta a conscientização sobre os riscos da IA, em reportagem no “Washinton Post”. Mas, com ferramentas cada vez mais baratas e acessíveis, “o volume vai aumentar drasticamente”.

A tecnologia requer apenas uma pequena amostra para funcionar, disse Ben Colman, CEO e cofundador da Reality Defender, que ajuda empresas e governos a detectar deepfakes.

“Se áudio, vídeo ou imagens existirem publicamente, mesmo que apenas por alguns segundo, eles podem ser facilmente clonados, alterados ou totalmente fabricados para fazer parecer que algo totalmente único aconteceu”, declarou Colman.

Os vídeos são difíceis de pesquisar e podem se espalhar rapidamente – o que significa que as vítimas muitas vezes não sabem que suas imagens estão sendo usadas.

HeyGen e Eleven Labs foram procurados, mas não quiseram se manifestar ao “Washington Post”.

 

 

 

 

 

 

Fonte: Extra

Curta nossa Página no Facebook

Ao continuar navegando, você concorda com as condições previstas na nossa Política de Privacidade. Aceitar Leia mais