Surgem de nus falsos gerados por IA, representando ameaças à privacidade e às vidas

A ascensão das ferramentas de inteligência artificial (IA) alimentou um aumento perturbador de imagens e vídeos pornográficos falsos, levantando preocupações significativas sobre a privacidade e a exploração. As vítimas, principalmente mulheres e adolescentes, encontram-se mal preparadas para a visibilidade que os nus falsos gerados pela IA trazem.

A invasão da privacidade

Gabi Belle, influenciadora do YouTube, descobriu que sua imagem estava sendo usada em uma fotografia falsa de nudez que circulava na internet. A imagem a retratava em situação comprometedora, mesmo nunca tendo consentido tal conteúdo. A experiência de Belle não é única, já que muitos indivíduos, incluindo celebridades e adolescentes comuns, foram vítimas de nus falsos gerados por IA. Essas imagens falsas podem incitar vergonha, extorquir dinheiro ou servir como válvula de escape para fantasias privadas.

Crescimento sem precedentes de nus falsos

A inteligência artificial permitiu um boom sem precedentes de imagens e vídeos pornográficos falsos. Nos 10 principais sites conhecidos por hospedar fotos pornográficas geradas por IA, o número de nus falsos aumentou mais de 290% desde 2018, de acordo com a analista do setor Genevieve Oh. Esses sites apresentam não apenas celebridades e figuras políticas, mas também indivíduos inocentes que tiveram suas imagens exploradas sem consentimento.

Falta de proteções legais

As vítimas de pornografia falsa gerada por IA têm recursos limitados devido à ausência de leis federais que regem a pornografia falsa. Apenas alguns estados promulgaram regulamentos, deixando uma lacuna jurídica significativa. A recente ordem executiva de IA do presidente Biden recomenda que as empresas rotulem o conteúdo gerado por IA, mas não o torna obrigatório. Os juristas argumentam que as imagens falsas geradas pela IA podem não estar abrangidas pela proteção de direitos de autor para imagens pessoais, uma vez que se baseiam em vastos conjuntos de dados.

Mulheres e adolescentes em risco particular

Nus falsos gerados por IA representam um risco significativo para mulheres e adolescentes, que muitas vezes se encontram despreparados para a visibilidade repentina. Uma pesquisa da Sensity AI, uma empresa de monitoramento de deepfake, revela que 96% das imagens deepfake são pornográficas, sendo 99% direcionadas a mulheres. O exame de Genevieve Oh dos 10 principais sites que hospedam imagens pornográficas falsas descobriu que mais de 415,000 dessas imagens foram carregadas somente em 2023, acumulando quase 90 milhões de visualizações.

Explosão de vídeos pornográficos gerados por IA

Vídeos pornográficos gerados por IA também proliferaram na web. Em 2023, mais de 143,000 mil vídeos falsos foram adicionados aos 40 sites mais populares com conteúdo deepfake, superando o número total de novos vídeos de 2016 a 2022. Esses vídeos obtiveram mais de 4.2 bilhões de visualizações. O Federal Bureau of Investigation (FBI) alertou para um aumento na extorsão sexual, com mais de 26,800 pessoas a serem vítimas de campanhas de “sextorsão” a partir de Setembro.

As proteções limitadas do Google

O popular mecanismo de pesquisa Google possui políticas para impedir que imagens sexuais não consensuais apareçam nos resultados de pesquisa. No entanto, suas proteções para imagens deepfake não são tão robustas, permitindo que pornografia falsa gerada por IA apareça com destaque nos resultados de pesquisa. O Google está trabalhando para melhorar essas proteções e pretende criar salvaguardas que não exijam solicitações individuais de remoção de conteúdo.

Desafios na penalização dos criadores

Penalizar os criadores de conteúdo pornográfico falso gerado por IA revela-se um desafio. A secção 230 da Lei de Decência nas Comunicações protege as empresas de redes sociais da responsabilidade pelo conteúdo publicado nas suas plataformas, deixando pouco incentivo para os websites policiarem tais imagens. As vítimas podem solicitar a remoção de suas imagens, mas o conteúdo gerado por IA baseia-se em extensos conjuntos de dados, tornando difícil provar violações de direitos autorais ou de imagens pessoais.

Esforços em nível estadual e regulamentações variadas

Pelo menos nove estados, incluindo Califórnia, Texas e Virgínia, aprovaram legislação visando deepfakes. No entanto, estas leis diferem no âmbito, com algumas permitindo que as vítimas apresentem acusações criminais e outras permitindo apenas ações civis. Identificar as partes responsáveis ​​pelas ações legais pode ser uma tarefa complexa.

A necessidade de regulamentações mais fortes

A pressão para regulamentar imagens e vídeos gerados por IA visa principalmente impedir a distribuição em massa e abordar preocupações relacionadas com a interferência eleitoral. No entanto, estas regras pouco fazem para mitigar os danos causados ​​pela pornografia deepfake, que pode afetar gravemente a vida de um indivíduo, mesmo se partilhada em pequenos grupos.

A proliferação de nus falsos gerados por IA representa uma grave ameaça à privacidade e à integridade pessoal, especialmente para mulheres e adolescentes. A ausência de leis federais abrangentes e os desafios na penalização dos criadores de tais conteúdos destacam a necessidade urgente de regulamentações e proteções mais fortes. À medida que a IA continua a avançar, abordar o problema crescente da pornografia falsa gerada pela IA torna-se cada vez mais crítico para proteger os indivíduos da exploração e dos danos na era digital.

Fonte: https://www.cryptopolitan.com/ai-fake-nudes-threats-to-privacy-and-lives/