estrela bet afiliado
Aumento de conteúdo sexualmente explícito de crianças gerado por IA afeta capacidade de aplicação da lei
O volume de imagens 🌻 sexualmente explícitas de crianças geradas por predadores usando inteligência artificial está superando a capacidade das forças da lei de identificar 🌻 e resgatar vítimas reais, alertam especialistas jogos online tiro segurança infantil.
Promotores e grupos de proteção à criança trabalhando para combater 🌻 crimes contra crianças dizem que as imagens geradas por IA tornaram-se tão realistas que jogos online tiro alguns casos é difícil determinar 🌻 se crianças reais foram submetidas a danos reais para jogos online tiro produção. Um único modelo de IA pode gerar dezenas de 🌻 milhares de novas imagens jogos online tiro um curto período de tempo, e esse conteúdo começou a inundar a internet dark web 🌻 e se infiltrar na internet convencional.
Rosto de outras crianças jogos online tiro imagens abusivas
"Estamos começando a ver relatos de imagens 🌻 de uma criança real, mas com rosto gerado por IA, mas essa criança não foi abusada sexualmente. Mas agora o 🌻 seu rosto está na criança que foi abusada", disse Kristina Korobov, advogada sênior do Zero Abuse Project, uma organização sem 🌻 fins lucrativos de segurança infantil com sede jogos online tiro Minnesota. "Às vezes, reconhecemos a cama ou o cenário de um
🌻 ou imagem, o perpetrador ou a série de onde vem, mas agora há outro rosto de criança colocado sobre isso." 🌻
Avalanche de conteúdo de IA
Já existem dezenas de milhões de relatos feitos a cada ano de material de abuso 🌻 sexual online de crianças reais, o que grupos de segurança e forças da lei lutam para investigar.
"Estamos apenas 🌻 se afogando nessa coisa", disse um promotor do Departamento de Justiça, que falou sob a condição de anonimato porque não 🌻 estava autorizado a falar publicamente. "Do ponto de vista da aplicação da lei, crimes contra crianças são uma das áreas 🌻 mais restritas jogos online tiro recursos, e haverá uma explosão de conteúdo da IA."
No ano passado, o Centro Nacional de 🌻 Crianças Desaparecidas e Exploradas (NCMEC) recebeu relatos de predadores usando IA de várias maneiras, como inserir textos prompts para gerar 🌻 material de abuso infantil, alterar arquivos anteriormente enviados para torná-los sexualmente explícitos e abusivos, e enviar material conhecido de abuso 🌻 sexual online de crianças e gerar novas imagens com base nessas imagens. Em alguns relatos, os ofensores se referiram a 🌻 chatbots para instruí-los sobre como encontrar crianças para sexo ou machucá-las.
Alteração de imagens de vítimas de abuso sexual
Peritos 🌻 e promotores estão preocupados com ofensores tentando evitar a detecção usando IA gerativa para alterar imagens de uma vítima de 🌻 abuso sexual infantil.
"Quando processamos casos no sistema federal, a IA não muda o que podemos processar, mas há 🌻 muitos estados jogos online tiro que você tem que ser capaz de provar que é uma criança real. Discutir a legitimidade das 🌻 imagens causará problemas nos julgamentos. Se eu fosse advogado de defesa, é exatamente o que argumentaria", disse o promotor do 🌻 DoJ.
Possuir representações de abuso sexual de crianças é criminalizado na lei federal dos EUA, e várias prisões foram 🌻 feitas nos EUA este ano de supostos perpetradores possuindo CSAM identificados como gerados por IA. Na maioria dos estados, no 🌻 entanto, não há leis que proíbam a posse de material sexualmente explícito gerado por IA que represente menores. A própria 🌻 ato de criar as imagens não está coberto por leis existentes.
Em março, no entanto, a legislatura de Washington 🌻 aprovou um projeto de lei que proíbe a posse de CSAM gerado por IA e a divulgação conhecida de imagens 🌻 íntimas geradas por IA de outras pessoas. Em abril, um projeto de lei bipartidário com o objetivo de criminalizar a 🌻 produção de CSAM gerado por IA foi introduzido no Congresso, que foi endossado pela Associação Nacional de Procuradores-Gerais (NAAG).