Contents

Como o Instagram recomendou vídeos sexualizados de crianças para adultos

Pode-se questionar se o Instagram está ou não promovendo propositalmente a pornografia infantil por meio de suas recomendações algorítmicas. Os utilizadores que seguem contas que contêm exclusivamente conteúdo relacionado com crianças são inadvertidamente expostos a material sugestivo envolvendo menores, que é, além disso, acompanhado de anúncios comerciais.

A Meta enfrenta desafios legais contínuos em relação ao seu serviço de assinatura paga para Facebook e Instagram, que tem sido alvo de várias organizações e atualmente enfrenta acusações de vários estados dos EUA de violar regulamentos relativos à coleta de dados de menores de 13 anos. , surgiu outra área de preocupação envolvendo os algoritmos da empresa usados ​​para Reels, projetados para aumentar o envolvimento do usuário, fornecendo conteúdo adaptado aos interesses individuais. Infelizmente, os relatórios indicam que algumas das recomendações geradas por estes algoritmos incluem material abertamente sexual, bem como vídeos que retratam a sexualização infantil, suscitando preocupações sobre a adequação das salvaguardas destinadas a proteger os utilizadores mais jovens de tal conteúdo explícito.

Instagram: uma alternância de conteúdo sexual e propagandas

Ao observar que um número considerável de assinantes do nosso serviço são indivíduos que apresentam predileção por material sexualmente explícito envolvendo menores, decidi realizar uma série de experiências estabelecendo contas que acompanham atletas adolescentes, artistas e personalidades das redes sociais. Para minha surpresa, o mecanismo de recomendação do TikTok prontamente sugeriu uma mistura de conteúdo adulto explícito e materiais retratando menores em situações comprometedoras. Estas sugestões foram perfeitamente integradas com endossos comerciais de empresas proeminentes como Walmart, Disney e Pizza Hut, todas em busca da maximização dos lucros.

/images/39487804.jpg

Em um feed dos rolos recomendados do Instagram, um anúncio da plataforma de namoro Bumble estava situado ao lado de dois vídeos exibindo conteúdo questionável. Um deles mostrava uma pessoa acariciando os traços faciais de uma boneca de látex em tamanho real, enquanto o outro retratava uma jovem cujo rosto havia sido obscurecido digitalmente enquanto ela levantava a roupa para expor seu abdômen. Além disso, jornalistas relataram observar clipes de criadores de conteúdo adulto exibindo material explícito, como suas áreas privadas. Estes casos não são ocorrências singulares; o Centro Canadense para Proteção à Criança descobriu recomendações semelhantes de “imagens sexualizadas envolvendo menores” durante suas próprias avaliações em novembro.

Instagram e pornografia infantil: uma história que não é nova

Após a divulgação de determinadas informações, uma série de consequências se seguiu, pois vários anunciantes optaram por remover seus anúncios da plataforma. Entre aqueles que adotaram esse curso de ação estão o popular aplicativo de namoro Bumble, junto com o Match Group – a organização controladora do Tinder – e a Disney. Em resposta a estes desenvolvimentos, Meta afirmou que os resultados obtidos através dos testes realizados pela fonte de notícias não representam com precisão a realidade. De acordo com Samantha Stetson, vice-presidente de relações industriais da Meta, “nossos sistemas são altamente eficientes na mitigação de conteúdo prejudicial e investimos substancialmente em segurança, proteção e soluções adequadas à marca”. A Meta afirma estar conduzindo uma investigação sobre o assunto e está aberta a contratar

Apesar de já estarmos cientes deste problema há algum tempo, é alarmante notar que as atividades pedófilas se tornaram desenfreadas no Instagram. Já em 2018, The Rat King, um indivíduo proficiente em má conduta online, destacou como o Instagram serviu de refúgio para pedófilos e facilitou a disseminação de material pornográfico infantil ilícito. Além disso, um relatório do Wall Street Journal de junho passado revelou que organizações criminosas infantis utilizavam o Instagram como sua principal plataforma para promover e comercializar imagens depravadas envolvendo menores; certos indivíduos até empregaram hashtags vulgares como # pedoware ou # preteensex para realizar suas pesquisas insidiosas.

Infelizmente, parece que a Meta não considera necessário implementar alterações nos seus algoritmos, apesar do impacto prejudicial que têm na privacidade do utilizador. Esta relutância pode ser atribuída ao facto de tal conteúdo impulsionar o envolvimento entre os utilizadores e, em última análise, contribuir para o sucesso financeiro da plataforma. Conforme indicado pela documentação revisada por um meio de comunicação americano, a equipe de segurança da empresa normalmente está proibida de fazer quaisquer modificações que possam resultar em uma redução notável na contagem diária de usuários ativos no site. Parece que existem prioridades específicas em jogo.

*️⃣ Link da fonte:

Wall Street Journal , O Rei Rato,