Contents

Os principais gigantes da tecnologia terceirizam tarefas perturbadoras por apenas € 2 por hora!

Dependendo do país onde vivemos e da situação económica em que nos encontramos, a nossa vida profissional será significativamente diferente. Por exemplo, se estivermos num país onde a pobreza abunda, teremos que fazer sacrifícios e aceitar qualquer tipo de trabalho que nos possa levar a uma melhor situação económica. Em países como a África do Sul, um em cada dois jovens está desempregado e o desespero por um emprego pode levar ao que veremos agora. Sama, uma empresa de rotulagem AI, recruta e contrata jovens trabalhadores por um salário decente em seu país, mas o que eles não sabiam era o tipo de horror que eles teriam ver para poder ganhar um salário.

O resultado final de um modelo de IA nos dá ferramentas tão úteis quanto o ChatGPT, mas para criar uma inteligência artificial tão eficaz são necessários grandes conjuntos de dados. Aqui focamos mais em textos e informações desse tipo, mas em casos como Midjourney ou os modelos de Stable Diffusion , tudo fica no nível visual, pois geram imagens. Neste último caso, você deve ter muito cuidado com o tipo de conteúdo que é utilizado, pois se você treinar com conteúdo considerado impróprio , produzirá resultados inesperados.

Sama, uma empresa de rotulagem de IA, obriga seus funcionários a assistir a conteúdos atrozes

/images/Bothokwa-Ranta.jpg

Para realizar esses treinamentos utilizando grandes quantidades de dados, é necessário contar com uma equipe de moderação responsável por filtrar e rotular as imagens e conteúdos adequados para treinar o modelo de IA , enquanto o restante é descartado. Isso poderia ser feito automaticamente, mas o resultado não seria tão confiável quanto um ser humano ao catalogar o conteúdo. Com essa premissa surgem empresas de rotulagem de dados que prometem aos usuários jovens de países em risco de pobreza, um futuro com um bom emprego e um salário digno.

Temos assim o exemplo da Sama, uma empresa de rotulagem de dados para IA sediada em São Francisco, mas que também opera na África do Sul. O protagonista desta história é Bothokwa Ranta, que viajou de Joanesburgo para Nairóbi depois de ser contratado como moderador de conteúdo para promover a"vanguarda da IA “. O salário, 2,20 dólares/hora (cerca de 2 euros/hora), era bastante bom no país e no edifício da empresa, moderno e cheio de instalações. Parecia o emprego dos sonhos para ela e uma dúzia de outros jovens africanos, mas a realidade era muito mais obscuro.

Ranta e seus companheiros entraram com uma ação judicial contra Sama e Meta

/images/Meta-Threads-estrategia.jpg

Esses jovens trabalhadores passaram por um treinamento prévio, onde tiveram que classificar e catalogar o conteúdo que viam em forma de imagens. Já na fase de formação ela reconhece que teve que fazer conteúdos violentos, mas o pior foi na hora de levar o trabalho a sério. Aqui o conteúdo que viram foi muito mais forte, pois não existia nenhum tipo de filtro, pois eram eles os encarregados de classificá-lo. Ranta indica que eles tiveram que ser submetidos durante horas a assistir a uma enorme quantidade de conteúdo horrível que envolve abuso sexual, tortura, decapitações e violência de todos os tipos. Ela, como mãe, indica que o conteúdo que viu envolvido com a pedofilia foi a coisa mais chocante e mais difícil.

Ela estava com medo de que o conteúdo que viu lhe desse “*marca para o resto da vida**“ e, de fato, ver essas atrocidades afetou os trabalhadores da empresa de rotulagem de IA. Alguns funcionários reconhecem que apresentam sintomas de estresse pós-traumático, são incapazes de dormir e até mesmo de interagir normalmente com outras pessoas. Em 2023, Ranta e seus colegas de trabalho apresentaram um processo contra Sama e Meta devido à exposição a conteúdo prejudicial. Felizmente, houve uma vitória dos trabalhadores, pois em Sama reduziram a jornada de trabalho para 37,4 horas semanais e foram oferecidos benefícios de plano de saúde, incluindo sessões com psicólogos.

*️⃣ Link da fonte:

tipo de horror ,