Contents

Microsoft Under Fire para ferramenta de IA que promove conteúdo impróprio para crianças!

/images/chiave-MSA-microsoft.jpg

Com uma palavra de advertência, o engenheiro da Microsoft Shane Jones relatou à sua empresa como o Copilot Designer às vezes apresenta conteúdo violento ou sexual.

Apesar disso, um engenheiro que participou voluntariamente dos testes das potenciais vulnerabilidades do Copilot Designer revelou algumas deficiências no sistema de geração de conteúdo. Isso foi relatado pela CNBC.

Após a denúncia, a Microsoft limitou-se a convidar o profissional para relatar o ocorrido à OpenAI. A empresa que acabamos de mencionar, na verdade, alimenta os resultados do Copilot Designer por meio do já famoso modelo GIVE HER.

O engenheiro acusa a Microsoft: eis o que aconteceu

A OpenAI, aparentemente, nunca respondeu a Jones, que, portanto, confiou no LinkedIn, com uma carta aberta à empresa pedindo ação. O texto, porém, a pedido da equipe jurídica da Microsoft, foi retirado da rede social. Jones finalmente teve que recorrer à Comissão Federal de Comércio e ao conselho de administração da Microsoft para ser ouvido.

Em carta dirigida a Lina Khan , presidente da FTC, Jones afirma que a Microsoft e a OpenAI estão cientes de como o Copilot Designer oferece conteúdo violento ou sexual sem filtros específicos e como as empresas em questão"continuarão a comercializar o produto para qualquer pessoa, em qualquer lugar e em qualquer dispositivo”, a menos que a FTC intervenha.

Embora o Copilot Designer seja comercializado como uma ferramenta segura para utilizadores jovens, foram levantadas preocupações relativamente à sua capacidade de gerar conteúdo impróprio, como representações de consumo de álcool e drogas por menores, promoção de preconceitos políticos e teorias da conspiração, entre outros. Estas questões levantam questões sobre a responsabilidade das empresas tecnológicas em garantir que os seus produtos são utilizados de forma ética e responsável.

De acordo com declarações de um representante da Microsoft, a organização está se esforçando ativamente para colocar em prática métodos de triagem das imagens produzidas.

Os testes que preocuparam Shane Jones

As imagens inesperadas e angustiantes encontradas por um engenheiro enquanto testava agressivamente o Copilot causaram consternação significativa para Shane Jones.

De acordo com Jones, ele descreve entidades como demônios, monstros e violência gráfica por meio de representações visuais, incluindo uma ilustração apresentando uma criatura ameaçadora com dentes afiados, pronta para consumir um jovem aterrorizado. Além disso, outro resultado gerou uma imagem que retrata uma vítima sorridente do sexo feminino que está sofrendo grave perda de sangue, enquanto uma figura malévola está por perto segurando um forcado. Além disso, o engenheiro discute outros exemplos de conteúdo perturbador, onde mulheres seminuas são justapostas ao lado de colisões automobilísticas catastróficas.

Com um mínimo de familiaridade com as instruções Segundo Jones, é possível obter imagens de menores ingerindo álcool e drogas sem muito esforço.

barra lateral inferior relacionada 300

*️⃣ Link da fonte: