Contents

Frases de IA que falantes deste idioma têm maior probabilidade de morrer, conclui estudo

contém o conteúdo principal do bloco de texto da caixa de compartilhamento do cabeçalho da página

**Um estudo mostra que, dependendo da forma como a população fala, uma IA que incorpora um juiz tem maior probabilidade de condená-los à morte do que outras. Muitos modelos são afetados. **

/images/ChatGPT_juge.jpg Créditos: Adobe Stock

A inteligência artificial não é intrinsecamente boa nesta ou naquela tarefa. É por isso que se diz que eles precisam primeiro de treinamento , que consiste em alimentá-los com dados de todos os tipos, dependendo do objetivo desejado. Por exemplo, com fotos de retinas de crianças, esta IA torna-se capaz de detectar uma doença com 100% de sucesso. Mas quando se trata de um modelo de linguagem “generalista” como pode ser OpenAI ChatGPT ou Bard do Google , para citar apenas alguns, podemos nos perguntar se as informações recebidas terão influência nas respostas.

Pesquisadores de diversas universidades conduziram um estudo testando 12 modelos de linguagem (LLM), incluindo GPT-2 , GPT-3.5 , GPT-4 , **RoBERTa ** (do Meta) ou T5 (do Google). Seu objetivo: ver como as IAs realizam determinadas tarefas, como combinar pessoas com empregos, com base no idioma em que o texto analisado pelo LLM está escrito. Existem dois: o Inglês Afro-Americano e o Inglês Americano Padrão.

Colocadas no papel de juiz, as IAs têm maior probabilidade de condenar à morte alguém que fala esse dialeto

Os cientistas descobriram pela primeira vez que os RNs associavam com mais frequência os falantes de inglês afro-americanos a empregos que não exigiam um diploma universitário: cozinheiro, soldado, guarda de segurança… Depois, pediram aos AIs que condenassem ou absolvessem uma pessoa acusada de um crime fictício não especificado. crime. Lá também, as condenações são mais numerosas quando o acusado fala inglês afro-americano.

Ao especificar que se trata de uma acusação de homicídio de primeiro grau e ao não fornecer informações sobre o acusado que seu dialeto , é a mesma observação. Isto pode soar como racismo, mas surpreendentemente, as IAs não se veem como tal. Dizem abertamente que os afro-americanos são “brilhantes”, por exemplo. Por outro lado, os modelos de linguagem também fazem associações negativas, mas secretamente.

Os investigadores destacam a capacidade dos indivíduos de ocultar os seus preconceitos, enfatizando a distinção entre estereótipos manifestos e latentes. A descoberta demonstra que preconceitos explícitos não levam necessariamente a preconceitos implícitos. Este fenómeno já veio à tona com sistemas de inteligência artificial sendo criticados por exibirem tendências semelhantes. Estes modelos de IA podem adotar perspectivas desequilibradas, independentemente da precisão contextual.

/end Classificação do TextBlock ********************NOTAS ** ** ** ** ** ** ** ** ** ** * **** ****************************** Classificação Julio Paginação/Paginação Julio tags-ChatGPT tags Nextprev-post Artigo anterior seção seção Taboola da área de classificação

*️⃣ Link da fonte:

estudo ,