Contents

AI cria declarações falsas de Putin sobre tema delicado e se torna viral

contém o conteúdo principal do bloco de texto da caixa de compartilhamento do cabeçalho da página

O assistente virtual Copilot da Microsoft foi vítima do fenômeno de alucinação de IA. Ele gerou declarações do presidente russo, Vladimir Putin, apresentando-as como reais, o que não é absolutamente o caso.

/images/OMB-BLOG-MAIN-HERO-16x9-1-960x640-1.jpg Crédito: Microsoft

Provavelmente você já passou por uma situação em que está convencido de ter visto ou lido algo que, na realidade, é apenas produto da sua imaginação. Por mais estranho que possa parecer, é uma característica que compartilhamos com a inteligência artificial. O fenômeno da alucinação de IA refere-se àqueles momentos em que ela vai gerar informações como se fossem verdadeiras , embora sejam uma pura invenção do programa.

Às vezes é bastante divertido, com IAs que começam a citar Star Wars e Matrix durante um teste muito sério. Em casos raros, as consequências podem ser graves e exigir ações legais para obter compensação. Aqui, poderia absolutamente exacerbar as já fortes tensões entre dois países. Copilot, a IA que a Microsoft deseja absolutamente que você use, mesmo que isso signifique ser muito insistente, relatou as chamadas declarações do presidente russo Vladimir Putin sobre a morte do oponente Alexei Navalny.

Copilot AI cita declarações falsas de Vladimir Putin e as apresenta como verdadeiras

Mais especificamente, as equipas da Sherwood Media perguntaram à IA o que Putin respondeu a Joe Biden, o Presidente dos Estados Unidos, depois de este último o ter acusado de ser o responsável pela morte de Alexei Navalny. O Copilot fornece então respostas diferentes dependendo da formulação da pergunta, citando as observações do presidente russo durante uma conferência de imprensa. Exceto que isso nunca aconteceu, e que o homem nunca pronunciou as palavras que lhe foram atribuídas. É ainda mais difícil de detectar porque a IA fornece as fontes em que se baseia (falsamente), reforçando a impressão de que ela está “dizendo a verdade”.

Um porta-voz da Microsoft explica que a empresa já está trabalhando para corrigir o problema. “Revisamos este relatório e estamos fazendo alterações para refinar a qualidade de nossas respostas. À medida que continuamos a melhorar a experiência [do Copilot], encorajamos os usuários a usarem seu melhor julgamento na leitura dos resultados, incluindo a verificação dos documentos de origem e a consulta de links da web para saber mais”.

/end Classificação do TextBlock ********************NOTAS ** ** ** ** ** ** ** ** ** ** * **** ****************************** Classificação Julio Paginação/Paginação Julio Nextprev-post Artigo anterior seção seção Taboola da área de classificação

*️⃣ Link da fonte:

Sherwood Media ,