Contents

Nenhuma pergunta respondida!

Contents

Gemini é um modelo de linguagem atualmente em desenvolvimento pelo Google que se absterá de se envolver em discurso político e se recusará a fornecer informações sobre as próximas eleições políticas. Este modelo pretende ser uma resposta ao GPT da OpenAI e faz parte de um esforço contínuo de Mountain View para aprimorar as capacidades de processamento de linguagem natural.

O Google forneceu recentemente informações sobre seus planos relativos à cobertura de eleições políticas em uma postagem de blog. A gigante da tecnologia anunciou que a sua nova abordagem seria inicialmente implementada na Índia, uma vez que as eleições estão marcadas para abril. Depois disto, uma táctica comparável será aplicada na Europa, onde as eleições para renovar o Parlamento Europeu estão marcadas para Junho, e mais tarde nos Estados Unidos, onde as eleições presidenciais estão marcadas para Novembro. Ambas as regiões expressaram preocupações sobre os riscos potenciais associados à divulgação de informações falsas, particularmente no que diz respeito à utilização de modelos generativos de IA que podem exacerbar tais problemas.

/images/googlegemini_720.jpg

Gemini, um modelo de aprendizado de máquina desenvolvido pelo Google, fornece respostas a dúvidas sobre processos eleitorais por meio de sua vasta base de conhecimento e algoritmos. No entanto, devido a preocupações em torno do potencial uso indevido durante as eleições, o Google restringiu o escopo das questões que pode abordar sobre este tópico. Um representante da empresa afirmou no início do ano passado que estavam a tomar precauções antes das inúmeras eleições agendadas globalmente para 2024, limitando assim o tipo de consultas relativas às eleições para as quais a Gemini ofereceria informações.

Até que ponto Gémeos restringirá as suas respostas a questões políticas relacionadas com eleições permanece incerto. Embora existam preocupações crescentes relativamente ao potencial de desinformação devido aos avanços na IA generativa, vários países, incluindo a Índia, tomaram medidas para regular essas tecnologias, exigindo autorização antes do lançamento de ferramentas de IA experimentais ou não testadas.

No mês de fevereiro, o Google apresentou um pedido de desculpas após o lançamento de sua mais recente tecnologia de geração de imagens alimentada por IA, que produziu uma imagem representando os Pais Fundadores dos Estados Unidos, que infelizmente apresentava uma pessoa de ascendência africana. Além disso, ao utilizar o mesmo sistema para criar imagens de soldados nazistas vestidos com trajes militares da Segunda Guerra Mundial, gerou erroneamente a imagem de um indivíduo negro e também de uma mulher asiática.

O Google interrompeu temporariamente o polêmico algoritmo depois que vários casos de informações incorretas apresentadas como fatos foram identificados. A empresa então divulgou uma declaração de acompanhamento detalhando os fatores responsáveis ​​pelos erros, ao mesmo tempo em que reconheceu problemas semelhantes encontrados por seu sistema alternativo de IA conversacional conhecido como Bard durante uma demonstração inicial. Parece que o Google pode ter ignorado o impacto potencial das ferramentas avançadas de inteligência artificial generativa, concentrando-se em vez disso na tecnologia de pesquisa convencional, levando a um atraso em relação aos concorrentes que desde então fizeram avanços substanciais.

*️⃣ Link da fonte:

postagens do blog, postagens do blog ,