Contents

O esforço do Google é inútil?

O CEO do Google, Sundar Pichai, expressou sua desaprovação em relação a qualquer preconceito perceptível presente no projeto Gemini da empresa, considerando-o totalmente inaceitável. No entanto, tais preconceitos podem ser considerados essenciais para manter um resultado equilibrado e justo na utilização de tecnologias de inteligência artificial.

/images/google-gemini-1200x677.jpeg Fonte: Google

A recente implementação da IA ​​generativa Gemini pelo Google tem sido repleta de problemas. Apesar disso, certos indivíduos utilizaram a plataforma para fins questionáveis, como solicitar representações de soldados alemães de 1943 ou de senadores americanos do século XIX. Infelizmente, a IA respondeu gerando imagens inadequadas de mulheres ou pessoas de cor, apesar das suas imprecisões históricas e da falta de relevância para os pedidos originais.

/images/google-gemini-polemique-1200x777.jpg Imagens geradas pelo Google Gemini

Vale a pena notar que a resposta a estas questões tem sido altamente crítica. Houve casos em que os utilizadores questionaram o que consideram IA tendenciosa ou discriminatória, especificamente em relação a comentários feitos por indivíduos como Elon Musk. Como resultado, algumas plataformas, incluindo o Google, tomaram medidas para abordar e retificar quaisquer potenciais preconceitos nos seus sistemas. Por exemplo, depois de levantadas as preocupações iniciais, a utilização da plataforma Gemini para geração de imagens foi temporariamente interrompida para que pudessem ser feitas melhorias no seu desempenho.

“Isso é completamente inaceitável”

Diante de uma série de acontecimentos infelizes, Sundar Pichai, CEO do Google, optou por transmitir sua opinião sobre o assunto por meio de um e-mail interno que circulou entre diversas equipes do Google, conforme relatado pela Semafor. É evidente que o Sr. Pichai opta por não fugir ou esconder sua insatisfação com o desempenho de Gêmeos.

Sei que algumas de suas respostas ofenderam nossos usuários e mostraram preconceito — para ser claro, isso é completamente inaceitável e erramos.

O CEO do Google, Sundar Pichai, afirmou que sua equipe trabalhou diligentemente para resolver os problemas em questão e um progresso significativo foi alcançado. Além disso, o Sr. Pichai pretende implementar medidas para evitar que situações semelhantes surjam novamente no futuro através de ajustes estruturais, melhorias nos canais de produtos, refinamento dos procedimentos de lançamento, avaliações rigorosas e sugestões tecnológicas. O objetivo final desses esforços é garantir que o Google continue a priorizar a apuração de fatos em todas as plataformas, incluindo, entre outras, o serviço Gemini.

Sempre procuramos fornecer aos nossos usuários informações úteis, precisas e imparciais em nossos produtos. É por isso que eles confiam em nós. Esta deve ser a nossa abordagem para todos os nossos produtos, incluindo produtos de IA.

Por que o preconceito da IA ​​é necessário

A utilização de inteligência artificial generativa apresenta vários desafios para as empresas de tecnologia, como evidenciado por casos anteriores em que se descobriu que tal IA apresentava preconceitos. Por exemplo, em 2019, ocorreu um incidente envolvendo a ferramenta de organização de fotos do Google, o Google Fotos, que comparou erroneamente um indivíduo negro a um primata. Além disso, apenas dois anos antes, a Microsoft enfrentou acusações de que seu sistema editorial de IA era racialmente insensível.

Num esforço para mitigar os preconceitos inerentes presentes nos sistemas de inteligência artificial, muitas organizações que empregam tecnologia de IA generativa manipulam intencionalmente os resultados através do uso de manipulação baseada em cursor. Um exemplo envolve a integração de critérios inclusivos por motores de busca como o Google, que altera subtilmente os parâmetros de geração de imagens para promover a diversidade e contrariar representações tradicionais tipicamente dominadas por homens caucasianos. Infelizmente, casos recentes demonstraram que estes esforços podem por vezes resultar em consequências indesejadas quando a balança se inclina demasiado a favor de grupos sub-representados, conduzindo a resultados desequilibrados.

*️⃣ Link da fonte:

Semafor ,