Contents

Uma visão da perspectiva de um executivo do Google

O CEO do Google, Sundar Pichai, expressou sua desaprovação em relação a quaisquer casos de preconceito dentro do projeto da empresa, Gemini. É importante notar que tais preconceitos podem ser essenciais para manter um resultado equilibrado e justo ao utilizar a inteligência artificial.

/images/google-gemini-1200x677.jpeg Fonte: Google

Na semana passada, ocorreu uma infeliz série de eventos envolvendo a plataforma de inteligência artificial generativa Gemini do Google. Apesar de receber consultas sobre imagens que retratam indivíduos específicos, como “um soldado alemão de 1943” ou “senadores americanos do século 19”, foi relatado que a IA gerava sistematicamente conteúdo visual apresentando mulheres ou minorias étnicas, que eram factualmente incorretos e não reflete a investigação original.

/images/google-gemini-polemique-1200x777.jpg Imagens geradas pelo Google Gemini

Certamente, é correto afirmar que o feedback obtido foi altamente negativo e crítico. Certamente, alguns indivíduos questionaram o que consideraram um sistema de IA abertamente “acordado”, chegando mesmo ao ponto de o rotular como racista, com figuras notáveis ​​como Elon Musk a liderar o ataque. Consequentemente, uma vez levantadas estas preocupações, o Google tomou a decisão de interromper temporariamente a geração de imagens na plataforma Gemini, a fim de rever e melhorar os seus processos de geração de imagens.

“Isso é completamente inaceitável”

Após uma série de desafios, Sundar Pichai, CEO do Google, transmitiu sua opinião sobre o assunto por meio de um comunicado interno dirigido às equipes do Google, conforme noticiou o site Semafor. Sr. Pichai opta por não fugir ou esconder sua insatisfação em relação ao resultado do projeto Gemini.

Sei que algumas de suas respostas ofenderam nossos usuários e mostraram preconceito — para ser claro, isso é completamente inaceitável e erramos.

O Google tomou medidas significativas para resolver as preocupações relacionadas ao Projeto Dragonfly, fazendo melhorias substanciais e implementando mudanças estruturais. A empresa está empenhada em garantir a transparência no desenvolvimento de produtos e em melhorar o seu processo de lançamento para evitar controvérsias semelhantes no futuro. No centro deste esforço está o compromisso de encontrar informações verdadeiras através de avaliações e análises rigorosas.

Sempre procuramos fornecer aos nossos usuários informações úteis, precisas e imparciais em nossos produtos. É por isso que eles confiam em nós. Esta deve ser a nossa abordagem para todos os nossos produtos, incluindo produtos de IA.

Por que o preconceito da IA ​​é necessário

A utilização de inteligência artificial generativa tem enfrentado diversos desafios por parte das empresas de tecnologia. Na verdade, como mencionado anteriormente, todas as formas de IA são inerentemente tendenciosas devido à sua dependência de dados derivados da Internet. Foi o que aconteceu quando o aplicativo de fotos do Google fez uma comparação desfavorável entre um indivíduo negro e um primata há vários anos. Da mesma forma, nos últimos tempos, a Microsoft enfrentou acusações de insensibilidade racial em relação ao seu sistema editorial de IA.

Num esforço para mitigar os preconceitos inerentes aos sistemas de inteligência artificial, muitas organizações que empregam estratégias generativas de IA manipulam intencionalmente parâmetros de entrada para obter resultados mais diversos e representativos. Por exemplo, o Google empregou tais táticas ao incorporar sutilmente critérios para gerar imagens de mulheres executivas ou indivíduos de diversas origens étnicas em resposta a consultas de pesquisa relacionadas a “CEO” ou posições semelhantes. No entanto, casos recentes demonstraram que estes esforços podem por vezes levar a consequências indesejadas, em que o sistema produz resultados desproporcionalmente distorcidos, embora no extremo oposto do espectro.

*️⃣ Link da fonte:

Semafor ,