Contents

Desmascarando mitos sobre a Super IA da OpenAI, Q* – Perspectiva de Especialistas

Os relatórios sugerem que uma suposta descoberta inovadora da OpenAI pode ter o potencial de impactar significativamente a civilização humana indefinidamente. Embora a Reuters não tenha conseguido confirmar esta informação, fontes afirmam que os membros do conselho da OpenAI foram informados do progresso de um projeto potencialmente perigoso supervisionado por Sam Altman. A subsequente rescisão do cargo do Sr. Altman em 17 de novembro alimentou especulações sobre a natureza deste projeto, com Elon Musk e aqueles associados a ele divulgando rumores em torno do envolvimento do Sr.

Num sentido concreto, este grupo de investigadores examinou a autorização de Sam Altman para a criação de uma inteligência artificial capaz de “raciocínio lógico” especificamente para resolver dilemas matemáticos, enquanto os sistemas de IA generativos só conseguem lidar com a linguagem neste momento. Este empreendimento, conhecido como Projeto Q\*(Q Star) dentro da OpenAI, está de fato em andamento. A organização reconheceu a sua existência, embora ainda não esteja claro se este projecto desempenhou um papel na demissão de Altman, uma vez que o conselho de administração ainda não deu qualquer explicação sobre os motivos da sua saída.

À luz da experiência de Yann LeCun como figura líder em inteligência artificial na Meta, ele considera o discurso atual em torno do Q* uma barragem esmagadora de falácias e inconsistências. Apesar de anos de extensa investigação e exploração no campo, Q* continua a ser apenas mais um projeto entre muitos outros.

/images/capture-decran-2023-11-25-a-122019-1024x857.png Tweet de Yann LeCun.//Fonte: X

Ensinar uma IA a antecipar suas respostas é apenas evolução

Concretamente, Yann LeCun diz:

“Por favor, ignore a enxurrada de bobagens sobre Q*. Um dos principais desafios para melhorar a confiabilidade dos modelos de linguagem é substituir a previsão de tokens auto-regressiva pelo planejamento.

Uma infinidade de instalações de investigação proeminentes, incluindo FAIR, DeepMind e OpenAI, estão ativamente empenhadas na exploração deste tópico, tendo várias já divulgado as suas descobertas e insights.

Parece que Q\* pode ser uma iniciativa empreendida pela OpenAI, com foco no planejamento. A organização recrutou os serviços de Noam Brown, que esteve anteriormente envolvido em projetos como Libratus e Cicero, ambos relacionados com poker e diplomacia, respetivamente.

/images/yannlecun-cover-1024x576.jpg Yann LeCun é um dos pesquisadores mais respeitados em inteligência artificial.//Fonte: YouTube/USI Events

Em essência, os modelos linguísticos contemporâneos, como o GPT-4, empregam uma abordagem autorregressiva na geração de texto, em que cada token subsequente é previsto com base na sua contraparte anterior. No entanto, este processo sequencial impõe restrições a estes modelos, tornando-os incapazes de resolver múltiplas tarefas simultaneamente.

Talvez no futuro, através de um planeamento e execução cuidadosos, um modelo de linguagem possa ser capaz de formular respostas que sejam guiadas por objectivos de longo prazo, em vez de serem ditadas por tokens individuais. Tal abordagem permitiria a geração de respostas mais coesas e logicamente consistentes, potencialmente permitindo até mesmo a resolução de problemas matemáticos complexos.

Numa entrevista com Yann LeCun, que defende uma maior exploração do tema desde 2016, foi revelado que a investigação sobre planeamento começou durante a década de 1980. Apesar das afirmações feitas pela OpenAI sobre o seu progresso nesta área, LeCun permanece cético quanto às suas conquistas. Caso Q\* seja o modelo de linguagem experimental desenvolvido pela organização de Sam Altman, seu desempenho não poderá superar o de outras instituições. Além disso, mesmo que exibisse capacidades excepcionais, não poderia replicar os processos cognitivos dos humanos. Em vez disso, pode ser excelente no tratamento de questões ou tarefas específicas.

O medo habitual da inteligência artificial

O fenómeno de entusiasmo generalizado em torno de Q\*, vulgarmente referido como o “efeito Terminator”, pode ser atribuído ao fascínio das pessoas pela inteligência artificial e à sua tendência para perceber a IA como mais inteligente do que realmente é. Um exemplo disso ocorreu quando um pesquisador do Google acreditou que sua IA havia desenvolvido sentimentos por ele, destacando o potencial de autoengano no domínio do desenvolvimento da IA.

Embora o avanço do Q possa levar a uma versão mais avançada do ChatGPT com maiores capacidades, tais avanços não o transformariam numa Inteligência Artificial Geral (AGI) ou numa entidade artificial consciente. Esta noção é considerada tecnicamente impraticável por especialistas como Yann LeCun, que enfatiza que não existe uma definição cientificamente estabelecida para AGI, pelo que permanece apenas uma invenção da imaginação. No entanto, a sociedade ainda tende a perceber a AGI como uma ameaça potencial.

A assinatura de nossa estimada publicação por meio da plataforma Google News garante que você permaneça informado sobre todos os eventos e desenvolvimentos atuais, facilitando assim um fluxo ininterrupto de informações e mantendo-o atualizado com os acontecimentos globais em tempo real.

do cache 1 12968/post_tag

*️⃣ Link da fonte:

Reuters, X , Eventos YouTube/USI ,