Contents

Descobrindo uma ameaça mundial antes de dizer adeus ao CEO da OpenAI!

Contents

Antes da demissão de Sam Altman, CEO à frente da OpenAI, vários pesquisadores do quadro da empresa que administra o sistema de inteligência artificial ChatGPT haviam enviado uma carta ao conselho de administração alertando sobre uma importante descoberta na área da inteligência artificial, algo que pode se tornar uma ameaça para a humanidade.

De acordo com fontes da OpenAI que preferiram permanecer anónimas, um memorando confidencial sobre a potencial saída de um dos seus executivos vazou para a Reuters. A carta mencionava certos algoritmos de IA e gerou polêmica dentro da empresa, levando a especulações sobre a demissão do executivo. No entanto, ele foi reintegrado posteriormente.

Após seu tão aguardado retorno à organização, que foi endossado de todo o coração pela grande maioria da força de trabalho da OpenAI por meio de uma petição enfática que transmitia seu apoio inabalável ou enfrentava o êxodo coletivo da empresa, Greg Allen Altman já havia conseguido um emprego na Microsoft. À luz destes desenvolvimentos recentes, foi anunciado que vários dos actuais membros do Conselho de Administração irão renunciar, enquanto apenas um deles manterá a sua posição na próxima reestruturação.

/images/intelligenza-artificiale-donna.jpg Imagem do Pixabay

De acordo com fontes citadas pela Reuters, o projeto denominado Q * (pronuncia-se Q-Star) é referido internamente como um avanço notável em direção à superinteligência, conhecida como inteligência artificial geral (AGI).

OpenAI define AGI como um sistema de IA ainda mais inteligente; ao explorar vastos recursos computacionais, o novo modelo é capaz de resolver alguns problemas matemáticos. São problemas simples, mas ao contrário da IA ​​generativa, que gera textos ou sequências de palavras sucessivas sempre diferentes, com base em contextos anteriores, **AGI deve sempre fornecer uma resposta precisa, elemento que implica capacidades de raciocínio que lembram as do ser humano. **

Essa forma de “pensar” poderia ser aplicada à pesquisa científica. Em vez de resolver um número limitado de operações, a AGI é capaz de generalizar, aprender e compreender. Na carta ao conselho de administração, os pesquisadores referiram-se a essas habilidades como perigosas; Fontes da Reuters não indicaram especificamente quais são as preocupações de segurança, mas os perigos da IA ​​e as possíveis consequências da tecnologia fora de controle já são discutidos há algum tempo.

O filósofo sueco Nick Bostrom, hoje diretor do Instituto do Futuro da Humanidade da Universidade de Oxford, define superinteligência como"qualquer intelecto que exceda em muito o desempenho cognitivo dos seres humanos em quase todos os domínios de interesse", explicando que a lacuna que seria criada entre a superinteligência e a inteligência humana seria comparável àquela entre um ser humano e um verme. Só que desta vez o verme somos nós.

Você pode encontrar todos os artigos de notícias relevantes relativos à Inteligência Artificial nesta página específica do nosso site.

*️⃣ Link da fonte:

citado,