Contents

O avanço perigoso da OpenAI na IA geral?

Publicado em 23 de novembro de 2023 às 11h30 pelo cabeçalho do artigo

A jovem empresa OpenAI ganhou as manchetes ao lançar o robô conversacional ChatGPT no final de 2022, destacando a inteligência artificial generativa. Seu cofundador e CEO Sam Altman tornou-se uma figura da mídia que personifica esta revolução capaz de impactar profundamente a sociedade.

A ocorrência da sua demissão da OpenAI, seguida da sua subsequente recontratação pela Microsoft e da restauração final da sua posição anterior significa um evento de suma importância, dado que as especificidades que rodeiam esta sequência de eventos permanecem obscuras.

Enquanto espera para saber mais sobre o que levou o conselho da OpenAI a se separar do seu emblemático líder, a agência Reuters evoca a existência de um misterioso projeto Q Star (ou Q*) relatado numa carta de vários investigadores dirigida ao conselho e que diria respeito a uma importante descoberta em inteligência artificial, com preocupação com as potenciais consequências.

Um AGI que já é preocupante?

A correspondência acima mencionada é considerada um dos vários fatores que contribuíram para a erosão da confiança dentro do conselho de administração em relação ao Sr. Altman, decorrente da percepção de franqueza insuficiente da sua parte.

O projeto Q Start se concentraria no surgimento de uma inteligência artificial geral (AGI) que seria, portanto, capaz de superar a inteligência humana em muitas áreas.

/images/chatgpt_04b0032001688421.jpg

Com base nas declarações fornecidas pela Reuters, parece que esta IA avançada demonstrou a capacidade de resolver de forma independente desafios matemáticos específicos através de um processo de auto-evolução impulsionado pela sua proficiência na síntese e generalização de informação.

Numa correspondência supostamente submetida ao órgão de governo, foi alegado que foram expressas apreensões relativamente ao avanço desta inteligência artificial e à necessidade de implementar precauções de segurança. Lamentavelmente, a questão da libertação de uma IA na esfera pública sem considerar adequadamente os potenciais resultados adversos volta a repetir-se.

Recentemente, um painel de conceituados especialistas em inteligência artificial defendeu uma cessação temporária do avanço da IA, citando preocupações sobre o desencadeamento de perigos potenciais que podem pôr em perigo o futuro da humanidade.

A OpenAI quer ir rápido demais?

É concebível que uma inteligência artificial avançada possa emergir como um adversário formidável para a humanidade, levando potencialmente à sua erradicação. À luz desta possibilidade, vários países tomaram medidas para estabelecer quadros regulamentares e protocolos de segurança destinados a garantir o desenvolvimento e implantação responsáveis ​​de tecnologias de IA.

Através da disseminação desenfreada do ChatGPT, a OpenAI parece ter priorizado a conveniência em vez da cautela, optando por estabelecer a sua presença como líder da indústria ao ser a primeira a entrar no mercado, potencialmente à custa de salvaguardas de sistema adequadas. Esta decisão pode ter contribuído para a propagação generalizada de desinformação, exacerbado as preocupações com a deslocação de empregos e levantado dúvidas sobre o futuro do engenho humano.

As implicações da aplicação geral da inteligência artificial (IA) num determinado contexto podem ir muito além da mera novidade, evocando ramificações sociais significativas que merecem uma consideração cuidadosa, não obstante o entusiasmo que rodeia tal empreendimento. Na verdade, este assunto é suficientemente importante para suscitar apreensão mesmo entre os investigadores da OpenAI.

As recentes ocorrências em torno de Sam Altman podem refletir uma apreensão em relação a renunciar ao comando e um desejo por alguém mais comedido no comando. Sua retomada como CEO resultaria em uma mudança de tática ou, antes, em uma intensificação das iniciativas em andamento?

Fonte: Jornalista da Reuters para este site especializado em mobilidade/Ante-Geek das profundezas da Web e de outros lugares

*️⃣ Link da fonte:

Reuters,