Contents

Apresentando Claude 2.1 em meio à turbulência da OpenAI

Publicado em 22 de novembro de 2023 às 16h40. por cabeçalho do artigo

Os últimos dias foram marcados pelas atribulações de Sam Altman , cofundador e diretor da OpenAI empurrado no fim de semana passado para a saída pelo conselho de administração, colocado sob a proteção da Microsoft antes de finalmente retornar à o comando de sua empresa na origem do ChatGPT e a rápida ascensão da IA ​​generativa.

E embora a OpenAI se encontre numa posição difícil, a startup concorrente Anthropic, criada por ex-alunos da OpenAI ansiosos por oferecer uma IA mais ética e já apoiada por parceiros fortes como Google e Amazon, está a aproveitar a oportunidade para avançar os seus projetos.

Coincidência do calendário ou não, é durante a atormentada fase de governança OpenAI que opta por apresentar a última evolução de sua própria inteligência artificial Claude , em sua versão 2.1.

Reduza as alucinações, aumente o campo de análise

O modelo de linguagem (LLM) apresenta-se como uma alternativa cada vez mais sólida ao ChatGPT e que poderia oferecer perspectivas mais seguras enquanto a OpenAI se vê presa em conflitos de interesses que acabam por oprimi-la.

Claude 2.1 está a progredir em vários pontos, incluindo o da redução das alucinações, estas falsas afirmações apresentadas como verdades das quais as inteligências artificiais podem ser vítimas quando são levadas aos seus limites lógicos.

/images/anthropic-claude-ia_05a2034901692603.jpg

A taxa de alucinações foi dividida por dois em comparação com a versão Claude 2.0, o que fortalece assim a qualidade das respostas e a confiabilidade da IA ​​em uso, anuncia seu criador. A IA deveria ser mais matizada em suas respostas, em vez de fazer declarações falsas e enganosas.

A Anthropic também aumentou o limite para a quantidade de informações que Claude pode ingerir para analisar uma consulta 200.000 tokens , o equivalente a aproximadamente 150.000 palavras ou 500 páginas de documentos.

Este novo limite deve facilitar o uso de IA generativa para análise de documentos complexos, sejam financeiros, acadêmicos ou comerciais, para então elaborar resumos ou responder perguntas sobre seu conteúdo.

A IA da Anthropic, que opera em um modelo generativo, busca se destacar além do ChatGPT em áreas específicas, servindo como referência para organizações que buscam analisar documentos complexos ou resolver questões complicadas relacionadas à indústria ou ao comércio.

Combinando poder e controle

A luta pelo domínio no domínio da inteligência artificial generativa continua inabalável dentro de uma indústria que permanece em um estado de fluxo, mas em que ChatGPT emergiu como um player proeminente através de seu lançamento inicial no final de 2022, com a intenção de desalojar entidades rivais e apesar das deficiências na sua concepção relativas especificamente às medidas de protecção e às limitações destinadas a prevenir o uso indevido, como a fabricação de informações falsas.

Os avanços recentes visam colmatar as deficiências iniciais que acompanham a sua introdução, ao mesmo tempo que implementam a supervisão de vários órgãos ou organizações governamentais, numa tentativa de obter uma compreensão e controlo abrangentes sobre território desconhecido, conduzindo, em última análise, a melhores condições e resultados para todos. No entanto, esta procura também pode apresentar riscos potenciais para o bem-estar social, ou mesmo representar ameaças à própria existência da própria humanidade.

Fonte: Jornalista Antrópico deste site especializado em mobilidade/Ante-Geek das profundezas da Web e de outros lugares

*️⃣ Link da fonte:

Antrópico ,