Contents

Apresentando Claude versão 2.0

/images/0ad4e787a6d3af913bc38ab864c2bca989886f16de041ac498b760b6a4108ee8.jpg Logotipo Amazon Bedrock © Alexandre Boero/este site

A inteligência artificial generativa da AWS, Amazon Bedrock, atingiu um novo marco nos últimos dias ao aproveitar os novos recursos do modelo da Anthropic, o que o torna extremamente atraente.

Amazon Bedrock, há poucos dias, apresentou o novo Claude 2.1, a versão mais recente do modelo de linguagem (LLM) concorrente do. Este último promete abrir novas possibilidades criativas graças às suas capacidades aprimoradas e à sua integração no serviço totalmente gerenciado de , hospedado na nuvem AWS (Amazon Web Services). Durante a viagem de Las Vegas, este site tentou aprender mais sobre sua tecnologia, acessibilidade e enorme potencial.

Amazon Bedrock, o novo canivete suíço de IA generativa

Mas primeiro, o que é Amazon Bedrock? A plataforma surge como um serviço totalmente gerenciado, facilitando o acesso aos melhores modelos de linguagem da Meta, Anthropic, AI21 Labs, Cohere, Stability AI e Amazon. O serviço oferece uma gama de funcionalidades que permitem aos clientes desenvolver aplicações generativas de IA, chatbots e muito mais, ao mesmo tempo que garante a privacidade e segurança dos dados, com maior controlo operacional, uma vez que cada modelo não é suportado. um a um, não é seguro o suficiente.

E quanto a Claude 2.1? Chegou ao Amazon Bedrock. Com uma janela pop-up estendida para 200.000 tokens (acima de 100.000), Claude se destaca no processamento de documentos grandes (jurídicos, médicos e outros), de até 500 páginas. Anthropic relata ganhos significativos com alucinações em queda livre (-50%), uma redução notável em relatórios incorretos em comparação com versões anteriores.

Os modelos de linguagem (LLM) não têm estado e respondem a cada pergunta de forma independente, mantendo o contexto da conversa. A chave é, portanto, permitir-lhes manter uma história mais ampla, limitar as possibilidades de toxicidade e compreender documentos maiores, para ter um melhor impacto nas respostas.

A chave: incluir contexto nas perguntas feitas ao chatbot

geração aumentada de ajuste fino e recuperação (RAG). Qual é o seu mecanismo operacional?

O ajuste fino implica aprimorar um modelo de base existente, incorporando informações suplementares e conduzindo treinamento limitado sobre esse material. De acordo com Sébastien Stormacq, principal defensor dos desenvolvedores da Amazon Web Services, “esse processo pode ser trabalhoso em termos de tempo, pois requer uma iteração retreinada que dura várias horas ou até dias, com base nas dimensões da documentação que você deseja incluir”. Em última análise, o produto resultante é uma versão personalizada do modelo original, que requer hospedagem e implantação em recursos computacionais – um serviço facilitado pela Amazon Bedrock.

/images/dc73a40347c09bc69886272e2716d9690677c50eced77624bb96a30b1c01391f.jpg O logotipo da Amazon Web Services, na AWS re:Invent 2023, em Las Vegas © Alexandre Boero/este site

Para contextualizar um modelo, é essencial incorporar informações pertinentes na própria investigação, como afirma Sébastien. Por exemplo, se durante uma conversa corporativa forem solicitados detalhes sobre regulamentos de instrumentos financeiros entre datas específicas, o sistema de IA compreenderia a consulta e recuperaria toda a documentação relacionada, apresentando posteriormente esses materiais ao modelo para análise. Isso permite que o modelo processe as informações e forneça uma resposta adequada de acordo.

Procurando semelhança semântica, para tornar as respostas ainda mais relevantes

Quanto maior a janela de passagem de informações para o modelo, mais documentos de contexto podemos passar para ele, portanto mais relevante será a resposta que receberemos. “Se fizermos a questão de encontrar tais documentos regulamentares sobre tal ou tal coisa, como vamos saber que nos nossos petabytes de documentos são estes três documentos que devemos procurar? A ideia é indexar todos os documentos: criamos uma enorme base de dados com todos os documentos », nos imagina Sébastien Stormacq.

Se tradicionalmente indexamos documentos com palavras-chave, este não será o caso aqui. “ Transformamos cada documento em um vetor, portanto em uma série de números. E essa transformação é feita de tal forma que dois documentos que falam da mesma coisa terão vetores que serão próximos, que serão semelhantes entre si. “. Pesquisa semântica que acerta o alvo.

Um exemplo ilustrativo que cito frequentemente refere-se a documentos que discutem a cidade fronteiriça de Tombstone, Arizona, durante o seu período sem lei. Neste contexto, se alguém realizasse uma pesquisa baseada em palavras-chave sobre “Cowboy”, não produziria resultados relevantes, uma vez que o termo não aparece explicitamente no texto associado a Tombstone. No entanto, ao converter tanto as palavras-chave como o conteúdo destes documentos em vectores numéricos, as suas relações semânticas subjacentes podem ser capturadas de forma mais eficaz. Como tal, as consultas relacionadas com “Tombstone” ou “Cowboy” podem agora devolver resultados relevantes, uma vez que partilham temas comuns dentro da narrativa mais ampla em torno da Fronteira Americana.

O maior interesse dos vetores nas respostas fornecidas

Como geramos esses vetores? “Você pega todos os seus documentos: corta-os em pequenos pedaços, passa-os por um modelo para ter vetores para cada pedaço do documento, depois coloca tudo em um banco de dados especializado para fazer pesquisas sobre os vetores com muita facilidade”. Para cada parte do documento, um vetor é uma mensagem em um banco de dados especializado para facilitar a busca por vetores. Aí vem a famosa pergunta: “quais são os documentos regulatórios? »

O processo de resposta a esta consulta envolve passá-la por um Large Language Model (LLM) que a converte em um vetor numérico. Uma busca por vetores similares é então realizada no banco de dados, resultando de cinco a dez registros pertinentes. Estas são extraídas da base de dados e combinadas com a consulta inicial, formando um conjunto abrangente de informações. O LLM então utiliza esses dados para gerar uma resposta precisa e relevante com base nas informações fornecidas pelo usuário.

Através da utilização do Claude 2.1 e dos recursos fornecidos pela robusta plataforma AWS Cloud, os indivíduos têm a oportunidade de mergulhar em domínios inexplorados da expressão artística, tudo sem o fardo do intrincado gerenciamento de infraestrutura. Este avanço inovador na IA generativa ultrapassa os limites do que é possível e abre um mundo de potencial infinito para inovação.

*️⃣ Link da fonte: