Contents

Revelando o futuro da IA ​​com a AWS no re:Invent 2023!

Para prever o futuro, é preciso examinar a situação atual. Conforme exemplificado pelo discurso final proferido por Werner Vogels, diretor de tecnologia da Amazon.com, no AWS re:Invent 2023, é essencial examinar atentamente o presente para visualizar o futuro. Durante o tempo que passamos em Las Vegas para este evento, tivemos uma visão desobstruída do cenário atual da AWS, o que nos forneceu informações valiosas sobre desenvolvimentos potenciais tanto na indústria de nuvem quanto em setores de tecnologia mais amplos, como IA. Ao aderir às orientações do Sr. Vogel, podemos aproveitar essas observações para fazer previsões informadas sobre a trajetória futura da AWS e seu impacto no mundo mais amplo da tecnologia da informação.

/images/AWS-reinvent-2023_13.jpg

Re:Invent 2023 suscitou expectativas consideráveis ​​em relação à posição da Amazon Web Services (AWS) em Inteligência Artificial Gerativa (IA), que inevitavelmente se tornou o tema central de toda a conferência. Embora alguns possam argumentar que a ausência de reviravoltas na história diminui a sua importância, tal afirmação seria equivocada, dadas as implicações pesadas das ofertas mais recentes da AWS neste domínio. Na verdade, se pressionado a destilar a essência do Re:Invent 2023 em uma única estrutura narrativa, não seria o destaque lançado sobre o Amazon Q, o assistente virtual frequentemente comparado ao ChatGPT, mas sim a imagem de Adam Selipsky, CEO da AWS, flanqueado por uma visão abrangente de todo o gênero

/images/AWS-reinvent-2023_01.jpg

Uma questão instigante a ser ponderada é a comparação entre o Amazon Q e outros assistentes virtuais renomados, como ChatGPT e Microsoft Copilot. Ao examinar esta questão, é possível discernir as estratégias divergentes empregadas por organizações como OpenAI, Microsoft e AWS no que diz respeito à inteligência artificial. No entanto, para abordar esta questão de forma abrangente, é essencial ir além do Amazon Q e examinar a “pilha de IA generativa” completa ilustrada pela AWS durante a sua apresentação no Venetian em Las Vegas.

A arquitetura Amazon Web Services (AWS) para inteligência artificial generativa pode ser categorizada em três camadas distintas, que incluem:

-Infraestrutura para treinamento e inferência de modelos de fundação -Instrumentos para desenvolver serviços e aplicações com grandes modelos de linguagem e outros modelos básicos -Aplicativos que dependem de modelos básicos

/images/AWS-reinvent-2023_09.jpg

Infraestrutura: o ponto de partida para a visão de IA da AWS

Durante o discurso proferido pelo Sr. Vogels, Diretor de Tecnologia da Amazon.com, em vez da AWS, foi enfatizado diversas vezes como o conjunto de serviços fornecido pela AWS permite que a principal plataforma de comércio eletrônico da Amazon atenda com eficiência a um número cada vez maior de de clientes globais superiores a centenas de milhões. Vogels ganhou a reputação de ser uma figura pouco convencional, aparecendo no palco vestido com uma camiseta casual, que, quando combinada com seu conjunto de habilidades excepcionais, lhe dá a liberdade de se expressar com franqueza. No centro da sua perspectiva mais ampla está o princípio da frugalidade, que engloba a ideia de atingir qualquer objectivo ao mesmo tempo que garante que as despesas correspondentes permanecem sustentáveis, estendendo-se para além do mero domínio da tecnologia.

/images/AWS-reinvent-2023_14.jpg

Seguindo essa linha de pensamento, Vogels formulou as “Sete Leis do Arquiteto Frugal”, que podem ser encontradas em detalhes em https://thefrugalarchitect.com/. Na era atual da inteligência artificial, onde o poder de processamento e os requisitos de armazenamento cresceram exponencialmente, a gestão eficiente destes recursos tornou-se crucial para evitar custos crescentes. O modelo de preços da AWS serve como um indicador transparente dos custos de uso do serviço para os clientes, tornando a frugalidade uma métrica útil para avaliar a eficiência da otimização de recursos. Ao adotar uma mentalidade frugal, não só se poupa dinheiro, mas também se minimiza a sua pegada ecológica. Consequentemente, é altamente recomendável adotar os serviços de infraestrutura da AWS e, ao mesmo tempo, alinhá-lo com a abordagem consciente dos custos da AWS.

Durante seu discurso de abertura, Adam Selipsky fez duas declarações dignas de nota, abrangendo tanto o lançamento do Graviton4 quanto o reforço da colaboração da empresa com a NVIDIA. Para aqueles interessados ​​em explorar as especificidades destas revelações, podem fazê-lo através do link fornecido. Contudo, é nossa intenção atual avaliar os méritos desses avanços no âmbito das ofertas de inteligência artificial da Amazon Web Services. Para esclarecer, Graviton representa uma linhagem de unidades de processamento baseadas em ARM que foram concebidas e alimentadas pela AWS, sendo posteriormente fornecidas aos clientes na forma de instâncias EC2 personalizadas com diversos recursos computacionais, como unidade central de processamento, capacidade de memória, capacidades de armazenamento, e redes

/images/AWS-reinvent-2023_03.jpg

Amazon Web Services (AWS) afirma que, quando se trata de fornecer poder computacional equivalente, as instâncias que utilizam Graviton possuem despesas notavelmente reduzidas em comparação com as diversas alternativas disponíveis no ecossistema AWS. Além disso, o recém-lançado Graviton4 apresenta um impressionante aumento de 30% na eficiência em relação ao seu antecessor. Além disso, durante o lançamento do Graviton4, a AWS apresentou o Trainium2, uma ferramenta especializada projetada especificamente para o treinamento de redes neurais artificiais. Embora a NVIDIA domine o setor de treinamento em IA, o compromisso da AWS em apresentar opções complementares levou-a a se tornar o primeiro provedor de serviços em nuvem a fornecer soluções de ponta NVIDIA GH200 Grace Hopper Superchip, que atualmente representa

/images/AWS-reinvent-2023_02.jpg

Amazon Q, ChatGPT e Copilot são três exemplos de sistemas generativos de inteligência artificial oferecidos pela Amazon Web Services (AWS). Embora ainda não possamos determinar como eles diferem no momento, podemos discernir a abordagem geral que a AWS adota em relação à IA generativa. Assim como o Graviton, que atende a vários propósitos além da IA, as GPUs Trainium e NVIDIA atendem especificamente às tarefas de IA. O SageMaker, outro componente da camada infraestrutural da pilha, permite aos utilizadores criar e desenvolver modelos de IA não generativos, embora a sua relevância permaneça intacta devido à natureza complementar de ambas as implementações. Ao contrário da AWS, outros provedores de nuvem podem não se concentrar nesta camada específica. Além disso, a AWS procura atender às necessidades de todo o mercado através de soluções versáteis que

Amazon Bedrock: a etapa intermediária na construção de aplicativos generativos de IA

A construção de um modelo fundamental ab initio envolve desafios e complexidades formidáveis, necessitando de competências especializadas. Em numerosos casos, tal empreendimento revela-se desnecessário devido à existência de empresas focadas na concepção e supervisão de modelos fundamentais, que podem posteriormente ser utilizados como blocos de construção para aplicações de software personalizadas. Ao residir no nível de inteligência artificial generativa da estrutura Amazon Web Services, projetada para desenvolvedores e provedores de serviços, o Amazon Bedrock ocupa uma posição intermediária entre o conjunto de ferramentas disponíveis.

/images/AWS-reinvent-2023_15.jpg

Amazon Bedrock oferece a seus clientes um serviço gerenciado que permite acesso via API a uma seleção de modelos básicos. Este serviço faz parte da segunda camada da pilha de IA generativa e fornece aos usuários da AWS ferramentas para desenvolver aplicativos em escala. Os principais modelos disponíveis na Bedrock incluem Amazon Titan, Claude da Anthropic, Llama 2 da Meta, Command e Embed da Cohere. A análise da lista de modelos disponíveis revela as implantações estratégicas que ocorrem no mercado de IA. Por um lado, está a AWS, que investiu US$ 4 bilhões em modelos proprietários e adquiriu a Anthropic. Por outro lado, a Microsoft investiu mais de US$ 10 bilhões em OpenAI. Empresas especializadas como a Cohere posicionam-se entre esses dois gigantes, oferecendo seus modelos não

/images/AWS-reinvent-2023_10.jpg

O conceito de utilização de dados proprietários em aplicações generativas de inteligência artificial foi explorado durante o discurso proferido por Swami Sivasubramanian, vice-presidente de banco de dados, análise e aprendizado de máquina da Amazon Web Services (AWS). Ele descreveu uma abordagem de desenvolvimento amplamente adotada que exige ancorar os resultados desses sistemas inteligentes em recursos de informação exclusivos de propriedade de empresas individuais. Esta estratégia garante que os dados corporativos confidenciais permaneçam seguros, ao mesmo tempo que permite que ferramentas orientadas por IA forneçam resultados personalizados. Ao empregar o Bedrock, as organizações podem ter certeza de que, independentemente do modelo que usem, ele não incorporará nenhum ativo de dados exclusivo que lhes pertença. Em vez disso, esses conjuntos de dados distintos são empregados exclusivamente dentro do “domínio” de cada cliente, permitindo que surjam descobertas personalizadas sem

/images/AWS-reinvent-2023_12.jpg

Um fator crucial no desenvolvimento de aplicações generativas de inteligência artificial capazes de produzir resultados relevantes reside na sua interação com diversos tipos de dados não estruturados. Textos, imagens, áudio e vídeo não podem ser compreendidos diretamente por esses modelos, mas sim por meio de “incorporações vetoriais”, que representam numericamente a essência dos próprios dados. Esses vetores têm dimensões variadas que variam de dezenas a milhares, dependendo da complexidade dos dados que devem encapsular. Embora a incorporação de um vetor possa ser comparada a um registro em um banco de dados relacional convencional otimizado para dados estruturados, precisamos de ferramentas adequadas para gerenciar dados não estruturados. Durante o re:Invent 2023, tivemos a oportunidade de discutir este assunto com Boris Bialek do MongoDB, um banco de dados especializado criado expressamente para lidar com dados não estruturados.

/images/AWS-reinvent-2023_11.jpg

Para compreender a disparidade entre estes dois métodos, Boris Bialek apresentou uma demonstração convincente. Numa plataforma de retalho online, uma consulta por “bolsa tan” (bolsa bege) produziu numerosos resultados irrelevantes utilizando uma base de dados convencional. No entanto, ao utilizar a pesquisa vetorial, apenas bolsas bege apareceram, pois o sistema atribuiu um significado distinto à combinação das palavras “bronzeado” e “bolsa” e poderia conectá-las a itens pertinentes.

Foi relatado que o MongoDB em breve será um dos bancos de dados vetoriais integrados ao Amazon Bedrock. Este desenvolvimento significa uma inovação importante, pois permite que plataformas semelhantes ao MongoDB, que também estão integradas com Bedrock, funcionem como o “hub central” ou conector entre ativos de dados corporativos e modelos generativos de inteligência artificial. Dado que a AWS mantém inerentemente toda a segurança da pilha de tecnologia e mantém informações proprietárias dentro de seu domínio, a incorporação do MongoDB no Bedrock poderia resultar em que ele se tornasse instrumental para a ideia de “recuperação aumentada”, o que significa que facilita a recuperação de dados altamente pertinentes e contextualmente relevantes. resultados gerados por um sistema de IA generativo.

Na verdade, a importância da gestão de dados no contexto da Inteligência Artificial não pode ser exagerada. A integração da IA ​​generalista com os dados da empresa é crucial para produzir resultados significativos. No entanto, à medida que a complexidade dos sistemas de IA aumenta, também aumenta a necessidade de conhecimentos especializados na gestão de grandes volumes de dados não estruturados. Sem organização e gestão adequadas, a eficácia destes sistemas diminui, tornando os seus resultados irrelevantes. Em conclusão, independentemente do sistema de IA específico considerado, a importância de uma gestão eficiente dos dados não pode ser subestimada.

O Amazon Q é realmente o ponto final para aplicativos generativos de IA?

Embora possa não ser aconselhável responder a uma pergunta com outra, examinar o status atual do Amazon Q revela que tirar uma conclusão definitiva sobre sua comparação com o ChatGPT é um desafio devido ao avanço substancial deste último. Consequentemente, seria apropriado reconhecer que os seus objectivos diferem significativamente; O ChatGPT atua como um serviço abrangente e aberto, enquanto o Amazon Q se concentra em tarefas especializadas. Embora o ChatGPT 4 permita que os usuários personalizem conteúdo específico, as preocupações com a privacidade dos dados dentro das corporações dificultam a utilização direta. À luz da segurança dos dados, comparar o ChatGPT com o Copilot para Microsoft 365 pode ser mais pertinente, conforme discutido anteriormente. No entanto, essas comparações permanecem dependentes da iniciativa empresarial.

/images/AWS-reinvent-2023_04.jpg

Amazon Q é um aplicativo avançado de IA criado especificamente pela AWS, representando a terceira camada de sua pilha. Para obter mais detalhes sobre o Amazon Q, consulte o link fornecido. Com o Amazon Q, a AWS pretende integrar-se perfeitamente com diversas fontes de dados, mantendo ao mesmo tempo o controle granular sobre as permissões do usuário, entregando resultados de pesquisa restritos apenas aos dados acessíveis. Embora o Amazon Q esteja atualmente em fase de visualização, ele difere do ChatGPT ou do Copilot porque requer configuração na plataforma AWS antes da ativação. Uma vez conectado, um aplicativo da web será gerado para acesso independente do usuário.

A estrutura operacional do Amazon Q, juntamente com toda a pilha de IA generativa da AWS, exemplificam a abordagem pioneira do primeiro hiperescalador do mundo. Ao contrário de outros fornecedores que oferecem aplicações pré-empacotadas aos utilizadores finais, a AWS apresenta uma plataforma complexa adaptável a qualquer requisito de inteligência artificial, seja generativa ou não. Notavelmente, essa versatilidade exige possuir o conhecimento de desenvolvimento necessário para construir aplicativos na plataforma. Inicialmente fundada como fornecedora de serviços de infraestrutura em nuvem, sendo o S3 seu sucesso inaugural, a AWS transformou-se progressivamente em uma plataforma abrangente que oferece inúmeros serviços. Assim, começou como um fornecedor de IaaS (Infraestrutura como Serviço) antes de se metamorfosear em um PaaS (Plataforma-*️⃣ Link da fonte:

https://thefrugalarchitect.com/ ,