Contents

O futuro é agora!

A introdução do processador móvel de última geração Snapdragon 8 Gen 3 da Qualcomm marca um marco significativo, pois permite a execução local de inteligência artificial generativa em smartphones, eliminando a necessidade de transmissão de dados para a nuvem. Espera-se que esta inovação melhore a privacidade e a segurança, mantendo informações confidenciais dentro do próprio dispositivo.

O lançamento antecipado do chip carro-chefe Snapdragon 8 Gen 3 da Qualcomm para smartphones de 2024 no final de outubro de 2023 apresenta uma ocasião para observar o surgimento de uma nova faceta dentro da narrativa mais ampla relativa à utilização pública de inteligência artificial-especificamente, a salvaguarda da vida privada. Historicamente, as apresentações de chips de alto desempenho enfatizaram capacidades computacionais aprimoradas ou prolongaram a vida útil da bateria; no entanto, o Snapdragon 8 Gen 3 desvia-se destas normas centrando-se em diferentes aspectos. Especificamente, seu potencial de desempenho, conforme afirmado pela Qualcomm, atinge aproximadamente 45 trilhões de operações por segundo, facilitando a capacidade de executar algoritmos complexos de IA nativamente, sem depender de

/images/39487283.jpg ©Qualcomm

IA generativa: o problema dos dados pessoais

O recente aumento na popularidade da IA ​​generativa deu origem a vários programas avançados, como ChatGPT, MidJourney e DALL-E, que possuem a capacidade de gerar porções substanciais de código, construir cartas de apresentação atraentes e produzir obras de arte visualmente impressionantes usando apenas um punhado de palavras-chave. Estas capacidades impressionantes foram possíveis através da utilização de sistemas de computação de alto desempenho equipados com poderosas unidades de processamento gráfico (GPUs). No entanto, este rápido avanço também deu lugar a inúmeras questões pertinentes, incluindo aquelas relativas aos direitos de propriedade intelectual, particularmente em relação a casos em que grandes organizações como a OpenAI parecem estar a treinar os seus algoritmos de IA em obras protegidas sem a devida autorização. Este infeliz desenvolvimento causou, compreensivelmente, considerável consternação entre

/images/39487280.jpg © Adrian Branco

ou seja, o que exatamente os servidores estão fazendo com nossas consultas? Eles retêm informações confidenciais sobre nossas vidas pessoais, como detalhes financeiros ou confidenciais, quando solicitamos a geração de textos ou imagens deles? Além disso, e os assistentes pessoais incorporados na nuvem, que se aprofundam nas nossas agendas e correspondências de e-mail para nos fornecer alertas úteis – que papel desempenham no tratamento dos nossos dados? Além disso, até que ponto estão seguros contra potenciais violações e ataques cibernéticos?

À luz das deficiências e vulnerabilidades inerentes associadas aos atuais paradigmas computacionais, tem havido um desenvolvimento simultâneo de técnicas de modelagem mais simplificadas, juntamente com um aumento nas capacidades de processamento do hardware de inteligência artificial. Espera-se que estes desenvolvimentos abram caminho a uma nova geração de sistemas generativos de IA altamente eficientes, que possam funcionar independentemente de servidores remotos e, em vez disso, operar diretamente em dispositivos pessoais. No entanto, deve-se notar que o ganho financeiro não é o único fator motivador por trás da busca desta inovação pela indústria.

Inteligência artificial: enormes necessidades computacionais

Nos anos anteriores, a Unidade de Processamento Neural (NPU) era considerada o único chip de inteligência artificial, embora isso não fosse totalmente preciso, uma vez que os cálculos de IA eram distribuídos entre vários componentes, como CPU, GPU e NPU, com base em seus requisitos específicos. No entanto, esta perspectiva mudou significativamente nos últimos tempos com o surgimento de chips adicionais que incorporam capacidades de IA, incluindo o modem, o processador de imagem da CPU e a unidade de processamento do sensor. Esses novos dispositivos agora possuem suas próprias unidades de computação de IA baseadas em tensores, tornando obsoleta a noção tradicional de um chip de IA exclusivo.

/images/39487278.jpg © Adrian Branco

Deve-se reconhecer que a capacidade máxima de processamento de IA de 45 TOPS promovida pela Qualcomm para seu Snapdragon 8 Gen 3 abrange as capacidades computacionais não apenas da unidade central de processamento (CPU), mas também da unidade de processamento gráfico (GPU) e do processamento neural. unidade (NPU). Esses componentes díspares possuem funcionalidades distintas, como supressão de ruído na comunicação e suavização de imagem, mas os algoritmos de IA contemporâneos tornaram-se progressivamente complexos e muitas vezes necessitam da utilização de múltiplas arquiteturas de computação durante sua implementação.

Para melhorar a produção de energia agregada, um fator crítico é a simplificação de certos cálculos. Historicamente, o processamento da inteligência artificial exigia um grau extraordinário de exatidão, sendo necessárias manipulações complexas de números inteiros para uma operação bem-sucedida. No entanto, através dos esforços diligentes de profissionais de engenharia e outros inovadores, os modelos de IA foram refinados para permitir precisões menos exigentes nos seus cálculos. Recentemente, surgiu uma abordagem predominante que emprega profundidades de bits tão baixas quanto 4, representando uma redução significativa em relação aos padrões anteriores de precisão de 8 ou mesmo 16 bits.

Na verdade, do ponto de vista operacional, a redução da precisão computacional apresenta um verdadeiro remédio para os processadores, uma vez que podem experimentar reduções exponenciais no tempo de processamento quando essa precisão diminui. Além disso, os avanços contínuos nas capacidades do processador garantem que, até ao final de 2023, uma empresa como a Qualcomm poderá lançar um chip de baixo consumo de energia capaz de suportar modelos sofisticados que incluam mais de dez mil milhões de parâmetros. Em essência, aproveitar a potência de um sistema semelhante ao ChatGPT, tudo dentro dos limites da mão.

/images/39487282.jpg © Adrian Branco

IA generativa local: modelos mais simples e personalizáveis

A execução de modelos de inteligência artificial em smartphones oferece a vantagem significativa de latência reduzida devido à ausência de uma cadeia de rede ou ordem de prioridade necessária para o processamento. Isto permite tempos de resposta mais rápidos em comparação com sistemas tradicionais baseados em nuvem, onde as solicitações podem estar sujeitas a atrasos causados ​​por alta demanda e limitações de recursos. Como resultado, a utilização de modelos de IA em dispositivos pessoais, como smartphones, pode proporcionar uma experiência de usuário perfeita que elimina a necessidade de conexões externas e aumenta a eficiência.

Uma vantagem significativa, embora menos evidente, diz respeito ao reforço das salvaguardas de privacidade. Apesar da ausência de quaisquer incidentes escandalosos envolvendo a OpenAI e entidades semelhantes, o grande volume de informações sensíveis processadas pelos seus servidores não pode ser ignorado. Esses sistemas de IA operam em uma infraestrutura robusta de computação remota na nuvem. No entanto, um ditado popular capta sucintamente a realidade – “não há nuvem; é simplesmente o computador de outra pessoa.” Esta mudança de paradigma em direção à automação despertou fascínio e receio entre as massas, com certas empresas apressando-se a adotar o ChatGPT e, ao mesmo tempo, contratando engenheiros rápidos e proficientes na elaboração de comandos precisos e eficientes. Consequentemente, procuram eliminar posições que dependem fortemente da automação

/images/39487285.jpg ©Qualcomm

Em contraste, transmitir um comando como “ilustrar uma personificação felina de James Bond encalhado no meio do terreno gélido do Ártico, à maneira de Piero della Francesca” provoca reações distintas em comparação com a transmissão de informações confidenciais do cliente para um servidor remoto com o propósito de criar um arquivo Excel. planilha ou permitir que um sistema de inteligência artificial navegue e utilize os dados privados de alguém para aprimorar seu assistente digital.

A introdução do LLaMA, um modelo linguístico leve desenvolvido pela Meta, empresa controladora do Facebook e do Instagram, representa uma mudança significativa no campo da inteligência artificial. Este sistema inovador permite a criação de modelos menores e mais eficientes que podem ser facilmente processados ​​por dispositivos de menor consumo de energia, como chips móveis. Ao simplificar a complexidade dos modelos tradicionais de IA através de precisão reduzida ou especialização direcionada, a indústria está a avançar no sentido da produção de IA capaz de funcionar em hardware móvel. A pegada computacional mais leve destes novos modelos, combinada com o potencial de processamento localizado, é uma promessa para promover uma maior personalização e funcionalidades de segurança melhoradas nos sistemas de IA. Como essas IAs executadas localmente são capazes de acessar informações pessoais, como calendários, e-mails e fotos,

IA local: limite a conta de energia

O setor tecnológico apresenta semelhanças marcantes com os princípios filosóficos defendidos por René Descartes. Ao mesmo tempo, os indivíduos nesta área são obrigados a pagar suas despesas de serviços públicos todos os meses. Não obstante, os custos de energia demonstraram uma volatilidade considerável durante o período de dois anos anterior. Portanto, qualquer redução nestas despesas é percebida como um alívio bem-vindo. Em vez de utilizar os recursos computacionais de um núcleo de processador Intel Xeon ou de uma GPU Nvidia substancial para produzir dois parágrafos coerentes em um servidor remoto, pareceria mais prudente confiar nas capacidades de processamento eficientes de chips de baixo consumo de energia, como aqueles encontrados em smartphones. Tecnologia System on Chip.

Na verdade, é importante diferenciar entre os termos “limitar” e “reduzir”. A migração de tarefas computacionais de data centers centralizados para dispositivos de ponta não resulta necessariamente na diminuição do consumo de energia, mas serve para mitigar o crescimento exponencial dos gastos elétricos. Esta mudança refere-se principalmente à implantação de modelos de IA pré-existentes, enquanto processos de formação mais complexos e com utilização intensiva de recursos continuam a ser conduzidos na infraestrutura em nuvem devido a restrições relacionadas com o poder de processamento e a capacidade de memória. A dinâmica competitiva entre as empresas que operam neste domínio é fortemente influenciada por estas complexidades.

Na verdade, a produção de um modelo leve necessita de recursos computacionais substanciais, que podem levar vários dias para serem concluídos. Os rápidos avanços na IA generativa, particularmente exemplificados pelo terramoto ChatGPT, aceleraram os esforços de investigação e desenvolvimento no terreno, dando origem a duas tendências distintas. Por um lado, tem havido uma proliferação de modelos altamente especializados concebidos para aplicações específicas. Ao mesmo tempo, estamos testemunhando o surgimento das chamadas “super IAs”, ou modelos básicos, que são significativamente maiores e exigem ainda mais tempo de treinamento. Esta crescente demanda por poder de computação levou alguns a se concentrarem na natureza intensiva de recursos desses processos, com a utilização de hardware cada vez mais potente. Por exemplo, o recentemente lançado GraceHopper da Nvidia

Com a chegada iminente dos processadores Snapdragon 8 Gen 3 de próxima geração, cabe agora à comunidade de software de dispositivos móveis criar e incorporar aplicativos compatíveis, aproveitando o imenso poder computacional oferecido por esses chipsets. Além disso, só podemos esperar que os utilizadores finais considerem tais esforços valiosos nos seus cenários de utilização diária.

*️⃣ Link da fonte:

Snapdragon 8 Gen 3, aceleração de rede neural chip , LLaMA ,