Contents

Revolucionando a IA em iPhones com a técnica de memória Flash da Apple!

Contents

Numa publicação recente, uma equipa de investigadores da Apple investigou o domínio da inteligência artificial e introduziu uma nova abordagem para implementar modelos de linguagem em larga escala em dispositivos com recursos limitados. Sua inovação envolve a utilização da memória flash de uma nova maneira para superar as restrições de armazenamento normalmente associadas a esses sistemas.

A funcionalidade de IAs generativas baseadas em texto, como ChatGPT e Claude AI, necessita de uma grande quantidade de memória para operar de forma eficaz. Consequentemente, esta restrição restringe a sua implantação em dispositivos de consumo com capacidade de memória limitada.

A equipe de pesquisa da Apple abordou esse problema desenvolvendo um método inovador que utiliza memória flash, que também é utilizada para armazenar dados e instalar aplicativos em smartphones.

O estudo começa com o reconhecimento da presença predominante de memória flash em dispositivos de consumo, caracterizada por sua velocidade excepcional nas operações de leitura e escrita. Ressalta-se que esse tipo de memória costuma ser encontrado em maior quantidade em relação à memória RAM, que é utilizada pelos Large Language Models (LLMs) como recursos essenciais para o gerenciamento dos dados necessários ao seu bom funcionamento. O foco do artigo reside no exame de duas técnicas específicas-nomeadamente “Windowing” e “Row-Column Bundling”. Esses mecanismos são projetados para aumentar a eficiência dos modelos de IA, empregando estratégias de reciclagem e simplificando os processos de recuperação de dados na memória flash.

/images/sirispy_720.jpg

A integração destes dois métodos apresenta uma oportunidade potencial para expandir as capacidades dos sistemas de inteligência artificial, aproveitando as sinergias entre eles. Ao utilizar ambas as abordagens simultaneamente, é possível aumentar significativamente a eficiência das operações de IA e, ao mesmo tempo, otimizar o uso dos recursos disponíveis, como a memória. Por exemplo, quando aplicada a dispositivos móveis como iPhones, esta abordagem combinada pode resultar num aumento de até quatro vezes na capacidade de memória, juntamente com melhorias correspondentes no desempenho da CPU que variam de quatro a cinco vezes mais. Além disso, a incorporação de unidades de processamento gráfico (GPUs) na equação poderia ampliar ainda mais os benefícios, levando potencialmente a uma melhoria impressionante de vinte a vinte e cinco vezes no poder computacional geral.

A metodologia proposta é uma promessa considerável para a implantação de Grandes Modelos de Linguagem (LLMs) de ponta em ambientes com recursos limitados, expandindo assim a sua gama de aplicações e melhorando a acessibilidade. A integração de um LLM em um dispositivo, como um smartphone como o iPhone, permite que os usuários aproveitem funcionalidades além daquelas oferecidas pelos assistentes de voz convencionais, incluindo tradução de idiomas em tempo real e meios inovadores de perceber e interagir com dados fotográficos por meio computacional ou aumentado. modalidades de realidade.

Na verdade, é sabido que a Apple está a investir recursos consideráveis ​​em investigação e desenvolvimento para produzir uma versão de ponta da Siri equipada com capacidades robustas de inteligência artificial e com profunda integração com tecnologias de IA. Especificamente, a empresa tem trabalhado secretamente em um projeto conhecido internamente como “Ajax”, que envolve a criação de um sistema de IA generativa altamente avançado. Embora haja indicações de que esta tecnologia inovadora possa ser integrada em futuras iterações do iPhone e iPad no próximo ano, ainda não está claro se os usuários terão acesso a uma tecnologia totalmente funcional no dispositivo naquele momento ou se uma solução híbrida envolvendo sistemas em nuvem e locais será oferecido inicialmente.

*️⃣ Link da fonte:

desenvolvendo uma nova técnica que utiliza memória flash ,