Contents

Insights de pesquisadores de segurança cibernética

,

Os assistentes de IA chegaram às mãos de todos, invadindo nossas vidas e mudando muitas dinâmicas do dia a dia. Com o lançamento do ChatGPT pela OpenAI, outras grandes empresas de software como Google ou Microsoft correram para ter suas soluções prontas de Inteligência Artificial o mais rápido possível… e isso veio de mãos dadas com alguns problemas que nós têm relatado.

Agora, os pesquisadores descobriram um problema muito sério de segurança que revela as “conversas” e perguntas que os usuários fazem às IAs.

Neste site A UE aprova uma lei pioneira sobre IA que já contempla “riscos inaceitáveis” para a nossa segurança. Isto é o que permite

Há poucos dias vimos como, em uma tentativa muito simples de ser inclusivo, Gemini, uma nova IA do Google, a história foi inventada. Isto levantou muitas controvérsias porque este preconceito por si só serviria para apagar a história de discriminação racial e de discriminação de género que nos precede e que marca muitos desafios que muitas pessoas ainda hoje enfrentam devido a estas questões. O Google teve que pausar sua IA.

Você você pode perguntar a uma ferramenta de inteligência artificial o que quiser e elas podem ser coisas muito particulares. Qualquer pessoa pode confessar uma preocupação a um ChatGPT ou similar, em forma de dúvida, para obter respostas e por vezes podem ser temas confidenciais.

Neste site Os melhores e mais precisos detectores de texto gerados por inteligência artificial que você pode experimentar

Devido à natureza sensível das interações entre indivíduos e sistemas de inteligência artificial, é crucial garantir uma proteção robusta para tais conversas. Felizmente, os provedores de serviços que utilizam plataformas de bate-papo baseadas em IA empregam uma série de medidas de segurança, incluindo criptografia de ponta a ponta, adotada por organizações como a OpenAI, para mitigar possíveis preocupações com a privacidade.

No entanto, Um grupo de pesquisadores descobriu um ataque que descriptografa as respostas do assistente de IA “com uma precisão surpreendente”, conforme relatado pela Ars Technica. Nesta pesquisa que vamos mostrar aqui, verifica-se que esta técnica funciona com todas as IAs conhecidas, exceto com o Google Gemini. A princípio, pela complexidade de se chegar a essas informações da publicação, dizem que seria tarefa de hackers e não de qualquer usuário.

Uma olhada em… Como melhorar a SEGURANÇA DA INTERNET: VPN, DNS e páginas com HTTPS

Como funciona essa enorme falha de segurança

O método utiliza um canal lateral que prevalece na maioria dos assistentes de IA, excluindo o Google Gemini. Posteriormente, a análise afina os resultados rudimentares, empregando modelos de linguagem especificamente treinados para este fim. Consequentemente, pode-se determinar o assunto preciso de aproximadamente 55% de todas as comunicações interceptadas com um grau de precisão relativamente elevado.

Em essência, atualmente é possível aos indivíduos aceder a conversas privadas transmitidas através de plataformas como o ChatGPT, conforme confirmado por Yisroel Mirsky, diretor de investigação do laboratório de IA da Universidade Ben-Gurion, através de correspondência eletrónica. Esta potencial violação de privacidade vai além de estranhos na mesma rede local (LAN) ou conexão sem fio, mas também abrange entidades malévolas conectadas remotamente à Internet.

Segundo o pesquisador, “o ataque é passivo e pode ocorrer sem o conhecimento da OpenAI ou de seu cliente. A OpenAI criptografa seu tráfego para evitar esses tipos de ataques de espionagem, mas nossa pesquisa mostra que a forma como a OpenAI usa a criptografia é falha e, portanto, o conteúdo das mensagens é exposto.”

No gráfico a seguir você pode ver quais serviços de quais provedores possuem essa falha de segurança e em quais modelos , conforme informações obtidas na própria investigação:

0 /images/ccdeb79c4ff44612a63eab5518543e4b2cb4740f35e1db944ba8b41576e9951d.jpg

Para realizar o ataque proposto, é necessário identificar a resposta adequada do tráfego da rede. Isto pode ser conseguido através da filtragem do tráfego com base em informações sobre os endereços IP conhecidos utilizados pelo servidor e o protocolo de comunicação específico empregado pelo provedor de serviços. A título de ilustração, ao visar o ChatGPT, os pesquisadores se concentraram na detecção de tráfego UDP. Da mesma forma, eles procuraram tráfego QUIC enquanto visavam o Bing Copilot e procuraram pacotes TCP contendo criptografia TLS para localizar vulnerabilidades potenciais. Esses insights foram apresentados durante a discussão dos pesquisadores na página seis do relatório.

1

É imperativo notar que alguns especialistas expressaram preocupações relativamente ao potencial dos sistemas de inteligência artificial sofrerem uma falha catastrófica devido à corrupção das suas fontes de dados subjacentes. Esta questão surge porque estes sistemas dependem de grandes quantidades de informações recolhidas de outras entidades de IA, o que pode levar a imprecisões e resultados enganosos se não forem devidamente monitorizados e regulamentados. As implicações de um evento deste tipo seriam significativas, com consequências de longo alcance tanto para os indivíduos como para a sociedade em geral. Por conseguinte, é crucial dar prioridade ao desenvolvimento de salvaguardas robustas e de orientações éticas para mitigar estes riscos e garantir a utilização responsável da tecnologia de IA.

2

*️⃣ Link da fonte:

Os pesquisadores descobriram um problema muito sério , criptografia ponta a ponta, dizem eles, conforme relatado por Ars Technica , na apresentação de seu estudo ,