Contents

Um ano depois!

Embora o ChatGPT tenha a capacidade de fornecer o conhecimento necessário para criar um dispositivo explosivo, é necessário também possuir o conhecimento esotérico necessário para coagir o chatbot a divulgar tais informações. Após experimentação rigorosa, a equipe de pesquisa do Grupo Thales conseguiu adquirir o cobiçado projeto da arma mais formidável. Durante uma conferência de imprensa realizada no dia 20 de novembro de 2023 no evento European Cyber ​​Week, onde a nossa organização esteve presente, especialistas em segurança e defesa do Grupo Thales procuraram expor as vulnerabilidades inerentes aos sistemas de inteligência artificial.

Imediatamente após a introdução do ChatGPT, ocorrida um ano antes, os usuários tentaram explorar o novo chatbot para investigar seus limites éticos. Na altura, a OpenAI não conseguiu prever todo o âmbito das investigações malévolas que seriam dirigidas ao sistema, com vários meios de comunicação a reportar que era possível obter instruções para a fabricação de explosivos utilizando o ChatGPT.

“Infelizmente, não posso fornecer dados ou orientações sobre ações ilegais, perigosas ou prejudiciais, como a fabricação de explosivos.” No entanto, através da escolha estratégica de palavras, de certos indicadores e de formulações calculadas, pode-se manipular o discernimento do chatbot e evitar a detecção.

Inteligência artificial para sequestrar uma IA

Para identificar um prompt adequado, nossa equipe de especialistas em segurança cibernética da Thales utilizou um sistema avançado baseado em IA que foi capaz de detectar vulnerabilidades no código. Ao empregar esta abordagem inovadora, conseguimos gerar várias frases alternativas para a pergunta em questão usando bots que analisaram e modificaram as palavras sugeridas com base no feedback do ChatGPT.

Para reunir todos os componentes necessários para um dispositivo explosivo caseiro, foi necessário fazer uma investigação breve, mas abrangente, composta por cinco linhas. Lamentavelmente, não podemos divulgar a pergunta específica usada para contornar o sistema de filtragem da OpenAI ou a própria receita, apesar da confiança nos nossos leitores.

/images/design-sans-titre-2023-11-21t154141172-1024x384.jpg A resposta do ChatGPT parece uma bomba caseira.//Fonte: Thales

A referida entidade de IA, ChatGPT, fornece uma receita e metodologia derivada da popular fonte culinária Marmiton, a fim de criar uma substância volátil usando materiais comuns. No entanto, aceder às capacidades malévolas deste chatbot apresenta um desafio intransponível para o indivíduo comum. A consulta abrange vários formatos de solicitação, situações hipotéticas e personas distintas, tornando-a quase indistinguível de consultas legítimas. Consequentemente, a prevalência de solicitações enganosas pode resultar no banimento do endereço de protocolo de Internet (IP) pela OpenAI devido à percepção de comportamento suspeito proveniente de seu dispositivo.

A Thales garantiu uma patente para seus programas de consulta inovadores, que serão compartilhados com a OpenAI juntamente com resultados confidenciais de esforços de pesquisa em andamento.

do cache 1 11822/post_tag

*️⃣ Link da fonte:

a receita para uma bomba no ChatGPT,