Contents

Conheça os irmãos sinistros do ChatGPT

Contents

,

A inteligência artificial provou recentemente ser capaz de nos ajudar a gerar conteúdos (escritos ou visuais) cada vez mais realistas e adaptados às nossas exigências. E eles são capazes de fazer isso independentemente de nossas exigências serem mais ou menos éticas.

Assim, por exemplo, existem modelos de linguagem (LLM) que, como no caso do GPT-4, possuem políticas de conteúdo restritas , para dificultar o uso para fins questionáveis… e ainda assim, suas salvaguardas nem sempre são suficiente.

Noutros casos, existem modelos igualmente gerais que, no entanto, na falta de sistemas de autocensura, não são muito difíceis de utilizar para fins antiéticos. Este seria o caso de algumas das variantes Mixtral.

Por último, existem LLMs que foram concebidos com foco na eliminação de restrições éticas e na exibição de proficiência excepcional na perpetração de crimes cibernéticos.

E é aqui que entram o WormGPT e o FraudGPT., duas ferramentas maliciosas disponíveis na Dark Web que estão causando preocupação no mundo da segurança cibernética.

WormGPT: Baseado no modelo GPT-J de código aberto (lançado em 2021 pela EleutherAI), esta IA se tornou um pesadelo de segurança cibernética. A falta de restrições éticas permite responder questões relacionadas a atividades ilegais sem qualquer tipo de censura.

Seus usos variam desde a criação de malware com Python até a escrita de e-mails de phishing convincentes. Para adquirir este modelo, os cibercriminosos devem pagar entre 60 e 100 euros por mês ou 550 euros por ano, embora a versão mais recente do WormGPT (v2) custe até 5.000 euros.

/images/ff1a76ca25c35448933322100d878d0f79f2d9bd50bc83a7b7ccb21d087a9f2a.jpg Neste site eu vejo você, ouço você… e eles me enganam, porque não é você. Golpistas cibernéticos já clonam rostos e vozes em videochamadas

FraudGPT: O FraudGPT, lançado em julho de 2023, é apresentado como um modelo tão poderoso quanto as versões mais recentes do GPT da OpenAI, mas sem suas restrições, portanto é capaz de criar malware indetectável, criar sites de phishing e aprender a hackear. Assim como o WormGPT, ele opera sob um modelo de assinatura que começa em 200 dólares por mês e atinge taxas de até US$ 1.700 por ano.

O vídeo acima mencionado serve como uma demonstração das funcionalidades e proficiências do FraudGPT, destinado à divulgação entre potenciais compradores, incluindo indivíduos envolvidos em atividades online ilícitas, como fraudes cibernéticas.

Essas IAs podem até gerar o código HTML dos sites fraudulentos aos quais os links de phishing nos levam.

O que vai mudar

A natureza avançada da tecnologia de geração de linguagem de IA suscitou preocupações entre as empresas de segurança cibernética, pois permite que os perpetradores executem ataques mais potentes e evasivos. A ausência de falhas gramaticais e sintáticas nas comunicações de agências governamentais ou instituições financeiras, que anteriormente serviam como um sinal de alerta precoce, pode já não fornecer garantias no futuro.

0

…A IA tornou os golpes cibernéticos perfeitamente possíveis, a partir de agora, perfeitamente escritos (embora seus criadores tenham bons motivos para não passar nesse sentido).

1

A verdade, em qualquer caso, é que caminhamos para um futuro em que tarefas como a criação de campanhas de phishing “indetectáveis”, a execução de ataques cibernéticos ou a manipulação da opinião pública estão a apenas alguns cliques de nós.

2

E tudo isso, abrindo a possibilidade de que o conteúdo de um único ciberfraudador, mesmo com conhecimento linguístico limitado, possa impactar usuários de todo o planeta , graças à utilidade da IA ​​como ferramenta de tradução.

3

Mas a chave não está apenas na sua utilidade para globalizar campanhas fraudulentas, mas especialmente quando se trata de personalizá-las para cada usuário. De acordo com Jesse Barbour, cientista-chefe de dados do segundo trimestre:

4

“A aplicação bem-sucedida de tais técnicas requer um conhecimento profundo da estrutura organizacional da empresa-alvo, para que o fraudador saiba quais alavancas puxar para um determinado indivíduo. Os LLMs são excelentes em sintetizar grandes quantidades desse tipo de informação em narrativas estruturadas e eficazes. “Imagine uma mensagem com a seguinte estrutura:‘Dado o organograma A, elabore um plano para influenciar o funcionário B a tomar a ação C.'”

Imagem | Marcos Merino por meio de IA

A disponibilidade de software de inteligência artificial (IA) de código aberto, que pode ser acedido e modificado por indivíduos que utilizam os seus computadores pessoais, abriu novos caminhos para atividades fraudulentas no domínio digital.

5

*️⃣ Link da fonte: