Contents

OpenAI colabora com o Pentágono em segurança cibernética, graças à “IA de nível humano”

Os termos da empresa hoje dizem que ela não pode usar a tecnologia relacionada à sua IA para desenvolver armas, mas será que a própria IA pode ser uma delas? O problema de colocar a máscara da moralidade é que ela dura pouco tempo, os “elásticos” acabam cedendo e dando lugar à verdadeira face de quem está usando a tecnologia para atacar e se defender. Portanto, após acabar com a proibição do uso militar, e não de armas, como dissemos, a OpenAI confirma que já está trabalhando com o Pentágono e antecipa oficialmente em Davos que a General AI está bem próxima.

Emergiram simultaneamente três desenvolvimentos significativos que, quando considerados colectivamente, revelam uma interacção complexa entre tecnologia, poder militar e política global. Embora as interpretações individuais possam variar, é evidente que estes eventos representam um paradigma em evolução onde a inteligência artificial (IA) se entrelaçou com objectivos estratégicos tanto à escala nacional como internacional. Notavelmente, não se pode ignorar as implicações do facto de a organização mais proeminente envolvida na investigação em IA operar agora sob os auspícios das políticas da actual administração.

OpenAI se junta às forças armadas dos EUA, ChatGPT para o Pentágono? Obviamente não só isso…

/images/OpenAI-despide-Sam-Altman-Microsoft.jpg

Recentemente, a OpenAI revogou discretamente a sua proibição de utilização das suas tecnologias de inteligência artificial para fins militares. Esta reviravolta pode suscitar diversão cínica por parte de alguns indivíduos, que a consideram irónica, dada a presença de políticas persistentes dentro da organização de modelos linguísticos mais proeminentes que ainda permitem a implantação das suas ferramentas de IA em contextos militares.

-“Nosso serviço não deve ser usado para prejudicar a nós mesmos ou a terceiros." -“Não devemos desenvolver ou usar armas.”

O objetivo final do OpenAI é fortalecer gradualmente as medidas de segurança cibernética do Departamento de Defesa através da utilização de inteligência artificial de forma a minimizar qualquer desconforto experimentado durante este processo.

Isso responde aos ataques cibernéticos que estão sofrendo por parte da China, que são considerados de nova geração e Eles estão colocando em xeque todo o sistema militar e de defesa dos EUA.. Porque nada mais, mas a China é muito clara sobre o que tem e deve fazer, e usará tudo o que estiver ao seu alcance para isso, como o próprio hardware Yankee trazido da NVIDIA.

Não é preciso saber somar para entender que, atualmente, nenhum grupo de hackers tem potencial econômico para comprar, fora ou dentro da China, mais cedo ou mais tarde, milhares de GPUs para IA, e desenvolver LLM em tempo recorde para que uma IA se infiltra com eficiência nos sistemas americanos. Portanto, mais do que rumores, haveria confirmações de que empresas chinesas têm acordos com grupos de hackers para atacar os Estados Unidos e todo o Ocidente, onde ninguém é poupado como afirmam os especialistas. Cinco Olhos.

OpenAI remove algumas de suas letras miúdas para evitar quebrar suas regras

/images/OpenAI-ingenieros-salario.jpg

Em resposta a perguntas sobre as recentes alterações nas políticas da OpenAI, bem como o desaparecimento aparentemente repentino de certas disposições dessas políticas, um representante oficial da OpenAI forneceu a sua perspectiva sobre este assunto.

“Nossa política não permite que nossas ferramentas sejam usadas para prejudicar pessoas, desenvolver armas, monitorar comunicações, prejudicar outras pessoas ou destruir propriedades. No entanto, Existem casos de uso de segurança nacional que se alinham com a nossa missão.

Nossa organização iniciou esforços de colaboração em conjunto com o Departamento de Defesa dos Estados Unidos, com o objetivo específico de promover o desenvolvimento de soluções avançadas de segurança cibernética que protejam o software de código aberto utilizado por infraestruturas e indústrias vitais. O âmbito de tais esforços era anteriormente incerto devido a ambiguidades nas nossas diretrizes anteriores. Consequentemente, revisámos a nossa política para oferecer maior transparência e facilitar o diálogo aberto em torno deste assunto.

Anna Makanju, vice-presidente de Assuntos Globais da OpenAI, articulou a sua perspectiva sobre o cenário global durante um discurso no Fórum Económico Mundial.

“Como anteriormente tínhamos o que era essencialmente uma proibição total do uso militar, muitas pessoas pensaram que isso proibiria muitos desses casos de uso, o que as pessoas pensam “Eles estão muito alinhados com o que queremos ver no mundo."

74 eleições presidenciais no mundo, incluindo os EUA.

/images/Biden.jpg

A disseminação de informações falsas online tornou-se um fenómeno generalizado e aparentemente incontrolável. Com a proliferação de plataformas de redes sociais, aplicações de chat, fóruns de discussão, websites e diversas plataformas de conteúdo, os indivíduos estão constantemente expostos a uma enorme quantidade de dados, muitos dos quais são enganosos ou subjetivamente distorcidos.

Várias iniciativas que utilizam inteligência artificial visam resolver este problema, como o projeto Fake Face da Intel relativo à manipulação de vídeo. Além disso, vários outros empreendimentos semelhantes podem ser encontrados através de investigação casual. No entanto, é digno de nota que certos indivíduos subscrevem crenças conspiratórias relacionadas com estes esforços, que constituem uma parcela significativa da população.

Agora, vamos transferir esta ideia para uma eleição geral, bem, faça-o nas 74 eleições gerais que terão lugar em 2024, das quais 27 são na UE e 47 em todo o mundo , como dizemos, incluindo aquelas nos E.U.A. Bem, a Microsoft, acionista majoritária da OpenAI, já deixou claro que implementará uma estratégia de proteção eleitoral em cinco etapas “nos Estados Unidos e em outros países onde eleições críticas serão realizadas em 2024”.

Durante o seu discurso no Fórum Económico Mundial em Davos, Peter Altmaier, Diretor de Operações da Microsoft, enfatizou a importância das próximas eleições na União Europeia, afirmando que “muita coisa está em jogo”. A sua intenção era garantir que o processo de votação permanecesse livre de interferências de potências estrangeiras como a Rússia e a China, evitando assim qualquer repetição dos acontecimentos que rodearam as eleições presidenciais dos Estados Unidos em 2016. Além disso, procurou mitigar a ameaça representada pelos ataques cibernéticos. visando empresas e instituições governamentais.

Altman avisa: “A IA geral no nível humano não está tão longe”, a desculpa para a OpenAI trabalhar com o Pentágono?

/images/Sam-Altman-Senado-EE.UU_.jpg

Os esforços anteriores da OpenAI foram discutidos secretamente através de dois projetos separados, que são relevantes para as declarações feitas pelo CEO da organização durante o seu discurso no recente Fórum Económico Mundial realizado na Suíça. Enquanto residia nos Alpes Suíços, Greg

Em essência, o projecto Tigris está relativamente próximo, o que implica que já pode ter feito progressos consideráveis. Além disso, Altman levantou um ponto intrigante – alcançar a inteligência artificial geral (AGI) requer um avanço substancial na tecnologia energética. Isso ocorre porque os recursos computacionais necessários para AGI necessitariam de uma enorme quantidade de aceleradores e placas gráficas, resultando em aumento do consumo de energia.

“Não há como chegar lá sem um avanço. Isto motiva-nos a investir mais na fusão nuclear."

A fusão nuclear é um objetivo plausível perseguido pela OpenAI no domínio da inteligência artificial. É muito provável que os esforços colaborativos entre a DARPA e a OpenAI possam levar ao desenvolvimento de tecnologia de fusão nuclear sustentável e em grande escala, fornecendo, em última análise, uma fonte abundante de energia para o benefício da humanidade.

*️⃣ Link da fonte:

DARPA (Departamento de Defesa Americano) , a chamada Inteligência Artificial Geral,