Contents

Uma mudança política revolucionária?

,

A OpenAI suspendeu a proibição do uso militar do ChatGPT e de suas outras ferramentas de IA. Mas ele fez isso sem dar muito entusiasmo à decisão. A mudança ocorre quando a OpenAI começa a trabalhar com o Departamento de Defesa dos Estados Unidos com ferramentas de inteligência artificial, incluindo ferramentas de segurança cibernética de código aberto.

Até agora, a página de política da OpenAI especificava que a empresa não permitia o uso de seus modelos para “*atividades que apresentam alto risco de danos físicos, como desenvolvimento de armas** ou exército e guerra”.

/images/94721c8ef91e1783ced94f484d3ce3e3a505d4279deb1c9314405da1a87c5def.jpg Neste site O problema dos erros de digitação: segredos militares dos EUA chegam ao fornecedor de um país africano há 10 anos

Anna Makanju, vice-presidente de assuntos globais da OpenAI, falou ontem em entrevista para a Bloomberg House no Fórum Econômico Mundial, que está sendo realizado em Davos, junto com o CEO Sam Altman, e lá Ela foi responsável por revelar este grande mudar.

A OpenAI removeu a referência específica ao exército, embora sua política ainda declare que os usuários não devem “usar nosso serviço para prejudicar a si mesmo ou a outros”, incluindo “desenvolver ou usar armas”.

Uma olhada em… ‘Sgroogled.com’: quando a MICROSOFT lançou anúncios ANTI-GOOGLE

Existem casos que “se alinham com a nossa missão”

Diante desta informação pouco clara, a CNBC contatou a empresa e um porta-voz disse que o objetivo em relação à mudança de política é fornecer clareza e permitir casos de uso militar com os quais a empresa concorda.

“Nossa política não permite que nossas ferramentas sejam usadas para prejudicar pessoas, desenvolver armas, monitorar comunicações, ferir outras pessoas ou destruir propriedades”, disse o porta-voz, acrescentando posteriormente que “**há casos de uso de segurança nacional que se alinham com nossa missão* * “.

/images/85415a6a0cac09a8a8a56f88650c51b3d1adc0f445d04668095bc11634fb02e9.jpg Neste site Revele informações ultrassecretas para a prática de corrida: o aplicativo esportivo que vazou informações de bases militares

A Open AI também ganhou as manchetes ontem quando Sam Altman, seu CEO, disse considerar que ChatGPT era especialmente útil em três setores: saúde, desenvolvimento (codificação) e educação.

Antes disso, não podemos esquecer que trabalhadores dos gigantes tecnológicos envolvidos com contratos militares manifestaram a sua preocupação em diversas ocasiões. Por exemplo, um funcionário do Google protesta contra o polêmico Projeto Maven, um projeto do Pentágono que buscava usar a inteligência artificial do Google para analisar imagens de vigilância de drones.

As polêmicas do uso militar

Também temos o exemplo dos funcionários da Microsoft que protestaram contra um contrato militar de US$ 480 milhões que forneceria aos soldados fones de ouvido de realidade aumentada.

Mais de 1.500 funcionários da Amazon e do Google assinaram uma carta em protesto pelo contrato conjunto de 1,2 bilhão de dólares com o governo e o exército israelense.

0

Através de | CNBC

1

Uma imagem visualmente atraente é exibida, cortesia de Filip Andrejevic no Unsplash.

2

Nesta plataforma, foi comunicado que as Forças Armadas Suíças impuseram uma restrição à utilização de aplicações de mensagens como WhatsApp, Telegram e Signal devido a preocupações relacionadas com a privacidade dos dados. Consequentemente, uma solução alternativa foi sugerida pelas autoridades militares como forma de garantir uma comunicação segura entre o seu pessoal.

3

*️⃣ Link da fonte:

entrevista para Bloomberg House, CNBC contatou a empresa, ele disse que ele considerou, controverso Maven Projeto , o exemplo dos funcionários da Microsoft, CNBC , Philip Andrejevic , Unsplash ,