Uma mudança política revolucionária?
,
A OpenAI suspendeu a proibição do uso militar do ChatGPT e de suas outras ferramentas de IA. Mas ele fez isso sem dar muito entusiasmo à decisão. A mudança ocorre quando a OpenAI começa a trabalhar com o Departamento de Defesa dos Estados Unidos com ferramentas de inteligência artificial, incluindo ferramentas de segurança cibernética de código aberto.
Até agora, a página de política da OpenAI especificava que a empresa não permitia o uso de seus modelos para “*atividades que apresentam alto risco de danos físicos, como desenvolvimento de armas** ou exército e guerra”.
Neste site O problema dos erros de digitação: segredos militares dos EUA chegam ao fornecedor de um país africano há 10 anos
Anna Makanju, vice-presidente de assuntos globais da OpenAI, falou ontem em entrevista para a Bloomberg House no Fórum Econômico Mundial, que está sendo realizado em Davos, junto com o CEO Sam Altman, e lá Ela foi responsável por revelar este grande mudar.
A OpenAI removeu a referência específica ao exército, embora sua política ainda declare que os usuários não devem “usar nosso serviço para prejudicar a si mesmo ou a outros”, incluindo “desenvolver ou usar armas”.
Uma olhada em… ‘Sgroogled.com’: quando a MICROSOFT lançou anúncios ANTI-GOOGLE
Existem casos que “se alinham com a nossa missão”
Diante desta informação pouco clara, a CNBC contatou a empresa e um porta-voz disse que o objetivo em relação à mudança de política é fornecer clareza e permitir casos de uso militar com os quais a empresa concorda.
“Nossa política não permite que nossas ferramentas sejam usadas para prejudicar pessoas, desenvolver armas, monitorar comunicações, ferir outras pessoas ou destruir propriedades”, disse o porta-voz, acrescentando posteriormente que “**há casos de uso de segurança nacional que se alinham com nossa missão* * “.
Neste site Revele informações ultrassecretas para a prática de corrida: o aplicativo esportivo que vazou informações de bases militares
A Open AI também ganhou as manchetes ontem quando Sam Altman, seu CEO, disse considerar que ChatGPT era especialmente útil em três setores: saúde, desenvolvimento (codificação) e educação.
Antes disso, não podemos esquecer que trabalhadores dos gigantes tecnológicos envolvidos com contratos militares manifestaram a sua preocupação em diversas ocasiões. Por exemplo, um funcionário do Google protesta contra o polêmico Projeto Maven, um projeto do Pentágono que buscava usar a inteligência artificial do Google para analisar imagens de vigilância de drones.
As polêmicas do uso militar
Também temos o exemplo dos funcionários da Microsoft que protestaram contra um contrato militar de US$ 480 milhões que forneceria aos soldados fones de ouvido de realidade aumentada.
Mais de 1.500 funcionários da Amazon e do Google assinaram uma carta em protesto pelo contrato conjunto de 1,2 bilhão de dólares com o governo e o exército israelense.
0
Através de | CNBC
1
Uma imagem visualmente atraente é exibida, cortesia de Filip Andrejevic no Unsplash.
2
Nesta plataforma, foi comunicado que as Forças Armadas Suíças impuseram uma restrição à utilização de aplicações de mensagens como WhatsApp, Telegram e Signal devido a preocupações relacionadas com a privacidade dos dados. Consequentemente, uma solução alternativa foi sugerida pelas autoridades militares como forma de garantir uma comunicação segura entre o seu pessoal.
3
*️⃣ Link da fonte:
entrevista para Bloomberg House, CNBC contatou a empresa, ele disse que ele considerou, controverso Maven Projeto , o exemplo dos funcionários da Microsoft, CNBC , Philip Andrejevic , Unsplash ,