Contents

AI assume o comando da seleção de alvos em missões de bombardeio nos EUA

contém o conteúdo principal do bloco de texto da caixa de compartilhamento do cabeçalho da página

Um relatório recente revela um avanço significativo na estratégia militar dos EUA: a utilização de inteligência artificial para determinar alvos para ataques aéreos. Esta utilização, que marca um ponto de viragem na condução das operações, é de preocupação ética e estratégica.

/images/Sans-titre-1.jpg Fonte: 123rf

O uso da IA agora se estende a vários campos profissionais, cada um vivenciando seus próprios sucessos e limitações. Na aviação, um incidente envolvendo a Air Canada e seu chatbot destacou o risco de erros e maus conselhos, resultando em uma decisão judicial contra a empresa por informações enganosas por ela fornecidas. Paralelamente, a Airbnb planeia introduzir um “concierge definitivo” baseado em inteligência artificial, prometendo um serviço personalizado e revolucionário. No setor jurídico, o aplicativo móvel I.Avocat busca democratizar o acesso ao direito, porém, fazendo com que os profissionais relutem em substituir a expertise humana por algoritmos.

Esses exemplos destacam uma tendência para a automação e personalização de serviços usando IA, mas também revelam os limites dessa tecnologia. O caso Air Canada ilustra como pode enganar os utilizadores, enquanto os projetos da Airbnb e da I.Avocat mostram o desejo de inovar enquanto navegamos em águas turbulentas. Esses casos destacam a necessidade de regulamentação apropriada e de reflexão ética profunda, particularmente relevante quando se consideram aplicações mais críticas, como lançamento de ataques militares.

EUA automatizam decisões de ataque aéreo com IA

A recente integração da inteligência artificial pelo Pentágono para identificar alvos de ataques aéreos destaca uma evolução notável na condução de operações militares. De acordo com a Bloomberg, o uso de algoritmos de visão computacional foi fundamental para a realização de mais de 85 ataques aéreos no Oriente Médio. Ela teria locais estratégicos como alvo, como armazéns de drones e centros de operações de milícias. Esta abordagem tecnológica vem do projeto Maven iniciado em 2017, que visa integrar a IA, particularmente a visão computacional, para otimizar a análise visual de dados e apoiar decisões militares. Isto ilustra o desejo crescente de automatizar a tomada de decisões em contextos de conflito.

A adoção da IA ​​para a seleção de alvos dos ataques aéreos dos Estados Unidos faz parte de uma tendência mais ampla e suscita debates éticos. A perspectiva de minimizar a responsabilidade humana em decisões críticas como os ataques aéreos coloca questões fundamentais sobre a fiabilidade e a ética da automação no domínio militar. Embora países como Israel também estejam implantando inteligência artificial para fins semelhantes, as implicações de erros potenciais devidos a algoritmos levantam sérias preocupações sobre o futuro da guerra e da segurança global, provocando uma reflexão mais aprofundada por parte dos governos sobre protocolos de envolvimento e estruturas de responsabilização.

Fonte: Bloomberg

/end Classificação do TextBlock ********************NOTAS ** ** ** ** ** ** ** ** ** ** * **** ****************************** Classificação Julio Paginação/Paginação Julio Nextprev-post Artigo anterior seção seção Taboola da área de classificação

*️⃣ Link da fonte:

bloomberg ,