Contents

Uma solução imediata e segura!

/images/6497b03382d9c87f4a44625e432570aac540b061feda2e924d8fbb789520777b.jpg A Microsoft determinou três categorias para banir de seus prompts © Microsoft

A última atualização de IA da Microsoft resultou no banimento de certas categorias de avisos, incluindo aqueles que poderiam gerar conteúdo violento, chocante ou sexual.

Desde que a utilização destes instrumentos se tornou predominante, foram observados casos em que eles se desviam da função pretendida e causam preocupação entre os seus utilizadores.

Parece que tem havido uma discussão considerável em torno das recentes ações e desenvolvimentos relativos ao assistente da Microsoft.

Ao receber feedback preocupante de um engenheiro de testes sobre a geração de conteúdo impróprio por seu sistema de IA, a Microsoft inicialmente manteve silêncio. No entanto, posteriormente respondendo à pressão tanto da gigante do software como da Comissão Federal de Comércio, a Microsoft tomou medidas implementando atualizações na sua plataforma Copilot que visavam restringir a criação de material sensível.

3 categorias de prompts proibidos

Após a implementação de medidas por Shane Jones, um proeminente engenheiro da Microsoft especializado em inteligência artificial, a empresa tomou medidas imediatas para resolver o problema e proibiu avisos específicos que poderiam resultar na geração de conteúdo ofensivo, como conteúdo sexualmente explícito, violento ou controverso. material através de seu sistema Copilot.

Consequentemente, a incorporação de frases como “pró-vida” (pertencente à postura pró-vida) e “420” (representando 20 de abril, uma data importante para os entusiastas da maconha) em consultas de pesquisa pode resultar na exibição de uma notificação de advertência. Além disso, quaisquer dúvidas relativas ao uso de armas de fogo por menores também deverão desencadear tais advertências.

A mensagem “Este prompt foi bloqueado” aparece junto com uma justificativa um tanto ambígua para a remoção. Ocasionalmente, expressa arrependimento, proclamando “Peço desculpas, mas gerar tal conteúdo viola meu código moral e adesão às diretrizes da Microsoft. Evite solicitar ações que possam causar danos ou ofensas a terceiros. Sua cooperação é apreciada.“Outras vezes, esta afirmação pode ser expressa de forma mais diplomática.

Resposta do Copilot a uma solicitação agora banida © este site

Outras solicitações problemáticas, mas a Microsoft está monitorando

No entanto, o engenheiro não descansou sobre os louros. Confrontado com a falta de resposta da Microsoft, contactou a renomada rede de televisão americana, CNBC, que posteriormente conduziu a sua própria investigação e descobriu que avisos aparentemente inofensivos tinham o potencial de produzir resultados indesejáveis ​​ou, pior ainda, prejudiciais.

Na verdade, representações gráficas de acidentes de carro podem resultar no transporte de indivíduos feridos para hospitais, enquanto os defensores “pró-escolha” podem ser retratados como cometendo atos hediondos, como desmembrar recém-nascidos. Além disso, não é incomum que personagens como Elsa, de “A Rainha da Neve”, da Disney, apareçam ao lado de imagens de estruturas demolidas enquanto seguram uma bandeira palestina.

/images/a872ce66bb31a8971a6699889bf093bb842ddc5f912667b6d8ddd4f0100e59ec.jpg Era esperado para 2 de março de 2024 às 19h. Notícias

Em resposta às perguntas do canal, a Microsoft manifestou o compromisso de manter a vigilância e tomar medidas proativas para melhorar os seus recursos de segurança e evitar qualquer uso indevido dos seus sistemas. A empresa enfatiza que está continuamente refinando os seus filtros de segurança através de avaliações contínuas e implementando salvaguardas adicionais para garantir a integridade dos seus serviços.

Shane Jones afirma que iniciou os testes do Copilot em dezembro de 2023; no entanto, apesar de receber notificações dele sobre o assunto, a Microsoft não respondeu até receber uma reclamação da Federal Trade Commission (FTC). Consequentemente, a empresa tomou medidas removendo terminologia específica e alertando os usuários sobre os riscos potenciais associados à tecnologia.

“Outras violações da política podem resultar na suspensão automática do seu acesso”, podemos ler após uma solicitação de aviso proibido. A Microsoft pretende evitar novos contratempos à medida que o.

/images/5c09f6926e6fa4caabbf406eafbad10a73b998ef8ec8496eec35d84e64bfb633.jpg Para descobrir 31 de janeiro de 2023 às 18h03. Comparações de serviços

Fonte: CNBC

*️⃣ Link da fonte:

CNBC ,