Contents

Juízes do Reino Unido autorizam uso de sentenças judiciais geradas por IA com ChatGPT

,

A IA é boa para compreender textos burocráticos, mais sujeitos a padrões previsíveis do que poesia ou narrativa, por exemplo. Mesmo que essa burocracia seja de milhares de anos atrás. Ela também parece ser boa no manejo de leis, já que recentemente um vereador brasileiro conseguiu apresentar um regulamento gerado pelo ChatGPT e aprová-lo sem alterações.

Talvez por esta razão, o Reino Unido tomou recentemente um passo inesperado ao incorporar inteligência artificial no seu sistema judicial ao permitir que os juízes utilizem o ChatGPT (e outras ferramentas de IA) para os ajudar na elaboração de resoluções legais e outras tarefas burocráticas relacionadas com a justiça.

Esta decisão já gerou, é claro, um debate sobre a correlação de riscos e benefícios que adviriam da implementação da IA ​​também no campo jurídico.

A ocorrência acima mencionada pode ser atribuída à publicação de uma directiva de 8 páginas (em formato PDF) desenvolvida pelo Gabinete Judicial do Reino Unido, que foi especificamente concebida para juízes que exercem a profissão na jurisdição de Inglaterra e País de Gales. O documento fornece orientações sobre a utilização de inteligência artificial para aumentar a eficiência dos processos judiciais, ao mesmo tempo que concede autorização explícita para a utilização do ChatGPT. É importante notar que a Escócia e a Irlanda do Norte possuem autonomia em relação a tais assuntos.

Uma olhada em… ZAO, o APP MÓVEL chinês que através do DEEPFAKE transforma você em DICAPRIO em SEGUNDOS

“—ChatGPT, o réu ordenou o código vermelho?—…”

Embora haja a tentação de ficar apenas com o fato chocante de que “os juízes vão preparar suas sentenças com ChatGPT!”, o guia também alerta sobre os riscos potenciais do uso de IA no sistema judicial… como o já conhecido. possibilidade de que as respostas geradas pela IA sejam imprecisas, incompletas, enganosas ou tendenciosas, por isso recomenda que os juízes verifiquem a precisão das respostas geradas antes de tomar decisões que possam afetar as pessoas envolvidas.

/images/93dc927941a0c56866b9cb33ef25007c7c18fe84dee962f8626bfc26a987e8c1.jpg Neste site as universidades descobrem que o ChatGPT não conhece muitas palavras em espanhol e, em geral, não entende muito bem o idioma

O guia também destaca questões de privacidade, observando que as empresas de IA podem coletar informações das interações dos usuários com chatbots. Os juízes são, portanto, instados a tratar qualquer informação inserida na interface do chatbot como se fosse pública.

Apesar de sua novidade, alguns juízes já usaram o ChatGPT antes: um juiz do Tribunal de Apelação da Inglaterra e País de Gales, Sir Geoffrey Vos, descreveu o ChatGPT como uma ferramenta"muito útil"que ele usou para resumir teorias jurídicas e copiá-las em um documento oficial resolução. No entanto, ele ressalta que Utilizou a ferramenta apenas para retrabalhar informações que já conhecia e que não incluíam dados confidenciais. s.

Os experimentos, com refrigerante (do outro lado do Atlântico)

A atitude britânica em relação ao uso legal da IA ​​parece mais aberta à experimentação do que a das mais proeminentes de suas ex-colônias: nos Estados Unidos, uma ação judicial por intrusão profissional encerrou um experimento DoNotPay para usar uma inteligência artificial que atua como um advogado gerando documentos para reclamações.

Alegaram que ChatGPT"não é formado em direito" , embora a verdade é que provou ser capaz de passar no exame da ordem americana.

O ChatGPT também se tornou nos EUA o possível motivo do fim da carreira de um advogado com 30 anos de experiência por inventar sentenças judiciais. Ou melhor, deixe o ChatGPT inventar e não verificá-los pessoalmente abaixo. Forçado a justificar-se perante o juiz, o advogado explicou que não sabia que as IAs podiam ‘alucinar’ e assim gerar conteúdos completamente inventados.

0

Imagem | Marcos Merino por meio de IA

Nesta ocasião, uma empresa espanhola foi obrigada a reembolsar um dos seus funcionários pela utilização de tecnologia de reconhecimento facial de forma não autorizada e irregular para monitorizar as suas ações.

1

*️⃣ Link da fonte:

PDF,