Contents

OpenAI toma medidas de segurança para aliviar preocupações públicas sobre riscos de IA

/images/6d50c347848fdc9ca9e3681f3abc7464f1cce0dab6ca8cf46c19178856dc9faa.jpg Um smartphone exibindo ChatGPT na frente do logotipo OpenAI © T. Schneider/Shutterstock.com

A OpenAI implementou várias novas medidas destinadas a reduzir os riscos criados pelo desenvolvimento de uma poderosa inteligência artificial.

O início de 2023 testemunhou a revelação de um avanço tecnológico inovador que surpreendeu o mundo com as suas capacidades notáveis. No entanto, à medida que o ano chega ao fim, crescem as apreensões em relação a esta tecnologia, especialmente tendo em conta o facto de ser liderada pela OpenAI, uma startup que tem enfrentado considerável instabilidade e controvérsia em torno das suas operações. Esta situação é ainda agravada pela ansiedade generalizada sobre os perigos potenciais colocados pela inteligência artificial, resultando numa apreensão justificável sobre as consequências associadas a tais desenvolvimentos. No entanto, a OpenAI tomou medidas para aliviar estas preocupações através da implementação de protocolos e medidas de segurança adicionais.

A administração poderá ser contestada pelo Conselho de Administração

Durante o drama de Sam Altman, tornou-se evidente que a sua empresa tinha alcançado um estágio avançado de progressão tecnológica, o que se acredita ter contribuído para a decisão tomada pelo cientista-chefe Ilya Sutskever de se separar da organização.

À luz de eventos passados, a OpenAI tomou medidas para evitar ocorrências semelhantes, estabelecendo diretrizes revisadas dentro da organização. Estas directrizes foram implementadas recentemente e conferem ao Conselho de Administração autoridade para interromper a libertação de qualquer sistema de IA considerado potencialmente perigoso, independentemente das garantias da administração relativamente à sua segurança. A implementação desta medida de precaução adicional serve como prova do compromisso da empresa em garantir o desenvolvimento e implementação responsáveis ​​de IA.

/images/976f2e0bb3021597f80890a8bb43087717b9d4597e0d961ef9ccad24344d8056.jpg ©Vitor Miranda/Shutterstock

OpenAI avaliará continuamente riscos potenciais

A implementação destas medidas vai além da supervisão reforçada, uma vez que um grupo liderado por Aleksander Madry foi designado para avaliar regularmente os perigos potenciais associados aos modelos de linguagem criados, categorizados em quatro áreas que incluem segurança cibernética, riscos químicos, biológicos e nucleares.

A equipa está preparada para identificar e mitigar riscos considerados catastróficos, o que abrange aqueles com potencial para infligir perdas económicas no valor de várias centenas de milhares de milhões de dólares ou causar danos significativos a um grande número de indivíduos, resultando em vítimas substanciais.

Será o fornecimento de um relatório mensal por parte deste grupo específico suficiente para aliviar quaisquer preocupações dos que ocupam posições de autoridade relativamente às conclusões das suas investigações em curso?

Fonte: Bloomberg

*️⃣ Link da fonte:

Bloomberg,