Contents

A promessa da OpenAI de monitoramento perigoso de IA é possível?

Após um ano de existência e inúmeras polêmicas, a OpenAI acaba de anunciar a criação de uma equipe dedicada à identificação e prevenção de riscos ligados à inteligência artificial.

/images/2345b6f896_openai.jpg

A necessidade de supervisionar melhor a IA

O trabalho desta equipe (em vo equipe de preparação) será avaliar cada novo modelo de IA e monitorar seu lançamento, mesmo que isso signifique solicitar sua suspensão caso seja considerado muito perigoso. Para isso, contará com processos e níveis de risco definidos em documento publicado nesta segunda-feira.

Uma vez identificados os riscos, um relatório será enviado ao Safety Advisory Group, um conselho de segurança que fará recomendações a Sam Altman ou a uma pessoa por ele designada. Este último decidirá então sobre possíveis modificações a serem feitas. Por fim, esta equipe será colocada sob a supervisão do pesquisador de ciência da computação Aleksander Madry, que costuma trabalhar no Instituto de Tecnologia de Massachusetts (MIT).

Sam Altman, CEO do ano

Observe que este anúncio só está sendo feito após os percalços muito midiáticos de Sam Altman, cuja expulsão da cadeira de CEO da OpenAI durou apenas alguns dias (algumas línguas malignas diriam: é hora de vender os direitos para uma plataforma de streaming).

Decidiu-se então favorecer o desenvolvimento acelerado da OpenAI, mesmo que isso significasse evitar certas questões sobre os possíveis abusos da IA. Entretanto, isto não impediu Sam Altman de ser nomeado CEO do ano pela TIME.

/images/01690c546c_sam-altman.jpg,

*️⃣ Link da fonte:

CEO do ano ,