Conteúdo editorial apoiado por

OpenAI cria conselho de supervisão após dissolução da equipe de segurança

Conselho contará com CEO Sam Altman, que já foi deposto em função de preocupações sobre avanço de IA

Bloomberg

Publicidade

(Bloomberg) –A OpenAI criou um comitê do conselho para avaliar a segurança de seus modelos de inteligência artificial, uma mudança de governança feita semanas depois que seu principal executivo no assunto renunciou e a empresa dissolveu sua equipe.
A medida também vem na sequência a críticas contundentes à governança da OpenAI por dois ex-membros do conselho, Helen Toner e Tasha McCauley, em publicação do The Economist, no domingo (26).

O novo comitê passará 90 dias avaliando prevenções da tecnologia OpenAI antes de apresentar um relatório. “Após a revisão completa do conselho, a OpenAI compartilhará publicamente uma atualização sobre as recomendações adotadas de uma maneira que seja consistente com a segurança e proteção”, disse a empresa em uma publicação de blog nesta terça-feira.

Baixe uma lista de 10 ações de Small Caps que, na opinião dos especialistas, possuem potencial de crescimento para os próximos meses e anos.

Continua depois da publicidade

A OpenAI também disse que recentemente começou a treinar seu mais recente modelo de IA.

Os recentes e rápidos avanços da empresa privada na IA levantaram preocupações sobre a forma como ela gere os perigos potenciais da tecnologia. Essas preocupações intensificaram-se no outono passado, quando o CEO Sam Altman foi brevemente deposto pela diretoria depois de entrar em conflito com o cofundador e cientista-chefe Ilya Sutskever sobre a rapidez com que desenvolver produtos de IA e as medidas para limitar os danos.

Essas preocupações voltaram este mês, depois que Sutskever e um representante importante, Jan Leike, deixaram a empresa. Os cientistas comandaram a chamada “equipe de superalinhamento” da OpenAI, que se concentrava nas ameaças de longo prazo da IA ​​sobre-humana. Leike, que renunciou, escreveu posteriormente que sua divisão estava “lutando” por recursos computacionais dentro da OpenAI. Outros funcionários que estão saindo ecoaram suas críticas.

Continua depois da publicidade

Após a saída de Sutskever, a OpenAI integrou o que restava da sua equipa nos seus esforços de investigação mais amplos, em vez de a manter como uma entidade separada. O cofundador da OpenAI, John Schulman, agora supervisiona a pesquisa de superalinhamentos como parte de uma missão ampliada e assume o novo título de Chefe de Ciência de Alinhamento.

A startup às vezes tem dificuldade para gerenciar as saídas de pessoal. Na semana passada, a OpenAI rejeitou uma política que cancelava o patrimônio de ex-funcionários caso eles se manifestassem contra a empresa.

Toner e McCauley, que deixaram o conselho da OpenAI depois que Sam Altman foi reintegrado como CEO no ano passado, criticaram a liderança de Altman no fim de semana em um ensaio convidado para o The Economist e alertaram que as saídas de Sutskever e de outros membros da equipe focados na segurança “são um mau presságio para o experimento OpenAI de autogovernança.”

Continua depois da publicidade

Um porta-voz disse que a OpenAI estava ciente das críticas de ex-funcionários e esperava mais, acrescentando que a empresa estava trabalhando para resolver as preocupações.

O novo comitê de segurança da OpenAI será composto por três membros do conselho – o presidente Bret Taylor, o CEO da Quora, Adam D’Angelo, e a ex-executiva da Sony Entertainment, Nicole Seligman, – junto com seis funcionários, incluindo Schulman e Altman. A empresa disse que continuaria a consultar especialistas externos, citando dois deles: Rob Joyce, conselheiro de Segurança Interna de Donald Trump, e John Carlin, ex-funcionário do Departamento de Justiça no governo do presidente Joe Biden.


© 2024 Bloomberg L.P.