Siga nossas redes

Negócios

OpenAI dissolve equipe de segurança após saída de cientista-chefe

A decisão de repensar a equipe surge em meio a uma série de recentes saídas da OpenAI

A OpenAI dissolveu uma equipe focada em garantir a segurança de possíveis sistemas de inteligência artificial ultra-capazes no futuro. A decisão ocorreu após a saída dos dois líderes do grupo, incluindo Ilya Sutskever, cofundador e cientista-chefe da OpenAI.

Em vez de manter a chamada “equipe de superalinhamento” como uma entidade independente, a OpenAI está agora integrando o grupo em seus esforços de pesquisa para ajudar a empresa a alcançar seus objetivos de segurança, disse a empresa à Bloomberg News. A equipe foi formada há menos de um ano sob a liderança de Sutskever e Jan Leike, outro veterano da OpenAI.

LEIA MAIS: Com o novo ChatGPT ‘for all’, OpenAI quer que você jogue fora a sua Alexa

A decisão de repensar a equipe surge em meio a uma série de recentes saídas da OpenAI, o que revive questões sobre a abordagem da empresa para equilibrar velocidade versus segurança no desenvolvimento de seus produtos de IA. Sutskever, um pesquisador amplamente respeitado, anunciou na terça-feira (14) que estava deixando a OpenAI após ter entrado em conflito com o CEO Sam Altman sobre a rapidez no desenvolvimento da inteligência artificial.

Leike revelou sua saída logo depois com um breve post nas redes sociais. “Eu renunciei”, disse ele. Para Leike, a saída de Sutskever foi a gota d’água após desentendimentos com a empresa, de acordo com uma pessoa familiarizada com a situação que pediu para não ser identificada.

Em uma declaração na sexta-feira (17), Leike disse que a equipe de superalinhamento estava lutando por recursos. “Nos últimos meses, minha equipe tem navegado contra o vento”, escreveu Leike no X. “Às vezes estávamos lutando por capacidade de computação e estava ficando cada vez mais difícil realizar esta pesquisa crucial.” Horas depois, Altman respondeu ao post de Leike. “Ele está certo, temos muito mais a fazer”, escreveu Altman no X. “Estamos comprometidos em fazer isso.”

Outros membros da equipe de superalinhamento também deixaram a empresa nos últimos meses. Leopold Aschenbrenner e Pavel Izmailov foram dispensados pela OpenAI. Izmailov havia sido removido da equipe antes de sua saída, de acordo com uma pessoa familiarizada com o assunto. Aschenbrenner e Izmailov não responderam aos pedidos de comentário.

Sam Altman em San Francisco 16/11/2023 REUTERS/Carlos Barria

John Schulman, cofundador da startup cuja pesquisa se concentra em grandes modelos de linguagem, será o líder científico do trabalho de alinhamento da OpenAI daqui para frente, disse a empresa. Separadamente, a OpenAI disse em um post no blog que nomeou o diretor de desquisa Jakub Pachocki para assumir o papel de Sutskever como cientista-chefe.

“Estou muito confiante de que ele nos levará a fazer progressos rápidos e seguros em direção à nossa missão de garantir que a AGI beneficie a todos”, disse Altman em um comunicado na terça-feira sobre a nomeação de Pachocki. AGI, ou inteligência artificial geral, em português, refere-se à IA que pode desempenhar tão bem ou melhor que os humanos na maioria das tarefas. A AGI ainda não existe, mas criá-la faz parte da missão da empresa.

A OpenAI também tem funcionários envolvidos em trabalhos relacionados à segurança de IA em equipes espalhadas pela empresa, bem como equipes individuais focadas em segurança. Uma equipe, chamada de equipe de preparação, foi lançada em outubro passado e se concentra em analisar e tentar evitar possíveis “riscos catastróficos” dos sistemas de IA.

A equipe de superalinhamento foi criada para evitar as ameaças mais longas. A OpenAI anunciou a formação da equipe de superalinhamento em julho passado, dizendo que se concentraria em como controlar e garantir a segurança do futuro software de inteligência artificial que é mais inteligente que os humanos – algo que a empresa há muito afirma ser um objetivo tecnológico. No anúncio, a OpenAI disse que destinaria 20% de sua capacidade de computação na época para o trabalho da equipe.

Em novembro, Sutskever foi um dos vários membros do conselho da OpenAI que se moveram para demitir Altman, uma decisão que desencadeou cinco dias de turbulência na empresa. O presidente da OpenAI, Greg Brockman, renunciou em protesto. Os investidores se revoltaram e, em poucos dias, quase todos os aproximadamente 770 funcionários da startup assinaram uma carta ameaçando renunciar a menos que Altman fosse trazido de volta. Em uma reversão notável, Sutskever também assinou a carta e disse que lamentava sua participação na demissão de Altman. Logo depois, Altman foi reintegrado.

LEIA MAIS: Chat GPT no iPhone? Otimismo com IA impulsiona ações da Apple

Nos meses seguintes à saída e retorno de Altman, Sutskever desapareceu da vista do público, provocando especulações sobre a continuidade de seu papel na empresa. Sutskever também parou de trabalhar no escritório da OpenAI em San Francisco, de acordo com uma pessoa familiarizada com o assunto.

Em sua declaração, Leike disse que sua saída ocorreu após uma série de desentendimentos com a OpenAI sobre as “prioridades centrais” da empresa, que ele não considera suficientemente focadas nas medidas de segurança relacionadas à criação de IA que pode ser mais capaz que as pessoas.

Em um post no início desta semana anunciando sua saída, Sutskever disse que está “confiante” de que a OpenAI desenvolverá a AGI “que é tanto segura quanto benéfica” sob a liderança atual, incluindo Altman.

Abra sua conta! É Grátis

Já comecei o meu cadastro e quero continuar.