Tech

Um ex-líder da OpenAI diz que a segurança “ficou em segundo plano em relação aos produtos brilhantes” na empresa de IA

Um ex-líder da OpenAI que renunciou à empresa no início desta semana disse na sexta-feira que a segurança “ficou em segundo plano em relação aos produtos brilhantes” na influente empresa de inteligência artificial.

Jan Leike, que dirigiu a equipe “Super Alignment” da OpenAI ao lado de um cofundador da empresa que também renunciou esta semana, escreveu em uma série de postagens na plataforma de mídia social X que ingressou na empresa com sede em São Francisco porque pensou que seria o melhor lugar para fazer pesquisas de IA.

“No entanto, já faz algum tempo que discordo da liderança da OpenAI sobre as principais prioridades da empresa, até que finalmente chegamos a um ponto de ruptura”, escreveu Leike, cujo último dia foi quinta-feira.

Pesquisador de IA por formação, Leike disse acreditar que deveria haver mais foco na preparação para a próxima geração de modelos de IA, inclusive em questões como segurança e análise dos impactos sociais de tais tecnologias. Ele disse que construir “máquinas mais inteligentes que os humanos é um empreendimento inerentemente perigoso” e que a empresa “está assumindo uma enorme responsabilidade em nome de toda a humanidade”.

“A OpenAI deve tornar-se uma empresa de AGI que prioriza a segurança”, escreveu Leike, usando a versão abreviada de inteligência artificial geral, uma visão futurística de máquinas que são tão inteligentes quanto os humanos ou pelo menos podem fazer muitas coisas tão bem quanto as pessoas.

O CEO da Open AI, Sam Altman, escreveu em resposta às postagens de Leike que estava “muito grato” pelas contribuições de Leike para a empresa e estava “muito triste em vê-lo partir”.

Leike está “certo, temos muito mais a fazer; estamos comprometidos em fazê-lo”, disse Altman, prometendo escrever um post mais longo sobre o assunto nos próximos dias.

A renúncia de Leike ocorreu depois que o cofundador e cientista-chefe da OpenAI, Ilya Sutskever, disse na terça-feira que estava deixando a empresa depois de quase uma década. Sutskever foi um dos quatro membros do conselho que votou no outono passado para expulsar Altman – apenas para reintegrá-lo rapidamente. Foi Sutskever quem disse a Altman em novembro passado que estava sendo demitido, mas mais tarde ele disse que se arrependeu de ter feito isso.

Sutskever disse que está trabalhando em um novo projeto que é significativo para ele, sem oferecer detalhes adicionais. Ele será substituído por Jakub Pachocki como cientista-chefe. Altman chamou Pachocki de “também facilmente uma das maiores mentes da nossa geração” e disse estar “muito confiante de que nos levará a fazer um progresso rápido e seguro em direção à nossa missão de garantir que a AGI beneficie a todos”.

Na segunda-feira, a OpenAI exibiu a última atualização do seu modelo de inteligência artificial, que pode imitar cadências humanas em suas respostas verbais e pode até tentar detectar o humor das pessoas.

——

A Associated Press e a OpenAI têm um acordo de licenciamento e tecnologia que permite o acesso da OpenAI a parte dos arquivos de texto do.

Este artigo foi gerado a partir de um feed automatizado de uma agência de notícias sem modificações no texto.

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button