PUBLICIDADE

Google demite mais um funcionário do grupo de IA após desentendimentos

Empresa confirmou a demissão, alegando ser 'justa causa'

Por Daisuke Wakabayashi e Cade Metz
Atualização:
Google demitiu outro funcionário da equipe de IA responsável por apontar erros nos sistemas da companhia Foto: Andrew Kelly/Reuters

Menos de dois anos depois de o Google demitir dois pesquisadores críticos aos preconceitos em sistemas de inteligência artificial, a empresa dispensou um pesquisador que questionou um artigo publicado sobre as habilidades de um tipo especializado de inteligência artificial usado na fabricação de chips de computador.

PUBLICIDADE

O pesquisador, Satrajit Chatterjee, liderou uma equipe de cientistas para contestar o famoso artigo publicado no ano passado na revista científica Nature, afirmando que os computadores eram capazes de projetar certos componentes de um chip de computador mais rápido e melhor que os humanos.

Chatterjee, 43 anos, foi demitido em março, logo depois de o Google dizer à equipe que não publicaria um artigo que desmentia algumas das alegações publicadas na Nature, disseram quatro pessoas a par da situação que não tinham permissão para falar abertamente sobre o tema. O Google confirmou em um comunicado por escrito que o Chatterjee foi “demitido por justa causa”.

A empresa se recusou a detalhar os motivos da demissão de Chatterjee, mas ofereceu uma defesa completa da pesquisa criticada e a respeito da recusa do Google em publicar a avaliação do pesquisador.

“Analisamos cuidadosamente o artigo original da Nature e os resultados apoiados pela revisão de pares”, disse Zoubin Ghahramani, vice-presidente do Google Research, em um comunicado por escrito. “Também investigamos rigorosamente as alegações técnicas de uma submissão subsequente e ela não atendeu aos nossos padrões de publicação.”

A demissão de Chatterjee foi o mais recente exemplo dos desentendimentos dentro e em torno do Google Brain, grupo de pesquisa de inteligência artificial considerado fundamental para o futuro da empresa. Depois de gastar bilhões de dólares para contratar os melhores pesquisadores e criar novos tipos de automação de computadores, o Google tem enfrentado uma grande variedade de denúncias a respeito de como constrói, usa e retrata essas tecnologias.

A tensão entre os pesquisadores de inteligência artificial do Google reflete dificuldades muito maiores em todo o setor de tecnologia, que encara inúmeros questionamentos em relação às novas tecnologias de inteligência artificial e questões sociais delicadas que envolvem essas tecnologias e as pessoas que as criam.

Publicidade

O recente desentendimento também segue um padrão conhecido de demissões e alegações conflitantes de transgressões entre os pesquisadores de inteligência artificial do Google, uma preocupação crescente para uma empresa que apostou seu futuro em aplicar inteligência artificial em tudo o que faz. Sundar Pichai, CEO da empresa controladora do Google, a Alphabet, já comparou a inteligência artificial ao surgimento da eletricidade ou do fogo, chamando-a de uma das iniciativas mais importantes da humanidade.

O Google Brain começou como um projeto paralelo há mais de uma década, quando um grupo de pesquisadores construiu um sistema que aprendeu a reconhecer gatos em vídeos do YouTube. Os executivos da empresa ficaram tão impressionados com a perspectiva de que as máquinas pudessem aprender habilidades por conta própria que expandiram rapidamente o laboratório, criando os alicerces para reorganizar a empresa com essa nova inteligência artificial. O grupo de pesquisa tornou-se um símbolo das maiores ambições do Google.

Mas mesmo a empresa promovendo o potencial da tecnologia, ela se deparou com a resistência dos funcionários a sua aplicação. Em 2018, funcionários do Google protestaram contra um contrato com o Departamento de Defesa dos Estados Unidos, preocupados que a inteligência artificial da empresa pudesse acabar matando pessoas. No fim, o Google acabou desistindo do projeto.

Em dezembro de 2020, o Google demitiu um dos líderes de sua equipe de ética de inteligência artificial, Timnit Gebru, depois que ela criticou a maneira como a empresa contratava minorias e fez pressão para a publicação de uma pesquisa que apontava falhas em um novo tipo de sistema de inteligência artificial para aprender idiomas.

CONTiNUA APÓS PUBLICIDADE

Antes de ser demitida, Timnit estava tentando conseguir permissão para publicar um artigo a respeito de como os sistemas de linguagem baseados em inteligência artificial, entre eles a tecnologia criada pelo Google, podem acabar usando o vocabulário preconceituoso e odioso que aprendem em textos de livros e sites. Ela disse ter ficado enfurecida com a resposta do Google a essas denúncias, inclusive com a recusa da empresa em publicar o artigo.

Alguns meses depois, a empresa demitiu a outra chefe da equipe, Margaret Mitchell, que denunciou publicamente a forma como o Google lidou com a situação envolvendo Timnit. A empresa disse que Margaret violou seu código de conduta.

O artigo na Nature, publicado em junho de 2021, promovia uma tecnologia chamada de aprendizado por reforço, que, segundo a pesquisa, poderia melhorar a criação de chips de computador. A tecnologia foi aclamada como um grande avanço para a inteligência artificial e uma ampla melhoria nas metodologias existentes para a fabricação de chips. O Google disse que usou essa técnica para desenvolver seus próprios chips para computação de inteligência artificial.

Publicidade

A empresa vinha trabalhando na aplicação da técnica de aprendizado de máquina para projetar chips há anos e publicou um artigo semelhante um ano antes. Naquela época, o Google pediu a Chatterjee, que tem doutorado em ciência da computação pela Universidade da Califórnia, em Berkeley, e trabalhou como pesquisador na Intel, para ver se a metodologia poderia ser vendida ou licenciada para uma empresa que produz chips, disseram as pessoas familiarizadas com o assunto.

Mas Chatterjee expressou reservas em relação a algumas das alegações do artigo e questionou se a tecnologia havia sido rigorosamente testada em um e-mail, disseram três das pessoas.

Em altaLink
Loading...Loading...
Loading...Loading...
Loading...Loading...

Enquanto o debate sobre essa pesquisa continuava, o Google propôs outro artigo para publicação na Nature. Para submetê-lo à revista, o Google fez alguns ajustes no artigo anterior e retirou os nomes de dois autores que trabalharam em estreita colaboração com Chatterjee e também expressaram preocupações a respeito das principais afirmações do artigo, disseram as pessoas.

Quando o artigo mais recente foi publicado, alguns pesquisadores do Google ficaram surpresos. Eles acreditavam que a pesquisa não havia seguido um processo de aprovação de publicação que Jeff Dean, vice-presidente sênior da empresa que supervisiona a maioria das iniciativas de inteligência artificial, afirmava ser necessário após a demissão de Timnit, disseram as pessoas.

O Google e uma das duas principais autoras do artigo, Anna Goldie, que o escreveu com a também cientista da computação Azalia Mirhoseini, disseram que as mudanças em relação ao artigo anterior não exigiam o processo de aprovação completo. O Google permitiu que Chatterjee e um grupo de pesquisadores internos e externos trabalhassem em um artigo que desafiava algumas das alegações da pesquisa.

A equipe submeteu o artigo de refutação a um comitê interno para aprovação e posterior publicação. Meses depois, o artigo foi rejeitado.

Os pesquisadores que trabalharam no artigo de refutação disseram que queriam levar a questão para Pichai e o conselho de administração da Alphabet. Eles argumentaram que a decisão do Google de não publicar a refutação violava os próprios princípios de inteligência artificial da empresa, inclusive a defesa de altos padrões de excelência científica. Logo depois, Chatterjee foi informado de que não era mais um funcionário, disseram as pessoas.

Publicidade

Anna disse que Chatterjee tinha pedido para gerenciar o projeto delas em 2019 e que elas recusaram a propostaQuando, mais tarde, ele a criticou, segundo Anna, o pesquisador não conseguiu fundamentar suas denúncias e ignorou as provas apresentadas como resposta.

“Sat Chatterjee tem conduzido uma campanha de desinformação contra mim e Azalia há mais de dois anos”, disse Anna em um comunicado por escrito.

Ela disse que o trabalho foi revisado por pares por meio da Nature, uma das publicações científicas de maior prestígio. E que o Google usou os métodos apresentados nele para construir novos chips que são usados atualmente nos centros de processamento de dados da empresa.

Laurie M. Burgess, advogada de Chatterjee, disse ser decepcionante que “certos autores do artigo da Nature estejam tentando encerrar a discussão científica difamando e atacando Chatterjee por simplesmente buscar transparência científica”. Laurie também questionou a liderança de Dean, que foi um dos 20 coautores do artigo publicado na Nature.

“As ações de Jeff Dean para impedir a divulgação de todos os dados relevantes do experimento, e não apenas os dados que apoiam sua hipótese favorita, devem ser profundamente preocupantes tanto para a comunidade científica como para a comunidade no geral, que consome serviços e produtos do Google”, disse Laurie.

Dean não respondeu à solicitação de comentário.

Depois que o artigo de refutação foi compartilhado com estudiosos e outros especialistas fora do Google, a polêmica se espalhou por toda a comunidade global de pesquisadores especializados em criação de chips.

Publicidade

A fabricante de chips Nvidia diz que já usou métodos de produção de chips semelhantes aos do Google, mas alguns especialistas não têm certeza do que a pesquisa da empresa significa para o amplo setor de tecnologia.

“Se isso de fato estiver funcionando bem, seria algo realmente ótimo”, disse Jens Lienig, professor da Universidade de Tecnologia de Dresden, na Alemanha, referindo-se à tecnologia de inteligência artificial descrita no artigo do Google. “Mas não está claro se está funcionando.” / TRADUÇÃO DE ROMINA CÁCIA

Comentários

Os comentários são exclusivos para assinantes do Estadão.