Microsoft pede desculpas após mensagens ofensivas de seu robô virtual

Empresa disse que só vai reativar o sistema de inteligência artificial Tay quando seus engenheiros encontrarem uma maneira de impedir influências negativas dos internautas

PUBLICIDADE

Por Agências
Atualização:

Reprodução

 

PUBLICIDADE

A Microsoft está “profundamente arrependida” pelas mensagens racistas e sexistas publicadas no Twitter por um sistema automático lançado pela empresa na semana passada, afirmou a companhia em uma nota oficial.

O sistema, conhecido como “Tay”, foi projetado para se tornar mais inteligentes conforme os usuários interagem com ele. Em vez disso, o sistema rapidamente aprendeu uma série de expressões antissemitas e de ódio enviadas por usuários do Twitter, forçando a Microsoft a desligá-lo na quinta-feira, 24.

Leia também:Inteligência artificial caminha a passos lentosInteligência artificial do Google bate campeão em disputa de jogos de Go

Após o problema, a Microsoft afirmou que vai reativar o Tay apenas se seus engenheiros puderem encontrar uma maneira de impedir que internautas influenciem o sistema de forma que possa agir contra os princípios e valores da companhia.

“Estamos profundamente arrependidos sobre os tuítes ofensivos de Tay, que não representam quem nós somos ou o que defendemos, nem como nós projetamos o Tay”, disse Peter Lee, vice-presidente de pesquisa da Microsoft.

A companhia criou o sistema como um experimento para aprender mais sobre como programas de inteligência artificial podem interagir com internautas em uma conversa casual. O projeto foi concebido para interagir e “aprender” com jovens.

Publicidade

Tay foi ativado no Twitter na quarta-feira, 23, publicando uma série de tuítes inofensivos. A partir daí, o sistema deu uma virada.

Em um exemplo, Tay enviou a mensagem: “feminismo é câncer”, em resposta a outro usuártio do site de microblogs que tinha publicado a mesma mensagem.

/REUTERS

Comentários

Os comentários são exclusivos para assinantes do Estadão.