O que está por trás da inteligência artificial de crédito do Nubank

Em entrevista exclusiva ao ‘Estado’, indiano Krishna Venkatraman, que trocou IBM pela fintech, explica como identifica bom pagador e evita viés em sistema

Bruno Romani - O Estado de S. Paulo

Você pode ler 3 matérias grátis no mês

ou Assinar por R$ 0,99

Você pode ler 3 matérias grátis no mês

ou Assinar por R$ 0,99

Para muita gente, o uso de inteligência artificial (IA) parece mágica, como se o uso de dados para produzir soluções em desafios variados fosse uma espécie de feitiço, sem grandes explicações. É algo que pode ser problemático, especialmente na aplicação da tecnologia em áreas sensíveis, como a obtenção de crédito. Afinal, como saber se a máquina julgou corretamente os fatores de riscos? Ou se o algoritmo não refletiu preconceitos sociais? Como realizar uma análise de crédito justa, respeitando a privacidade dos usuários? 

São desafios com os quais o indiano Krishna Venkatraman precisa lidar diariamente: no início do ano, ele trocou a vice-presidência de ciência de dados da IBM e Nova York pela cidade de São Paulo. Aqui, o indiano, pós-doutor em Engenharia Industrial pela Universidade Stanford, dirige a área de ciência de dados do Nubank – a fintech que mais emite cartões de crédito no País. 

Não curtiu. Usar dados de redes sociais para analisar crédito pode ter efeitos indesejados, diz Venkatraman Foto: Tiago Queiroz/Estadão

Em entrevista exclusiva ao Estado, Venkatraman abre a caixa-preta da IA do Nubank, explicando como a empresa usa algoritmos para identificar bons e maus pagadores – entre as informações estão relatórios de birôs de crédito, comportamento de compras e até recomendações de usuários que também já são clientes. Também fala como a fintech faz para evitar o viés nos algoritmos – um problema que vem chamando cada vez mais a atenção. Nos EUA, por exemplo, a Apple foi acusada de oferecer limites menores às mulheres no cartão de crédito Apple Card. 

Para o executivo, porém, é importante garantir que as máquinas não estejam no controle. “Não são elas que tomam decisões. São pessoas usando informações, deliberadamente. Se um usuário tem alto risco em certo limite, concedemos a ele limite mais baixo”, afirma. A seguir, os principais trechos da entrevista. 

É fácil saber quais serão os bons e os maus pagadores. Mas entre eles há uma grande zona cinza. Como navegar por ela? 

É na zona cinza que estão as oportunidades. Aprovação de crédito é um processo caro – e isso já exclui muita gente, porque o custo é muito alto, então só ficam os consumidores que “valem a pena”. Com IA, podemos reduzir tempo e custo radicalmente, analisando o crédito em segundos – e não em uma semana. Quando tratamos o crédito, precisamos analisar a possibilidade de uma pessoa pagar de volta e como equilibrar esse custo. Não é a máquina que toma as decisões. São pessoas usando informações, deliberadamente. Se um usuário tem alto risco em certo limite, concedemos a ele limite mais baixo. Assim, a pessoa pode usar nosso produto e, com mais informações, podemos até aumentar o limite. 

Vocês usam dados ‘não tradicionais’ na análise de crédito?   

Usamos apenas na área de atendimento ao cliente. Temos uma base de usuários enorme e eles têm perguntas diferentes.Não é possível ter funcionários lendo todas mensagens para tentar adivinhar as respostas, não é algo escalável. Em relação ao crédito, a decisão de crédito tem que ser baseada nos comportamentos ligados a crédito.

O comportamento em redes sociais ou no WhatsApp influencia a obtenção de crédito? 

Não fazemos isso. É melhor confiar no que a pessoa fez. Nunca usaremos, sem permissão clara, dados que são dos clientes, não estamos nos negócios de garimpar dados ou bisbilhotar o texto das mensagens de alguém. Se você pensar, pode ter consequências não intencionais se usar outros tipos de dados no sistema. 

Que consequências seriam essas? 

As pessoas interagem em um ambiente diferente nas redes sociais. Não há sinais fortes que possam ser aproveitados numa análise de dados. Se usarmos sinais como esses, podemos abrir nosso negócio para pessoas que mudam seu comportamento só para se adequar ao modelo – o que acaba sendo o oposto do que se quer. Soa legal dizer que se faz análise de redes sociais, mas tenho uma visão pragmática de IA. Precisamos usar dados realmente eficientes. 

O Brasil tem muitas diferenças sociais. Como garantir que essas disparidades não se reflitam no julgamento de crédito pela IA? 

Queremos saber apenas quais são as condições e fatores que afetam crédito, como renda ou ficha criminal. São coisas razoáveis de se supor e não são segregatórias. Sociedades podem ter diferentes proporções de pessoas com certas características, mas não se deve condicionar uma decisão sobre isso. Não dá só aprovar um número “x” de pessoas num grupo: tem que olhar para os fatores de crédito que sustentam a decisão e analisar se ela é justa ou não. 

E como garantir um sistema que não tem viés, sendo justo com todos os que buscam crédito? 

O viés existe independentemente da IA. Se eu só falasse em regras, sem pensar em IA, como saberíamos que ela são justas? O segredo não é usar a máquina como caixa preta, concordando diretamente com a previsão dela. Pensamos em causalidade: nossos modelos são construídos para terem explicação sobre as decisões. Sempre fazemos testes para ter mais sinais sobre clientes que a máquina diz ser de alto risco. São pessoas que queremos que entrem em nosso sistema, mas de quem queremos ter mais informações. 

Como usar dados e respeitar privacidade? 

Nos próximos 10 anos, os clientes tomarão as rédeas sobre os direitos de seus dados. Também sou um consumidor e acho isso bom: quem trabalha com isso precisa pensar em como administrar os dados para gerar benefícios, sem expor as informações. É possível anonimizar dados sensíveis ou remover informações pessoais a menos que seja extremamente necessário, como em casos de fraude. Não há razão para um cientista de dados saber precisamente quem é determinado cliente, porque ele pode analisar pelo contexto. 

A IA do Nubank aceita que a empresa ‘perca’ em algumas situações para ganhar em outras? Ou a empresa sempre terá vantagem contra o consumidor? 

A missão do Nubank é empoderar clientes e eliminar complexidade. Isso permeia muito do que fazemos. Não podemos perder dinheiro com cada cliente e imaginar que vamos durar muito tempo, temos que ser lucrativos. Mas sabemos que os usuários são livres para ir onde quiserem. Administramos o risco com consciência disso. 

As fintechs podem vencer os bancos tradicionais só por usarem IA? 

IA e dados são ferramentas para fins específicos. Podemos ter vantagem agora, mas todos os grandes bancos estão olhando para isso. A vantagem que temos – e que as outras empresas ainda precisam refletir sobre – é na centralidade do usuário. Não é uma resposta tecnológica, e nunca é. A resposta é como fazer a tecnologia trabalhar em direção ao usuário. 

O que difere os mercados de crédito do Brasil e dos EUA? Há desafios específicos aqui? 

Os dois têm a mesma estrutura, mas as fontes de dados são diferentes. A riqueza e diversidade de dados dos EUA é maior. O Brasil tem alguns ‘buracos” que precisamos cobrir. Informações de bom pagamento, como o cadastro positivo, ainda não são amplamente adotadas por aqui. Saber que alguém pagou uma conta no tempo correto é valioso. Mas isso vai mudar em breve, não vai demorar 50 anos, como aconteceu lá. O ritmo da tecnologia é rápido o suficiente para que isso não aconteça. 

Mais conteúdo sobre:

Encontrou algum erro? Entre em contato