Carros autônomos serão capazes de tomar decisões de vida ou morte nas ruas?

Indústria de carros sem motorista ainda discute como deixar decisões fatais nas mãos da inteligência artificial

PUBLICIDADE

Por Dalvin Brown
Atualização:
Empresas como a Waymo, do Google, desenvolvem IA para veículos autônomos Foto: Caitlin O'Hara/Bloomberg

Sonho de muitas empresas, a direção autônoma ainda tem obstáculos para se tornar realidade. Um dos dilemas que mais preocupam é como ensinar um carro a tomar decisões complexas de vida ou morte em cenários em que aparentemente ambas as opções são negativas na estrada. Pesquisadores do setor dizem que a indústria está longe de decidir como a inteligência artificial escolhe quem recebe o impacto mais forte de um acidente iminente.

PUBLICIDADE

A estratégia de boa parte do mercado era começar com os chamados recursos de nível 1 de assistência de direção. A partir disso, a ideia era desenvolver progressivamente uma perspectiva que ainda tem de ser concretizada: carros de nível 5 ou veículos avançados o suficiente para tomar decisões melhores do que humanos em todas as condições de direção – inclusive em cenários de vida ou morte.

Porém, atualmente, muitos estão abordando a questão sob uma perspectiva diferente: por que não, em primeiro lugar, impedir que os carros se envolvam em situações de vida ou morte?

É uma visão idealista da direção autônoma. Ainda assim, é um ponto de partida. Afinal, o principal objetivo dos carros sem motorista é criar condições nas estradas em que os veículos sejam mais conscientes do que os humanos e, portanto, melhores em prever e prevenir acidentes. Isso pode evitar alguns dos acontecimentos raros em que a vida humana depende de uma decisão de fração de segundo.

A inteligência artificial é boa em muitas coisas, como saber que um objeto de um tamanho específico está à frente na estrada. Ela também pode deduzir o que poderia ser e ficar mais inteligente com o tempo, com base em milhões de imagens.

Porém, a inteligência artificial talvez não seja tão útil para resolver dilemas éticos a respeito dos quais os humanos ainda não chegaram a um consenso, de acordo com Dave Grannan, CEO da Light, empresa que desenvolve software de percepção com base em câmera para carros. "Eu não acho que alguém vai se sentir confortável em entregar essas decisões de alto risco para a inteligência artificial. E eu acho que, como uma indústria, é isso que temos que explicar", disse Grannan.

Houve tentativas de quantificar as perspectivas humanas sobre as decisões de direção da inteligência artificial. Um método veio de pesquisadores do Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), que conduziram um estudo global para encontrar uma solução de consenso. 

Publicidade

Direção

A questão é conhecida como “dilema do bonde”. Trata-se de um dilema moral antigo em que alguém deve decidir ficcionalmente se um bonde deve seguir um rumo em direção a uma pessoa para salvar um grupo maior de pessoas. 

De acordo com o experimento publicado em 2018, geralmente, as pessoas pensam que a responsabilidade da inteligência artificial é poupar o máximo de vidas possível, mesmo que isso signifique matar algumas. Os pesquisadores também descobriram que as pessoas favorecem vidas mais jovens em vez de mais velhas, mas alguns países como a China se desviaram desse resultado.

É claro que os acidentes rodoviários permanecem sendo uma questão muito importante. A cada ano, mais de 1 milhão de pessoas morrem nas estradas em todo o mundo. Contudo, a melhor maneira de matar ou ferir pessoas provavelmente não é uma decisão que você gostaria de deixar nas mãos de seu carro ou da empresa que o fabrique, em um futuro próximo. Esse é o pensamento atual em relação à inteligência artificial avançada: ela deve evitar os cenários que levam a acidentes, e escolher quem morrerá é um daqueles que ela nunca deveria ter que enfrentar.

CONTiNUA APÓS PUBLICIDADE

Os humanos se distraem com mensagens de texto, enquanto os carros não estão nem aí para o que seus amigos têm a dizer. Os humanos talvez não percebam objetos escondidos pelo ponto cego de seus veículos. Carros com o sensor LiDAR podem detectar essas coisas e as câmeras 360º devem continuar em ação mesmo quando a vista do motorista ficar cansada. O radar pode funcionar de um veículo para o outro e talvez perceber um carro desacelerando à frente mais rápido do que um humano é capaz. Essa é toda a parte sensorial, que é alimentada por um sistema de tomada de decisão para carros habilitados para direção autônoma.

Barry Lunn é fundador e CEO da Provizio, uma empresa de tecnologia de prevenção de acidentes que usa um sistema de visão "pentadimensional" composto de radar de ponta, LiDAR e imagens de câmera. A empresa usa um processador de visão da Intel e um processador gráfico da Nvidia, permitindo que os carros executem algoritmos de aprendizado de máquina diretamente no sensor de radar interno. 

O resultado é uma pilha de tecnologia de percepção que enxerga mais longe e mais amplamente, além de processar dados rodoviários mais rápido do que o sistema de autonomia tradicional, diz Lunn. A análise preditiva rápida dá aos veículos e aos motoristas mais tempo para reagir a outros carros. O fundador tem trabalhado em tecnologia de visão computacional por quase uma década e já trabalhou anteriormente com a NASA, General Motors e Boeing quando era dono da empresa de radar Arralis, que ele vendeu em 2017.

Publicidade

A startup está em negociações com grandes fabricantes de automóveis e sua visão tem uma forte equipe de pioneiros por trás dela, incluindo Scott Thayer e Jeff Mishler, desenvolvedores das primeiras versões de tecnologia autônoma para a Waymo, do Google, e para o Uber.

Os primeiros investidores da Provizio incluem Bobby Hambrick, fundador da empresa de direção automatizada AutonomouStuff. A empresa também é apoiada por David Moloney, um dos fundadores da startup de visão computacional Movidius, que a Intel comprou em uma negociação de US$ 400 milhões em 2016. Moloney investiu porque o produto da Provizio "é baseado na segurança, não em autonomia".

Em altaLink
Loading...Loading...
Loading...Loading...
Loading...Loading...

"Tempo é segurança e quanto mais tempo para tomada de decisão (um carro) tem para detectar e evitar algo, mais vidas você pode salvar", disse Moloney.

Lunn acha que a indústria automobilística empurrou a autonomia como solução prematuramente, muito antes de ela ser segura ou ser praticável remover os motoristas humanos da equação. Ele diz que a tomada de decisões da inteligência artificial desempenhará um papel crucial no futuro da segurança automotiva, mas somente depois de comprovar que ela reduz os problemas que levam a acidentes. O objetivo é colocar a tecnologia dentro dos automóveis de passageiros para que o sistema possa aprender com os motoristas humanos e entender como eles tomam decisões antes de permitir que a inteligência artificial decida o que acontece em casos específicos.

"O verdadeiro problema será: em que ponto ainda é ético permitir o humano dirigir?", questiona Lunn. "Mas antes disso, a inteligência artificial precisa continuar a aprender com os motoristas humanos. A autonomia terá de garantir que nunca tenhamos um ‘dilema do bonde’." / TRADUÇÃO DE ROMINA CÁCIA

Comentários

Os comentários são exclusivos para assinantes do Estadão.