Carro autônomo precisa ser programado para matar, diz estudo

Quase todos os acidentes de trânsito podem ser evitados. Porém, às vezes, é preciso escolher quem sobrevive. Será que um carro autônomo faria a escolha certa?

São Paulo – Se você precisasse empurrar uma pessoa na frente de um ônibus para salvar um grupo com cinco indivíduos, você faria isso? Foi a partir de um dilema similar a esse que pesquisadores da Escola de Economia de Toulouse, na França, chegaram à conclusão que carros autônomos precisam ser programados para matar seres humanos.

A adoção de veículos que se dirigem no futuro promete reduzir drasticamente o número de acidentes de trânsitocerca de 90% de acordo com especialistas. No entanto, alguns desastres podem ser inevitáveis e os carros terão que fazer escolhas.

Pensando nisso, os pesquisadores perguntaram a percepção de pessoas. Baseados na pergunta descrita acima (que faz parte do experimento filosófico chamado Dilema do Bonde), eles incluíram uma situação em que um carro poderia escolher entre matar pedestres e proteger o “motorista” ou salvar a vida de pedestres e matar o ocupante do carro.

Segundo o estudo, mais de 75% das pessoas acreditam que o passageiro deveria ser sacrificado para salvar um grupo de dez pessoas. Essa aceitação cai com um número menor de pedestres e também quando o participante é um dos indivíduos dentro do carro.

As pessoas são a favor de uma programação que salve a vida de pedestres. Os participantes disseram que incentivariam que outras pessoas comprassem um carro programado dessa maneira. Elas mesmas, no entanto, ficariam menos confortáveis ao comprar um carro assim.

“Os participantes não acreditam que os carros serão programados dessa maneira”, disse Jean François Bonnefon, um dos autores do estudo, ao site MIT Technology Review.

De acordo com Bonnefon, essa questão provocou reflexões ainda mais importantes. “Se um fabricante oferece diferentes versões de seu algoritmo moral e um comprador conscientemente escolhe um deles, o comprador deve ser responsabilizado pelas consequências prejudiciais das decisões do algoritmo?”, argumentou.

Bonnefon e sua equipe acreditam que esses problemas não podem ser ignorados, pois logo todos terão veículos autônomos. “Ter moralidade algorítmica nunca foi tão urgente”, alertou o pesquisador.

Como funcionou a pesquisa

A pesquisa online foi feita com 913 participantes de várias partes do mundo.

Três opções: qual você escolheria? (Escola de Economia de Toulouse)

Uma das versões do estudo escolheu um número aleatório (de 1 a 10) de pessoas que seriam mortas se o motorista não fosse sacrificado. Depois, os pesquisadores perguntaram às pessoas se o carro deveria salvar o passageiro ou os pedestres.

A segunda variante testou como os participantes programariam os veículos – se eles sempre sacrificariam o passageiro, sempre o salvariam, ou deixariam a escolha ser aleatória. Após essa parte, as pessoas teriam que avaliar a moralidade de cada ato.

Por último, o terceiro grupo ouviu uma história de que dez pessoas foram salvas, pois um carro desviou e matou o passageiro. Os cientistas pediram para que esses participantes imaginassem que eram o motorista e, depois, que eram um dos pedestres. Os participantes precisaram analisar a moral desse caso.