Quem os carros autônomos deveriam escolher salvar ou matar em caso de decisões extremas?

Há uns 8 meses fiquei sabendo da história do americano Joshua Brown que postou um vídeo no Youtube, mostrando como o seu carro Tesla ModelS evitou uma batida com um caminhão que imprudentemente fechou a sua frente. Este tipo de carro possui sensores que permitem que ele se movimente autonomamente, e neste caso o sistema teria feito com que ele freasse e desviasse do caminhão. Veja o vídeo:

Infelizmente, um mês depois, Joshua sofreu um acidente fatal, tendo seu carro entrado debaixo de uma carreta. Supõem-se que ele não estivesse com as mãos no volante, e que os sensores de freio também tenham falhado. Veja como o carro ficou:
Agora estão se intensificando debates sobre até que ponto poderíamos confiar suficientemente em um carro totalmente autônomo. Além disso, outras questões muito pertinentes têm sido colocadas a respeito de qual decisão seria mais adequada no caso de o carro ter que escolher entre uma colisão com um grupo de pedestres a sua frente, salvando o motorista, ou optando por salvar preferencialmente os pedestres.
Um estudo feito pela Escola de Economia de Toulouse mostrou que mais de 75% dos inquiridos preferiram o auto-sacrifício do motorista se fosse para salvar um grupo de 10 pedestres, e cerca de 50% apoiaram o auto-sacrifício se fosse para salvar apenas um pedestre. No entanto, os entrevistados de fato não acham que os carros reais acabem sendo programados dessa maneira, e que o veículo provavelmente tentaria salvar o motorista a qualquer preço.
Uma versão da pesquisa questionou sobre a quantidade de pessoas que seriam mortas (entre 1 e 10) se o carro tivesse que escolher entre sacrificar o motorista ou os pedestres. Em outra versão testou-se como as pessoas programariam os carros, sacrificando sempre o motorista, ou protegendo-o, e também aleatoriamente, avaliando-se a moralidade em cada caso. 
Os pesquisadores informaram que os entrevistados geralmente eram receptivos aos carros autônomos que optassem tomar decisões que priorizassem salvar uma maior quantidade de pessoas. Isto é conhecido na filosofia como utilitarismo. No entanto, eles prevêem que será difícil estabelecer regulamentos, quando questionarmos se o público apoiaria uma lei que exigisse que esses carros sacrificassem os seus passageiros em determinadas circunstâncias.
Esta é uma questão que sem dúvida irá afligir a indústria automobilística autônoma. Já está comprovado que os carros autônomos podem reduzir as mortes no trânsito em até 90%, mas no campo da ética, o que acontece aos outros 10% é uma questão que ainda deverá ser muito debatida.

Fontes:
http://www.popsci.com/who-will-driverless-cars-decide-to-killcon=TrueAnthem&dom=fb&src=SOC&utm_campaign=&utm_content=584eb597b8a9fe00073926fa&utm_medium=&utm_source=
http://g1.globo.com/carros/noticia/2016/07/divulgadas-imagens-de-carro-da-tesla-apos-acidente-fatal-nos-eua.html

Um comentário:

  1. Muitos problemas... o primeiro é que a "inteligência artificial" não é tão inteligente assim e é sempre baseada em supostas aproximações do cremos ser inteligência (já nos alertava Hume, nosso pensamento indutivo é nossa âncora a ser carregada) e, em segundo e mais grave, colocar decisões morais nas mãos do que é amoral (qualquer corporação) é um algo completamente surreal...

    ResponderExcluir

Antes da publicação, os comentários serão analisados pelo autor do blog.