Nós tomamos decisões todo dia julgando seus riscos - tipo atravessar correndo uma rua vazia para pegar o ônibus, coisa que não fazemos se ela estiver cheia. Às vezes, essas decisões precisam ser tomadas em instantes, diante de circunstâncias graves: uma criança entra na frente do seu carro, mas existem outros perigos de ambos os lados, por exemplo, um gato e um penhasco. Qual é a sua decisão? Você arriscaria sua própria segurança para proteger a de outros?
Agora que carros autônomos existem no mercado, sem um jeito rápido ou certo de reaver o controle - alguns, inclusive, não têm controle manual nenhum - as fábricas de carros estão diante de um dilema ético algorítmico. Computadores de bordo em carros já estacionam por nós, dirigem por nós em piloto automático, e seriam capazes de assumir o controle em situações críticas. Mas isso quer dizer que eles vão ter que encarar as escolhas difíceis que os humanos por vezes encaram.
Como programar o cálculo ético de um computador?
- Calcular o número de feridos em cada resultado e escolher o menor. Todas as vidas seriam tratadas igualmente.
- Calcular o número de crianças feridas para cada resultado e escolher o menor.
- Atribuir valores de 10 para cada humano, 4 para um gato, 2 para um cachorro e 1 para um cavalo. A partir disso, calcular a pontuação total de cada impacto e escolher o resultado com a menor soma. Portanto, um grupo grande de cachorros teria mais prioridade do que dois gatos, e o carro reagiria para salvar os cachorros.
E se o carro também incluísse o motorista e os passageiros nessa contagem, com a possibilidade do resultado dos transeuntes ser maior do que o das pessoas dentro dele? Quem, por vontade própria, entraria em um carro programado para sacrificá-lo se houvesse necessidade?
Um estudo recente de Jean-François Bonnefon da Escola Econômica de Tolouse, na França, sugeriu que não há respostas certas ou erradas para essas perguntas. A pesquisa usou algumas centenas de funcionários recrutados através do fórum Mechanical Turk da Amazon para analisar opiniões a respeito de cenários de pedestres sendo salvos por um carro que desvia, bate em uma barreira e mata o motorista. Depois disso, variaram o número de pedestres que seriam salvos.
Bonnefon descobriu que a maioria das pessoas concordou com a ideia de programar carros para minimizar o número de mortos, mas quando os cenários recebiam mais detalhes, elas passavam a ter menos certeza. Elas ficavam ansiosas em ver os outros usando carros autônomos, mas, usá-los elas mesmas, nem tanto. Portanto, as pessoas costumam sentir um instinto utilitário de salvar a vida dos outros e sacrificar quem esteja no carro, menos quando elas estão no carro.
Máquinas Inteligentes
Escritores de ficção científica tiveram muito espaço para escrever sobre robôs dominando o mundo (Exterminador do Futuro e cia ldta.) ou sobre futuros onde tudo que é dito é gravado e analisado (como o 1984 de George Orwell). Demorou um pouco para chegarmos nesse ponto, mas muitos chavões da ficção científica estão no processo de se tornarem ciência e tecnologia comuns. A internet e a computação de nuvem se tornaram a plataforma pela qual saltos quânticos de progresso são feitos, comparando a inteligência artificial com a humana.
No clássico filme de Stanley Kubrick, 2001: Uma Odisséia no Espaço, vemos vislumbres de um futuro onde os computadores tomam as decisões sobre as prioridades da missão, com o computador da nave, HAL, afirmando: "Essa missão é importante demais para que eu permita que você a coloque em risco".
Inteligência em máquinas é algo que está aparecendo em nossos aparelhos, desde os telefones até os carros. A Intel prevê que haverá 152 milhões de carros conectados até 2020, gerando mais de 11 petabytes de dados todo ano - o suficiente para encher mais de 40.000 HDs de 250GB. E quão inteligentes eles serão? De acordo com a Intel, (quase) tanto quanto você. Os carros vão compartilhar e analisar uma gama de dados para tomar decisões a cada momento. É bem verdade que, na maioria dos casos, carros sem motorista tendem a ser mais seguros que os normais, mas o problema está nas exceções.
The intelligent car, (almost) as smart as you. IoT will be a hot topic at #CES2014! http://t.co/qqCKgWpfCU pic.twitter.com/Pc7N5QFBFX
— Intel Official News (@intelnews) 3 janeiro 2014
As famosas Três Leis da Robótica do escritor Isaac Asimov propuseram um jeito dos aparelhos do futuro lidarem com decisões em circunstâncias perigosas:
- Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra qualquer mal.
- Um robô deve obedecer as ordens dadas por um humano, exceto quando essas ordens conflitarem com a Primeira Lei.
- Um robô deve proteger sua própria existência, contanto que essa proteção não conflite com a Primeira ou a Segunda Lei.
Ele até adicionou uma "Lei Zero", mais fundamental ainda, que precede todas as outras:
- Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
Asimov não falou do nosso dilema ético do acidente de carro, mas com mais sensores para coletar dados, mais fontes de onde extrair esses dados, e um maior poder de processamento, a decisão de agir se torna um ato frio de análise.
E, claro, softwares são notoriamente cheios de problemas. Que desastres poderiam ser provocados por agentes maliciosos que comprometam esses sistema? E o que acontece no momento em que a inteligência artificial tira o controle da humana? Será o correto a se fazer? Afinal, em 2001, Dave teve que tomar medidas drásticas após se encher das decisões de HAL:
Será que um comprador no futuro será capaz de comprar opções programáveis de ética para customizar seu carro? O equivalente IA daquele adesivo "Eu não breco por ninguém"? E caso positivo, como você saberia de que modo os carros vão agir - e você subiria em um se soubesse?
E então vêm os problemas jurídicos. E se um carro pudesse ter intervindo para salvar vidas mas não interviu? Ou então atropelou pessoas de propósito com base em seu cálculo ético? Nós temos essa responsabilidade enquanto humanos que dirigem carros, mas as máquinas seguem ordens, então quem (ou o quê) é responsável por uma decisão dessas? Como vemos com o avanço da tecnologia de reconhecimento facial em smartphones, monitores de aeroporto e até mesmo no Facebook, não é difícil para um computador identificar objetos, rapidamente calcular as consequências baseado na velocidade do carro e nas condições da estrada, traçar um grupo de resultados, escolher um e agir. E quando ele fizer isso, ele provavelmente não terá escolha.
Fonte: IFLScience
Nenhum comentário:
Postar um comentário