Quem o carro autônomo deve matar?

A “moral” dos veículos autônomos e dos homens que deixaram de conduzir


No último dia 26 o Escritório de Direito Administrativo do Departamento de Veículos Automotores da Califórnia (DMV) anunciou a autorização para testes em rua de veículos autônomos sem tutores embarcados. A suposta liberdade alcançada pelos veículos é acompanhada de uma série de regras que visam minimizar o risco de acidentes, como monitoramento à distância por um “motorista” e um plano de alinhamento de ações com as autoridades locais.


Estudos científicos do MIT nos provocam sobre como estas regras deverão ser formadas, especialmente quando o veículo autônomo já for “independente” e eventualmente passar por situações de contingência. Em forma de game, os pesquisadores testam como humanos pensariam em uma situação da iminência de um acidente, e qual deveria ser a reação um veículo dirigido por Inteligência Artificial.


A discussão sobre o nível de independência de inteligências artificiais provoca o mundo há gerações. Em 1968 o lançamento de “2001 Uma Odisseia no Espaço” chocou uma geração que ainda se adaptava ao surgimento dos movimentos jovens, que representaram o pela primeira vez o homem autônomo em sua unidade e agrupado socialmente por novos valores. No filme, o computador HAL 9000 leva sua soberania a extremos desprezando conceitos humanos essenciais como reciprocidade e empatia.


Estudos sobre o comportamento humano demonstram que os sentimentos não aprendidos pelo HAL 9000 são justamente os que nos tornam sociáveis. Daniel Goleman, no best seller Inteligência Emocional, retalha como a ausência de reciprocidade e empatia caracterizam o comportamento de sociopatas e abusadores. Afirma também que estes comportamentos só são curados com o aprendizado da capacidade de sentir a dor e a angústia do outro.


O pulsos elétricos que movem neurônios também percorrem processadores, mas máquinas não desenvolvem sentimentos. Os princípios de Machine Learning não são empáticos e se aproximam mais do adestramento que entregamos a elas, resultado da cultura e da percepção de moral que temos. Em resumo, se formos amáveis ensinaremos máquinas a serem amáveis. Se formos malígnos…

Abre-se portanto uma discussão ética sobre a capacidade de ensinarmos as máquinas e sobre a necessidade da criação de sistemas mais eficientes para formá-las e vigiá-las. Nada muito diferente do que temos desenvolvido com humanos, especialmente depois da publicação do livro de Goleman e da crescente necessidade de humanos mais humanos. Realidades de uma era onde pessoas pensam e máquinas executam.

Você está preparado para ensinar máquinas a pensarem emocionalmente?


Online desde outubro de 2016, o estudo do MIT está disponível no link http://moralmachine.mit.edu/hl/pt . Mas lembre-se do pequeno lembrete na página inicial: “uma plataforma para coletar a perspectiva humana em relação às decisões morais feitos pela inteligencia das máquinas”. E isso não basta, após o julgamento sua estatística é comparada com a média coletada até agora.

Nenhum comentário

Tecnologia do Blogger.