Mercado fechado

Decisões de inteligência artificial em máquinas autônomas

Lucas Vieira

Os carros autônomos estão conquistando cada vez mais espaço em testes de uso em ambientes povoados, diversificados e imprevistos. Mas a verdade é que nem os próprios projetistas estão certos do quanto é necessário ainda para que os AVs (Veículos Autônomos) estejam prontos para uma comercialização geral ao público. Tal acontecimento implicará em liberar os carros para rodarem sem a supervisão de um técnico treinado para situações de risco – o que já provocou um acidente fatal, em março de 2018.

Agora as questões tomam uma nova perspectiva, não ligada à tecnologia em si, necessária para tornar o processo de direção do veículo de forma segura e eficiente para os passageiros e todos nós. São relações políticas, jurídicas, socioeconômicas e muitas outras, que questionam o quão preparado estaremos para receber os robôs entre nós. E é aí, onde deve caminhar nossa reflexão.

Vamos pensar, por exemplo, nas carteiras de habilitação. Como as provas devem ser feitas, havendo um veículo autônomo na condução, e sabendo que o passageiro “extra-condutor” poderá estar adormecido enquanto a máquina toma as decisões? Há algum tempo, dois estados dos Estados Unidos – Califórnia e Flórida – divergiram sobre a liberação da condução autônoma em função de uma regulamentação prévia (ou não) para a execução das atividades.

Quando dirigimos, estamos tomando dezenas de decisões a cada momento, mesmo que inconscientes. Segundo os cientistas do laboratório de Cold Spring Harbor, nos EUA, e do laboratório de Sistemas em Neurociência de Lendület, na Hungria, tomamos decisões lógicas baseadas em cálculos estatísticos semelhantes as que um processador de computador faz. A resposta a estes experimentos deve nos levar a construir melhores cérebros virtuais, ou inteligências artificiais.

A tomada de decisão é então o foco para se construir/criar uma inteligência capaz de não sofrer interferências de outros sentidos, como a emoção. Ou seja, seria possível então realizar a tarefa com excelência, uma vez que apenas os dados importam e nada mais. Isso claro, em teoria, é maravilhoso de se ouvir, mas vamos dar uma pequena pausa aqui. Interferências externas são sempre ruins e nos fazem tomar más decisões?

Nossas interferências podem estar ligadas à visão de mundo que possuímos e a uma moral interna, diferente em cada ser humano. Liberando as máquinas autônomas, perdemos as interferências humanas, mas podemos inserir uma “moral-de-máquina” ou moral machine. Essa seria regulada e alterada como se atualizam versões de um software que hoje envia um e-mail, e atualizado, passa a enviar um SMS, por exemplo.

A Moral Machine é um tema extremamente sério e precisa ser exaustivamente discutido antes de haver uma liberação total dos veículos autônomos. Para exemplificar melhor, o caso do acidente fatal que citei acima, foi uma decisão arbitrária da moral da máquina, imputada por seus programadores, em atropelar a pedestre para não incorrer em riscos ao passageiro. Você pode conferir esta informação em manchetes de revistas sérias, como esta aqui.

As decisões morais que uma máquina deve tomar estão relacionadas a como nos comportamos e percebemos o mundo ao nosso redor. Para ficar melhor exemplificado, veja o site que o MIT – Massachusetts Institute of Technology – tem mantido sobre o tema. Nele os internautas são convidados a tomar decisões difíceis e cada contribuição pode ajudar a revelar como devem ser, de fato, garantidas as morais inseridas nos códigos das máquinas que, afinal, coexistirão com os seres humanos.

* Lucas Vieira, Gerente de Produtos da Soluti, empresa especializada em tecnologia da informação com ênfase em Certificação Digital

Fonte: Canaltech

Trending no Canaltech: