Artigo: por que os carros autônomos não serão realmente autônomos
Mike Elgan, Computerworld / EUA
22/03/2018 - 16h16
A verdade é que a Inteligência Artificial não é inteligente nem artificial; ela é feita de pessoas.
Regras aprovadas recentemente na Califórnia, nos EUA, para
os “carros autônomos” colocam luz sobre um conceito errado sobre como a
Inteligência Artificial (IA) funciona.
Um público com conhecimento do assunto sabe que os
veículos autônomos são incríveis, mas que até o momento ainda não são
capazes de assumir o controle total de um automóvel sem nenhuma pessoa
atrás da direção.
É apenas uma questão de tempo até que os chamados
“motoristas de segurança” – basicamente as pessoas que ficam sentadas no
banco do motorista caso aconteça algum problema com a IA – saiam do
veículo e deixem toda a direção para as máquinas, certo?
Vamos com calma.
O estado da Califórnia acaba de aprovar licenças para que
os carros autônomos não tenham nenhuma pessoa atrás do volante, ou mesmo
no carro (após deixar um passageiro ou para realizar entregas, por
exemplo), mas com uma “pegadinha”: as empresas de carros autônomos devem
monitorar e poder assumir o controle da direção remotamente, quando
necessário.
Essa regra corresponde a outras existentes em diferentes
partes dos EUA em que os veículos autônomos sem motoristas foram
permitidos. Não há nenhuma pessoa no carro, ou pelo menos no banco do
motorista, mas apenas porque o monitoramento e o controle remotos tornam
isso possível, seguro e legal.
Imagino salas de controle no estilo da Nasa, cheias de
operadores e telas e relatórios de tráfego, onde talvez algumas dezenas
de pessoas monitoram algumas centenas de carros, para então assumir o
controle deles no caso de problemas de funcionamento, “congelamentos” ou
situações complexas. Também é possível que o monitoramento remoto seja
feito em cubículos no estilo call-center.
Veja abaixo algumas empresas de carros autônomos que sei
que já revelaram publicamente que estão construindo ou já construindo
salas de controle desse tipo:
Udelv
Nissan
Waymo
Zoox
Phantom Auto
Starsky Robotics
Quais das outras companhias de carros autônomos também terão salas de controle desse tipo? Todas elas.
Pense nisso. Não são apenas os carros autônomos que
precisam da ajuda humana quando a IA não é inteligente o bastante para
lidar com situações inesperadas.
O mundo da IA: feito de pessoas
Para compensar a imperfeição da IA, as empresas geralmente recorrem à intervenção humana por trás das cenas.
A ideia é que supervisores humanos vão garantir que a IA
funcione bem, além de assumir um papel de professor. Quando a IA falha, a
intervenção humana é uma guia para impulsionar melhorias no software. O
objetivo explícito desse processo é que eventualmente a IA consiga
funcionar sem supervisão.
Lembra do Facebook M?
Era uma assistente virtual que ficava dentro do Facebook
Messenger. A ideia clara por trás do projeto era fornecer uma assistente
que pudesse interagir com os usuários como se fosse uma pessoa. O
“produto”, neste caso, era a automação de máquinas. Mas, na verdade,
havia um grupo de ajudantes humanos por trás das cenas que
supervisionavam e intervinham quando necessário. Essas pessoas também
estavam lá para treinar a IA a partir das suas falhas, para que ela
pudesse eventualmente operar de forma independente. O Facebook imaginava
uma saída gradual do envolvimento humano até o ponto da automação
total.
Mas esse momento nunca chegou.
O problema com essa abordagem parece ser que, uma vez que
as pessoas são inseridas no processo, a esperada “auto-obsolescência”
nunca acontece.
No caso do Facebook, a empresa esperava evoluir para além
da ajuda humana, mas, em vez disso, teve de cancelar o projeto como um
todo.
O Facebook não falou mais sobre a iniciativa, mas a rede
social provavelmente descobriu o que estou falando aqui agora: IA que
exige ajuda humana agora provavelmente vai precisar desse auxílio
indefinidamente.
Muitas outras empresas e serviços de IA funcionam assim: o
valor da proposta é a Inteligência Artificial, mas na realidade é algo
como "IA mais ajudantes humanos por trás das cortinas".
No mundo dos serviços baseados em IA, grandes exércitos de
pessoas precisam entrar em ação para compensar a inabilidade da IA
atual para funcionar da forma como queremos.
E quem está fazendo esse trabalho? Você está, para começo de conversa.
Nos últimos 9 anos, o Google vem usando o seu sistema
reCAPTCHA para autenticar usuários, que precisam provar que são pessoas
de verdade. Essa prova envolve uma mistura de testes verdadeiros e
falsos, em que as pessoas reconhecem coisas que os computadores não
conseguiriam.
No início, o Google usava o reCAPTCHA para ajudar os
computadores a realizar o reconhecimento de caracteres ópticos (OCR) em
livros e edições do The New York Times. Depois, ele passou a ajudar a IA
do Google a ler endereços de ruas no Street View.
Há quatro anos, o Google transformou o reCAPTCHA em um
sistema para treinamento de IA. A maior parte do treinamento é para
reconhecer objetos em fotografias – os tipos de objetos que podem ser
úteis para carros autônomos ou para o Street View, por exemplo. Uma
situação comum é que uma foto que contenha placas de trânsito seja
dividida em quadrados e que os usuários então precisem “provar que são
humanos” ao clicar em todos os quadrados que contém placas de
trânsito.
O que está realmente acontecendo aqui é que a IA do Google
está sendo treinada para saber exatamente quais partes dessa bagunça
visual envolvem placas de trânsito (que precisam ser lidas e levadas em
conta enquanto se dirige) e quais partes são apenas “ruído visual” que
podem ser ignoradas por um sistema de navegação.
Mas você é um ajudante amador de IA (e involuntário). Os
treinadores e ajudantes profissionais de TI espalhados pelo mundo passam
os seus dias identificando e classificando objetos virtuais ou do mundo
real em fotografias. Eles testam e analisam e recomendam mudanças nos
algoritmos.
A regra de consequências não intencionais é um fator muito
elevado no desenvolvimento de qualquer sistema complexo de Inteligência
Artificial. Vamos ver um exemplo bastante simples abaixo.
Digamos que você programou um robô de IA para fazer um
hambúrguer, embrulhar, colocar em uma sacola, e então entregá-lo ao
consumidor – essa última tarefa sendo definida como colocar a sacola a
cerca de 50cm do cliente de uma maneira que ele possa pegar o produto.
Agora vamos dizer que em uma situação, o cliente está do
outro lado da sala, e o robô de IA joga a sacola em alta velocidade no
consumidor. Você vai notar que, em um caso desses, a IA teria agido
exatamente como programado, mas de forma diferente do que uma pessoa
teria feito. Regras adicionais são necessárias para fazer com que ele se
comporte de uma maneira civilizada.
Esse é um exemplo intenso e absurdo, mas o treinamento da
Inteligência Artificial parece envolver uma série interminável desse
tipo de correção porque, pela definição humana, a IA não é realmente
inteligente.
O que isso significa é: uma pessoa que se comportasse como
uma IA seria considerada uma idiota. Ou podemos dizer que um
funcionário que jogasse uma sacola com um hambúrguer em um cliente não
tem bom senso. Em Inteligência Artificial, o bom senso não existe. Ele
precisa ser meticulosamente programado em todo evento concebível.
As pessoas precisam programar uma resposta de bom senso em todo e qualquer evento possível na IA.
Por que a IA continuará precisando da ajuda humana
Tenho minhas dúvidas se as empresas de carros autônomos
conseguirão avançar para além do cenário da sala de controle remoto. As
pessoas terão de supervisionar e controlar remotamente os carros
autônomos no futuro próximo.
Uma razão é proteger os carros de vandalismo, que pode vir
a ser um problema de verdade. Relatos de pessoas atacando ou apenas
batendo deliberadamente em carros autônomos estariam em alta
recentemente.
Também acredito que os passageiros poderão apertar um
botão e falar com alguém na sala de controle, por qualquer razão que
seja. Pode ser um passageiro nervoso ou que queira descansar, por
exemplo: “Oi, sala de controle. Vou tirar uma soneca agora. Podem ficar
de olho no meu carro?”.
Mas a maior razão é que o mundo é um lugar grande e
complexo. Coisas estranhas e inesperadas acontecem. Raios caem. Pássaros
voam em câmeras. Crianças apontam lasers para sensores. Se algo do tipo
acontecer, os carros autônomos não podem simplesmente “enlouquecer” e
agir de maneira aleatória. Eles são muito perigosos para isso.
Acredito que ainda vai levar um bom tempo, talvez décadas,
antes que a gente possa confiar na IA para lidar com todos os eventos
possíveis de acontecer enquanto vidas humanas estão em jogo.
Por que acreditamos que a IA é inteligente e artificial
Um fenômeno que ajuda a alimentar a ilusão da
supercompetência da IA é chamado de “efeito Eliza”, que teve origem em
um estudo do MIT de 1966. As pessoas participantes do teste que usaram a
Eliza (espécie de chatbot da época) informaram que perceberam empatia
por parte do computador.
Hoje em dia, o “efeito Eliza” faz com que as pessoas
sintam que a IA é geralmente competente, quando, na verdade, é apenas de
forma limitada. Quando ouvimos falar sobre um supercomputador vencendo
uma partida de xadrez, pensamos: “Se eles podem derrotar as pessoas no
xadrez, eles devem ser mais inteligentes do que as pessoas
inteligentes”. Mas essa é a ilusão. Na verdade, os robôs que jogam
xadrez são “mais inteligentes” do que as pessoas em uma coisa, enquanto
que as pessoas são mais inteligentes do que esses computadores
otimizados para xadrez em um milhão de coisas.
Os carros autônomos não fazem uma coisa só. Eles fazem um
milhão de coisas. Isso é fácil para os seres humanos e difícil para a
IA.
Nós não superestimamos a IA – a Inteligência Artificial é
realmente incrível e inovadora e vai transformar as nossas vidas - na
maior parte do tempo para melhor.
O que nós fazemos constantemente é o contrário: subestimar
a inteligência humana, que permanecerá amplamente superior aos
computadores em atividades centradas em pessoas para os restos das
nossas vidas, pelo menos.
A evolução dos carros autônomos é uma ilustração perfeita
de como a crença de que as máquinas vão funcionar por conta própria de
maneiras complexas está errada.
Elas irão funcionar. Mas com a nossa ajuda constante.
A IA precisa das pessoas para ajudá-la quando ela não é inteligente o bastante para fazer o seu trabalho.
Fonte: IDGNow!
Comentários
Postar um comentário
Todas postagem é previamente analisada antes de ser publicada.