Máquinas espertas, mas sem bom senso
Os computadores não aprendem como os humanos. Na verdade, apenas conseguem reconhecer padrões a partir de dados
RAMON LÓPEZ DE MÁNTARAS
Newton não seria capaz de dar uma explicação coerente. Não conseguiria distinguir esse dispositivo da magia. O que mais poderia imaginar este pai da física do que pode fazer um dispositivo assim? Acreditaria que pode funcionar indefinidamente? Acreditaria também que esse dispositivo pode transformar chumbo em ouro? A química em sua época era alquimia, então provavelmente sim. Todos tendemos a não ver os limites daquilo que nos parece mágico.
Este é exatamente um dos problemas que temos na hora de imaginar as tecnologias do futuro. Como disse Arthur Clarke nos anos sessenta: “Qualquer tecnologia suficientemente avançada não pode ser diferenciada da magia”. Na inteligência artificial (IA) acontece o mesmo. Parece que seu potencial não tem limites, mas na realidade a IA permanece empacada há mais de 50 anos em uma questão fundamental: como dotar as máquinas de bom senso? Esta é uma questão crucial se queremos conseguir inteligências artificiais em geral indistinguíveis da inteligência humana. Até hoje, os pesquisadores de IA não veem qualquer indício que nos permita afirmar que o problema pode ser resolvido.
Qual é a situação real da IA? Vamos nos concentrar nos espetaculares resultados obtidos recentemente com o que se conhece como deep learning (aprendizagem profunda), que permitiram que um software chamado AlphaZero tenha conseguido, depois de jogar contra si mesmo durante algumas horas, aprender a jogar Go e xadrez em níveis nunca antes alcançados, superando e muito os melhores jogadores humanos e também os melhores jogadores software (que no xadrez tinham vencido há tempos os melhores jogadores humanos). Pois bem, esses sistemas de aprendizagem profunda são extremamente limitados já que são unicamente capazes de aprender a reconhecer padrões analisando enormes quantidades de dados.
Não é exagero afirmar que, de fato, não aprendem realmente nada no sentido humano do que entendemos por aprender. Ou seja, na realidade não sabem nada novo depois de terem sido treinados para adquirir uma competência. Prova disso é que o que se conhece como “esquecimento catastrófico”, que significa que os sistemas de aprendizagem profunda perdem tudo que foi aprendido a partir do instante em que se ensina algo novo a eles.
Por exemplo, se depois de ter “aprendido” a jogar Go treinamos um sistema de aprendizagem profunda a diferenciar gatos e cachorros mostrando a eles milhões de imagens de ambos, o sistema aprenderá perfeitamente a distingui-los mas será incapaz de voltar a jogar Go. Seria preciso voltar a treiná-lo para que de novo “aprenda a jogar Go” e isso faria com que em seguida seria incapaz de distinguir gatos de cachorros.
O excessivo antropomorfismo creio que seja o motivo pelo qual a sociedade tem em grande medida uma percepção errônea do que é IA. Quando as conquistas espetaculares de uma IA específica são apresentadas em uma competição concreta, como no caso do AlphaZero, tendemos a generalizar e atribuímos à IA a capacidade de fazer praticamente qualquer coisa que os seres humanos fazem e de uma forma muito melhor. Em outras palavras, acreditamos que a IA não tem limites quando de fato é muito limitada e, o que é mais importante, não tem quase nada a ver com a inteligência humana.
É verdade que a inteligência humana é a referência principal no sentido de se chegar ao objetivo maior da IA, ou seja, uma IA forte e geral. Mas em minha opinião, por mais sofisticada que chegue a ser a IA, sempre será diferente da humana, já que o desenvolvimento mental que toda inteligência complexa exige depende das interações com o ambiente e essas interações dependem ao mesmo tempo do corpo, em particular do sistema perceptivo e do sistema motor. Isso, somado ao fato de que as máquinas muito provavelmente não seguirão processos de socialização e aculturação, influenciam ainda mais que, por mais sofisticadas que cheguem a ser, as máquinas jamais terão uma inteligência diferente da nossa.
O fato de serem inteligências alheias à humana, e portanto alheias aos valores e necessidades humanos, nos deveria fazer refletir sobre possíveis limitações éticas no desenvolvimento da IA. Em particular, nenhuma máquina deveria tomar decisões de forma completamente autônoma nem dar conselhos que exijam, entre outras coisas, sabedoria (produto de experiências humanas) ou valores humanos.
O perigo da IA não é a singularidade tecnológica pela existência de futuras hipotéticas super inteligências artificiais. Não, os verdadeiros perigos já estão aqui e têm a ver com privacidade (vigilância e controle massivo dos cidadãos); autonomia dos sistemas de IA (armas autônomas, high frequency trading nos mercados de ações); excessiva confiança em suas capacidades (substituição de pessoas por máquinas em praticamente qualquer posto de trabalho); com o viés dos algoritmos de aprendizagem e as consequentes decisões erradas que representa; a incapacidade de prestar contas quando a decisão é errada; e a impossibilidade de explicar essas decisões em uma linguagem simples para as pessoas.
Apesar de suas limitações, acho que a IA tem um potencial extraordinário para beneficiar a sociedade desde que façamos um uso adequado e prudente. É necessário aumentar a consciência sobre os limites da IA, assim como agir de forma coletiva para garantir que seja utilizada em benefício do bem comum com segurança, confiabilidade e responsabilidade.
Ramón López de Mántaras é diretor do Instituto de Investigação em Inteligência Artificial do CSIC.
Fonte: El País
Comentários
Postar um comentário
Todas postagem é previamente analisada antes de ser publicada.