quinta-feira, 22 de fevereiro de 2018

Terroristas poderão usar robôs e drones, alertam especialistas

Terroristas poderão usar robôs e drones, alertam especialistas

media 
Uso militar de drones pode inspirar terroristas para cometer ataques em grandes cidades, advertem especialistas.Frederic J. BROWN / AFP

Em um relatório, publicado nesta quarta-feira (21), especialistas internacionais alertam sobre os riscos do uso mal-intencionado da inteligência artificial por parte dos "Estados corruptos, de criminosos ou de terroristas" em um futuro próximo.
Segundo eles, na próxima década, a eficácia crescente da inteligência (IA) poderia reforçar a cibercriminalidade e conduzir ao uso de drones ou robôs com fins terroristas. Poderia também facilitar a manipulação de eleições através das redes sociais mediante contas automatizadas (bots).
O estudo de 100 páginas foi redigido por 26 especialistas em IA, cibersegurança e robótica de prestigiosas universidades como Cambridge, Oxford, Yale e Stanford, e organismos não governamentais como OpenAI, Center for a New American Security, Electronic Frontier Foundation. Os especialistas pedem aos governos e aos diferentes atores da área que elaborem mecanismos para limitar as possíveis ameaças relacionadas com a inteligência artificial.
"Acreditamos que os ataques que seriam possíveis pelo uso crescente da IA serão particularmente efetivos, finamente dirigidos e difíceis de atribuir", advertem. Para ilustrar seus temores, os especialistas mencionam vários "cenários hipotéticos de usos mal-intencionado da IA".
Eles explicam, por exemplo, que terroristas poderiam alterar os sistemas de IA disponíveis nas lojas (drones ou veículos autônomos) para causar acidentes ou explosões. Os autores imaginam também casos de robôs de limpeza manipulados que se colariam a outros robôs, encarregados, por exemplo, da limpeza de um ministério. Um dia, o intruso poderia atacar após localizar visualmente o ministro. Se aproximaria dele e se explodiria, afirmaram.

Vídeos falsos
Por outro lado, Seán Ó hÉigeartaigh, um dos autores do estudo, explica, em entrevista à AFP, que "a cibercriminalidade, em forte alta, poderia se consolidar com ferramentas facilitadas pela IA". Os ataques denominados de spear phishing (ataques dirigidos a uma organização ou empresa para roubar, por exemplo, informação confidencial) poderiam ser mais fáceis de realizar em uma escala maior.
Mas, para ele, "o risco maior, embora seja menos provável, é o risco político". "Já vimos como algumas pessoas estão usando a tecnologia para tentar interferir em eleições", observa. "Se a IA permite que essas ameaças se tornem mais fortes, mais difíceis de detectar e atribuir, isso poderia trazer problemas importantes de estabilidade política e talvez contribuir para desencadear guerras", avalia Seán Ó hÉigeartaigh.
Com a IA seria possível, por exemplo, fazer vídeos falsos mas muito realistas, que poderiam ser usados para desacreditar autoridades políticas, ressaltam os especialistas. Estados autoritários, acrescentou o relatório, poderiam também se apoiar em inteligência artificial para vigiar seus cidadãos.

Múltiplas advertências
Faz tempo que especialistas lançam um sinal de alerta sobre a IA. Em 2014, o astrofísico Stephen Hawking advertiu sobre os riscos que a inteligência artificial poderia trazer para a humanidade se superasse a inteligência humana. O empresário Elon Musk e outros também multiplicaram as advertências. Foram publicados informes sobre o uso de drones assassinos ou sobre a forma como a IA poderia afetar a segurança de países como os Estados Unidos. Este novo documento aporta "um panorama geral sobre a forma como a IA cria novas ameaças ou muda a natureza das ameaças existentes em campos como a segurança digital, física ou política", explica Seán Ó hÉigeartaigh.
A inteligência artificial, surgida nos anos 1950, se baseia em algoritmos sofisticados que permitem resolver problemas que os humanos resolvem usando suas capacidades cognitivas. Nos últimos anos, houve progressos enormes nos campos relacionados com a percepção, o reconhecimento de voz e a análise de imagens.
"Por enquanto, continua havendo uma brecha significativa entre os avanços da busca e da investigação e suas possíveis aplicações. É o momento de agir", disse à AFP Miles Brundage, encarregado de pesquisas do Future of Humanity Institute da Universidade de Oxford.
Com informações da AFP

Fonte: RFI

Nenhum comentário:

Postar um comentário

Todas postagem é previamente analisada antes de ser publicada.