Boletim de Cientistas Atômicos adverte que “estamos jogando roleta russa com a humanidade”
Javier Salas
Membros do Boletim de Cientistas Atômicos mostram o simbólico Relógio do Apocalipse na quinta-feira.
A humanidade está em perigo. Nem nos momentos mais alarmantes da Guerra Fria
o mundo esteve mais próximo do abismo. É o que garante o Boletim de
Cientistas Atômicos, um grupo de especialistas criado para alertar a
humanidade do risco de se autoexterminar. Para isso, criaram um relógio
simbólico, o Relógio do Apocalipse,
que mostra os minutos que nos restam até a meia-noite, ou seja, o fim
do mundo. No ano passado eles colocaram os ponteiros às 23h58, indicando
que estávamos a dois minutos do fim. E nada melhorou desde então, pelo
contrário, razão pela qual permanece exatamente igual. Nunca em seus 72
anos de história o ponteiro dos minutos esteve tão próximo da
meia-noite: em 1953, durante os testes de armamentos termonucleares
soviéticos e norte-americanos, também estava a dois minutos. Se 99,9% de
todas as espécies que existiram na Terra foram extintas, parece lógico
pensar que este seja o futuro inevitável da humanidade. Porque – como
disse Carl Sagan – “A regra é a extinção, a sobrevivência é a exceção”. Aquecimento,
instabilidade política, risco de guerra nuclear, desinformação... A
humanidade está vivendo uma “tempestade perfeita”, como disse Rachel
Bronson, presidenta do Boletim, que lembrou que desde 2007 foi incluída a
mudança climática
como uma séria ameaça à humanidade que exigia uma resposta “urgente e
imediata”. “Parece que estamos normalizando um mundo muito perigoso”,
acrescentou Bronson. “Estamos jogando roleta russa com a humanidade”,
afirmou Jerry Brown, ex-governador da Califórnia e diretor-executivo do
Boletim. O diagnóstico do grupo, do qual fazem parte 15 prêmios Nobel,
começa falando de duas ameaças principais, a mudança global e as armas
atômicas: “Foram agravadas no ano passado pelo uso crescente da guerra
de informação para minar a democracia em todo o mundo, aumentando o
risco destas e outras ameaças e colocando o futuro da civilização em um
perigo extraordinário”. Esses medos eram inimagináveis até meados do século 20, quando as
grandes superpotências começaram a brincar com fogo. Foi então que
aconteceu a criação do Boletim de Cientistas Atômicos, para alertar a
humanidade sobre o risco de ela se autoexterminar. Nos plácidos anos da
década de noventa, o relógio chegou a estar a 17 minutos de zero hora,
mas desde 2011 não parou de se aproximar da meia-noite: 23h55 em 2014,
23h57 em 2015, 23h57 e 30 segundos em 2017... Até 1947, quando esse
organismo foi criado, a humanidade não tinha forma de se destruir por
completo. No entanto, são vários os fatores que poderiam desencadear a
destruição da civilização humana. Historicamente se temeu, fabulou e
fantasiou em inumeráveis ocasiões o fim do mundo, ou da humanidade. Mas
como são os riscos que pairam agora? Podem ser organizados de várias
formas: naturais e de origem humana, involuntários e deliberados, que
provocariam a extinção completa da humanidade ou que nos devolveriam às
cavernas.
Os quatro cavaleiros humanos
Neste momento, são quatro os principais perigos que nos ameaçam e que têm os seres humanos por trás: uma catástrofe nuclear, a mudança climática, a biotecnologia e a inteligência artificial.
Os riscos de conflitos com armas nucleares e do aquecimento global
foram detalhados no diagnóstico do Relógio do Apocalipse: “Líderes
impetuosos, intensas disputas diplomáticas e instabilidades regionais se
combinam para criar um contexto internacional em que os perigos
nucleares são demasiado reais”. Para muitos especialistas, a inteligência artificial também
representa um risco significativo, caso acabe se desenvolvendo além dos
interesses humanos. E não apenas submetendo-nos: ela poderia ser
terrível inclusive querendo servir aos nossos propósitos. O especialista
Nick Bostrom fala de uma obediência “perversa” que também acabaria nos
subjugando e dá o exemplo de uma inteligência artificial à qual se
pedisse proporcionar a felicidade a todas as pessoas e que respondesse
implantando eletrodos nos centros de prazer dos nossos cérebros. É por
isso que determinam que seu desenvolvimento seja monitorado, embora
ainda estejamos longe de as máquinas poderem dar esse salto em suas
capacidades que lhes permitam se adaptar a qualquer circunstância para
tomar decisões por si mesmas.
Os especialistas também incluem a biotecnologia e a engenharia genética entre as ameaças futuras. A revolução da edição genética com a técnica CRISPR
permite fazer qualquer coisa com os organismos vivos. E o pior dessas
novas tecnologias é que suas capacidades crescem exponencialmente junto
com a facilidade e a acessibilidade de seu uso. Além disso, não há como
colocar limites, como mostrou o caso do cientista chinês He Jiankui, que
criou os primeiros bebês geneticamente modificados contra qualquer
limite legal ou ético. “Qualquer que seja a regulamentação imposta, por
razões de prudência ou éticas, nunca poderia ser plenamente aplicada em
todo o mundo, assim como tampouco o fazem as leis contra as drogas ou as
leis tributárias. Qualquer coisa que possa ser feita o será por alguém,
de algum lugar. E isso é profundamente aterrador”, sentencia Phil
Torres, autor do livro Moralidade, Previsão e Prosperidade Humana: Uma Introdução aos Riscos Existenciais (ainda não publicado no Brasil).
Catástrofes naturais... ou não
Apesar da iminência desses riscos, os especialistas alertam que não
devemos subestimar os perigos naturais e do nosso entorno. Nem sequer
aqueles que ainda desconhecemos da natureza, como os temíveis supervulcões,
uma ameaça praticamente desconhecida até três décadas atrás. No
entanto, sabemos agora que uma supererupção que ocorreu há 70.000 anos
provocou a coisa mais próxima de um inverno nuclear, colocando os sapiens à beira de se tornar uma espécie efêmera na Terra. A gripe espanhola acabou de uma só vez com dezenas de milhões de
vidas, a varíola devastou até 75% dos astecas em algumas regiões, a
peste negra matou entre 11% e 17% da população de todo o planeta. Em um
mundo tão globalizado, uma grave epidemia desconhecida teria a
capacidade de se tornar um problema planetário, como mostrou a penúltima
crise de ebola. Além disso, como diziam os gauleses, devemos vigiar para que o céu
não caia sobre nossas cabeças. Há muitos asteroides e cometas
potencialmente perigosos que ainda não localizamos. E é algo que vai
acontecer: a cada meio milhão de anos a Terra é atingida por alguma
rocha espacial de um quilômetro de diâmetro, dimensões que poderiam ser
catastróficas.
Equivocados e ignorantes
“Assim, tanto as sociedades quanto os grupos humanos menores podem
tomar decisões catastróficas por uma série sequenciada de razões: a
impossibilidade de prever um problema, a impossibilidade de percebê-lo
uma vez ocorrido, a incapacidade para se dispor a resolvê-lo uma vez que
tenha sido percebido e o fracasso nas tentativas de resolvê-los”,
escreve Jared Diamond em seu livro Colapso. Os especialistas
também advertem para os possíveis riscos à existência provocados
involuntariamente, isto é, derivados da ignorância, de erros formidáveis
ou situações inesperadas. Por exemplo, por um mau governo (como poderia acontecer se a mudança
climática e a perda de biodiversidade fossem ignoradas), ou por uma
decisão equivocada, como realizar uma grande intervenção de
geoengenharia planetária com consequências terríveis e imprevistas.
Muitos destes riscos podem ser apenas possíveis fatores desencadeantes:
quando tropeçamos no primeiro degrau da escada, o que tememos não é uma
leve perda de equilíbrio, mas continuar caindo degrau após degrau até
quebramos o pescoço, como diz Bostrom em seu livro Riscos Catastróficos Globais. “Não podemos colher os benefícios da ciência sem aceitar alguns riscos (...). Toda tecnologia
é perigosa em suas primeiras fases. Em nosso mundo cada vez mais
interconectado, existem novos riscos cujas consequências poderiam ser
globais”, escreve Bostrom nesse mesmo texto. Por exemplo, a ameaça de
chamar a atenção de uma civilização extraterrestre que nos apague do
mapa. Foi isso que levou Carl Sagan a criticar a emissão de sinais desde
a Terra para outros mundos como “profundamente impudente e imatura”.
Porque ele preferia que fôssemos a exceção à regra das espécies
terrestres.
Comentários
Postar um comentário
Todas postagem é previamente analisada antes de ser publicada.