Assim os algoritmos perpetuam a desigualdade social
Cathy
O'Neil, autora de 'Armas de Destruição Matemática', afirma que já é
tarde para nos preocuparmos com a disponibilidade de nossos dados, que
agora é preciso perguntar o que as empresas fazem com eles
Patricia Peiró
Madri
O’Neil, em seu livro Armas de Destruição Matemática, mostra alguns exemplos para colocar essa teoria em termos reais. Viaja em algumas de suas páginas a Reading, uma pequena cidade da Pensilvânia (Estados Unidos) que em 2011 tinha um nível de pobreza superior a 41%, o mais alto de todo o país. Com um efetivo reduzido pela crise, o chefe de polícia investiu em um programa de predição de crimes chamado PredPol que funciona com big data. O aplicativo divide a cidade em quadrantes e determina em qual deles é mais possível que se cometa um crime baseando-se no registro histórico da polícia. No leque de dados estão desde crimes mais leves como perturbação da ordem pública (beber na rua, por exemplo), até homicídios.
Quanto maior for o número de agentes enviados aos pontos indicados pelo programa, mais prisões ocorrem e assim se entra em um círculo vicioso que enche as prisões de gente, em sua maioria, acusada de crimes menos graves. A maioria dos detidos é de negros e hispânicos. “O mapa da delinquência gerado desse modo traça na realidade um rastro de pobreza”, diz a autora. “Continuamos prendendo negros por coisas pelas quais não prendemos brancos, mas agora já não o dizemos abertamente e disfarçamos de ciência porque o fazemos com o PredPol. Continuamos com o ciclo, porque continuamos prendendo gente de um bairro e os dados nos dizem que precisamos voltar a esse bairro, dessa forma a injustiça policial continua”, afirma na entrevista.
“Continuamos prendendo negros por coisas pelas quais não prendemos brancos, mas agora já não o dizemos abertamente e disfarçamos de ciência”
A matemática afirma que já é tarde para se preocupar pelo fato de que nossos dados estejam disponíveis, que agora é preciso perguntar às empresas e gigantes tecnológicos o que estão fazendo com eles. “Não nos damos conta na maioria das vezes que nos analisam, especialmente na Internet. Quando somos conscientes de que recebemos uma pontuação de acordo com nossos dados, a primeira coisa que precisamos fazer é pedir explicações, que nos mostrem o processo pelo qual fomos qualificados, se é algo importante como uma hipoteca e um trabalho, até mesmo utilizando mecanismos legais. As vezes em que não percebemos, são os Governos europeus e o dos Estados Unidos que precisam estabelecer normas que indiquem que a cada vez que recebemos essa pontuação precisamos saber”, diz O’Neil.
O’Neil apagou sua conta do Facebook há um ano (e a do Twitter também não está disponível há algumas semanas), logo depois das eleições vencidas por Donald Trump e que agora estão sendo investigadas pelo uso dos dados de milhões de usuários do Facebook. O escândalo levou seu criador, Mark Zuckerberg, a dar explicações no Senado dos Estados Unidos. “É preciso obrigar empresas como o Facebook a explicar o que estão conseguindo com produtos, em vez de assumir que estão fazendo o melhor. Já temos a suspeita de que o Facebook ajudou a divulgar notícias falsas, a influenciar o resultado de votações, a fazer com que as pessoas acreditassem em teorias da conspiração. Por que não temos as provas reais, por que não as mostram?”, pergunta a especialista.
“O que é preciso é diversidade nas equipes que escrevem os algoritmos para que incluam pessoas que pensam nas violações dos direitos humanos”
A matemática se mostra otimista, porque pelo menos os algoritmos fazem parte do debate atual, e não se cansa de alertar sobre a confiança cega no big data: “Se você só usa dados do passado, está condenado a repeti-lo. É preciso se perguntar aonde você quer chegar, em vez de se limitar a analisar de onde você vem. Se estivéssemos orgulhosos de nosso sistema, poderíamos querer usar esses dados para manter tudo igual, mas não é o caso”.
Fonte: El País
Nenhum comentário:
Postar um comentário
Todas postagem é previamente analisada antes de ser publicada.