quarta-feira, 30 de janeiro de 2019

“Engenheiros no Google não entendem o que significa ética em seu trabalho. Temos que ajudá-los”

“Engenheiros no Google não entendem o que significa ética em seu trabalho. Temos que ajudá-los”
Jen Gennai, fotografada na sede do Google em São Francisco.
Jen Gennai, fotografada na sede do Google em São Francisco.
Ética e tecnologia devem estar mais juntas do que nunca, diz esta engenheira irlandesa. E essa é sua missão no Google: garantir que a inovação não seja sinônimo de transgressão
Em sua escola, em Dublin, Jen Gennai tinha um professor de matemática que não tolerava que ela tirasse menos do que 10 em sua matéria. Ela, repetia o professor, não podia se permitir uma nota mais baixa. “Foi uma grande injeção de confiança. Principalmente considerando que, em geral, a sociedade ditava que as mulheres não podiam ser boas em matemática.”
Na universidade ela se matriculou em uma dupla graduação, que combinava engenharia e negócios. No Trinity College de então, lembra, nas aulas de engenharia, 90% eram homens. “No começo senti orgulho. As garotas que estavam lá eram reconhecidas como mais fortes que as outras, mas não demorei muito para perceber que não deveria ser assim: meus colegas não tinham essa sensação de vitória, por que nós, as garoas, a tínhamos? Não se supõe que somos iguais? Meu orgulho se transformou em aborrecimento por ser julgada pela minha condição feminina e não pelas minhas capacidades.”
“Engenheiros no Google não entendem o que significa ética em seu trabalho. Temos que ajudá-los”
A engenheira Jen Gennai.
A engenheira Jen Gennai.
Naquela época começaram suas leituras sobre gênero e igualdade. “Ficou claro que havia diferenças e eu, curiosa por natureza, queria entendê-las e tentar encontrar soluções.” E precisamente essa é uma das missões de seu trabalho: Gennai – que prefere não revelar a idade – comanda a equipe de inovação responsável no Google. “Nosso objetivo é garantir que todos os nossos produtos não tenham nenhum tipo de viés de raça, gênero, orientação sexual, poder aquisitivo... Nossos usuários são muito diferentes e temos de cuidar para que essas diferenças não sejam mal interpretadas por tecnologias novas baseadas na coleta de dados do mundo real, como machine-learning e inteligência artificial”, resume. Por exemplo, evitar que, no caso do desenvolvimento de uma plataforma de emprego, apenas homens sejam identificados como possíveis candidatos a cargos de direção – uma vez que são os que tradicionalmente ocuparam esses cargos – ou que seus sistemas de reconhecimento de voz identifiquem sotaques diferentes ou inclusive pessoas com distúrbios da fala, como a gagueira.
Os esforços do Google são parte de um clamor que, diante das fake news, abusos na privacidade dos usuários e outros efeitos indesejados, atravessa Silicon Valley: é hora de a indústria prestar atenção às implicações éticas de seus produtos. “Na comunidade tecnológica, pecamos pela ingenuidade. Agíamos convencidos de que tudo o que fazíamos seria fantástico para todos, e isso nem sempre foi verdade. Devemos assumir a responsabilidade pelo que criamos”, argumenta Gennai. Em sua opinião, as universidades devem reagir imediatamente para que a ética seja uma disciplina fundamental nos estudos tecnológicos. “No meu tempo não se falava de ética na sala de aula, mas agora sabemos o impacto dos avanços da indústria na sociedade e deve ser um assunto central, não um mero acessório em programas tão procurados como os de machine-learning."
Em junho de 2018, o Google tornou públicos seus princípios de inteligência artificial, concebidos para regulamentar a pesquisa e o desenvolvimento dessa tecnologia na empresa. Agora, a tarefa de Gennai e sua equipe é garantir que esses sete mandamentos sejam cumpridos e formar os googlers. “Nossos engenheiros não estudaram filosofia e não entendem o que significa a ética em seu trabalho. Temos que ajudá-los a internalizar uma série de noções sobre o assunto para que possam aplicá-las ao seu dia a dia.”

Fonte: El País

Nenhum comentário:

Postar um comentário

Todas postagem é previamente analisada antes de ser publicada.