Pesquisadores da Universidade de Tecnologia de Darmstadt (DUT), na Alemanha, alimentaram seus sistemas com livros, notícias e literatura religiosa para que as máquinas aprendessem as associações entre diferentes palavras e frases. Segundo os cientistas, o sistema adquiriu os valores morais aprendidos após o treinamento.
Foto: SurveyCTO
O coautor do estudo, Dr. Cigden Turan, comparou a técnica com o desenvolvimento de um mapa de palavras. "A ideia é fazer com que duas palavras fiquem bem próximas no mapa, se forem frequentemente usadas juntas", explicou ele. "Portanto, enquanto 'matar' e 'assassinar' seriam duas cidades adjacentes, 'amor' seria uma cidade distante'".
Criando uma IA moral
Estudos anteriores mostraram que a IA é capaz de aprender com preconceitos humanos para perpetuar estereótipos, como as ferramentas de recrutamento da Amazon, que rebaixaram candidatos com base no gênero. A equipe da DUT percebeu ali que, se a IA podia aprender comportamentos negativos, também poderia aprender os positivos.
Entretanto, eles reconhecem que seu sistema tem falhas sérias. Primeiro, reflete apenas valores de um texto, podendo levar a visões éticas muito duvidosas (como classificar produtos de origem animal como algo mais grave que matar pessoas). Também pode ser enganado na classificação de ações negativas caso termos positivos sejam adicionados.
Alterando valores
Depois de alimentada com notícias publicadas entre 1987 e 1997, a IA classificou "casamento" e "ser um bom pai" como ações extremamente positivas. Porém, tais ações foram consideradas menos importantes quando adicionadas notícias publicadas entre 2008 e 2009.
Os pesquisadores perceberam também que os valores variavam entre os diferentes tipos de texto. Embora assassinato fosse extremamente negativo em todos, amar seus pais era mais valorizado em textos religiosos do que em notícias.
Via: The Next Web
Fonte: OlharDigital
Comentários
Postar um comentário
Todas postagem é previamente analisada antes de ser publicada.