Mesmo com todo esse conhecimento, a página da
ferramenta alerta que a linguagem gerada pode conter palavras ofensivas,
sexuais ou incorretas.
Esse é o caso de Adam D. King, um engenheiro de aprendizado que criou uma ferramenta capaz de gerar textos baseados em frases indicadas pelo usuário. Naturalmente, sua principal limitação é que, no momento, só é possível interpretar a sentença se a escrevermos em inglês. A ferramenta chama-se Talk to Transformer e é descrita como uma rede neural capaz de completar os conteúdos que escrevemos.
Mesmo com todo esse conhecimento, a página da ferramenta alerta que a linguagem gerada pode conter palavras ofensivas, sexuais ou incorretas. King diz que usou uma pequena parte da tecnologia do GPT-2, que é mais do que suficiente para elaborar textos bem estruturados, com base no que os usuários da ferramenta escrevem.
Usar a Talk to Transformer é muito simples: basta escrever uma frase e pressionar o botão “Complete text” para que a inteligência artificial o complete. Como um exemplo de sua funcionalidade, testamos uma frase simples como, “eu amo os jogos Resident Evil”. Após um tempo, o algoritmo me deu algumas respostas desconexas, reforçando o alerta da empresa de que ele pode gerar informações incorretas.
No texto gerado, ele cita Resident Evil 5, porém, mostra informações sobre outros jogos como Doom e Resistance 2, games que não tem nenhuma ligação aparente entre si.
Esta ferramenta baseada em GPT-2 funciona prevendo a próxima palavra de um texto, para gerar o resto, palavra por palavra. No entanto, ela aprendeu sozinha a traduzir alguns idiomas e a responder perguntas, o que abre portas para mais programas e funções no futuro. Por enquanto, devemos nos conformar com essa demonstração do algoritmo, que mostra seu potencial se for bem trabalhado.
VIA: Genbeta
Fonte: OlharDigital
Comentários
Postar um comentário
Todas postagem é previamente analisada antes de ser publicada.