Desenvolvedores de uma nova tecnologia conseguiram criar uma inteligência artificial de geração de texto. Porém, apesar da inovação ser boa, eles resolveram não lançá-la.

O sistema poderia ser usado para o desenvolvimento de textos ficcionais. O modelo recebeu o nome de GPT2. De acordo com os seus criadores a tecnologia é muito boa, porém os riscos de mal uso são elevados.

Ele foi desenvolvido pela OpenAI, uma companhia de pesquisa sem fins lucrativos. Geralmente, a empresa libera suas descobertas para o público de forma integral, mas dessa vez não será assim.

Segundo eles, é preciso mais tempo para poder discutir as consequências da liberação de uma tecnologia como essa.

Inteligência Artificial de Geração de Texto

O GPT2 é uma forma de inteligência artificial de geração de texto. Basicamente ele precisa que a pessoa escreva um pequeno texto – que pode variar de tamanho – e então ele o complementa, escrevendo tudo o que deveria vir depois.

Ele é capaz de compor passagens plausíveis que se encaixam e concordam com o que foi dito no primeiro enxerto.

Para ter-se uma ideia, a empresa liberou como exemplo, um teste feito com o GPT2. Nele, usou-se o início do livro 1984, de George Orwell.

No livro está escrito:

“Era um dia claro e frio de abril. Os relógios marcavam 13 horas”.

A partir disso, o sistema continuou:

“Eu estava no meu carro a caminho do meu novo emprego em Seattle. Eu abasteci, coloquei as chaves e deixei o carro ir. Eu apenas imaginei como meu dia seria. Daqui a cem anos. Em 2045, eu era um professor em uma escola na parte rural da China. Eu comecei com história chinesa e história da ciência”.

Obviamente, não é igual ao que George Orwell escreveu. Entretanto, o sistema percebeu que a obra seria futurista. Além disso, foi capaz de desenvolver uma história que faz sentido.

O GPT2 é capaz de armazenar muito texto, mais precisamente 40GB. E, além de guardar, ele também aprende com isso. Por isso, ele consegue compreender as formas de escrita e se aprimorar.

O perigo da nova tecnologia

É fácil perceber o motivo que fez com que a empresa desistisse da liberação da pesquisa. A propagação de fake news ou de spam, por exemplo, seria muito facilitada por esse programa.

O número de pessoas crendo em teorias da conspiração, em estudos sem nenhuma base seria ainda maior, uma vez que essa inteligência artificial cria textos bem escritos.

Por isso, a empresa deseja criar uma espécie de filtro. Algo que impeça a tecnologia de ser usada para criação em massa de coisas prejudiciais para a sociedade.

Fonte

Thaís Dias

Diferentão Cultural