Plataforma de Linguagem Natural atinge a produção de bilhões de palavras por dia

7 mins read

É bem mais do que a fofoqueira do bairro.

 

Você já deve ter lido por aí, ou por aqui, que está em desenvolvimento a mais avançada plataforma de linguagem natural de computação (NLP) do mundo, o GPT-3. Ela é capaz de escrever textos altamente complexos e com raciocínio totalmente comparável ao humano.

 

Os pesquisadores do GPT-3 abriram o código da plataforma, para que cientistas, pesquisadores e desenvolvedores do mundo todo pudessem contribuir com seus pitacos no sistema. E isso se provou uma decisão não só acertada, como altamente produtiva para todos.

 

O GPT-3 consegue hoje escrever poesia com um grau de sofisticação considerado aceitável, produz códigos (o que, num futuro próximo) signfica que ele vai podere codificar outras máquinas … máquina codificando máquinas), faz cálculos simples de matemática (não é seu forte) e, ainda com ajuda de humanos, consegue produzir notícias que não identificamos como tendo sido produzidas por um computador.

 

Mas tudo isso, ao que parece, é apenas o começo. Em uma atualização recente de um blog, a OpenAI (módulo de protocolo aberto que opera o GPT-3) disse que dezenas de milhares de desenvolvedores estão fazendo aplicativos na plataforma e que mais de 300 aplicativos (e aumentando) usam GPT-3. Com isso, hoje, o algoritmo está gerando 4,5 bilhões de palavras por dia para os mais diversificados fins.

 

Obviamente, são muitas palavras. Mas para termos uma ideia de quanto, vamos a uma comparação simples. 

 

A cada mês, os usuários da plataforma de publishing mais popular do mundo, o WordPress, publicam cerca de 70 milhões de posts.

 

Supondo que um artigo médio tenha 800 palavras (num cálculo aproximado), as pessoas estão produzindo cerca de 56 bilhões de palavras por mês ou 1,8 bilhão de palavras por dia no WordPress.

 

Ou seja, o GPT-3 está produzindo mais do que o dobro da contagem diária de palavras de postagens do WordPress. Mesmo se você tornar a média mais próxima de 2.000 palavras por artigo, os dois são aproximadamente equivalentes.

 

Agora, nem toda palavra que o GPT-3 produz vale a pena ler, e não necessariamente ele produz postagens de blogs. Mas seja como for, apenas nove meses depois de ter sido aberto seu código para contribuições da comunidade científica de todo o mundo, as conquistas do GPT-3 parecem prenunciar uma torrente iminente de conteúdo algorítmico de qualidade crescente, em muito pouco tempo.

 

Mas então como exatamente todas essas palavras estão sendo usadas? 

Um dos usos mais difundidos é a capacidade do GPT-3 criar aplicativos.

 

Ele consegue substituir os chatbots com vantagens de sofisticação de texto, por exemplo. Consegue fazer resenhas de produtos técnicos com acurácia. A Fable Studio, produtora de conteúdos digitais, está dando vida a seus personagens virtuais em histórias interativas com diálogos gerados pelo GPT-3. 

 

Em vez de código, os desenvolvedores usam a “programação imediata”, fornecendo ao GPT-3 alguns exemplos do tipo de textos que esperam gerar. Os usuários mais avançados podem ajustar as coisas, fornecendo aos algoritmos conjuntos de dados de exemplos ou até mesmo feedback humano.

 

Nesse sentido, o GPT-3 (e outros algoritmos semelhantes) podem acelerar a adoção do aprendizado de máquina no processamento de linguagem natural (PNL). 

 

“É quase essa nova interface para trabalhar com computadores”, Greg Brockman, diretor de tecnologia e cofundador da OpenAI, disse à Nature em um artigo no início deste mês.

 

A OpenAI licenciou o GPT-3 para a Microsoft – que investiu um bilhão de dólares no OpenAI em troca de parcerias – mas não lançou o código publicamente.

 

A empresa argumenta que monetizar seus produtos de aprendizado de máquina ajuda a financiar sua missão maior. Além disso, eles dizem que são capazes de controlar como a tecnologia está sendo usada restringindo o acesso a ela com uma API.

 

Uma preocupação, por exemplo, é que algoritmos avançados de linguagem natural como o GPT-3 podem sobrecarregar a desinformação online. Outra é que os algoritmos de grande escala também contêm viés embutido e é preciso muito cuidado e atenção para limitar seus efeitos.

 

O hype do GPT-3 é justificado, mas a verdade é que as pesquisas estão ainda no início e a máquina produz ainda erros bem bobos e primários.

 

Como escrevi recentemente em um artigo afirmando que a Inteligência Artificial é, em essência, meio burra, a verdade é que os algoritmos de aprendizagem profunda como o GPT-3 carecem de bom senso, consciência contextual e não tem a menor ideia do que são, ou o que estão fazendo. Repetem em escala e de forma incremental, o que “aprendem”.

 

Seja como for, o GPT-3 seguirá sendo um tema ao qual voltaremos sempre. Vamos acompanhando seus avanços.

 

Deixe uma resposta

Your email address will not be published.