Inteligência Artificial com baixíssimo uso de dados. Isso muda tudo.

4 mins read

Em artigo da MIT Technology Review, do qual cito trechos abaixo, aprendemos que uma das mais recentes evoluções da Inteligência artificial é a sua – ainda em desenvolvimento – capacidade de precisar de poucos ou nenhum dado para desenvolver-se em seus processos evolutivos de auto-ensinamento, em que ela aprende com si própria.

 

Ocorre que para tudo começar, o aprendizado de máquina (machine learning), a parte da AI que é uma máquina de aprendizagem permanente e, em tese, sem fim, normalmente requer toneladas de exemplos antes de começar a brincadeira. Para fazer com que um modelo de IA reconheça um cavalo, precisamos mostrar a ele milhares de imagens de cavalos. É isso que torna a tecnologia computacionalmente cara – e muito diferente do aprendizado humano. Uma criança muitas vezes precisa ver apenas alguns exemplos de um objeto, ou mesmo apenas um, antes de ser capaz de reconhecê-lo para o resto da vida.

 

Na verdade, as crianças às vezes não precisam de nenhum exemplo para identificar algo. Mostramos fotos de um cavalo e de um rinoceronte, e dizemos que um unicórnio é algo intermediário, e elas podem reconhecer a criatura mítica em um livro ilustrado na primeira vez que o vêem. 

 

Estudos na Universidade de Waterloo, em Ontário, sugerem que os modelos de IA também devem ser capazes de fazer isso – um processo que os pesquisadores chamam de aprendizado “less than one”-shot ou “menos de um” tiro, ou ainda LO-shot. Em outras palavras, um processo de IA que deve ser capaz de reconhecer com precisão mais objetos do que o número de exemplos em que foi treinado. Isso pode ser um grande negócio para um campo que está ficando cada vez mais caro e inacessível à medida que os conjuntos de dados usados ​​se tornam cada vez maiores.

 

A técnica é parecida com a lógica dos algoritmos. Os algoritmos condensam complexos cálculos matemáticos em fórmulas cada vez mais compactas, que reduzem gigantescamente a necessidade de processamento computacional. Novos algoritmos são gerados a partir de conhecimentos adquiridos e assim as máquinas vão compactando dados de forma incremental.

 

O conceito da LO-shot é parecido. Em vez de submeter a máquina a milhares e milhares de imagens para que ela tenha repertório suficiente para diferenciar um rinoceronte de um unicórnio, os cientistas passaram a selecionar imagens como uma volume já suficiente de informações para que o processo de se dê de forma abreviada e compacta. Em vez de milhares de imagens, uma dezena. E deu. A máquina já começa a aprender.

Ela segue sendo incomensuravelmente mais burra que uma criança, mas dessa forma o aprendizado se dá de forma altamente otimizada, rápida e eficiente. É uma espécie de destilação da realidade.

 

O processo está ainda em fase embrionária de desenvolvimento e pesquisa, mas trata-se de um avanço que, dando certo, pode colocar a evolução da AI num patamar muito mais avançado do que onde se encontra hoje, em muito pouco tempo.

 

E isso muda tudo.

 

Deixe um comentário

Your email address will not be published.