quarta-feira, 6 de novembro de 2013

Um nova geração de máquinas "inteligentes"


As redes neuronais artificiais já existem há quase 30 anos. Os feitos já alcançados são notáveis: desde reconhecimento de caracteres, classificação de imagens, filtros de spam, previsão de estrutura de proteínas, avaliação de risco de empresas, previsões de valorização de acções na bolsa, etc.

Propostas como uma abordagem conecionista, mais próxima do cérebro que os modelos tradicionais de Inteligência Artificial, as redes neuronais artificiais, porém, sempre tiveram uma arquitectura ainda muito distinta dos cérebros humanos. Eram redes relativamente pequenas, com poucos neurónicos, poucas camadas intermédias de processamento e que, para aprenderem, precisavam de muitos exemplos de treino devidamente acondicionados.

Em 2006, G. Hinton, da Universidade de Toronto, propôs uma nova arquitectura de redes neuronais, as chamadas Deep Learning Networks (DLN), que revolucionaram a Inteligência Artificial ao resolver problemas complexos que até agora desafiavam os algoritmos tradicionais. Estas redes apresentam várias características inovadoras: i) possuem não uma mas várias camadas intermédias de pre-processamento dos dados; ii) são treinadas com milhões de pesos sinápticos e não milhares como anteriormente, iii) aprendem de uma forma essencialmente não-supervisionada; iv) e talvez a parte mais relevante, extraem "features" ou características dos dados de uma forma automática - por exemplo, em imagens, conseguem extrair formas, orientação, transformações, translações, etc.

Num teste realizado em 2011, as DLN foram capaz de classificar automaticamente centenas de categorias de objectos a partir de milhões de imagens apresentadas aleatoriamente e com uma precisão próxima da de um humano. Num teste para reconhecimento de sinais de trânsito em diversas situações de luminosidade e visibilidade, as DLN ultrapassaram mesmo os humanos.

As DLN estão a inspirar startups em áreas como processamento de linguagem natural e reconhecimento de imagem, texto e sistemas de recomendação - áreas complexas que envolvem análise automática de grandes quantidades de dados (big data). Os gigantes da Google, Microsoft, Facebook e Yahoo já possuem equipas dedicadas a estes algoritmos para processar os hexabytes de dados que possuem nos seus servidores.

Porém, não confundir as DLN com a  Iniciativa BRAIN que Barack Obama anunciou em 2012.
Trata-se simplesmente de ensinar máquinas a pensar mais hierarquicamente, mais contextualmente e a um nível mais abstracto: no caso do processamento de imagens, não é feita uma aprendizaem focada nos pixeis mas antes nas formas geométricas e sua disposição. No caso do processamento de texto tratasse de aprender a reconhecer padrões de como as palavras se relacionam entre si e como elas se encaixam para formularem frases e ideias e não palavras isoladas.

Ainda estamos longe de construir uma máquina "pensante", mas ao conseguirem abstrair do ambiente de uma forma automática características de alto-nível e poderem generalizar esse conhecimento para situações nunca antes vistas, as DLN deram um grande passo nesse sentido.

Mais informações podem ser obtidas aqui


2 comentários:

A ARTE DE INSISTIR

Quando se pensa nisso o tempo todo, alguma descoberta se consegue. Que uma ideia venha ao engodo e o espírito desassossegue, nela se co...