O que é um perceptron de várias camadas?
Um perceptron de várias camadas ( Multi-Layered Perceptron - MLP) é um dos modelos de redes neurais mais comuns usados no campo da aprendizagem profunda (Deep Learning). Muitas vezes referida como uma rede neural "baunilha", uma MLP é mais simples que os modelos complexos da era atual. No entanto, as técnicas introduzidas abriram caminho para novas redes neurais avançadas.
O perceptron multicamada (MLP) é usado para uma variedade de tarefas, como análise de ações, identificação de imagens, detecção de spam e previsões de votação nas eleições.
A estrutura básica
Um perceptron de múltiplas camadas consiste em neurônios interconectados transferindo informações um para o outro, como o cérebro humano. Cada neurônio recebe um valor. A rede pode ser dividida em três camadas principais.
Camada de entrada
Esta é a camada inicial da rede que recebe uma entrada que será usada para produzir uma saída.
Camadas ocultas
A rede precisa ter pelo menos uma camada oculta. As camadas ocultas realizam cálculos e operações nos dados de entrada para produzir algo significativo.
Camada de saída
Os neurônios nesta camada exibem uma saída significativa.
Conexões
O MLP é uma rede neural feedforward, o que significa que os dados são transmitidos da camada de entrada para a camada de saída.
As conexões entre as camadas recebem pesos atribuídos. O peso de uma conexão especifica sua importância. Esse conceito é a espinha dorsal do processo de aprendizado de um MLP.
Enquanto as entradas tiram seus valores do ambiente, os valores de todos os outros neurônios são calculados através de uma função matemática que envolve os pesos e valores da camada anterior a ela.
Por exemplo, o valor do nó h5 pode ser:
h5 = h1.w8 + h2.w9
Backpropagation
Backpropagation é uma técnica usada para otimizar os pesos de um MLP usando as saídas como entradas.
Em uma MLP convencional, pesos aleatórios são atribuídos a todas as conexões. Esses pesos aleatórios propagam valores através da rede para produzir a saída real. Naturalmente, esse resultado seria diferente do esperado. A diferença entre os dois valores é chamada de erro.
Backpropagation refere-se ao processo de enviar esse erro de volta pela rede, reajustando os pesos automaticamente para que, eventualmente, o erro entre a saída real e a esperada seja minimizado.
Dessa maneira, a saída da iteração atual se torna a entrada e afeta a próxima saída. Isso é repetido até que a saída correta seja produzida. Os pesos no final do processo seriam aqueles nos quais a rede neural funciona corretamente.
Fonte: What is a multi-layered perceptron?
Licença: Creative Commons -Attribution -ShareAlike 4.0 (CC-BY-SA 4.0)