Processo de Aprendizado


   Para que uma Rede Neural Artificial possa fornecer resultados convenientes, é necessário que passe por uma fase de treinamento, onde seus pesos são ajustados de forma que ela se adapte aos diferentes estímulos de entrada. Durante esta fase de treinamento, ocorre o seu aprendizado.

    Há vários processos de aprendizado, os quais, de forma geral podem ser classificados em:

Aprendizado por Correção de Erros


    O erro de uma Rede Neural pode ser calculado como a diferenca entre a saída real gerada pela  rede e a saída desejada, fornecida em um ensino supervisionado. Por exemplo:

Onde para um estímulo k,

e - sinal de erro;
d - saida desejada apresentada durante o treinamento;
- saida real da rede após a apresentacao do estímulo de entrada.

    Durante o aprendizado supervisionado, portanto, os erros vão sendo calculados sucessivamente, até que cheguem a um valor satisfatório, definido a priori. Sendo assim, surge uma curva de erros, a qual está diretamente relacionada à natureza do modelo de neurônio utilizado.

    Se a rede é formada por unidades lineares, como no modelo de McCulloch e Pits. Na superfície de erro será encontrado um único valor mínimo. Por outro lado, se a rede é constituída por unidades não-lineares, podem ser encontrados diversos valores mínimos chamados de mínimos locais, além do mínimo global.

   O processo de Aprendizado por Correção de Erros utiliza algoritmos para caminhar sobre a curva de erros, com o intuito de alcançar o menor valor de erro possível, o mínimo global(veja no gráfico abaixo). Muitas vezes, o algoritmo não alcança este mínimo global, atingindo o que chamamos de mínimo local. Caso este erro alcançado seja desfavorável, é necessário recomeçar processo de aprendizado.

 


Gráfico de uma possível superfície de erro mostrando os mínimos locais e o mínimo global

    Para a correção do erro,  os pesos da rede devem ser ajustados, de forma a aproximar a saída real à desejada. De acordo com a Regra Delta de Aprendizado, apresentada a seguir, tal ajuste dependerá do próprio erro calculado; do valor do estímulo de entrada que é "transmitido" pelo peso a ser ajustado; e também da taxa de aprendizado, a qual relaciona-se à cautela com que a curva de erros é percorrida. Para um dado estímulo k, no passo de treinamento n:

 

Dw(n) - valor de ajuste a ser acrescido ao peso wij;
h - taxa de aprendizado;
e(n) - valor do erro;
xj(n) - valor do estímulo.


O valor atualizado do peso será:

    Portanto, podemos utilizar a Regra Delta para corrigir os valores dos pesos, minimizando a função de erro e, também conhecida como "função de custo":


Onde:

e(n) - erro da rede no passo n do trreinamento;
e(n) - valor da função de custo no passo n do treinamento.


    Este processo de aprendizado é utilizado nos modelos Perceptron e Multicamadas.


Aprendizado Hebbiano


    O Aprendizado Hebbiano baseia-se nos seguintes postulados:

1 - Se a ativação de um neurônio tiver grande influência na ativação de um outro neurônio, a ligação entre estes dois neurônios deve ser reforçada;

2 - Se a ativação de um neurônio não influencia a ativação de um segundo neurônio, a ligação entre estes dois neurônios deve ser enfraquecida ou até mesmo removida;

    Isto demostra a natureza local do aprendizado hebbiano, e sua relação com o instante em que ocorrem as ligações sinápticas entre dois neurônios. Podemos encontrar este processo de aprendizado no Modelo de Hopfield.


Aprendizado Competitivo


    No Aprendizado Competitivo, os neurônios competem entre si, para responder a um determinado estímulo. Este processo de aprendizado é constituido por:

1 - Um conjunto de neurônios diferenciados por seus pesos, que respondem de forma diferente a um dado conjunto de estímulos;

2 - Um limite imposto sobre a força de cada neurônio;

3 - Um mecanismo que permita a competição entre os neurônios, onde apenas um, entre um grupo de neurônios, possa responder a uma classe de estímulos de entrada.


Este processo de aprendizado é utilizado no treinamento dos Mapas Auto-Organizáveis de Kohonen.

Próxima Página