Redes Naturais (Parte 1)

>

Ahmed Imam
Ahmed Imam

Follow

Jun 16, 2020 – 6 min leia-se

Feed-Forward Neural Networks (FFNN)

Na sua forma mais geral, uma rede neural é uma máquina concebida para modelar a forma como o cérebro executa uma determinada tarefa ou função de interesse; a rede é normalmente implementada usando componentes eletrônicos ou é simulada em um software em um computador digital.

Para obter um bom desempenho, as redes neurais empregam uma interconexão maciça de células computacionais simples, referidas como "neurons", perceptrons ou “unidades de processamento”.

Assim, podemos oferecer a seguinte definição de rede neural:

Uma rede neural é um processador distribuído massivamente paralelo, composto de unidades de processamento simples, que tem uma propensão natural para armazenar o conhecimento experiencial e torná-lo disponível para uso. Ela se assemelha ao cérebro em dois aspectos:

  1. O conhecimento é adquirido pela rede a partir de seu ambiente através de um processo de aprendizagem.
  2. Forças de interconexão dos neurônios, conhecidas como pesos sinápticos, são usadas para armazenar o conhecimento adquirido.

Como no cérebro humano, os receptores convertem estímulos do corpo humano ou do ambiente externo em impulsos elétricos que transmitem informações para a rede neural (cérebro). Os efetores convertem os impulsos elétricos gerados pela rede neural em respostas discerníveis como saídas do sistema.

Feed-Forward Neural Network (FFNN)

Fig.1 Feed-Forward Neural Network (FFNN)

Modelos de Neurônio

A neuron é uma unidade de processamento de informação fundamental para o funcionamento de uma rede neural.

Aqui, nós identificamos três elementos básicos do modelo neural:

  1. Um conjunto de sinapses (terminações nervosas), ou links de ligação, cada um dos quais é caracterizado por um 𝑤𝑒𝑖𝑔ℎ𝑡 ou 𝑠𝑡𝑟𝑒𝑛𝑔𝑡ℎ próprio. Especificamente, um sinal 𝑥𝑗 na entrada da sinapse 𝑗 conectado ao neurônio 𝑘 é multiplicado pelo peso sináptico 𝑤𝑘𝑗. É importante anotar a forma como os subscritos do peso sináptico 𝑤𝑘𝑗 são escritos. O primeiro subscrito em 𝑤𝑘𝑗 refere-se ao neurônio em questão, e o segundo subscrito refere-se ao fim de entrada da sinapse ao qual o peso se refere.**
  2. Um somatório dos sinais de entrada, ponderado pelas respectivas forças sinápticas do neurônio; as operações aqui descritas constituem um linear combiner.
  3. Uma função de ativação para limitar a amplitude da saída de um neurônio. A função de ativação também é referida como uma função de esmagamento, na medida em que esmaga (limita) a amplitude permitida do sinal de saída a algum valor finito. Tipicamente, a amplitude normalizada da saída de um neurônio é escrita como o intervalo de unidade fechada, ou, alternativamente, .

Neurônio de camada oculta

Fig.2 Neurônio de camada oculta

Em termos matemáticos, podemos descrever o neurônio -𝑗 representado na Fig.2 ao escrevermos o par de equações:

>

>onde 𝑥1, 𝑥2, …, 𝑥𝑚 são os sinais de entrada; 𝑤𝑗1 , 𝑤𝑗2 , …A rede 𝑤𝑗𝑚 é o respectivo peso sináptico do neurônio 𝑗; a rede ℎ𝑗 é a saída do combinador linear devido aos sinais de entrada; 𝑓(⋅) é a função de ativação; e 𝐼𝑗 é o sinal de saída do neurônio.

Néuron da camada de saída

Fig.3 Neurônio da camada de saída

Em termos matemáticos, podemos descrever o neurônio 𝑘 representado na Fig.3 escrevendo o par de equações:

Expressar Rede Neural Escondida:

Rede Neural Escondida Os pesos sinápticos podem ser expressos como:

>

Toda a Rede Neural Escondida pode ser expressa como:

Expressar Rede Neural de Saída:

Rede Neural Escondida Os pesos sinápticos da Rede Neural podem ser expressos como::

Toda a Rede Neural Escondida pode ser expressa como:

>

Exemplo_1.

Dado o seguinte NN com pesos:

Fig.4 Exemplo_1
>

Entradas:

>

É utilizada a seguinte função de ativação:

>

Solução:

Primeiro par

>

2° par

>

>>

3º par

4º par

>

Resultado Final:

Saída de é

Isto significa que a nossa rede neural actua como é XOR porta lógica.

Função de ativação

Função de ativação pode assumir várias formas de acordo com o problema é a regressão ou classificação. Aqui estão alguns exemplos de funções de ativação.

Sigmoid e tanh são usados para classificação binária enquanto softmax é usado para problemas de multi-classificação.

ReLU e Leaky ReLU são usados para problemas de regressão. A ativação do Maxout é uma generalização das funções ReLU e do ReLU com vazamento.

Aplicação de Bias a Redes Neurais.

O modelo neural na Fig.5 inclui um viés aplicado externamente, denotado por 𝑏𝑘 . O viés (𝑏𝑘) tem o efeito de aumentar ou diminuir a entrada líquida da função de ativação, dependendo se ela é positiva ou negativa, respectivamente.

Fig.5 Modelo não-linear
de um neurônio, rotulado k.

Em termos matemáticos, podemos descrever o neurônio 𝑘 escrevendo o par de equações:

Onde 𝑥1, 𝑥2, …, 𝑥𝑚 são os sinais de entrada; 𝑤𝑘1 , 𝑤𝑘2 , …, 𝑤𝑘𝑚 são os respectivos pesos sinápticos do neurónio 𝑘; 𝑢𝑘 (não mostrado na figura acima).) é a saída do combinador linear devido aos sinais de entrada; 𝑏𝑘 é o viés; 𝜑(-) é a função de ativação; e 𝑦𝑘 é o sinal de saída do neurônio. O uso do viés 𝑏𝑘 tem o efeito de aplicar uma transformação afim à saída 𝑢𝑘 do combinador linear no modelo como mostrado por.

(mais informações. sobre affine Transformation aqui)

Onde 𝑣𝑘 é chamado de campo local induzido, ou potencial de ativação

Então, Equivalentemente, podemos formular a combinação de Eqs.

Em Eqs acima, adicionamos uma nova sinapse. Sua entrada é:

>

Podemos, portanto, reformular o modelo de neurônio 𝑘 como mostrado na Fig.6 Nesta figura, o efeito do viés é contabilizado fazendo duas coisas: (1) adicionar um novo sinal de entrada fixado em +1, e (2) adicionar um novo peso sináptico igual ao viés 𝑏𝑘 . Embora os modelos das Figs. 5 e 6 sejam diferentes na aparência, eles são matematicamente equivalentes.

Fig.6 Uma versão modificada do modelo de neurônio com viés

Espera que você desfrutou com as redes neurais e espera por mais seu uso no aprendizado profundo.

Leave a Reply

Deixe uma resposta

O seu endereço de email não será publicado.