Unconfigured Ad Widget

Collapse

Anúncio

Collapse
No announcement yet.

Perceptrons.

Collapse
X
 
  • Filter
  • Tempo
  • Show
Clear All
new posts

  • Font Size
    #1

    C / C++ Perceptrons.

    Perceptrons

    Olá pessoal bom nessa matéria iremos ver sobre Perceptrons, que é uma estrutura de dados fácil de se aprender para o estudo da Rede Neural.

    Perceptrons são as estruturas de dados mais fácil de aprender para o estudo da Rede Neural. Pense em um perceptron como um nó de uma vasta rede interligada, como de uma árvore de dados , embora a rede não tem necessariamente de ter uma parte superior e inferior. As ligações entre os nós não só mostrar a relação entre os nós, mas também transmitir dados e informações, chamado de sinal ou impulso. O perceptron é um modelo simples de um neurônio (célula nervosa).

    Desde que se liga perceptrons em uma rede é um pouco complicado, vamos dar um perceptron por si só. Um perceptron tem um número de ligações externas de entrada, uma entrada interna (chamada de bias), um limite, e um link de saída. Você pode ver uma foto de um perceptron simples. Assemelha-se a um neurônio.



    Normalmente, os valores de entrada são boolean (ou seja, eles só pode ter dois valores possíveis: ligado e desligado, 1 ou 0, verdadeiro ou falso), mas pode ser qualquer número real. A saída do perceptron, no entanto, é sempre boolean. Quando a saída está ligado (tem o valor 1), o perceptron é dito ser de queima (o nome vem da biologia: quando os neurônios enviam um sinal no cérebro, eles estão a ser dito de disparo).

    Todas as entradas (incluindo o bias) têm pesos ligado à linha de entrada que modifica o valor de entrada. O peso é multiplicado apenas com a entrada, por isso, se o valor de entrada foi de 4 eo peso foi de -2, o valor de entrada ponderada seria -8.

    O limite é um dos componentes-chave do perceptron. Ela determina, com base nos insumos, se os fogos perceptron ou não. Basicamente, o perceptron toma todos os valores de entrada ponderada e adiciona-los juntos. Se a soma for maior ou igual a algum valor (o chamado limite), então a incêndios perceptron. Caso contrário, o perceptron não. Então, é acionado sempre que a seguinte equação é verdadeira (onde w representa o peso, e existem n entradas):



    O limite é como uma parede: se o "sinal" tem bastante "energia" para pular o muro, então ele pode continuar, mas caso contrário, ele tem que parar. Tradicionalmente, o valor limite é representada como a letra grega theta (o símbolo dentro do círculo na foto acima) ou por um símbolo gráfico que parece um S quadrado:



    A principal característica de perceptrons é que eles podem ser treinados (ou aprender) a se comportar de determinada maneira. Atribuição de um iniciante populares é ter um modelo perceptron (isto é, aprender a ser) uma função básica boolean como AND ou OR. Perceptron de aprendizagem é guiada, ou seja, você tem que ter algo que o perceptron pode imitar. Assim, o perceptron aprende assim: ela produz uma saída, compara a saída para que a saída deve ser, em seguida, ajusta-se um pouco. Depois de repetir este ciclo de vezes suficiente, o perceptron terá convergido (um nome técnico para aprendidas) para o comportamento correto.

    Este método de aprendizagem é chamado a regra delta, devido à forma como o perceptron verifica a sua precisão. A diferença entre a saída do perceptron e a saída correta é atribuída a letra grega delta, eo Peso i para entrada i é alterada como esta (o i mostra que a mudança é separado para cada peso e cada peso tem a sua entrada correspondente):

    Mudança no peso i = Valor atual da entrada i × (saída desejada - saída de corrente)

    Isto pode ser elegantemente resumido para:



    A regra delta funciona tanto se a saída do perceptron é muito grande e se for muito pequeno. O novo peso i é encontrada simplesmente adicionando a mudança de peso i para o valor atual do peso que eu.

    Curiosamente, se você gráfico as entradas possíveis em diferentes eixos de um gráfico matemático, com vantagens para onde os fogos perceptron e desvantagens que o perceptron não, os pesos para o perceptron compõem a equação de uma linha que separa as vantagens e os contras.



    Por exemplo, na foto acima, os prós e contras representam a função OR binário. Com um pouco de álgebra simples, você pode transformar essa equação no diagrama com a forma de linha padrão em que os pesos podem ser vistos claramente. (Você recebe a seguinte equação da linha se você tomar a equação disparo e substitua o "maior ou igual a" símbolo com o sinal de igual).



    Esta equação é significativo, porque perceptron único modelo só pode funções cujos gráficos modelos são linearmente separáveis. Então, se não há uma linha (ou avião, ou hiperplano, etc, dependendo do número de dimensões) que divide os incêndios e os não-fogos (os prós e contras), então não é possível para o perceptron para aprender comportar-se com esse padrão de tiro. Por exemplo, a função booleana XOR não é linearmente separáveis, então você não pode modelar esta função boolean com apenas um perceptron. O peso valores apenas manter a mudança, eo perceptron nunca realmente converge para um valor.

    Então, por si só, perceptrons são um pouco limitadas, mas que é o seu recurso. Perceptrons permitir um padrão a ser dividida em partes mais simples que cada um pode ser modelado por um perceptron separadas em uma rede. Assim, mesmo que perceptrons são limitados, eles podem ser combinados em uma rede poderosa que pode modelar uma grande variedade de padrões, tais como XOR e muitas expressões booleanas complexas de mais de uma variável. Estes algoritmos, no entanto, são mais complexas no arranjo, e assim a função de aprendizagem é um pouco mais complicado. Para muitos problemas (especificamente, os linearmente separáveis), um perceptron vai fazer, ea função de aprendizagem, pois é bastante simples e fácil de implementar. O perceptron é uma maneira simples e elegante para modelar o comportamento de um neurônio humano. Tudo que você precisa é a primeira de duas equações acima.

    Créditos: AI Horizon.


    Espero que gostem, se gostou agradeça, se foi útil comente.

    Abraços.


    WCG147
    sigpic

  • Font Size
    #2
    Nem tinha lido todo,mas depois que vc falou que era de A.I,eu li todo mais nem entendi nada do mesmo jeito.
    KKKKKKKKKK
    Valeu.

    Comment


    • Font Size
      #3
      Muito avançado para a minha pequena cabecinha, mas obrigado pela explicação.

      Comment


      • Font Size
        #4
        Aff ¬¬"

        Plano cartesiano [PRINT SCREEN]

        Ainda bem que NÃO odeio MATEMÁTICA.

        Comment

        X
        Working...
        X