Un perceptró multicapa (amb acrònim MLP) és un tipus de xarxa neuronal artificial de classe directa. Una MLP consisteix, almenys, de tres capes de nodes : una capa d'entrada, una capa oculta i una capa de sortida. Excepte pel mode d'entrada, cada node empra una funció d'activació no lineal, la qual cosa permet de classificar conjunts de dades que no estan separats linealment. Es distingeixen del perceptró que només tenen una capa oculta i funció lineal. MLP utilitza una tècnica d'aprenentatge supervisat anomenada backpropagation (retropropagació).[1][2][3]
Les capes es poden classificar en tres tipus: [4]
L'aprenentatge es realitza amb backpropagation (propagació cap endarrere (també conegut amb retropropagació de l'error o regla delta generalitzada), és un algorismo emprat en l'entrenament d'aquestes xarxes.
Funció d'activació : si un perceptró multicapa té una funció d'activació lineal a totes les neurones, llavors la teoria de l'algebra lineal ens demostra que aquesta MLP es pot reduir a una xarxa de 2 capes ocultes. Les funcions d'activació no linelas més típiques són de tipus sigmoide :
La primera és la funció hiperbòlica i la segona és la funció lògica.
Procés d'apenentatge : es realitza tot canviant els valors dels pesos o coeficients de cada node, basats en la quantitat de l'error de la sortida respecte el resultat esperat. El procés es dir backpropagation i és una generalització de l'algorisme LMS :
Si l'error és :
llavors emprant el concepte de gradient descendent (derivada), el canvi que cal aplicar a cada pes o coeficient és : Nota : les funcions d'activació han de ser derivables.