Vícevrstvý perceptron

Architektura MLP

Vícevrstvý perceptron (Multi-Layer Perceptron, MLP) je dopředná umělá neuronová síť. MLP se skládá nejméně ze tří vrstev perceptronů: vstupní vrstvy, skryté vrstvy a výstupní vrstvy. MLP využívá k trénování techniku učením s učitelem, která se nazývá zpětné šíření chyby. Více vrstev a spojitá přenosová funkce (sigmoida) odlišují MLP od Perceptronu. Dokáže rozlišit data, která nejsou lineárně oddělitelná. Obecně pracuje jako aproximátor libovolné vektorové funkce (Kolmogorův teorém)[1], tj. během učení provádí nelineární regresi. Používá se k řešení širokého spektra úloh, jako je rozpoznávání, klasifikace, diagnostika či predikce, lze jej využít i ke kompresi a kryptování dat (viz autoenkodér).

  1. HORNIK, K. Multilayer feedforward networks are universal approximators, Neural Networks 2 (5). [s.l.]: Elsevier, 1989. 8 s. (anglicky) 

Literatura

[editovat | editovat zdroj]