Una màquina de Boltzmann és un tipus de xarxa neuronal recurrent estocàstica. El nom li fou donat pels investigadors Geoffrey Hinton i Terry Sejnowski. Les màquines de Boltzmann poden considerar-se com la contrapartida estocàstica i generativa de les xarxes de Hopfield. Van ser dels primers tipus de xarxes neuronals capaços d'aprendre mitjançant representacions internes, són capaços de representar i (amb temps suficient) resoldre complicats problemes combinatoris. No obstant això, a causa d'una sèrie de qüestions que s'aborden més endavant, les màquines de Boltzmann sense restriccions de connectivitat no han demostrat ser útils per resoldre els problemes que es donen en la pràctica en l'aprenentatge o inferència de les màquines. Tot i així resulten interessants en la teoria a causa de la localització ia la natura hebbiana del seu algorisme d'entrenament, així com per la seva paral·lelisme i per la semblança de la seva dinàmica a fenòmens físics senzills. Si es limita la connectivitat, l'aprenentatge pot ser prou eficaç com per ser útil en la resolució de problemes pràctics.
En mecànica estadística es denominen distribucions de Boltzmann i són utilitzes en funcions de mostreig.
Les màquines de Boltzmann, igual que les xarxes de Hopfield, Tenen unitats amb una "energia" definida per a la xarxa. També disposa d'unitats binàries, però a diferència de les xarxes de Hopfield, les unitats d'una màquina de Boltzmann són estocàstiques. L'energia global, , en una màquina de Boltzmann és idèntica en forma a la d'una xarxa de Hopfield:
On:
Les connexions d'una màquina de Boltzmann tenen dues limitacions:
L'increment d'energia global que resulta d'una sola unitat sent 0 (off) davant 1 (on), expressada com , ve donada per l'expressió:
Això es pot expressar com la diferència d'energia entre dos estats:
A continuació substituïm l'energia per a cada estat amb la seva probabilitat relativa d'acord amb el factor de Boltzmann (la propietat de la distribució de Boltzmann en la qual l'energia d'un estat és proporcional al menys logaritme de probabilitat d'aquest estat):
On és la constant de Boltzmann i s'engloba dins de la noció artificial de temperatura . A continuació es reordenen els termes considerant que la probabilitat que una unitat estigui en on i en off és un:
Finalment podem resoldre per , la probabilitat que la unitat estigui en on .
On l'escalar es refereix a com està la temperatura en el sistema. Aquesta relació és la font de la funció logística que es troba en les expressions de probabilitat de les diferents variants de la màquina de Boltzmann.
La xarxa s'executa repetidament escollint una unitat i establint el seu estat d'acord amb la fórmula anterior. Després d'executar durant prou temps a una certa temperatura, la probabilitat de l'estat global de la xarxa va a dependre només de l'estat global d'energia, d'acord amb una distribució de Boltzmann. Això significa que els logaritmes de les probabilitats dels estats globals es tornaran lineals en les seves energies. Aquesta relació es compleix quan la màquina està "a equilibri termodinàmic", el que significa que la distribució de probabilitat dels estats globals ha convergit. Si comencem a fer funcionar la xarxa a alta temperatura, i descendeix gradualment fins a arribar a un equilibri termodinàmic a una baixi temperatura, estarem garantint la convergència a una distribució on el nivell d'energia fluctuï voltant del mínim global. Aquest procés s'anomena Simulated annealing (SA) o temperat simulat.
Per entrenar la xarxa de manera que la possibilitat que convergeixi en un estat global s'ajusti a una distribució externa, caldrà establir els pesos perquè els estats globals amb major probabilitat tinguin l'energia més baixa. Per això s'usa el següent mètode d'entrenament.
Les unitats de la màquina de Boltzmann es divideixen en unitats "visibles", V, i unitats "ocultes", H. Les primeres són les que rebran informació del "entorn", per exemple la sèrie d'entrenament podria ser un conjunt de vectors binaris aplicat sobre les unitats V. La distribució en el conjunt d'entrenament es denota .
A les màquines de Boltzmann, com ja s'ha dit, la distribució dels estats globals convergeixen fins a un equilibri termodinàmic. Després que marginalitzar per sobre de les unitats visibles , la convergència de la distribució es pot denotar com .
El nostre objectiu és apropar la distribució "real" a l'expressió , la qual és produïda eventualment per la màquina. Per mesurar la similitud entre les dues distribucions es fa servir la divergència de Kullback-llegible, :
On el sumatori és superior a tots els possibles estats de . varia en funció dels pesos, ja que aquests determinen l'energia d'un estat, i l'energia al seu torn determina , segons la distribució de Boltzmann. Per tant, podem utilitzar un algorisme de descens de gradient sobre per a un pes determinat, , que es canviarà restant la derivada parcial de respecte al pes.
L'entrenament d'una màquina de Boltzmann consta de dues fases, que es van canviant iterativament entre elles. Una és la fase "positiva" en què els estats de les unitats visibles es subjecten a un vector d'estat binari particular, mostra del conjunt d'entrenament (d'acord amb ). L'altra és la fase "negativa", en què a la xarxa se li permet executar lliurement, és a dir, els estats de les unitats no estan determinats per dades externes. Sorprenentment, el gradient respecte a un pes determinat, , està donat per una equació molt senzilla (demostrada per Ackley et al.):
On:
Aquest resultat es dedueix del fet que en l'equilibri termodinàmic la probabilitat de qualsevol estat global quan la xarxa està funcionant lliurement ve donada per la distribució de Boltzmann (d'aquí el nom de "màquina de Boltzmann").
Sorprenentment, aquesta regla d'aprenentatge és bastant plausible des del punt de vista biològic pel fet que l'única informació necessària per canviar els pesos és proporcionada per de manera "local". És a dir, la connexió (o sinapsi utilitzant terminologia biològica) no necessita més informació que la que subministren les dues neurones que connecta. Això és molt més realista biològicament parlant que el que passa amb la informació que necessiten molts altres algorismes d'entrenament de xarxes neuronals, com per exemple el de retropropagación.
En l'entrenament d'una màquina de Boltzmann no s'utilitza l'algorisme EM, molt utilitzat en Aprenentatge automàtic. Minimitzar la divergència KL, és equivalent a maximitzar el logaritme de la versemblança de les dades. Per tant, el procediment d'entrenament porta a terme un gradient d'ascens sobre el logaritme de versemblança de les dades observades. Això contrasta amb l'algoritme EM, on la distribució posterior dels nodes ocults ha de ser calculada abans de la maximització de la versemblança duta a terme en el pas M.
En entrenament de biaixos és similar, però fa servir només l'activitat d'un sol node:
Les màquines de Boltzmann presenten un greu problema pràctic, i és que l'aprenentatge sembla deixar de produir correctament quan la màquina s'amplia a una mica més gran que una màquina trivial. Això es deu a una sèrie d'efectes, els més importants dels quals són:
Tot i que l'aprenentatge és en general poc pràctic en les màquines de Boltzmann, pot arribar a ser molt eficient en una arquitectura anomenada Màquina de Boltzmann restringida o MBR ( RBM en anglès: Restricted Boltzmann Machine ). Aquesta arquitectura no permet les connexions entre les unitats de les capes ocultes. Després d'entrenar a una MBR les activitats de les seves unitats ocultes poden ser tractades com a dades per a l'entrenament d'una MBR de nivell superior. Aquest mètode d'apilament MBR fa que sigui possible entrenar moltes capes d'unitats ocultes de manera eficient i que cada nova capa sigui afegida per millorar el model generatiu principal.
La màquina de Boltzmann és una versió del mètode de Monte Carlo de les xarxes de Hopfield.
Es creu que la idea d'utilitzar models d'Ising per a la inferència va ser descrita per primera vegada per Geoffrey E. Hinton i Terrence J. Sejnowski[1][2]
La mateixa idea d'aplicar el model d'Ising amb el mostreig de Gibbs temperat també és present en el projecte de Douglas Hofstadter Copycat.[3][4]
Idees similars (canviant el signe de la funció d'energia) també es poden trobar a la "Teoria de l'Harmonia" de Paul Smolensky.
L'analogia explícita extreta de la mecànica estadística en la formulació de la màquina de Boltzmann ha portat a la utilització d'una terminologia presa de la física (per exemple, "energia" en lloc de "harmonia"), que s'ha convertit en estàndard en el camp. L'adopció generalitzada d'aquesta terminologia pot haver estat encoratjada pel fet que el seu ús ha portat a importar una varietat de conceptes i mètodes presos de la mecànica estadística. Tanmateix, no hi ha cap raó per pensar que les diverses propostes per a l'ús de temperat simulat per a la inferència descrites anteriorment no siguin independents. (Helmholtz, va fer una analogia similar en l'inici de la psicofísica.)
Els models d'Ising es consideren en l'actualitat com un cas especial dels camps aleatoris de Markov, que troben una àmplia aplicació en diversos camps, com els de la lingüística, robòtica, visió artificial i intel·ligència artificial.