L'algorisme del gradient descendent és un mètode iteratiu d'optimització de primer ordre per a trobar el mínim d'una funció. S'anomena descendent perquè el prenen els increments proporcionals al negatiu del gradient de la funció. Si es prenen increments positius al gradient, s'anomena gradient ascendent.[1][2][3]
Aquest mètode s'empra sovint com una extensió de l'algorisme de retropropagació usat en l'entrenament de xarxes neuronals artificials.
El gradient descendent es basa en el fet que si la funció multivariable està definida i és derivable al voltant d'un punt , llavors decreix de la manera més ràpida si es va des del punt en direcció del gradient negatiu de en , o sigui . Aleshores la seqüència de punts és:
o també:
i la seqüència és monotònica descendent: