Differenziazione automatica

Relazione tra differenziazione automatica e differenziazione simbolica

La differenziazione automatica (in lingua inglese automatic differentiation, AD), nota anche come differenziazione algoritmica o differenziazione computazionale,[1] è un insieme di tecniche per il calcolo automatico delle derivate di una funzione matematica implementata da un programma informatico. La differenziazione automatica sfrutta il fatto che l'implementazione di una funzione, indipendentemente da quanto sia complessa, si riduce all'esecuzione di una serie di operazioni aritmetiche (somma, sottrazione, moltiplicazione, divisione, etc.) e funzioni elementari (esponenziale, funzioni trigonometriche, etc.). Applicando la regola della catena ripetutamente a tali operazioni, la derivata di una funzione arbitrariamente complessa può essere calcolata automaticamente, alla precisione di calcolo in uso, e velocemente, usando un numero di operazioni equivalente al più ad un fattore piccolo e costante rispetto al numero di operazioni usate nella funzione originale.

La differenziazione automatica non deve essere confusa con la differenziazione simbolica, che viene eseguita manipolando le espressioni rappresentate in forma simbolica, né con la differenziazione numerica, che approssima la derivata con una differenza finita. Il primo metodo è solitamente molto più lento e limitato dalla difficoltà di convertire funzioni arbitrarie in forma simbolica, mentre il secondo metodo introduce errori numerici di discretizzazione che tendono a propagarsi e limitano la stabilità numerica. Inoltre, entrambi i metodi sono lenti nel calcolare derivate parziali di funzioni con un numero elevato di variabili, problema comunemente incontrato in metodi di ottimizzazione basati su discesa del gradiente. Tali metodi sono alla base dell'implementazione di molte tecniche di apprendimento automatico, in particolare apprendimento profondo, e la maggior parte dei framework di apprendimento profondo implementano la differenziazione automatica per il calcolo automatico del gradiente.[2][3][4]

Regola della catena e accumulazione in avanti e inversa

La regola della catena permette di scomporre una derivata in una serie di derivate più semplici. Per una composizione y = f ( g ( h ( x ) ) ) = f ( g ( h ( w 0 ) ) ) = f ( g ( w 1 ) ) = f ( w 2 ) = w 3 {\displaystyle y=f(g(h(x)))=f(g(h(w_{0})))=f(g(w_{1}))=f(w_{2})=w_{3}} la regola della catena fornisce come risultato

d y d x = d y d w 2 d w 2 d w 1 d w 1 d x {\displaystyle {\frac {dy}{dx}}={\frac {dy}{dw_{2}}}{\frac {dw_{2}}{dw_{1}}}{\frac {dw_{1}}{dx}}}

La differenziazione automatica può essere operata in due modi distinti, accumulazione in avanti (forward accumulation o forward mode) e accumulazione inversa (reverse accumulation o reverse mode). L'accumulazione in avanti attraversa la catena di operazioni dall'interno all'esterno (nell'esempio, calcolando prima d w 1 / d x {\displaystyle dw_{1}/dx} , poi d w 2 / d x {\displaystyle dw_{2}/dx} e infine d y / d x {\displaystyle dy/dx} ), mentre l'accumulazione inversa prevede di attraversare la catena dall'esterno all'interno (calcolando prima d y / d w 2 {\displaystyle dy/dw_{2}} , poi d y / d w 1 {\displaystyle dy/dw_{1}} e infine d y / d x {\displaystyle dy/dx} ). In sintesi, si ha che l'accumulazione in avanti calcola la relazione ricorsiva

d w i d x = d w i d w i 1 d w i 1 d x {\displaystyle {\frac {dw_{i}}{dx}}={\frac {dw_{i}}{dw_{i-1}}}{\frac {dw_{i-1}}{dx}}}

con w 3 = y {\displaystyle w_{3}=y} , mentre l'accumulazione inversa calcola

d y d w i = d y d w i + 1 d w i + 1 d w i {\displaystyle {\frac {dy}{dw_{i}}}={\frac {dy}{dw_{i+1}}}{\frac {dw_{i+1}}{dw_{i}}}}

con w 0 = x {\displaystyle w_{0}=x} . In generale, entrambi i metodi sono casi particolari dell'applicazione dell'operatore di composizione dei programmi, fissando opportunamente uno dei due argomenti ( w , y ) {\displaystyle (w,y)} .

Accumulazione in avanti

Grafo computazionale per l'accumulazione in avanti

Nell'accumulazione in avanti, vengono fissate le variabili indipendenti nelle quali la differenziazione è calcolata, quindi il calcolo delle derivate delle sotto-espressioni è eseguito ricorsivamente. Questo può essere eseguito sostituendo ripetutamente le derivate delle funzioni interne nella regola della catena:

y x = y w n 1 w n 1 x = y w n 1 ( w n 1 w n 2 w n 2 x ) = y w n 1 ( w n 1 w n 2 ( w n 2 w n 3 w n 3 x ) ) = {\displaystyle {\frac {\partial y}{\partial x}}={\frac {\partial y}{\partial w_{n-1}}}{\frac {\partial w_{n-1}}{\partial x}}={\frac {\partial y}{\partial w_{n-1}}}\left({\frac {\partial w_{n-1}}{\partial w_{n-2}}}{\frac {\partial w_{n-2}}{\partial x}}\right)={\frac {\partial y}{\partial w_{n-1}}}\left({\frac {\partial w_{n-1}}{\partial w_{n-2}}}\left({\frac {\partial w_{n-2}}{\partial w_{n-3}}}{\frac {\partial w_{n-3}}{\partial x}}\right)\right)=\cdots }

Il procedimento viene generalizzato al caso in più variabili, come prodotto di matrici jacobiane.

A differenza dell'accumulazione inversa, l'accumulazione in avanti è più naturale e semplice da implementare, in quanto il flusso di informazioni nel calcolo della derivata coincide con l'ordine di valutazione, aumentando ogni variabile w {\displaystyle w} con il valore numerico w ˙ {\displaystyle {\dot {w}}} della sua derivata,

w ˙ = w x {\displaystyle {\dot {w}}={\frac {\partial w}{\partial x}}}

Le derivate sono quindi calcolate in sincronia con i passaggi di valutazione delle espressioni, e combinate con altre derivate tramite la regola della catena.

Per esempio, sia data la funzione

z = f ( x 1 , x 2 ) = x 1 x 2 + sin x 1 = w 1 w 2 + sin w 1 = w 3 + w 4 = w 5 {\displaystyle {\begin{aligned}z&=f(x_{1},x_{2})\\&=x_{1}x_{2}+\sin x_{1}\\&=w_{1}w_{2}+\sin w_{1}\\&=w_{3}+w_{4}\\&=w_{5}\end{aligned}}}

dove, per chiarezza, ogni singola sotto-espressione è stata etichettata con una variabile w i {\displaystyle w_{i}} . La scelta delle variabili indipendenti determina i valori iniziali w ˙ 1 {\displaystyle {\dot {w}}_{1}} e w ˙ 2 {\displaystyle {\dot {w}}_{2}} (chiamati semi). Ad esempio, se si vuole calcolare la derivata della funzione rispetto a x 1 {\displaystyle x_{1}} , i valori iniziali vengono impostati a

w ˙ 1 = x 1 x 1 = 1 w ˙ 2 = x 2 x 1 = 0 {\displaystyle {\begin{aligned}{\dot {w}}_{1}={\frac {\partial x_{1}}{\partial x_{1}}}=1\\{\dot {w}}_{2}={\frac {\partial x_{2}}{\partial x_{1}}}=0\end{aligned}}}

Con questi semi, le derivate vengono propagate tramite la regola della catena, come mostrato nella tabella seguente e nel grafo computazionale nella figura a lato.

Operazioni per calcolare l'espressione Operazioni per calcolare la derivata w 1 = x 1 w ˙ 1 = 1  (seme) w 2 = x 2 w ˙ 2 = 0  (seme) w 3 = w 1 w 2 w ˙ 3 = w 2 w ˙ 1 + w 1 w ˙ 2 w 4 = sin w 1 w ˙ 4 = cos w 1 w ˙ 1 w 5 = w 3 + w 4 w ˙ 5 = w ˙ 3 + w ˙ 4 {\displaystyle {\begin{array}{l|l}{\text{Operazioni per calcolare l'espressione}}&{\text{Operazioni per calcolare la derivata}}\\\hline w_{1}=x_{1}&{\dot {w}}_{1}=1{\text{ (seme)}}\\w_{2}=x_{2}&{\dot {w}}_{2}=0{\text{ (seme)}}\\w_{3}=w_{1}\cdot w_{2}&{\dot {w}}_{3}=w_{2}\cdot {\dot {w}}_{1}+w_{1}\cdot {\dot {w}}_{2}\\w_{4}=\sin w_{1}&{\dot {w}}_{4}=\cos w_{1}\cdot {\dot {w}}_{1}\\w_{5}=w_{3}+w_{4}&{\dot {w}}_{5}={\dot {w}}_{3}+{\dot {w}}_{4}\end{array}}}

Per calcolare il gradiente della funzione, sono necessari attraversamenti addizionali del grafo computazionale, usando semi adeguati, ad esempio w ˙ 1 = 0 ; w ˙ 2 = 1 {\displaystyle {\dot {w}}_{1}=0;{\dot {w}}_{2}=1} per calcolare la derivata rispetto a x 2 {\displaystyle x_{2}} .

La complessità computazionale di ogni attraversamento del grafo è proporzionale alla complessità della funzione iniziale. L'accumulazione in avanti è più efficiente rispetto a quella inversa per funzioni nella forma f : R n R m {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} ^{m}} con m n {\displaystyle m\gg n} , in quanto sono necessari solamente n {\displaystyle n} attraversamenti, rispetto agli m {\displaystyle m} richiesti dall'accumulazione inversa.

Accumulazione inversa

Grafo computazionale per l'accumulazione inversa

Nell'accumulazione inversa, vengono fissate le variabili dipendenti rispetto alle quali la differenziazione è calcolata, quindi la derivata viene calcolata ricorsivamente rispetto ad ogni sotto-espressione. Equivalentemente, la derivata della funzione più esterna nella regola della catena viene sostituita

y x = y w 1 w 1 x = ( y w 2 w 2 w 1 ) w 1 x = ( ( y w 3 w 3 w 2 ) w 2 w 1 ) w 1 x = {\displaystyle {\frac {\partial y}{\partial x}}={\frac {\partial y}{\partial w_{1}}}{\frac {\partial w_{1}}{\partial x}}=\left({\frac {\partial y}{\partial w_{2}}}{\frac {\partial w_{2}}{\partial w_{1}}}\right){\frac {\partial w_{1}}{\partial x}}=\left(\left({\frac {\partial y}{\partial w_{3}}}{\frac {\partial w_{3}}{\partial w_{2}}}\right){\frac {\partial w_{2}}{\partial w_{1}}}\right){\frac {\partial w_{1}}{\partial x}}=\cdots }

La quantità usata nel calcolo tramite accumulazione inversa è chiamata aggiunta (adjoint), denotata con una barra ( w ¯ {\displaystyle {\bar {w}}} ), ed è la derivata di una variabile dipendente rispetto alla sotto-espressione w {\displaystyle w} :

w ¯ = y w {\displaystyle {\bar {w}}={\frac {\partial y}{\partial w}}}

L'accumulazione inversa attraversa la catena dall'esterno verso l'interno, ovvero attraversa il grafo computazionale (figura a lato) dall'alto verso il basso. È necessario un attraversamento del grafo per ogni componente della funzione, quindi solo uno nel caso di funzioni scalari. Questo genera un compromesso tra costo in spazio e in tempo rispetto all'accumulazione in avanti: mentre l'accumulazione inversa può richiedere un numero inferiore di attraversamenti del grafo, è però necessario memorizzare le variabili intermedie w i {\displaystyle w_{i}} (tipicamente usando una lista di Wengert),[5][6] che può rappresentare un costo insostenibile in termini di memoria nel caso il grafo computazionale sia molto grande. Tale problema è parzialmente mitigato memorizzando solo una parte dei valori intermedi, e ricostruendo i restanti tramite calcoli addizionali (metodo noto come checkpointing).

Le operazioni richieste per calcolare la derivata tramite accumulazione inversa in questo esempio sono:

Operazioni per il calcolo della derivata w ¯ 5 = 1  (seme) w ¯ 4 = w ¯ 5 w ¯ 3 = w ¯ 5 w ¯ 2 = w ¯ 3 w 1 w ¯ 1 = w ¯ 3 w 2 + w ¯ 4 cos w 1 {\displaystyle {\begin{array}{l}{\text{Operazioni per il calcolo della derivata}}\\\hline {\bar {w}}_{5}=1{\text{ (seme)}}\\{\bar {w}}_{4}={\bar {w}}_{5}\\{\bar {w}}_{3}={\bar {w}}_{5}\\{\bar {w}}_{2}={\bar {w}}_{3}\cdot w_{1}\\{\bar {w}}_{1}={\bar {w}}_{3}\cdot w_{2}+{\bar {w}}_{4}\cdot \cos w_{1}\end{array}}}

Il grafo computazionale può essere manipolato per calcolare il gradiente dell'operazione originaria, aumentando ogni nodo con un nodo aggiunto, e con i vertici tra nodi aggiunti orientati in direzione opposta rispetto ai vertici tra nodi originali. Tali nodi aggiunti rappresentano la moltiplicazione per la derivata dell'espressione calcolata nel nodo originale. Per esempio, un nodo contenente la funzione y = f ( x ) {\displaystyle y=f(x)} avrà l'espressione x ¯ = y ¯ f ( x ) {\displaystyle {\bar {x}}={\bar {y}}f(x)} nel corrispondente nodo aggiunto.

L'accumulazione inversa è più efficiente rispetto a quella in avanti per funzioni nella forma f : R n R m {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} ^{m}} con m n {\displaystyle m\ll n} , in quanto richiede m {\displaystyle m} attraversamenti del grafo computazionale, rispetto ai n {\displaystyle n} attraversamenti richiesti dall'accumulazione in avanti.

L'accumulazione inversa è stata pubblicata per la prima volta nel 1970 da Seppo Linnainmaa nella sua tesi di M.Sc.,[7][8][9] ed è comunemente usata per implementare la retropropagazione dell'errore nelle reti neurali artificiali.

Altri metodi

Le accumulazioni in avanti e inversa sono solo due metodi estremi per attraversare la catena di derivate. Il problema del calcolo della matrice jacobiana con un numero minimo di operazioni è noto come problema dell'accumulazione ottimale (optimal Jacobian accumulation, OJA), ed è un problema NP-completo.[10]

Differenziazione automatica tramite numeri duali

L'accumulazione in avanti può essere implementata estendendo l'algebra dei numeri reali, dove ad ogni numero è associata una componente addizionale nilpotente che rappresenta la derivata della funzione valutata in quel numero. Le operazioni aritmetiche possono essere estese a questa nuova algebra, nota come algebra dei numeri duali. Tale formulazione può essere ulteriormente generalizzata, in quella che è nota come teoria del calcolo operazionale.

L'aritmetica estesa può essere costruita sostituendo ogni numero reale x {\displaystyle x} con la quantità x + x ε {\displaystyle x+x'\varepsilon } , dove x {\displaystyle x'} è un numero reale e ε {\displaystyle \varepsilon } è un infinitesimo, un numero astratto nilpotente tale che ε 2 = 0 {\displaystyle \varepsilon ^{2}=0} . Da tale definizione, si ottiene che

( x + x ε ) + ( y + y ε ) = x + y + ( x + y ) ε ( x + x ε ) ( y + y ε ) = x y + x y ε + y x ε + x y ε 2 = x y + ( x y + y x ) ε {\displaystyle {\begin{aligned}(x+x'\varepsilon )+(y+y'\varepsilon )&=x+y+(x'+y')\varepsilon \\(x+x'\varepsilon )\cdot (y+y'\varepsilon )&=xy+xy'\varepsilon +yx'\varepsilon +x'y'\varepsilon ^{2}=xy+(xy'+yx')\varepsilon \end{aligned}}}

e le altre operazioni possono essere definite analogamente.

È possibile definire polinomi in questa aritmetica aumentata. Se P ( x ) = p 0 + p 1 x + p 2 x 2 + + p n x n {\displaystyle P(x)=p_{0}+p_{1}x+p_{2}x^{2}+\cdots +p_{n}x^{n}} , allora P ( x + x ε ) = p 0 + p 1 ( x + x ε ) + + p n ( x + x ε ) n = p 0 + p 1 x + + p n x n + p 1 x ε + 2 p 2 x x ε + + n p n x n 1 x ε = P ( x ) + P ( 1 ) ( x ) x ε {\displaystyle {\begin{aligned}P(x+x'\varepsilon )&=p_{0}+p_{1}(x+x'\varepsilon )+\cdots +p_{n}(x+x'\varepsilon )^{n}\\&=p_{0}+p_{1}x+\cdots +p_{n}x^{n}+p_{1}x'\varepsilon +2p_{2}xx'\varepsilon +\cdots +np_{n}x^{n-1}x'\varepsilon \\&=P(x)+P^{(1)}(x)x'\varepsilon \end{aligned}}}

dove P ( 1 ) {\displaystyle P^{(1)}} è la derivata di P {\displaystyle P} rispetto al primo argomento, e x {\displaystyle x'} , chiamato seme (seed), può essere assegnato arbitrariamente.

Tale nuova aritmetica consiste di coppie ordinate x , x {\displaystyle \langle x,x'\rangle } , con aritmetica ordinaria nella prima componente e aritmetica della derivata prima nella seconda componente. Estendendo i risultati precedenti dai polinomi alle funzioni analitiche, si ottiene una nuova aritmetica elementare:

u , u + v , v = u + v , u + v u , u v , v = u v , u v u , u v , v = u v , u v + u v u , u / v , v = u v , u v u v v 2 ( v 0 ) sin u , u = sin ( u ) , u cos ( u ) cos u , u = cos ( u ) , u sin ( u ) exp u , u = exp u , u exp u log u , u = log ( u ) , u / u ( u > 0 ) u , u k = u k , k u k 1 u ( u 0 ) | u , u | = | u | , u sign u ( u 0 ) {\displaystyle {\begin{aligned}\left\langle u,u'\right\rangle +\left\langle v,v'\right\rangle &=\left\langle u+v,u'+v'\right\rangle \\\left\langle u,u'\right\rangle -\left\langle v,v'\right\rangle &=\left\langle u-v,u'-v'\right\rangle \\\left\langle u,u'\right\rangle *\left\langle v,v'\right\rangle &=\left\langle uv,u'v+uv'\right\rangle \\\left\langle u,u'\right\rangle /\left\langle v,v'\right\rangle &=\left\langle {\frac {u}{v}},{\frac {u'v-uv'}{v^{2}}}\right\rangle \quad (v\neq 0)\\\sin \left\langle u,u'\right\rangle &=\left\langle \sin(u),u'\cos(u)\right\rangle \\\cos \left\langle u,u'\right\rangle &=\left\langle \cos(u),-u'\sin(u)\right\rangle \\\exp \left\langle u,u'\right\rangle &=\left\langle \exp u,u'\exp u\right\rangle \\\log \left\langle u,u'\right\rangle &=\left\langle \log(u),u'/u\right\rangle \quad (u>0)\\\left\langle u,u'\right\rangle ^{k}&=\left\langle u^{k},ku^{k-1}u'\right\rangle \quad (u\neq 0)\\\left|\left\langle u,u'\right\rangle \right|&=\left\langle \left|u\right|,u'{\mbox{sign}}u\right\rangle \quad (u\neq 0)\end{aligned}}}

e in generale, per una funzione g {\displaystyle g} si ha

g ( u , u , v , v ) = g ( u , v ) , g u ( u , v ) u + g v ( u , v ) v {\displaystyle g(\langle u,u'\rangle ,\langle v,v'\rangle )=\langle g(u,v),g_{u}(u,v)u'+g_{v}(u,v)v'\rangle }

dove g u {\displaystyle g_{u}} e g v {\displaystyle g_{v}} sono le derivate di g {\displaystyle g} rispetto al primo e al secondo argomento rispettivamente.

Un'operazione binaria elementare può essere estesa a costanti, e l'applicazione a un numero duale u , u {\displaystyle \langle u,u'\rangle } e una costante (numero reale) c {\displaystyle c} è eseguita promuovendo la costante al numero duale c , 0 {\displaystyle \langle c,0\rangle } . È possibile calcolare la derivata di una funzione f : R R {\displaystyle f:\mathbb {R} \rightarrow \mathbb {R} } in x 0 {\displaystyle x_{0}} , calcolando f ( x 0 , 1 ) {\displaystyle f(\langle x_{0},1\rangle )} in questa aritmetica, il cui risultato è f ( x 0 ) , f ( x 0 ) {\displaystyle \langle f(x_{0}),f'(x_{0})\rangle } .

Funzioni vettoriali e a più variabili

Funzioni vettoriali a più variabili possono essere trattate con analoga efficienza usando lo stesso meccanismo per le funzioni a una variabile, definendo un operatore di derivata direzionale che calcola y = f ( x ) x {\displaystyle y'=\nabla f(x)\cdot x'} , la derivata direzionale y R m {\displaystyle y'\in \mathbb {R} ^{m}} di f : R n R m {\displaystyle f:\mathbb {R} ^{n}\rightarrow \mathbb {R} ^{m}} at x R n {\displaystyle x\in \mathbb {R} ^{n}} in direzione x R n {\displaystyle x'\in \mathbb {R} ^{n}} , che può essere calcolata come ( y 1 , y 1 , , y m , y m ) = f ( x 1 , x 1 , , x n , x n ) {\displaystyle (\langle y_{1},y'_{1}\rangle ,\ldots ,\langle y_{m},y'_{m}\rangle )=f(\langle x_{1},x'_{1}\rangle ,\ldots ,\langle x_{n},x'_{n}\rangle )} usando la stessa aritmetica definita in precedenza. Per calcolare il gradiente f {\displaystyle \nabla f} sono necessarie n {\displaystyle n} valutazioni.

Derivate di ordine superiore

L'aritmetica definita per la derivata prima può essere estesa per calcolare derivate di ordine superiore. Tuttavia, all'aumentare dell'ordine le espressioni diventano molto più complesse, e il costo è quadratico nell'ordine della derivata più alta. È possibile definire una simile algebra su polinomi di Taylor troncati, consentendo di eseguire i calcoli più velocemente. Una formulazione generale e rigorosa è definita nel contesto del calcolo operazionale.

Calcolo operazionale

Lo stesso argomento in dettaglio: Calcolo operazionale.

Il calcolo operazionale nello spazio dei programmi[11] generalizza il concetto di differenziazione automatica, generalizzando l'algebra dei numeri duali con un'algebra tensoriale, e fornisce una fondazione rigorosa alla matematica usata nell'apprendimento profondo.

Implementazione

L'accumulazione in avanti può essere implementata tramite un'interpretazione non-standard del programma, nella quale ogni numero reale è sostituito con un numero duale, le costanti sono sostituite da numeri duali con parte infinitesima nulla, e le operazioni sui reali sono sostituite con operazioni sui duali. L'interpretazione non-standard può essere generalmente implementata con due approcci: trasformazione del codice sorgente, e overloading degli operatori.

Trasformazione del codice sorgente

Schema di trasformazione del codice sorgente

Il codice sorgente di una funzione è sostituito con il codice, generato automaticamente, di una funzione che interlaccia le istruzioni originarie con le istruzioni aggiuntive per il calcolo delle derivate. Tale approccio può essere implementato in ogni linguaggio, e rende possibile un maggior numero di ottimizzazioni automatiche da parte del compilatore, tuttavia l'implementazione dello strumento di generazione automatica è abbastanza complesso.

Overloading degli operatori

Schema di overload degli operatori

Tale metodo può essere usato in linguaggi che supportano l'overloading degli operatori. Non richiede generalmente di alterare la sequenza di operazioni nel programma, ma richiede la definizione di tipi di dati numerici aggiuntivi. È più semplice da implementare, e può essere usato anche per l'accumulazione inversa, tuttavia rende più complessa l'ottimizzazione automatica del codice. Esempi di librerie di differenziazione automatica tramite overloading degli operatori sono Adept e Stan.

Note

  1. ^ Richard D. Neidinger, Introduction to Automatic Differentiation and MATLAB Object-Oriented Programming (PDF), in SIAM Review, vol. 52, n. 3, 2010, pp. 545–563, DOI:10.1137/080743627.
  2. ^ Eager Execution, su tensorflow.org.
  3. ^ Automatic differentiation package - torch.autograd, su pytorch.org.
  4. ^ Derivatives in Theano — Theano 1.0.0 documentation, su deeplearning.net.
  5. ^ R.E. Wengert, A simple automatic derivative evaluation program, in Comm. ACM, vol. 7, 1964, pp. 463–464, DOI:10.1145/355586.364791.
  6. ^ Michael Bartholomew-Biggs, Steven Brown, Bruce Christianson e Laurence Dixon, Automatic differentiation of algorithms [collegamento interrotto], in Journal of Computational and Applied Mathematics, vol. 124, n. 1-2, 2000, pp. 171–190, DOI:10.1016/S0377-0427(00)00422-2.
  7. ^ Linnainmaa, Seppo (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors. Master's Thesis (in Finnish), Univ. Helsinki, 6-7.
  8. ^ Linnainmaa, Seppo (1976). Taylor expansion of the accumulated rounding error. BIT Numerical Mathematics, 16(2), 146-160.
  9. ^ Griewank, Andreas (2012). Who Invented the Reverse Mode of Differentiation?. Optimization Stories, Documenta Matematica, Extra Volume ISMP (2012), 389-400.
  10. ^ Uwe Naumann, Optimal Jacobian accumulation is NP-complete, in Mathematical Programming, vol. 112, n. 2, aprile 2008, pp. 427–441, DOI:10.1007/s10107-006-0042-z.
  11. ^ Žiga Sajovic e Martin Vuk, Operational calculus on programming spaces, 24 ottobre 2016.

Bibliografia

  • Louis B. Rall, Automatic Differentiation: Techniques and Applications, Lecture Notes in Computer Science, vol. 120, Springer, 1981, ISBN 3-540-10861-0.
  • Andreas Griewank e Andrea Walther, Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation, Other Titles in Applied Mathematics, vol. 105, 2nd, SIAM, 2008, ISBN 978-0-89871-659-7 (archiviato dall'url originale il 23 marzo 2010).
  • Richard Neidinger, Introduction to Automatic Differentiation and MATLAB Object-Oriented Programming (PDF), in SIAM Review, vol. 52, n. 3, 2010, pp. 545–563, DOI:10.1137/080743627. URL consultato il 15 marzo 2013.

Collegamenti esterni

  • (EN) www.autodiff.org
  • (EN) Automatic Differentiation of Parallel OpenMP Programs
  • (EN) Automatic Differentiation, C++ Templates and Photogrammetry
  • (EN) Compute analytic derivatives of any Fortran77, Fortran95, or C program through a web-based interface
  • (EN) JuliaDiff, strumenti di differenziazione automatica in Julia
Controllo di autoritàLCCN (EN) sh2011004690 · J9U (ENHE) 987012430911405171
  Portale Informatica
  Portale Matematica