Hai mai fatto la coda in un ufficio postale? Mentre aspetti il tuo turno, persone entrano, altre escono, e il numero di persone in fila cambia di continuo. Ogni volta che qualcuno si aggiunge o lascia la coda, il sistema evolve, ma non importa quante persone siano entrate prima: l’unica cosa che conta è quante persone sono presenti ora. Questo semplice esempio descrive perfettamente il funzionamento delle catene di Markov, un concetto matematico che ci aiuta a comprendere sistemi in cui il prossimo passo dipende solo dallo stato attuale, senza bisogno di ricordare il passato.
Proprio come nella coda alle poste, la nostra prossima azione non è determinata dal percorso che ci ha portato fino a quel punto, ma solo dalla situazione presente. La teoria delle catene di Markov si applica in moltissimi campi, dalla biologia alla finanza, dalla meteorologia alla medicina e ci permette di prevedere il comportamento futuro di un sistema in base alle probabilità associate a ciascun stato.
Immagina ora di trovarti in un labirinto, con infinite stanze e porte che si aprono a ogni angolo. Ogni volta che apri una porta, il percorso che segue non è frutto di decisioni consapevoli, ma governato da valori di probabilità che determinano il susseguirsi verso la prossima stanza. Questa metafora del labirinto è un altro modo per visualizzare il concetto di catena di Markov: sei in una stanza (o stato) e la tua prossima mossa dipende solo da dove ti trovi in quel momento, senza considerare come ci sei arrivato.
In questo labirinto, ogni stanza rappresenta dunque uno stato, e ogni porta una transizione possibile. La probabilità di aprire una porta e muoversi verso un’altra stanza è governata dal caso, proprio come nelle catene di Markov, dove ogni transizione da uno stato all’altro è definita da un valore probabilistico. Da qui, la metafora del labirinto diventa utile per spiegare il funzionamento di molti fenomeni reali che possiamo modellare con questo approccio.
Come accennato prima, le catene di Markov sono una particolare famiglia di processi stocastici caratterizzati principalmente dalla cosiddetta proprietà di assenza di memoria: la probabilità di passare da uno stato a un altro dipende solo dallo stato corrente, non dal percorso che ci ha portato fin lì.
Torniamo al nostro esempio della coda alle poste. Il numero di persone in fila in qualsiasi momento rappresenta uno stato del sistema. Quando una persona entra o esce dalla fila, il sistema passa da uno stato all’altro: potresti avere una probabilità del 70% che una persona entri nella coda e del 30% che una persona se ne vada. Non importa quante persone siano già passate prima: ciò che conta è solo il numero di persone attualmente in fila.
Molti fenomeni reali possono essere descritti tramite processi transitori, proprio come la coda alle poste. Altri esempi interessanti possiamo trovarli nel mondo della biologia. Immaginiamo ad esempio la mutazione genetica di un batterio: ogni possibile mutazione porta il batterio in un nuovo stato genetico, e possiamo supporre che la probabilità che il batterio subisca ulteriori mutazioni sia governata solo dallo stato attuale e non da quello precedente.
Lo stesso potrebbe avvenire per il prezzo di un’opzione finanziaria: possiamo intendere ogni variazione del prezzo come il passaggio a un nuovo stato dove ogni passo successivo è determinato da una probabilità di transizione tra i vari stati. Anche in questo caso, una catena di Markov può essere utilizzata per modellare l’evoluzione temporale del prezzo.
Per capire come funzionano le catene di Markov, immagina di essere su una scacchiera. Ogni casella rappresenta uno stato, e ogni volta che fai una mossa, non ti preoccupi di dove sei stato prima, ma solo di dove ti trovi ora. Se ti trovi su una casella bianca, potresti avere una probabilità del 50% di muoverti avanti e del 50% di tornare indietro. Se invece ti trovi su una casella nera, le probabilità potrebbero essere diverse, magari del 70% di muoverti avanti e del 30% di tornare indietro. Queste transizioni possono essere rappresentate con una matrice stocastica, una matrice quadrata dove ogni elemento corrisponde alla probabilità di transizione tra due stati rappresentati dalle righe e dalle colonne della matrice.
Le catene di Markov possono essere rappresentate anche in modo visivo tramite diagrammi di transizione. Immagina di tracciare su un foglio una serie di punti collegati da frecce: ogni punto rappresenta uno stato del sistema, e ogni freccia rappresenta il passaggio da uno stato all’altro. Questa rappresentazione grafica ci aiuta a visualizzare meglio come il sistema evolve nel tempo e a cogliere anche eventuali comportamenti periodici del fenomeno che si sta analizzando.
Le catene di Markov trovano applicazione anche nel settore bancario, in particolare nella valutazione del rischio di credito. Ad esempio, un approccio diffuso in diverse banche consiste nel classificare i propri clienti in classi di rating basate sul rischio di default, ovvero il rischio che il cliente non riesca a rimborsare un prestito. Utilizzando una catena di Markov, una banca potrebbe simulare la probabilità che un cliente passi da una classe di rating all’altra nel tempo.
Immagina di osservare ogni cliente come se fosse una pedina su una scacchiera. Ogni casella rappresenta una probabilità di rischio. Si potrebbe utilizzare una catena di Markov per calcolare la probabilità che una pedina si sposti da una casella a un’altra, in modo da aiutare a prevedere come il rischio di un cliente evolva nel tempo.
Una delle caratteristiche più interessanti delle catene di Markov è la possibilità di calcolare le probabilità future partendo dallo stato attuale. Questo è possibile grazie all’usuale prodotto tra matrici: moltiplicando la matrice stocastica per sé stessa o iterando questo procedimento, possiamo ottenere la probabilità che il sistema si trovi in un determinato stato in un momento futuro.
Le catene di Markov non sono utili solo in finanza. In biologia, ad esempio, le catene di Markov sono state utilizzate per modellare le mutazioni genetiche dei batteri. Ogni mutazione genetica rappresenta uno stato, e le probabilità di transizione tra stati rappresentano la probabilità che un batterio subisca una mutazione o rimanga nello stesso stato genetico. Questo approccio probabilistico potrebbe permettere agli scienziati di studiare l’evoluzione delle popolazioni batteriche nel tempo e di prevedere come queste potrebbero sviluppare resistenza a un antibiotico o ad altri fattori esterni.
In conclusione, le catene di Markov ci offrono uno strumento potente per modellare fenomeni complessi e imprevedibili. Che si tratti di persone in fila alle poste, di mutazioni genetiche o di variazioni di prezzo nel mercato finanziario, il modello di Markov ci insegna che la vita è un grande gioco di probabilità, in cui il futuro è determinato solo dal presente. Un po’ come in un labirinto, non conta dove siamo stati, ma solo quale porta apriremo la prossima volta.
Vuoi approfondire questi temi?