Cos’è un LSTM?

LSTM sta per Long Short-Term Memory. È una variante della rete neurale ricorrente (RNN) pensata a ricordare informazioni per lunghi periodi. Immagina di scrivere un romanzo: il modello deve tenere in memoria i personaggi, le trame e le motivazioni.

Perché è speciale?

La sua struttura include celle di memoria e porte che controllano l’ingresso, la permanenza e l’uscita dei dati. Così evita l’effetto “vanishing gradient” tipico delle RNN classiche. Un dettaglio non da poco: permette di gestire sequenze di lunghezza variabile senza perdere contesto.

Come funziona in pratica?

  • Porte di ingresso: decidono quali informazioni immagazzinare.
  • Porte di dimenticanza: controllano cosa rilasciare dalla memoria.
  • Porte di uscita: filtrano le informazioni che passano al livello successivo.

Questa architettura rende LSTM ideale per previsioni a lungo termine, traduzione automatica e riconoscimento vocale. Se vuoi capire il “perché” dietro i modelli predittivi di oggi, l’LSTM è la chiave.