Passa al contenuto principale

LLMO

Large Language Model Optimization

È un acronimo utilizzato per indicare il processo di ottimizzazione degli LLM (Large Language Model), ovvero i ‟modelli linguistici di grandi dimensioni”, utilizzati nel campo dell’IA (Intelligenza artificiale) e, in particolare, nei NPL (Natural Language Processing), ovvero nella elaborazione del ‟linguaggio naturale”.

I modelli LLM (Large Language Model) sono progettati per comprendere e generare testo in ‟linguaggio naturale” e vengono impiegati in numerose applicazioni, dai chatbot ai motori di ricerca intelligenti (ad esempio ‟TextCortex”, ‟Perplexity AI”, ‟Bing”,‟Waldo”, ‟ChatGPT”, ‟Brave”, ‟Komo”, ‟Andi”, ‟GPTGO.ai” e ‟Yep”), fino ai sistemi di scrittura automatica e assistita.

Gli LLM (Large Language Model) richiedono risorse significative in termini di potenza di calcolo, memoria e consumo energetico per questo il processo LLMO (Large Language Model Optimization), tramite le seguenti tecniche, consente la loro ottimizzazione:

  • Fine-tuning (apprendimento profondo): pratica di ‟transfer learning” utilizzata per adattare un modello pre-addestrato (modello linguistico di grandi dimensioni), spesso tramite apprendimento autosupervisionato, a un compito specifico;
  • Quantizzazione: riduce la precisione numerica dei pesi del modello (ad esempio nel passando da 32 bit a 8 bit), con benefici in termini di leggerezza e velocità;
  • Pruning: elimina i parametri meno rilevanti del modello, riducendone la complessità e migliorando l’efficienza;
  • Model distillation (distillazione del modello): prevede la creazione di un modello più piccolo e leggero a partire da uno più grande, mantenendo il più possibile la qualità delle sue risposte.