LLMs: l’EDPB sui modelli linguistici di grandi dimensioni per la gestione dei rischi privacy

L’espansione dei sistemi di intelligenza artificiale basati su modelli linguistici di grandi dimensioni (Large Language Models – LLMs) rappresenta una delle principali sfide per il diritto alla protezione dei dati personali nell’era digitale. Questi modelli, grazie alla loro capacità di elaborare e generare linguaggio naturale in maniera sempre più sofisticata, sono entrati in maniera trasversale nei settori pubblici e privati, dall’assistenza virtuale alla sanità, dall’educazione alla giustizia predittiva. Tuttavia, la loro adozione comporta rischi rilevanti in termini di liceità, trasparenza, sicurezza e minimizzazione dei trattamenti. In questo contesto si colloca il documento “AI Privacy Risks & Mitigations – Large Language Models (LLMs)”, redatto nell’ambito del programma “Support Pool of Experts” (SPE) e pubblicato nel marzo 2025 come contributo tecnico di supporto all’attività dell’EDPB. Il testo offre un quadro metodologico per l’identificazione, la valutazione e la mitigazione dei rischi privacy derivanti dall’uso degli LLM, rivolgendosi in particolare a sviluppatori, utilizzatori, valutatori di conformità e decisori istituzionali.

 ​  Read More

Leave a Comment