In occasione del XXXVI Congresso Nazionale Forense che si tiene a Torino dal 16 al 18 Ottobre 2025, l'Ordine degli avvocati di Torino ha pubblicato il brevIArio sull'Intelligenza Artificiale redatto dalla Commissione Intelligenza Artificiale dell'Ordine degli Avvocati di Torino L’intelligenza artificiale (IA) – locuzione suggestiva e da molti studiosi criticata che designa una eterogenea famiglia di tecnologie basate su complesse reti di calcolo e l’elaborazione di grandi moli di dati – riguarda ormai ogni ambito della vita quotidiana, finendo per incidere – in certi contesti e quantomeno potenzialmente – sui meccanismi stessi di comprensione della realtà. Appare ormai necessario, quindi, che ogni professionista sia consapevole e si interroghi opportunamente sulle conseguenze dell’introduzione dell’IA nella sua attività professionale quotidiana, nel tentativo di tracciare un sentiero virtuoso funzionale ad un uso responsabile e informato. L’IA deve essere sotto il controllo umano, sviluppata in modo equo (scongiurando il rischio di disuguaglianze e discriminazioni), trasparente e comprensibile. È indispensabile, in altre parole, che sia utilizzata per finalità costruttive e per supportare le capacità umane, non per sostituirle, favorire l’abuso e la violazione dei diritti e il dominio di pochi su molti. Del pari, è necessario comprendere che non tutto quello che è tecnicamente fattibile è – e deve essere automaticamente considerato – deontologicamente e giuridicamente accettabile. In questo contesto, il diritto è destinato a giocare un ruolo fondamentale non solo sul piano della normazione tecnica ma, a monte, sulla tutela e la salvaguardia di taluni diritti fondamentali che sono infatti divenuti tra i più rilevanti protagonisti del dibattito che ha accompagnato il lungo percorso consultivo/legislativo preliminare all’adozione del Regolamento (UE) 2024/1689 (Regolamento sull’intelligenza artificiale, anche conosciuto come “AI Act”, di seguito “Regolamento sull’IA”)1 e della Legge 23 settembre 2025, n. 132 (Disposizioni e deleghe al Governo in materia di IA di seguito “Legge sull’IA”)2 . Proprio al fine di mitigare i rischi associati all’uso dell’IA, anche il Regolamento sull’IA ha introdotto (seppur limitatamente ad alcuni ambiti) una apposita procedura di valutazione d’impatto dell’impiego dell’IA sui diritti fondamentali (FRIA - Fundamental rights impact assessment)3 e l’obbligo di evitare rischi sistemici (che, ai sensi dell’art. 2 n. 65 del Regolamento sull’IA, possono avere “un impatto significativo sul mercato dell’Unione a causa della sua portata o di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, che può propagarsi su larga scala lungo l’intera catena del valore”)4 .

