I sistemi di intelligenza artificiale come ChatGPT vengono sempre più impiegati in ambito giuridico – dai suggerimenti contrattuali alle rapide spiegazioni normative. Ma ciò solleva una questione fondamentale: le risposte dei Large Language Models (LLM) costituiscono consulenza legale? E, se sì, chi può davvero fornirla?
Consulenza legale: un’attività tutelata
In molte giurisdizioni – soprattutto in Germania e nell’UE – la consulenza legale è regolamentata. La legge tedesca Rechtsdienstleistungsgesetz (RDG) definisce i servizi legali così:
«Rechtsdienstleistung ist jede Tätigkeit in konkreten fremden Angelegenheiten, sobald sie eine rechtliche Prüfung des Einzelfalls erfordert.»
(§ 2 Abs. 1 RDG – citazione testuale)
In altre parole: quando qualcuno (o qualcosa) consiglia come applicare una norma a un caso concreto, si tratta di consulenza legale – e richiede l’abilitazione come avvocato.
E l’IA?
Gli LLM, come i sistemi basati su GPT, possono generare risposte che sembrano consulenza legale. Ma lo sono davvero secondo la legge? Dipende da vari fattori:
- Riferimento concreto: la risposta riguarda un caso specifico?
- Analisi giuridica: contiene un’interpretazione delle norme?
- Destinatari: la risposta supporta il lavoro legale interno — oppure è fornita pubblicamente a persone in cerca di consulenza legale?
- Contesto: viene usata in un setting di consulenza o come informazione generale?
Valutazione giuridica in Germania
Secondo molti giuristi, l’output dell’IA può rientrare nella definizione di servizio legale ex § 2 RDG, soprattutto se:
- fornisce raccomandazioni personalizzate («Lei dovrebbe…»),
- interpreta norme per un fatto concreto,
- manca la revisione di un professionista qualificato.
Offrire tali servizi IA a terzi senza autorizzazione può costituire una prestazione legale non autorizzata, soggetta a divieto (§ 3 RDG) e possibili sanzioni.
IA come strumento vs. IA come servizio
La distinzione chiave è:
- IA come strumento: usata internamente da avvocati. ✅ Lecita.
- IA come servizio: offerta al pubblico senza verifica legale umana. ❌ Potenzialmente illecita.
Esempio: un avvocato usa GPT per una bozza contrattuale e poi la rivede – ok. Un’app che consiglia i consumatori senza controllo umano – possibile violazione del RDG.
Prospettive internazionali
Negli Stati Uniti la situazione varia per Stato. Le norme sull’«Unauthorized Practice of Law» (UPL) si applicano in modo analogo: un’IA che fornisce consulenza legale può violare le norme UPL se non operata sotto supervisione legale. L’ABA e vari ordini statali hanno pubblicato pareri cautelativi.
Best practice: trasparenza e cautela
Chi usa o offre IA in ambito legale dovrebbe:
- inserire disclaimer chiari («Queste informazioni non costituiscono consulenza legale»);
- limitare l’output a informazioni giuridiche generali;
- fare esaminare le risposte da professionisti qualificati prima che i clienti vi si affidino;
- definire responsabilità – l’IA non risponde, voi sì.
Conclusione
Sì – gli LLM possono produrre contenuti che giuridicamente equivalgono a consulenza legale. Ma non hanno responsabilità né titolo per farlo. La responsabilità ricade su chi li utilizza – o ne trae profitto.
Posizione più sicura: l’IA può supportare il lavoro legale, ma non sostituire un professionista abilitato per indicazioni vincolanti. In caso di dubbio, trattare l’output dell’IA come informativo, non consulenziale.
Più la linea tra informazione e consulenza si fa sfumata, più diventa chiara la scelta strategica – per studi legali e provider di legal tech allo stesso modo: autoregolarsi – o essere regolati.
Letture e fonti consigliate
- IBA – Artificial Intelligence and legal services in Germany (PDF)
- ABA Formal Opinion 512 – Linee guida etiche sull’uso dell’IA generativa
- Reuters: Lawyers using AI must heed ethics rules
- Reuters: Seven Cs of ethical AI use by lawyers
Crediti immagine: Alexander Supertramp – Shutterstock