L’intelligenza artificiale parla con sicurezza – ma offre davvero consulenza legale o è solo una buona imitazione?

Legal Tech o Legal Trap: le risposte dell’IA sono consulenza legale?

11 Jul 2025 in
LegalTech

I sistemi di intelligenza artificiale come ChatGPT vengono sempre più impiegati in ambito giuridico – dai suggerimenti contrattuali alle rapide spiegazioni normative. Ma ciò solleva una questione fondamentale: le risposte dei Large Language Models (LLM) costituiscono consulenza legale? E, se sì, chi può davvero fornirla?

Consulenza legale: un’attività tutelata

In molte giurisdizioni – soprattutto in Germania e nell’UE – la consulenza legale è regolamentata. La legge tedesca Rechtsdienstleistungsgesetz (RDG) definisce i servizi legali così:

«Rechtsdienstleistung ist jede Tätigkeit in konkreten fremden Angelegenheiten, sobald sie eine rechtliche Prüfung des Einzelfalls erfordert.»
(§ 2 Abs. 1 RDG – citazione testuale)

In altre parole: quando qualcuno (o qualcosa) consiglia come applicare una norma a un caso concreto, si tratta di consulenza legale – e richiede l’abilitazione come avvocato.

E l’IA?

Gli LLM, come i sistemi basati su GPT, possono generare risposte che sembrano consulenza legale. Ma lo sono davvero secondo la legge? Dipende da vari fattori:

  • Riferimento concreto: la risposta riguarda un caso specifico?
  • Analisi giuridica: contiene un’interpretazione delle norme?
  • Destinatari: la risposta supporta il lavoro legale interno — oppure è fornita pubblicamente a persone in cerca di consulenza legale?
  • Contesto: viene usata in un setting di consulenza o come informazione generale?

Valutazione giuridica in Germania

Secondo molti giuristi, l’output dell’IA può rientrare nella definizione di servizio legale ex § 2 RDG, soprattutto se:

  • fornisce raccomandazioni personalizzate («Lei dovrebbe…»),
  • interpreta norme per un fatto concreto,
  • manca la revisione di un professionista qualificato.

Offrire tali servizi IA a terzi senza autorizzazione può costituire una prestazione legale non autorizzata, soggetta a divieto (§ 3 RDG) e possibili sanzioni.

IA come strumento vs. IA come servizio

La distinzione chiave è:

  • IA come strumento: usata internamente da avvocati. ✅ Lecita.
  • IA come servizio: offerta al pubblico senza verifica legale umana. ❌ Potenzialmente illecita.

Esempio: un avvocato usa GPT per una bozza contrattuale e poi la rivede – ok. Un’app che consiglia i consumatori senza controllo umano – possibile violazione del RDG.

Prospettive internazionali

Negli Stati Uniti la situazione varia per Stato. Le norme sull’«Unauthorized Practice of Law» (UPL) si applicano in modo analogo: un’IA che fornisce consulenza legale può violare le norme UPL se non operata sotto supervisione legale. L’ABA e vari ordini statali hanno pubblicato pareri cautelativi.

Best practice: trasparenza e cautela

Chi usa o offre IA in ambito legale dovrebbe:

  • inserire disclaimer chiari («Queste informazioni non costituiscono consulenza legale»);
  • limitare l’output a informazioni giuridiche generali;
  • fare esaminare le risposte da professionisti qualificati prima che i clienti vi si affidino;
  • definire responsabilità – l’IA non risponde, voi sì.

Conclusione

Sì – gli LLM possono produrre contenuti che giuridicamente equivalgono a consulenza legale. Ma non hanno responsabilità né titolo per farlo. La responsabilità ricade su chi li utilizza – o ne trae profitto.

Posizione più sicura: l’IA può supportare il lavoro legale, ma non sostituire un professionista abilitato per indicazioni vincolanti. In caso di dubbio, trattare l’output dell’IA come informativo, non consulenziale.

Più la linea tra informazione e consulenza si fa sfumata, più diventa chiara la scelta strategica – per studi legali e provider di legal tech allo stesso modo: autoregolarsi – o essere regolati.

Letture e fonti consigliate

Crediti immagine: Alexander Supertramp – Shutterstock

Nota: Questo articolo è basato su una traduzione automatica dell'originale in lingua inglese. Sono possibili discrepanze linguistiche.