Negli ultimi mesi si parla ovunque di AI Act.
Se ne parla nei convegni, nei webinar, nei post LinkedIn. Spesso con toni allarmistici, a volte tecnici, quasi sempre poco concreti.
Eppure, per chi lavora davvero in uno studio o in azienda, la domanda resta sempre la stessa:
cosa cambia, operativamente, nel lavoro di tutti i giorni?
Perché il punto non è capire la norma.
Il punto è capire come questa norma entra – silenziosamente – dentro le attività quotidiane.
La prima cosa da chiarire è che l’intelligenza artificiale non è un blocco unico. Non è uno strumento “buono” o “cattivo” in senso assoluto.
È già entrata nello studio, spesso senza chiedere permesso.
Un messaggio riscritto più velocemente.
Un documento riassunto in pochi secondi.
Una risposta abbozzata partendo da un prompt.
Non serve aver fatto un progetto strutturato di innovazione: in molti casi l’AI è già parte del flusso di lavoro, solo che non è stata formalizzata.
Ed è qui che nasce il primo problema.
Perché l’AI Act non si concentra tanto sull’esistenza dello strumento, ma sul modo in cui viene utilizzato. Non ti chiede se la usi. Ti chiede se la stai usando in modo consapevole.
E oggi, nella maggior parte degli studi, la risposta onesta sarebbe no.
Quello che si vede più spesso è un utilizzo spontaneo, quasi invisibile.
Ognuno usa gli strumenti che trova utili, nel modo che ritiene più veloce.
Non c’è cattiva intenzione, anzi. C’è efficienza. C’è voglia di semplificare.
Ma manca una cosa fondamentale: il controllo.
Dati inseriti senza una reale valutazione.
Output utilizzati senza una verifica strutturata.
Nessuna distinzione tra ciò che è “sicuro” e ciò che è “delicato”.
Finché tutto funziona, il problema non si percepisce.
Ma il rischio non nasce quando qualcosa va storto. Nasce molto prima, nel momento in cui si perde il presidio del processo.
È qui che l’AI Act cambia davvero la prospettiva.
Non introduce solo regole. Introduce un cambio di mentalità.
Per anni, il valore di uno studio professionale è stato legato alla conoscenza normativa. Sapere cosa fare, quando farlo, come applicare una regola nel contesto giusto.
Oggi questa competenza resta centrale, ma non è più sufficiente.
Si aggiunge un nuovo livello:
saper governare gli strumenti che producono informazioni.
Perché se una risposta nasce da un sistema di intelligenza artificiale, il punto non è solo se è corretta. È capire da dove arriva, come è stata generata, e soprattutto se può essere utilizzata in quel contesto.
Ed è proprio su questo che molti studi stanno sottovalutando il cambiamento.
Non serve trasformarsi in esperti di compliance o scrivere documenti complessi. Ma diventa necessario, almeno, rendere esplicite alcune scelte.
Capire dove l’intelligenza artificiale è già presente.
Stabilire cosa può essere condiviso e cosa no.
Introdurre un passaggio di verifica umana quando l’impatto è rilevante.
Non è burocrazia. È consapevolezza operativa.
C’è poi un altro aspetto che viene spesso trascurato: il rischio reale.
Quando si parla di normativa, si pensa subito alle sanzioni. È una reazione naturale.
Ma nel caso dell’intelligenza artificiale, il rischio più concreto è molto più immediato.
È prendere una decisione sbagliata partendo da un’informazione apparentemente corretta.
È fidarsi troppo di un output ben scritto ma non verificato.
È inserire un dato sensibile in un sistema senza sapere davvero come verrà gestito.
Questi non sono scenari teorici. Sono situazioni che possono verificarsi ogni giorno, senza fare rumore.
E per uno studio professionale, le conseguenze non sono solo tecniche. Sono reputazionali. Sono relazionali. Sono economiche.
Per questo l’AI Act, al di là della norma, va letto come un segnale.
Non sta dicendo “fermati”.
Sta dicendo “diventa consapevole”.
L’intelligenza artificiale non sostituisce il commercialista.
Ma cambia profondamente il modo in cui il suo lavoro viene svolto.
E in questo momento la vera differenza non la fa chi usa più strumenti.
La fa chi li usa meglio.
La domanda, quindi, non è se adeguarsi o meno.
Quello accadrà, in un modo o nell’altro.
La domanda vera è un’altra:
nel tuo studio l’intelligenza artificiale è sotto controllo…
oppure è già parte dei processi senza che nessuno se ne sia accorto davvero?

Commenti
Posta un commento