L’intelligenza artificiale è come un automa senza anima: potente, veloce, instancabile… ma cieca senza la guida di una mente umana. Questa visione, che riecheggia nell’immaginario dei grandi autori di fantascienza, descrive perfettamente la sfida del nostro tempo.
In un’epoca in cui le macchine imparano, scrivono, analizzano e suggeriscono, la vera intelligenza resta quella che sa porre le domande giuste, interpretare i segnali deboli, decidere con giudizio.
Ed è proprio qui che entra in gioco il concetto di “human in the loop”: un modello che mette l’essere umano al centro della rivoluzione digitale, non come spettatore passivo o semplice correttore di bozze generate da un algoritmo, ma come collaboratore attivo, interprete, decisore.
Nel modello “human in the loop”, un sistema basato su IA può generare suggerimenti, analizzare dati, proporre soluzioni o automatizzare attività. Tuttavia, è sempre l’essere umano che verifica, approva, corregge o decide se accettare o modificare quanto prodotto dalla macchina.
Il principio noto come “human in the loop” non è solo una linea guida operativa: è una visione culturale e strategica che mette la persona al centro, nonostante (o forse proprio grazie a) l’automazione. È un invito a non delegare ciecamente le decisioni all’algoritmo, ma a mantenere presidio, responsabilità e senso critico su ogni output generato dall’IA.
Come noto, infatti, i sistemi AI non sono immuni da errori, fra cui le cosiddette “allucinazioni”, situazioni in cui il sistema AI produce informazioni false o non verificate, presentandole con convinzione come fatti reali. A differenza degli errori casuali, queste “allucinazioni” emergono perché l’IA, basandosi su probabilità apprese dal testo, genera contenuti plausibili ma privi di fondamento reale.
Nel mondo della proprietà intellettuale – un ambito dove si intrecciano diritto, innovazione e strategia – l’adozione dell’intelligenza artificiale apre scenari entusiasmanti. Ma è chiaro che nessuna macchina, per quanto sofisticata, può sostituire la competenza, l’etica e la visione di chi questo mestiere lo vive ogni giorno con responsabilità.
Per citare soltanto un esempio di impiego, vantaggioso, di strumenti Ai secondo il sistema human in the loop, l’Ufficio brevetti Europeo (fonte: sito EPO. 08.04.2025, Minutes of oral proceedings to be prepared with the assistance of AI | epo.org) da Maggio adotterà strumenti per trascrivere i verbali di udienza con i mandatari (cosiddetti Oral Proceedings) e, da qualche tempo, impiega sistemi automatici per la classificazione delle domanda di brevetto, con l’attenta supervisione degli Esaminatori.
Inoltre, lo stesso ufficio europeo ha varato il sistema LIP (Legal Interactive Platform), piattaforma AI che consente agli addetti ai lavori, in linguaggio naturale, di ricercare sentenze, linee guida, etc etc in un modo estremamente veloce ed accurato.
In questo equilibrio tra automatizzazione e discernimento umano si gioca il futuro sostenibile dell’innovazione.
Nel cuore della rivoluzione tecnologica che stiamo vivendo, l’intelligenza artificiale ha già conquistato un ruolo centrale. Ma in questo scenario in cui le macchine diventano sempre più capaci, cresce anche la consapevolezza che il vero valore risieda ancora nell’essere umano.
Viviamo in un’epoca di accelerazione tecnologica senza precedenti, dove strumenti digitali e innovazioni si moltiplicano ogni giorno.
In questo contesto, la sfida principale per professionisti e imprese non è tanto possedere la tecnologia, quanto rimanere aggiornati e saperla usare in modo consapevole e creativo.
Il mercato oggi offre una vastissima gamma di software etichettati come “basati su IA”, ma nella realtà molti di questi non sono altro che interfacce personalizzate, costruite su modelli linguistici già esistenti come ChatGPT, Gemini o Bard. Si tratta di soluzioni verticali, utili certo, ma che non rappresentano vera innovazione autonoma.
L’intelligenza artificiale è estremamente abile nell’elaborare dati, trovare correlazioni, suggerire connessioni. Ma non ha intuizione, esperienza, sensibilità. Non conosce il contesto culturale di un’invenzione, non sa leggere tra le righe di un’espressione giuridica, né può intuire gli interessi strategici di un’impresa.
Per questo motivo, anche nei compiti dove l’IA eccelle — come la ricerca brevettuale o l’elaborazione di bozze di documenti — la supervisione umana è essenziale.
Non si tratta semplicemente di “controllare” l’IA: si tratta di collaborare con essa, di usare la sua forza come amplificatore delle nostre capacità, non come sostituto. L’IA può velocizzare, può suggerire, ma solo la persona può decidere cosa è corretto, cosa è rilevante, cosa è giusto.
Tutto questo implica un cambiamento profondo, anche nella formazione delle nuove generazioni di professionisti della proprietà intellettuale. Se vogliamo che il paradigma dell’“human in the loop” sia reale e sostenibile, è necessario formare esperti capaci di usare l’IA con competenza, senza mai perdere di vista il quadro più ampio.
Serve una doppia educazione: da una parte, un’alfabetizzazione solida sugli strumenti di intelligenza artificiale, sui loro limiti, sulle logiche che li governano. Dall’altra, una formazione culturale e giuridica profonda, che consenta di dare significato ai dati, di orientarsi nei meccanismi della protezione brevettuale, e soprattutto di esercitare giudizi critici.
Non basta imparare ad “usare un prompt”: serve comprendere perché si fa una certa scelta strategica, come si tutela davvero un’idea, e quali sono i confini dell’intervento umano nella creazione e nella difesa dell’innovazione.
Il rischio più grande oggi non è l’IA. Il vero pericolo è la deresponsabilizzazione, il credere che un sistema generativo possa sostituire il nostro ruolo, la nostra etica, il nostro intuito. Per evitarlo, bisogna costruire — fin dalla formazione universitaria e professionale — una cultura dell’attenzione, della verifica, dell’interpretazione.
È proprio in questo spazio tra tecnologia e umanità che può nascere il futuro della proprietà intellettuale. Un futuro in cui l’IA diventa alleata, ma mai giudice; collaboratrice, ma mai decisore.
Il paradigma dell’“human in the loop” ci ricorda che al centro del diritto, dell’innovazione e della tutela della creatività c’è e ci deve essere l’uomo.
Non per nostalgia, ma per necessità.
E il compito di oggi — per professionisti, formatori, istituzioni — è proprio questo: formare persone capaci di guidare l’IA, non di subirla. Perché la vera innovazione non è quella che ci sostituisce, ma quella che ci completa.