Ogni cambiamento radicale porta con sé opportunità e rischi. Nel caso della transizione digitale questi ultimi sono associati alla reputazione, alla cyber security, ai pregiudizi generati da contenuti falsi, dalle cosiddette deep fake news. Inizia così la riflessione di Igor Marcolongo, Head of Business Evolution di InfoCert-Tinexta Group, l’azienda che in Italia offre soluzioni digitali a Pubblica amministrazione e cittadinanza per importanti innovazioni come lo SPID e la PEC, solo per citarne due. L’analisi di Marcolongo parte da alcuni casi di utilizzo dell’Intelligenza artificiale all’interno di ecosistemi digitali, in particolare nel settore dei servizi fiduciari digitali (digital trust), che sono quelli offerti da InfoCert. E poi mette a fuoco le condizioni che permettono un approccio sicuro e affidabile (“trustworthy”) all’IA.
“Un’applicazione abbastanza tipica dell’IA – esemplifica il manager – è quella a supporto delle tecniche di identificazione basate sul riconoscimento facciale (face-matching) di un potenziale nuovo interlocutore. Con le tecnologie evolute è possibile testare l’autenticità del documento e la coerenza tra viso reale e foto della carta d’identità”. Ci sono poi i casi di “AI generativa”, attraverso i quali è stato possibile lanciare soluzioni che assistono i clienti quando si trovano a interagire, per esempio, con i contact center. L’IA insomma semplifica la vita di imprese e privati, a maggior ragione quando le si chiede di sostituire il tradizionale “ufficio protocollo” o “ufficio posta” delle grandi imprese: l’applicazione è messa in grado di leggere, capire e classificare in autonomia il contenuto dei messaggi, e di smistarli alle persone giuste.
“Naturalmente – prosegue Marcolongo -, questi risultati si raggiungono solo se si lavora in squadre trasversali quanto alle competenze condivise: si va, infatti, dagli esperti di tecnologia al marketing e, soprattutto nel momento attuale, ai professionisti della conformità e il rispetto (compliance) del sistema regolatorio: ogni caso d’uso dell’Intelligenza Artificiale richiede di confrontarsi con il quadro (framework) normativo del Regolamento AI emanato dall’Unione Europea”. Quali sono dunque le insidie e le problematiche etiche? “Un approccio standard-lineare identico per tutti non è mai efficace perché al contrario, occorre agire a più livelli – spiega Marcolongo di InfoCert -. Tanto è vero che tra giuristi è in corso una serrata discussione. Dal mio punto di vista, posso sostenere che le tecnologie relative ai servizi fiduciari digitali (digital trust), che già oggi garantiscono veridicità e affidabilità alle singole transazioni, contribuiscono alla messa in campo di soluzioni IA connotate da un grado di fiducia sempre maggiore”.
Tuttavia, ai giorni nostri l’Intelligenza artificiale può diventare anche un alleato formidabile di chi vuole mistificare la realtà. “Dobbiamo agire – insiste l’ Head of Business Evolution di InfoCert-Tinexta Group – sulla responsabilizzazione dei soggetti che intervengono nella catena di addestramento, rendendoli sempre individuabili grazie all’identità digitale e ad un corretto sistema di registrazione e tracciamento (logging and tracking) delle operazioni, per poter attribuire il nesso di causa-effetto ai responsabili dei singoli progetti, resi immodificabili nel tempo”.