I broker studiano gli impatti dell’intelligenza artificiale
Si iniziano a vedere i vantaggi che l’AI sta portando nel settore assicurativo, ma oltre alle opportunità il settore si trova anche a valutare attentamente le implicazioni etiche e di sostenibilità: un tema complesso a cui Aiba ha dedicato il suo convegno annuale
11/04/2024
Non possiamo ancora immaginare con nitidezza la portata dell’impatto che l’intelligenza artificiale avrà sulle nostre vite e sul nostro lavoro. Possiamo però dire con certezza che siamo entrati in una rivoluzione autentica, e che nulla sarà come prima. Nel settore assicurativo l’impiego dell’AI è agli inizi, ma già si intravedono i segni del cambiamento portato dalla sua introduzione. E i broker sono certamente tra gli attori del mercato che possono osservare i quotidiani progressi di questa rivoluzione. Per questo motivo Aiba ha dedicato proprio all’intelligenza artificiale il suo convegno annuale, svoltosi a Roma, dal titolo L’evoluzione del broker nell’era dell’AI: potenzialità, etica, e sviluppo sostenibile.
“Quella dell’intelligenza artificiale – ha spiegato in apertura il presidente di Aiba, Flavio Sestilli – è una rivoluzione che si sta sviluppando intorno all’enorme capacità di generare dati: ampia i nostri orizzonti ma è importante anche tenere al centro le relazioni umane”.
Un impatto economico più alto del Pil italiano
Sestilli ha citato uno studio di McKinsey secondo cui l’AI generativa produrrà sull’economia mondiale un impatto stimato tra il 2,6 e i 4,4 migliaia di miliardi di dollari all’anno (molto più del Pil italiano). Un secondo studio menzionato dal presidente di Aiba è quello del Politecnico di Milano, che ha calcolato come il mercato dell’intelligenza artificiale sia cresciuto del 52% nel 2023, con sei grandi imprese italiane su dieci che hanno già avviato almeno un progetto di sviluppo in tale direzione.
Secondo Sestilli, l’intelligenza artificiale “permetterà di sofisticare e personalizzare l’offerta come mai accaduto prima, se non con impegno di tempo e mezzi molto importante e oneroso”. Inoltre sarà possibile analizzare le immagini satellitari e valutare lo stato di manutenzione del tetto di un immobile, oppure calcolare la frequenza specifica locale di eventi climatici avversi o la concentrazione di rischio in una determinata località.
Tuttavia, anche nel settore assicurativo e dell’intermediazione, ha aggiunto Sestilli, “occorre considerare diverse potenziali implicazioni, in particolare la gestione dei dati personali, le ricadute etiche ma più di tutto il rischio di non correttezza delle informazioni. Dobbiamo cercare di essere più che sicuri che tutto ciò che l’AI elabora, sia corretto. I controlli dovranno essere stringenti e ferrei”.
Le regole per l’AI
Proprio per inquadrare il quadro regolamentare attorno all’intelligenza artificiale è stato inviato a intervenire il consigliere di Ivass, Riccardo Cesari, che ha fatto il punto sugli impatti di natura normativa intorno all’AI. “Una tecnologia capace da sola di imparare e di decidere con auto-apprendimento e auto-adattamento in tutti i settori sociali – ha spiegato – richiede un’esplicita regolamentazione armonizzata e trasversale, come quella contenuta nell’AI Act, appena approvato dal Parlamento Europeo lo scorso 13 marzo”.
In sintesi, l’AI Act afferma che i sistemi di AI devono rispettare diritti e valori della Ue: sicurezza, privacy, trasparenza, non discriminazione, sostenibilità sociale e ambientale. Secondo Cesari, è stato evitato il rischio di includere nell’AI tutti i modelli statistici attuariali da tempo in uso in assicurazione: “la regolamentazione europea – ha detto – circoscrive l’AI ai sistemi che siano congiuntamente generativi (di previsioni, raccomandazioni, decisioni) e autonomi”.
Cesari ha quindi evidenziato che in campo assicurativo i sistemi per la valutazione dei rischi e la determinazione dei prezzi su vita e salute “sono considerati ad alto rischio” e saranno sottoposti a oneri di trasparenza (come l’scrizione in un registro pubblico europeo), di valutazione di conformità e d’impatto sui diritti fondamentali, di verifiche e monitoraggio post vendita. “Ci sarà bisogno, credo, di molta intelligenza naturale per un risultato pienamente soddisfacente”, ha osservato.
Lavorare con precisione per gestire il cambiamento
Anche per le compagnie “il ruolo dell’intelligenza artificiale deve essere a supporto le persone e non in loro sostituzione”, ha ribadito nel suo intervento la presidente di Ania, Maria Bianca Farina, la quale ha ricordato “la crescita esponenziale degli investimenti in questo settore e dei valori di Borsa. Ci sono pochi dubbi – ha aggiunto – sul fatto che l’AI continuerà a progredire rapidamente. Secondo il 70% dei ceo globali l’AI generativa cambierà il modo in cui l’impresa genera valore”. L’industria dei servizi finanziari è una delle più coinvolte da questo cambiamento. “Il 43% delle compagnie ha già implementato all’interno dei propri l’uso dell’AI, e gli investimenti in questo settore in Italia sono saliti a quasi un miliardo nel 2023”, ha ricordato. Farina ha poi sottolineato l’aspetto della customer experience come uno degli ambiti in cui l’AI può offrire un prezioso contributo all’assicurazione. “Non dobbiamo approcciare con paura quello che è nuovo. L’era dell’AI è già in campo: sta a noi garantire che porti prosperità per tutti”.
I pregiudizi degli algoritmi
Parallelamente alle opportunità, tuttavia, durante il convegno di Aiba è anche sottolineato come sia necessaria un’attenta valutazione dei rischi e delle implicazioni connesse con questa tecnologia. Di questo ha parlato nello specifico, nel suo keynote speech, la professoressa Tiziana Catarci, direttrice del dipartimento di Ingegneria informatica, automatica e gestionale “A. Ruberti” presso l’università La Sapienza di Roma. “I sistemi di apprendimento automatico – ha detto – si basano su dati creati dagli esseri umani. Ciò significa che qualsiasi pregiudizio, conscio o inconscio, in loro è incorporato negli algoritmi e a volte anche amplificato. Gli algoritmi, in altre parole, anche se neutri, riproducono e aumentano le disuguaglianze o la discriminazione esistenti: di genere, di etnia, culturali, sociali”.
Come fidarsi, dunque, della tecnologia? Secondo Catarci, sono fondamentali consapevolezza e formazione. “Insieme alle competenze digitali, è necessario sviluppare gli strumenti cognitivi per discernere l’informazione attendibile e analizzarla in modo critico e responsabile”. Chiave in questa direzione è il contributo delle discipline classiche (come logica, filosofia, matematica, storia e latino) così come il pensiero critico (etica e morale).
L'introduzione di un quadro normativo riferito all’intelligenza artificiale, secondo la professoressa, è certamente un passo necessario. “Quando sono state inventate le automobili, ad esempio, sono state definite anche le regole del traffico, oltre a strisce pedonali, semafori, airbag, eccetera. Molte iniziative utili – ha concluso – mirano a introdurre la visione etica, e incentrata sull’essere umano, dell'IA”.
Una riflessione condivisa
Questi spunti di riflessione sono stati poi approfonditi in una tavola rotonda a cui hanno partecipato Fausto Parente, executive director di Eiopa, Umberto Guidoni, co-direttore generale di Ania, Lorenzo Maternini, co-founder e vice presidente di Talent Garden, oltre al padrone di casa, Sestilli.
L’AI, ha osservato Guidoni, è uno strumento che per le compagnie può agevolare molto l’attività antifrode e il processo di liquidazione del sinistro. “Diverso è tutto ciò che attiene alla costruzione di un prodotto assicurativo, che deve contenere aspetti che inglobino il sentimento umano. Il concetto di rischio – ha detto Guidoni – deve essere definibile in virtù degli aspetti razionali e irrazionali di chi lo percepisce. Ed è quella la componente da tenere in considerazione, e che non è standardizzabile in ciò che fa una macchina”. Parente (che ha accennato al progetto di Eiopa di impiegare l’AI nell’approfondire tutti i Kid dei prodotti vita) ha messo l’accento sulle “potenzialità enormi dell’impiego dell’AI anche nella personalizzazione dei prodotti”, avvertendo però che “esasperarne l’utilizzo, anche a causa dei bias di partenza di cui accennava la prof Catarci, è un punto di grande attenzione su cui occorrerà lavorare”.
Il ruolo della componente umana è stato sottolineato anche da Maternini, che ha ricordato come “senza l’intervento umano la comprensione dei modelli predittivi è difficile”. La normativa, ha aggiunto, si trova a rincorrere qualcosa che avanza in modo rapidissimo, e che è in continua evoluzione, per cui “il rischio è di normare qualcosa che nel frattempo è radicalmente cambiato”.
© RIPRODUZIONE RISERVATA