Solvency II: necessari dati appropriati, completi e accurati
La scarsa qualità delle informazioni è il principale ostacolo al miglioramento dei rischi da parte delle compagnie. Ecco perché la funzione attuariale diventa protagonista nel processo di adeguamento alla Direttiva
09/03/2012
Garantire la data quality è essenziale per poter effettuare valutazioni corrette, efficaci ed efficienti. Esattamente quanto richiesto dalla nuova normativa Solvency II, alla quale le imprese sono tenute ad adeguarsi tempestivamente, che stabilisce severi requisiti sulla qualità del dato. Non si tratta solo di un aspetto tecnologico, ma di un prerequisito fondamentale in ogni processo di elaborazione delle informazioni. Questo il tema cardine affrontato dai principali esperti della materia nel corso di un confronto sul tema Data Quality e Solvency II: l'impatto dell'identificazione, acquisizione e validazione dei dati" organizzato dal Mib School of Management di Trieste.
Innanzitutto chiariamo che, in questo contesto, per dato si intende l'informazione utilizzata nelle tecniche attuariali e statistiche per calcolare le riserve tecniche, e che deve rispondere a tre criteri: appropriatezza, completezza e accuratezza. Una ricerca effettuata nel 2009, mostrava come proprio la scarsa qualità dei dati fosse il principale ostacolo al miglioramento della gestione dei rischi da parte delle imprese. "Solvency II è la prima normativa a stabilire severi requisiti sulla qualità del dato perché è del tutto inutile - ha spiegato Massimiliano Neri, Associate director di Moody's analytics - adottare modelli interni sofisticati se questi non vengono alimentati con dati di alta qualità". Le compagnie italiane però non sembrano ancora preparate ad adempiere ai requisiti richiesti dalla nuova normativa. Questo secondo Neri è imputabile a tre fattori, in primis "la funzione attuariale applica spesso l'expert judgement ai dati a disposizione per calcolare il best estimate. Inoltre alcune compagnie hanno accumulato dati storici, anche per decenni, spesso ai fini dell'operatività quotidiana piuttosto che per il calcolo delle riserve tecniche. Infine, i sistemi IT delle compagnie sono spesso obsoleti e appartenenti a dipartimenti diversi, con conseguente duplicazione dei dati e una certa incoerenza nei valori".
Il problema è che se non riusciamo ad essere certi dell'accuratezza, della completezza e dell'adeguatezza dei dati non è possibile essere sicuri delle informazioni che derivano dai modelli utilizzati nelle scelte di business. Questo aspetto è stato messo in luce da Ylenia Cavallo, Risk Manager di Allianz Italia, che ha anche sottolineato: "poiché sono molti i processi aziendali che forniscono dati poi utilizzati all'interno del modello adottato dalla compagnia, i requisiti di qualità vanno applicati non solo a tutti i dati utilizzati nel modello interno, ma anche a quelli adoperati nella gestione e nello sviluppo delle scelte di business".
Un metodo tattico o strategico?
La gestione del dato diventa anche una questione di responsabilità, "per questo motivo - aggiunge Cavallo - non pensiamo a un unico responsabile della qualità del dato, ma piuttosto a una staffetta dove il testimone è il dato che viene passato in diverse mani che diventano responsabili dal momento in cui lo ricevono in consegna fino a quando lo passano ad altri".
Massimo Paltrinieri - Director Group ICT Coordinator di Assicurazioni Generali - ha aggiunto che "l'Information Technology è un fattore essenziale per ciascuno dei tre pilastri di Solvency II e per qualsiasi approccio adottato. La compagnia può infatti scegliere tra un metodo tattico o uno strategico. Sono due strade diverse che richiedono atteggiamenti differenti, dove la scelta di indirizzo strategico può comportare dei miglioramenti che si consolidano nel tempo".
Il data quality non costituisce una novità nel panorama aziendale, ma come sostenuto da Stefano Bellandi, Partner di Ernst & Young: "Il management di alcune compagnie sta sottostimando i rischi e le problematiche connesse alla non corretta gestione della qualità del dato". E in avvicinamento a Solvency II ha avvertito in merito al fatto che "la normativa definisce le linee guida, ma lo sviluppo dei dettagli spetta ai singoli operatori. Ritenere esaustivi i modelli dati esistenti è un errore strategico". Ancora, ha rilevato Bellandi, bisogna stare attenti "a sottostimare le elaborazioni manuali degli utenti, a optare per scenari di "quick wins"per costi e tempi di realizzo, e anche ad esternalizzare competenze e sistemi a supporto. La responsabilità della data quality non è infatti gestibile in outsourcing presso fornitori esterni".
La soluzione proposta da Bellandi "si basa su un framework di riferimento che include expertise, benchmark e specifici asset (modelli dati, sistemi di reporting,ecc.) fortemente adattabili alle diverse necessità". Ogni compagnia, con la sua storia e le sue specificità, deve compiere un percorso in tre fasi: "definizione di un modello organizzativo e dei ruoli e delle responsabilità dei diversi attori della compagnia; definizione dei processi di data quality management sulla base dell'architettura target; ottimizzazione delle scelte e degli investimenti applicativi e tecnologici".
Nella babele dei profondi cambiamenti introdotti da Solvency II una certezza è che in materia di data quality e gestione dei rischi la funzione attuariale diviene protagonista centrale. "L'attuario - ha sostenuto Alberto Lonza, dello studio attuariale Visintin & Associati - non deve diventare un collo di bottiglia alla fluidità dei processi. La funzione attuariale e quella di risk management dovrebbero essere consultate in fase di ideazione e organizzazione dei processi operativi di business che alimentano i database gestionali della compagnia".
Infine, per quanto concerne la funzione di internal audit la principale novità - ha spiegato Alessandro Busetti, Responsabile revisione interna di Generali - è "l'allargamento del perimetro dei processi che potranno essere sottoposti ad audit che includeranno, ad esempio: data quality management process, Orsa process, internal model validation process. La normativa avrà anche impatti organizzativi, in particolare, gli IT auditor dovranno effettuare interventi di audit sul data quality management finalizzati alla verifica del rispetto di completezza, accuratezza e appropriatezza dei dati".
Innanzitutto chiariamo che, in questo contesto, per dato si intende l'informazione utilizzata nelle tecniche attuariali e statistiche per calcolare le riserve tecniche, e che deve rispondere a tre criteri: appropriatezza, completezza e accuratezza. Una ricerca effettuata nel 2009, mostrava come proprio la scarsa qualità dei dati fosse il principale ostacolo al miglioramento della gestione dei rischi da parte delle imprese. "Solvency II è la prima normativa a stabilire severi requisiti sulla qualità del dato perché è del tutto inutile - ha spiegato Massimiliano Neri, Associate director di Moody's analytics - adottare modelli interni sofisticati se questi non vengono alimentati con dati di alta qualità". Le compagnie italiane però non sembrano ancora preparate ad adempiere ai requisiti richiesti dalla nuova normativa. Questo secondo Neri è imputabile a tre fattori, in primis "la funzione attuariale applica spesso l'expert judgement ai dati a disposizione per calcolare il best estimate. Inoltre alcune compagnie hanno accumulato dati storici, anche per decenni, spesso ai fini dell'operatività quotidiana piuttosto che per il calcolo delle riserve tecniche. Infine, i sistemi IT delle compagnie sono spesso obsoleti e appartenenti a dipartimenti diversi, con conseguente duplicazione dei dati e una certa incoerenza nei valori".
Il problema è che se non riusciamo ad essere certi dell'accuratezza, della completezza e dell'adeguatezza dei dati non è possibile essere sicuri delle informazioni che derivano dai modelli utilizzati nelle scelte di business. Questo aspetto è stato messo in luce da Ylenia Cavallo, Risk Manager di Allianz Italia, che ha anche sottolineato: "poiché sono molti i processi aziendali che forniscono dati poi utilizzati all'interno del modello adottato dalla compagnia, i requisiti di qualità vanno applicati non solo a tutti i dati utilizzati nel modello interno, ma anche a quelli adoperati nella gestione e nello sviluppo delle scelte di business".
Un metodo tattico o strategico?
La gestione del dato diventa anche una questione di responsabilità, "per questo motivo - aggiunge Cavallo - non pensiamo a un unico responsabile della qualità del dato, ma piuttosto a una staffetta dove il testimone è il dato che viene passato in diverse mani che diventano responsabili dal momento in cui lo ricevono in consegna fino a quando lo passano ad altri".
Massimo Paltrinieri - Director Group ICT Coordinator di Assicurazioni Generali - ha aggiunto che "l'Information Technology è un fattore essenziale per ciascuno dei tre pilastri di Solvency II e per qualsiasi approccio adottato. La compagnia può infatti scegliere tra un metodo tattico o uno strategico. Sono due strade diverse che richiedono atteggiamenti differenti, dove la scelta di indirizzo strategico può comportare dei miglioramenti che si consolidano nel tempo".
Il data quality non costituisce una novità nel panorama aziendale, ma come sostenuto da Stefano Bellandi, Partner di Ernst & Young: "Il management di alcune compagnie sta sottostimando i rischi e le problematiche connesse alla non corretta gestione della qualità del dato". E in avvicinamento a Solvency II ha avvertito in merito al fatto che "la normativa definisce le linee guida, ma lo sviluppo dei dettagli spetta ai singoli operatori. Ritenere esaustivi i modelli dati esistenti è un errore strategico". Ancora, ha rilevato Bellandi, bisogna stare attenti "a sottostimare le elaborazioni manuali degli utenti, a optare per scenari di "quick wins"per costi e tempi di realizzo, e anche ad esternalizzare competenze e sistemi a supporto. La responsabilità della data quality non è infatti gestibile in outsourcing presso fornitori esterni".
La soluzione proposta da Bellandi "si basa su un framework di riferimento che include expertise, benchmark e specifici asset (modelli dati, sistemi di reporting,ecc.) fortemente adattabili alle diverse necessità". Ogni compagnia, con la sua storia e le sue specificità, deve compiere un percorso in tre fasi: "definizione di un modello organizzativo e dei ruoli e delle responsabilità dei diversi attori della compagnia; definizione dei processi di data quality management sulla base dell'architettura target; ottimizzazione delle scelte e degli investimenti applicativi e tecnologici".
Nella babele dei profondi cambiamenti introdotti da Solvency II una certezza è che in materia di data quality e gestione dei rischi la funzione attuariale diviene protagonista centrale. "L'attuario - ha sostenuto Alberto Lonza, dello studio attuariale Visintin & Associati - non deve diventare un collo di bottiglia alla fluidità dei processi. La funzione attuariale e quella di risk management dovrebbero essere consultate in fase di ideazione e organizzazione dei processi operativi di business che alimentano i database gestionali della compagnia".
Infine, per quanto concerne la funzione di internal audit la principale novità - ha spiegato Alessandro Busetti, Responsabile revisione interna di Generali - è "l'allargamento del perimetro dei processi che potranno essere sottoposti ad audit che includeranno, ad esempio: data quality management process, Orsa process, internal model validation process. La normativa avrà anche impatti organizzativi, in particolare, gli IT auditor dovranno effettuare interventi di audit sul data quality management finalizzati alla verifica del rispetto di completezza, accuratezza e appropriatezza dei dati".
© RIPRODUZIONE RISERVATA
👥