Argomenti trattati
Negli ultimi anni, si è registrato un aumento significativo dell’uso dell’intelligenza artificiale nei progetti di sviluppo. Tuttavia, nonostante le potenzialità di questa tecnologia, molti progetti hanno subito insuccessi. Questo non avviene per mancanza di innovazione, ma per una comprensione insufficiente dell’applicazione dell’AI in contesti reali. Recentemente, il People-Centered AI Playbook di Dalberg Data Insights ha fornito un quadro utile per affrontare queste problematiche.
La questione della fiducia nei dati
Uno degli ostacoli principali nell’implementazione dell’AI è la fiducia nei dati utilizzati. Ad esempio, quando Dun & Bradstreet ha tentato di integrare l’AI nei suoi processi analitici, ha incontrato difficoltà riguardanti la trasparenza e la tracciabilità dei dati. Il loro Data Universal Numbering System, simile a un numero di previdenza sociale per le aziende, richiedeva un alto grado di fiducia, poiché già utilizzato in processi critici da oltre 200.000 clienti, inclusi i leader del Fortune 500.
Costruire un quadro di resilienza dei dati
Per affrontare le sfide legate alla fiducia, Dun & Bradstreet ha implementato un sistema multilivello di resilienza dei dati. Questo include pratiche di backup coerenti, controlli di versione dei modelli e monitoraggio dell’integrità per rilevare anomalie. La loro esperienza dimostra che, mentre le aziende si affrettano a implementare l’AI, spesso trascurano la base necessaria per garantire risultati affidabili.
Le sfide della governance dei dati
Un altro aspetto fondamentale è la governance dei dati. Nonostante la consapevolezza che l’AI richiede dati di alta qualità, molte organizzazioni si ritrovano a gestire dati mal governati. Secondo uno studio condotto da TheCUBE Research, solo il 12% delle aziende afferma di poter ripristinare completamente i propri dati dopo un attacco informatico, evidenziando lacune significative nella protezione dei dati.
Le conseguenze della scarsa protezione
Le lacune nella resilienza dei dati possono amplificare i problemi man mano che l’AI diventa sempre più integrata nelle operazioni quotidiane. I modelli di AI, a differenza del software tradizionale, possono propagare errori attraverso le loro reti, rendendo difficile identificare se l’errore derivi dai dati o dal sistema stesso. Questo solleva interrogativi sul modo in cui vengono prese le decisioni e sulla loro validità, creando un ciclo di sfiducia.
Strategie per una migliore integrazione dell’AI
Per implementare con successo l’AI nei progetti di sviluppo, le organizzazioni devono adottare una nuova mentalità orientata alla resilienza e non solo alla conformità. La differenza tra rispettare i requisiti normativi e garantire l’efficacia operativa è cruciale. La resilienza implica la capacità di mantenere l’integrità dei dati e di ripristinare le operazioni aziendali in caso di interruzioni.
Un approccio proattivo alla sicurezza informatica
Le aziende devono superare la visione tradizionale della sicurezza informatica, che si concentra principalmente sulla prevenzione delle intrusioni. Le interruzioni sono inevitabili e le organizzazioni devono prepararsi a gestire i danni, migliorando le loro pratiche di recupero dati e adottando strategie per limitare l’impatto delle violazioni.
Il successo dei progetti di sviluppo non dipende esclusivamente dalla tecnologia, ma richiede un approccio olistico che mette in primo piano la fiducia e la governance dei dati. Attraverso pratiche migliori e un focus sull’umanità, si può garantire che l’AI diventi un alleato potente e affidabile nei progetti di sviluppo.

