L'importanza di un'intelligenza artificiale spiegabile per rimuovere i pregiudizi nell'era di ChatGPT
Fin dalla nascita dell’Intelligenza Artificiale, la tecnologia è stata fonte di eccitazione intermittente, preoccupazione e, naturalmente, progresso in tutti i settori.
Da Skynet alle rivoluzionarie capacità diagnostiche nel settore sanitario, l'intelligenza artificiale ha il potere sia di catturare l'immaginazione che di promuovere l'innovazione.
Per il grande pubblico, le discussioni sull’intelligenza artificiale di solito si concentrano su stravaganti scenari apocalittici, preoccupazioni per i robot che ci rubano il lavoro o entusiasmo per come l’automazione possa accelerare un paradigma di lavoro e vita privata più equilibrato. Per la maggior parte, l’applicazione pratica e la comprensione dell’intelligenza artificiale sono state in gran parte nascoste alla vista, il che ha portato a malintesi a colmare il vuoto.
I casi d'uso più interessanti per l'intelligenza artificiale sono stati a lungo appannaggio di aziende, governi e giganti della tecnologia, ma tutto è cambiato con l'arrivo di ChatGPT di OpenAI. Questo è il primo esempio di un grande modello linguistico e delle sue capacità generative ampiamente disponibili per il consumo di massa.
Ha creato un parco giochi AI che è immediatamente, e a vari livelli, utile in molti contesti.
Il problema più evidente, tuttavia, e che esiste fin dagli albori dell’intelligenza artificiale, è il pregiudizio.
Negli ultimi tempi, i data scientist si sono impegnati alla ricerca di modi in cui rimuovere i bias dai modelli, con particolare pressione nei settori in cui i risultati dei modelli potrebbero influenzare negativamente i clienti e gli utenti finali.
Quando si tratta di servizi finanziari, ad esempio, gli algoritmi decisionali vengono utilizzati da molti anni per accelerare le decisioni e migliorare i servizi. Ma nel contesto dei prestiti, le decisioni “cattive” o “sbagliate” che sono il prodotto di un modello parziale possono avere conseguenze disastrose per gli individui.
L’eliminazione dei pregiudizi richiede una strategia su più fronti, dal garantire che i team di data science e machine learning siano rappresentativi delle comunità per cui stanno creando soluzioni – o almeno comprendano i principi dell’integrazione dell’equità nei modelli – al garantire che i modelli siano spiegabili.
La motivazione principale alla base dell'intelligenza artificiale spiegabile come migliore pratica è l'eliminazione dei modelli di apprendimento automatico a "scatola nera". Le scatole nere possono spesso essere altamente performanti, ma se i loro risultati non possono essere compresi, può esserci poca difesa concreta contro le accuse di inesattezza o discriminazione.
Nei settori in cui i modelli decisionali possono avere profonde conseguenze, la pressione per una maggiore responsabilità sta crescendo sia da parte dei consumatori che dei regolatori, motivo per cui, a mio avviso, le aziende devono cercare di anticipare la curva.
Le componenti chiave di un modello che necessitano di essere spiegate quando si considerano i bias vengono spesso trascurate. I data scientist e gli ingegneri del machine learning hanno una pipeline standard su cui lavorare durante la creazione di un modello. I dati sono, ovviamente, al centro di tutto, quindi iniziamo esplorando i nostri set di dati e identificando le relazioni tra loro.
Successivamente passiamo attraverso un'analisi esplorativa dei dati che ci consente di trasformare i dati in una forma utilizzabile. Quindi è il momento di discutere, pulire e pre-elaborare i dati prima di iniziare la generazione di funzionalità per creare descrizioni dei dati più utili per risolvere il problema in questione.
Quindi sperimentiamo diversi modelli, ottimizziamo parametri e iperparametri, convalidiamo i modelli e ripetiamo il ciclo finché non otteniamo una soluzione ad alte prestazioni. Il problema qui è che senza uno sforzo impegnato per garantire l’equità in ogni fase, i risultati risultanti potrebbero essere distorti.
Naturalmente, non possiamo mai garantire la completa eliminazione dei pregiudizi, ma possiamo impegnarci per garantire che ogni fase dello sviluppo di un modello sia conforme a una metodologia che dia priorità all'equità.
La mia raccomandazione per raggiungere questo obiettivo è quella di selezionare innanzitutto diversi set di dati per i modelli di formazione, vale a dire quelli che sono più rappresentativi, e anche di sviluppare processi e documentazione standardizzati che spieghino i modelli e il modo in cui si conformano alla metodologia, in modo che le prestazioni e le decisioni possano essere inteso.