Se l’intelligenza artificiale sta prevedendo il tuo futuro, sei ancora libero?

Come leggi queste parole, ci sono probabilmente dozzine di algoritmi che fanno previsioni su di te. Probabilmente era un algoritmo che ha determinato che saresti stato esposto a questo articolo perché prevedeva che lo avresti letto. Le previsioni algoritmiche possono determinare se ottieni un prestito o un lavoro o an appartamento o assicurazione, e molto altro ancora.

Queste analisi predittive stanno conquistando sempre più sfere della vita. Eppure nessuno ti ha chiesto il permesso di fare previsioni del genere. Nessuna agenzia governativa li controlla. Nessuno ti informa sulle profezie che determinano il tuo destino. Ancora peggio, una ricerca nella letteratura accademica per l’etica della previsione mostra che si tratta di un campo di conoscenza inesplorato. Come società, non abbiamo pensato alle implicazioni etiche del fare previsioni sulle persone, esseri che dovrebbero essere infusi di libero arbitrio e libero arbitrio.

Sfidare le probabilità è al centro di ciò che significa essere umani. I nostri più grandi eroi sono quelli che hanno sfidato le loro probabilità: Abraham Lincoln, Mahatma Gandhi, Marie Curie, Hellen Keller, Rosa Parks, Nelson Mandela e oltre. Sono tutti riusciti selvaggiamente oltre le aspettative. Ogni insegnante di scuola conosce ragazzi che hanno ottenuto più di quanto indicato nelle loro carte. Oltre a migliorare la linea di base di tutti, vogliamo una società che permetta e stimoli azioni che sfidano le probabilità. Tuttavia, più usiamo l’intelligenza artificiale per classificare le persone, prevedere il loro futuro e trattarle di conseguenza, più restringiamo l’azione umana, il che a sua volta ci esporrà a rischi inesplorati.

Gli esseri umani hanno usa la predizione da prima dell’Oracolo di Delfi. Le guerre furono combattute sulla base di quelle previsioni. Nei decenni più recenti, la previsione è stata utilizzata per informare pratiche come la fissazione dei premi assicurativi. Quelle previsioni tendevano a riguardare grandi gruppi di persone, ad esempio quante persone su 100.000 si schianterebbero con la propria auto. Alcuni di questi individui sarebbero stati più attenti e fortunati di altri, ma i premi erano più o meno omogenei (ad eccezione di categorie ampie come i gruppi di età) nell’assunto che il raggruppamento dei rischi consente di compensare i costi più elevati dei meno attenti e fortunati con quelli relativamente più bassi spese degli attenti e fortunati. Più grande era il pool, più prevedibili e stabili erano i premi.

Oggi, la previsione viene eseguita principalmente attraverso algoritmi di apprendimento automatico che utilizzano le statistiche per riempire gli spazi vuoti dell’ignoto. Gli algoritmi di testo utilizzano enormi database linguistici per prevedere il finale più plausibile di una stringa di parole. Gli algoritmi di gioco utilizzano i dati dei giochi passati per prevedere la migliore mossa successiva possibile. E gli algoritmi applicati al comportamento umano utilizzano i dati storici per dedurre il nostro futuro: cosa compreremo, se stiamo pianificando di cambiare lavoro, se ci ammaleremo, se commetteremo un crimine o ci schianteremo il nostro macchina. In un tale modello, l’assicurazione non riguarda più la condivisione del rischio da grandi gruppi di persone. Piuttosto, le previsioni sono diventate individualizzate e stai pagando sempre più a modo tuo, in base ai tuoi punteggi di rischio personali, il che solleva una nuova serie di preoccupazioni etiche.

Una caratteristica importante delle previsioni è che non descrivono la realtà. Le previsioni riguardano il futuro, non il presente, e il futuro è qualcosa che deve ancora diventare reale. Una previsione è un’ipotesi e in essa sono incorporati tutti i tipi di valutazioni soggettive e distorsioni riguardanti il ​​rischio e i valori. Ci possono essere previsioni più o meno accurate, certo, ma il rapporto tra probabilità e realtà è molto più tenue ed eticamente problematico di quanto alcuni suppongano.

Le istituzioni odierne, tuttavia, spesso cercano di spacciare le previsioni come se fossero un modello della realtà oggettiva. E anche quando le previsioni dell’IA sono puramente probabilistiche, nella pratica vengono spesso interpretate come deterministiche, in parte perché gli esseri umani non riescono a capire la probabilità e in parte perché gli incentivi per evitare il rischio finiscono per rafforzare la previsione. (Ad esempio, se si prevede che qualcuno abbia il 75% di probabilità di essere un cattivo dipendente, le aziende non vorranno correre il rischio di assumerlo quando hanno candidati con un punteggio di rischio inferiore).

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.