Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

L'algoritmo (quasi) onnipotente e il fattore umano

L'algoritmo (quasi) onnipotente e il fattore umano

Gestiscono, mediano, decidono e aiutano a decidere anche come combattere le pandemie, ma le IA non sono infallibili. Hanno ancora bisogno di noi

08 maggio 2020, 21:41

Redazione ANSA

ANSACheck

Giovanni Boccia Artieri - RIPRODUZIONE RISERVATA

Giovanni Boccia Artieri - RIPRODUZIONE RISERVATA
Giovanni Boccia Artieri - RIPRODUZIONE RISERVATA

di Giovanni Boccia Artieri*

La nostra vita è interessata sempre più spesso da processi in cui intervengono algoritmi che diventano centrali nei settori sia privati sia pubblici. Le decisioni fondamentali per il nostro benessere e le nostre libertà sono infatti spesso supportate o prese utilizzando algoritmi che evolvono con i dati, i cosiddetti machine learning alghoritms (algoritmi ad apprendimento automatico) che applicano modelli statistici complessi al fine di fornire a un utente le informazioni che per lui sono più “pertinenti” e “rilevanti”.

Sono intermediari nella distribuzione di pubblicità sulle piattaforme di social media, nei motori di ricerca e nei siti di news; sono utilizzati per arrivare a decisioni vitali per le persone, regolando l’accesso al credito, al lavoro, all’alloggio, all’istruzione o alla giustizia. Non sono quindi solo oggetti divenuti più familiari – anche se in modo astratto – nel dibattito pubblico ma intercettano concretamente i nostri modi di informarci, scegliere, comprare, comunicare, ecc., indipendentemente dal nostro livello di consapevolezza del fatto di incontrarli in molti dei nostri gesti quotidiani. Così come restano oggetti opachi in merito ai valori che li guidano e alle politiche che danno loro forma: in che modo un algoritmo decide se siamo affidabili per ottenere un mutuo? Allo stesso modo, il livello di responsabilità nei confronti degli utenti è occultato dietro all’idea che siano degli “intermediari neutri”, utili per ottenere soluzioni efficienti ai problemi di organizzazione dell’informazione che accompagnano il complessificarsi della società.

Recentemente si sta però diffondendo una consapevolezza, accompagnata da un senso di inquietudine, dell’essere governati da sistemi che non si comprendono e che si sente di non poter controllare. D’altra parte, la speranza di riacquisire controllo di questi sistemi è delusa dalla loro segretezza, dalla loro ubiquità, dalla loro opacità e dalla mancanza di mezzi per contrastarli quando producono risultati inaspettati, dannosi, ingiusti o discriminatori. Ad esempio, è stato dimostrato come esistano “bias” (pregiudizi) negli algoritmi di ricerca che marginalizzano in modo sproporzionato quelle comunità che sono definite da minoranze, da donne e dai più poveri.

In pratica molti studi evidenziano come gli algoritmi non siano oggetti che operano in modo “naturale”, ma vadano visti come vere e proprie opinioni incorporate nel codice, capaci di determinare una distinzione tra i vincenti e i perdenti della società, tra chi ottiene lavoro e credito e chi paga di più un’assicurazione sanitaria. Sono vere e proprie “scatole nere” del sistema che celano dinamiche di potere e che possono riprodurre diseguaglianze o confermare l’ordine sociale per come è. Pensare che gli algoritmi siano “la soluzione” è un approccio di tipo riduzionista e deresponsabilizzante che non possiamo permetterci. In particolare in questo periodo, in cui ci affidiamo alla soluzione algoritmica per contrastare il Covid-19.

Come evidenzia un’analisi dell’IZA – Institute of Labor Economics, ci sono sei aree di intervento degli algoritmi di Intelligenza Artificiale in relazione alla pandemia: avvisi e allarmi precoci, monitoraggio e previsione, dashboard dei dati, diagnosi e prognosi, trattamenti e cure, e controllo sociale. Nel complesso il problema principale è rappresentato, da una parte, dalla mancanza di dati, poiché non esiste al momento una serie storica sufficiente per istruire l’IA e serviranno dati aperti e condivisi per aumentare in modo significativo la quantità di dati; dall’altra, ci troviamo di fronte a un problema di qualità dei dati, cioè la presenza di troppi dati anomali e da “rumori di fondo” che rischiano di inficiare la predittività. Basti ricordare il fallimento dei ricercatori di Google nel prevedere la diffusione dell’influenza usando le ricerche delle persone: il progetto Google Flu Trends, prima di essere abbandonato, ha sovrastimato la prevalenza dell’influenza in due stagioni di oltre il 50% .

Per superare questi vincoli occorrerà trovare un equilibrio tra privacy relativa ai dati e salute pubblica. Privacy e salute non costituiscono due poli opposti lungo un continuum per cui per salvaguardare un polo (la salute) occorre rinunciare alla salvaguardia dell’altro (la privacy). L’utilizzo di dati e algoritmi deve quindi essere responsabile, rispettare le norme sulla protezione delle informazioni e sulla privacy. Il rischio è quello di minare la fiducia del pubblico. Il controllo digitale dell’epidemia in Cina, come evidenzia Christos Lynteris, un antropologo ed esperto di epidemie, ha ad esempio sviluppato forme di stigmatizzazione pubblica e accresciuto un senso di sfiducia. Il rischio di sfiducia è poi maggiore in quei paesi in cui i cittadini hanno un livello di fiducia basso nel proprio governo.

Occorre, infine, considerare che l’agire degli algoritmi deve essere mediato dall’agire umano. Le app di tracciamento dei contatti “funzionano” nel momento in cui ci sia un intervento sanitario e di presa in carico immediato ed efficace, capace di relazionarsi con i possibili contagiati nelle forme di cura non solo medica ma informativa e comunicativa.

Il cuore del contagio epidemico ha una natura sociale e quindi non può essere affrontato con una soluzione algoritmica che è di stampo tecnocratico. Gli effetti del suo essere “scatola nera” si scontrano con i comportamenti sociali delle persone e le politiche sanitarie ed è la relazione fra questi diversi elementi che deve trovare una sua sintonia. In questa sintonia sta la differenza tra sorveglianza e cura di una comunità.

*Docente di Sociologia dei media digitali, Università di Urbino Carlo Bo. (In collaborazione con il Ministro per l'innovazione tecnologica e la digitalizzazione)

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza