Sei qui:  / Blog / Prevedere non significa comprendere

Prevedere non significa comprendere

 

Il nostro Marco Dal Pozzo ci regala una sua nuova riflessione sul concetto di  “trasparenza degli algoritmi”. Lo studioso spulciando come al solito dentro alcuni articoli e saggi inerenti al tema recentemente pubblicati, prova ad allargare il contenuto delle elaborazioni di altri  esperti, per distillare un suo specifico ragionamento che riporti l’attenzione del lettore sul tema, a suo e nostro avviso,  centrale nella cosiddetta: “società degli algoritmi” come noi stessi abbiamo più volte definito il nostro  consesso sociale.

E’ ormai noto che il GDPR permette la portabilità dei dati personali. Antonello Soro – riporta Luca De Biase in un recente articolo su Nova 24 – puntualizza che:  “Lo scopo della portabilità dei dati è quello di aprire il mercato e mettere in gioco della alternative”Luigi Zingales, poi – sempre nel pezzo “Il mercato dei dati personali” a firma De Biase – ponendo la questione dell’eventuale necessità di regolare o meno le piattaforme, pensa ad una soluzione per cui l’interoperabilità sia opportunamente incentivata.

La soluzione che De Biase propone nel suo “Crossroads” è quella di Viktor Mayer-Schönberger, autore di “Reinventing Capitalism in the Age of Big Data”“le imprese devono essere obbligate a condividere una parte dei loro dati con altre imprese che non ne hanno abbastanza per competere: in cambio avranno una piccola riduzione del carico fiscale. I dati devono essere anonimizzati. E selezionati casualmente dall’insieme dei dati raccolti dai giganti”.

Sembra strano che, nonostante una ottima premessa (ancora Mayer-Schönberger: “Il problema è che nell’economia dei dati, chi ne detiene molto più degli altri finisce per possedere algoritmi e sistemi di machine learning molto meglio allenati”), poi non si affondi il colpo: la questione centrale è proprio l’algoritmo: la protezione offerta dall’anonimizzazione è poco più che una etichetta quando il detentore dei dati non è protetto (in termini di consapevolezza, se non di completa trasparenza) anche e soprattutto dagli effetti dell’algoritmo che li macina.

Michele Mezza, nel suo volume “Algoritmi di Libertà”, spiega bene la questione con l’esempio paradigmatico di Spotify amplificando gli argomenti posti qualche anno fa da Eli Pariser: “Spotify – dice Mezza – gioca a curling con ognuno di noi, grazie ai suoi algoritmi predittivi, eliminando l’attrito che devia la nostra rotta. Si tratta, di fatto, di una learning machine applicata alla crescita dei gusti, dunque della personalità e delle relazioni, di ognuno dei suoi utenti, che impara e prevede le caratteristiche dei gusti in base a una poderosa massa di dati raccolti su ogni fattore che incide sulla nostra vita, e, giocando sulle correlazioni, le assonanze e somiglianze dei comportamenti di milioni individui simili in ambienti simili, arriva a determinare schemi di evoluzione.” Schemi che, come aveva dimostrato la rassegna di Cathy O’Neil nel suo “Armi di distruzione matematica”,  trovano applicazione in ogni ambito della nostra esistenza (esiste l’algoritmo per accedere agli studi, l’algoritmo per attribuire punteggi agli insegnanti, l’algoritmo per regolare l’orario di lavoro, l’algoritmo che stabilisce la affidabilità per l’accesso al credito, etc…).

Non è quindi l’anonimizzazione del dato a salvare gli individui dagli effetti dell’algoritmo predittivo. Algoritmo che, “nel gioco delle correlazioni, delle assonanze e delle somiglianze di comportamenti di milioni di individui in ambienti simili” e – per citare ancora Mezza – nel suo essere concepito dal suo proprietario(il dirigente scolastico, il proprietario di Just Eat, Foodora o Uber, il direttore di banca) come:  “ultimo strumento di una volontà di primato di alcuni uomini sulla stragrande maggioranza di esecutori”, decidono che uno studente non può accedere ad un corso, che un insegnante deve perdere il suo posto, che bisogna guidare dodici ore al giorno o che è… Continua su lsdi 

TI POTREBBE INTERESSARE ANCHE