Facebook e lo scandalo Cambridge Analytica: quei dati che vi hanno rubato non erano solo cazzate

Mi lascia davvero sgomento la notizia che qualcuno potesse usare Facebook per farsi i cazzi degli altri”, twittava spinoza.it nei giorni scorsi in una battuta diventata virale.
Lo scandalo Cambridge Analytica, la più grande ed insidiosa grana mai scoppiata per Facebook nella sua intera storia, non sembra aver smosso una particolare indignazione nell’opinione pubblica più vasta, al di là degli addetti ai lavori e del mondo politico. Al più ha smosso un po’ di ironia. Il grosso degli utenti sono per lo più indifferenti a cosa succede ai loro dati, mentre gli utenti un po’ più scafati ed informati reagiscono appunto alla spinoza.it: ma davvero pensavate che non facessero analisi sui vostri profili?
Un post emblematico, anch’esso divertente e diventato subito virale, scritto da Azael su Medium, parla espressamente delle “cazzate che vi hanno rubato“: “I vostri dati personali sono una montagna di merda, composta per lo più da citazioni con refusi di Fabio Volvo e foto di voi che mangiate il sushi a Pavia. I vostri dati personali non contano un santissimo cazzo. Voi non contate un cazzo. Non avete nulla da proteggere, e dovreste preoccuparvi di una sola cosa: informarvi, studiare, cercare di capire qualcosa prima di scegliere se votare per un imbecille.
In sintesi, la riproposizione in salsa social di un vecchio luogo comune già usato in passato per la televisione, la radio e gli altri media: ovvero non è il mezzo il problema, ma è come lo usi. Se studi un po’ di più e sviluppi senso critico e strumenti cognitivi che ti permettono di interpretare i messaggi, non c’è TV, radio o social che possa influenzarti. Se questo pensiero era più o meno discutibile e con una qualche valenza applicato alle radio o alle televisioni, rasenta secondo noi il grottesco se riproposto per Facebook.
 
Insomma, detto senza offesa, noi crediamo che questa lettura cinica e sminuente di quello che sta accadendo sia davvero superficiale, e sia in effetti anche peggiore dell’indifferenza con cui (non) ha reagito gran parte del popolo social. Per due motivi, uno molto specifico legato alla vicenda Cambridge Analytica in particolare, e l’altro invece di carattere ben più generale.

Il motivo specifico, che riguarda questo scandalo in particolare, è che, come fra l’altro spiegato anche dallo stesso Azael nel suo post, Cambridge Analytica non analizzava solo i profili degli utenti che cliccavano volontariamente (ma quanto consapevolmente?) sull’app del test di personalità dello psicologo Kogan, ma acquisiva ed analizzava anche tutti i profili dei loro “amici”, senza che questi avessero cliccato nulla o espresso alcun consenso. All’epoca questa cosa era contemplata nelle “terms & conditions” di Facebook, è vero, ed era effettivamente legale. Ma questo non toglie che fosse una pratica commerciale profondamente scorretta, eseguita nella pressoché totale inconsapevolezza degli utenti coinvolti. Insomma, è venuto a galla un problema, e non capiamo perché dovremmo fare spallucce e condonarlo senza battere ciglio, accettando fatalisticamente che Facebook funzioni così e resti quel che è. Azael sostiene che quell’operazione di raccolta dei profili potrebbe farla anche lui, a mano, “se avessi un po’ di decenni a disposizione e un foglio Excel molto grande”. In realtà, a mano puoi accedere solo alle informazioni di profilo che hanno visibilità pubblica, a meno che l’utente non accetti volontariamente la tua richiesta di “amicizia”, mentre da quanto è dato sapere Cambridge Analytica ha avuto accesso ai profili integrali. Non è esattamente la stessa cosa. E soprattutto, dire che potresti fare un’operazione ma ci metteresti dei decenni significa dire che è tecnicamente infattibile, mentre poter accedere ai dati in un formato processabile con strumenti software che quell’operazione la svolgono in pochi minuti vuol dire renderla fattibile. La pericolosità e la delicatezza dei Big Data è tutta in questa piccola distinzione, nel rendere possibili delle analisi che altrimenti non lo erano. E ci sembra doveroso, nel 2018, pretendere che certe analisi siano fatte con comportamenti etici e con la piena consapevolezza di chi fornisce i dati, e magari incazzarsi un po’ quando si scopre una violazione sostanziale di dimensioni planetarie.
 
L’altro motivo, ben più generale, è che in realtà i vostri dati non sono affatto cazzate, e che il problema non è (solo) come usi il mezzo: mai come in questo caso, il problema è proprio il mezzo in sé, com’è concepito, strutturato e gestito. I vostri like alle citazioni di Fabio Volo o alle canzoni di Tiziano Ferro, o le vostre foto delle cene di sushi a Pavia forse vi sembrano insignificanti e di nessun valore, ma bastano poche centinaia di quei like, cioè pochi mesi di normale attività social, per alimentare un modello software in grado di predire i vostri comportamenti più accuratamente di quanto farebbe vostra moglie o vostro marito, come dimostrato da una ricerca scientifica delle università di Stanford e Cambridge, pubblicata su PNAS (Proceedings of the National Academy of Sciences of the USA). Proprio questo lavoro di ricerca svolto a Cambridge, fra l’altro, ha fornito a Kogan alcuni dei mezzi che hanno portato poi alle analisi dei dati svolte da Cambridge Analytica, analisi che quindi aveva alle spalle competenze e conoscenze psicometriche davvero solide.
Abbiamo il timore che chi non si occupa di analisi Big Data, e cioè la quasi totalità degli utenti che sono su Facebook, non abbiano consapevolezza di quanto siano potenti e profondi i dati che condividiamo. Quella “montagna di merda” racconta molto di più di voi, e molto più in profondità, di quanto fanno i “dati personali” intesi in senso stretto (cioè i vostri dati anagrafici, il codice fiscale e l’indirizzo ecc.). Racconta la vostra psicologia, la vostra rete sociale, gli aspetti e i temi che vi irritano e quelli che vi esaltano, il vostro carattere, le vostre attività, i vostri spostamenti, in altre parole racconta una parte importante di chi siete, e permette di predire con un’impressionante precisione i vostri comportamenti e le vostre reazioni agli stimoli più disparati. Se qualcuno si appropria di tutta questa montagna di conoscenza su di voi a vostra insaputa, e la usa per scopi che neanche sospettavate, la cosa dovrebbe interessarvi eccome, e non c’è granché da ridere.
 
E no, non si può trattare Facebook con gli stessi schemi che applicavamo alle TV, alle radio e ai giornali, pensando ancora che basti un percorso di educazione critica degli utenti per potersi difendere dal potere di influenza del mezzo. Perché stavolta siamo davanti a un mezzo che ha due miliardi di utenti in tutti e cinque i continenti, e nessun altro mezzo aveva mai avuto una dimensione e un peso paragonabile nella storia dell’umanità. E perché nessuna TV, radio o giornale conosceva in dettaglio la vita, la storia, le attività, gli spostamenti, la rete sociale e i meandri psicologici di ogni suo singolo utente. Al di là di questo scandalo, e delle campagne pubblicitarie più o meno efficaci di inserzionisti come Cambridge Analytica, è Facebook stesso col suo news feed a porre un inedito problema democratico. Perché, come provato e raccontato in un’altra solida ricerca scientifica, Facebook ha già dimostrato che se vuole può influenzare selettivamente l’umore dei suoi utenti, scegliendo opportunamente la composizione del vostro news feed, senza che voi abbiate alcuna voce in capitolo. Perché, al contrario dei mezzi di comunicazione tradizionale, sul news feed di Facebook e sul misterioso algoritmo privato che lo regola non c’è ancora nessuna regolamentazione né alcun obbligo di trasparenza. Vero è che quella ricerca mostrava come l’efficacia quantitativa con cui Facebook riusciva ad influenzare l’umore degli utenti coinvolti nella sperimentazione fosse piuttosto bassa, almeno con le tecnologie dell’epoca, ma ciò che a noi sembra abnorme è che Facebook abbia avuto (ed abbia tuttora) la libertà di fare quegli esperimenti su delle persone reali senza neanche doverle avvertire.
Si è discusso molto in questi giorni sul fatto che non esistano certezze su quanto Facebook e i suoi inserzionisti possano davvero influenzare le opinioni politiche degli utenti: è vero che gli studi psicometrici si concentrano per lo più sull’efficacia di Facebook come strumento di marketing. In fondo, l’intera piattaforma è concepita per quello, cioè per usare i dati degli utenti al fine di vendergli più efficacemente dei prodotti, più che per fargli cambiare opinione politica. E convincere qualcuno a comprarsi una borsa è una cosa diversa dal convincerlo a votare Trump. Ma anche in questo caso, a noi sembra un po’ bizzarro aspettare di avere studi scientifici che dimostrino che una corporate privata di Palo Alto riesca ad influenzare le elezioni in tutti e 5 i continenti. Forse sarebbe meglio porsi il problema prima, e cercare di prevenire il rischio.
Controllare il news feed di due miliardi di utenti vuol dire come minimo poter influenzare la quantità di attenzione dedicata ad alcuni argomenti piuttosto che ad altri, e la percezione del peso e della diffusione di alcune opinioni piuttosto che di altre. Forse né Facebook né tantomento i suoi inserzionisti possono convincervi a votare il politico X, ma è un dato di fatto che Facebook potrebbe, se solo volesse, darvi l’impressione che la grande maggioranza della vostra rete sociale intende votare per il politico X e potrebbe stimolarvi a passare più tempo a discutere e commentare post che riguardano il politico X, anziché qualcos’altro che magari vi avrebbe potuto interessare. Tutto ciò senza che voi possiate controllarlo né saperlo e senza che Facebook debba renderne conto a chicchessia.
Questo potere opaco in mano a persone che devono rispondere solo ai loro azionisti, in un mondo in cui per influenzare un’elezione in bilico basta condizionare un numero relativamente basso di elettori, è un problema democratico gigantesco. Dovremmo insomma renderci conto che un’infrastruttura che consente di influenzare il peso che i temi hanno nel dibattito pubblico è uno snodo critico per tutte le comunità democratiche del pianeta, a prescindere dagli intenti e dalla diligenza con cui Facebook attualmente la gestisce, a prescindere da quanto il grosso dei contenuti condivisi su quella piattaforma possano sembrarci insignificanti, ed a prescindere anche da quanto gli utenti possano studiare e diventare tutti più scafati e consapevoli. Perché è il mezzo ad essere strutturalmente sbilanciato ed opaco, non sono solo i suoi due miliardi di utenti ad essere impreparati a gestirlo.
In altre parole, se anche voi pensate che il problema non sia il mezzo ma sia solo come lo si usa, siete voi che dovete studiare. Fatelo presto, per favore, perché fra qualche anno ci chiederemo com’è stato possibile concedere così tante informazioni e così tanto potere incondizionato a un nugolo tanto ristretto di aziende private, senza neanche renderci conto di cosa stavamo combinando.

Lascia un commento