Una democrazia a rischio. Subordinata alla tecnologia. Sottoposta a perenne sorveglianza. E soprattutto a una sorta di libertà vigilata.

Il libro Democrazia e potere dei dati di Antonello Soro, Garante della Privacy, è un vero e proprio atto di accusa. Non tanto contro il web, ma contro i “signori” del web. Quelli che, come ha dimostrato per l’ennesima volta il recente scandalo Cambridge Analytica, hanno trasformato gli utenti di Internet in una miniera per fare soldi e per orientare persino le elezioni.

Un travalicamento dei confini del diritto, della libertà e in definitiva della democrazia. Nei sette anni trascorsi al vertice dell’autorità che tutela il diritto alla riservatezza, Soro ha potuto assistere al veloce cambiamento della Rete. Il suo potere di penetrazione nell’attività commerciale e, purtroppo, anche in politica è cresciuto a dismisura. Fin al punto di mettere in discussione l’essenza stessa e la qualità dei nostri sistemi istituzionali. Come scrive Giuliano Amato nella prefazione, «in gioco ci sono i prerequisiti della stessa democrazia, vale a dire non soltanto la libertà, ma anche la dignità della persona».

I “dati”, nel XXI secolo, sono tutto. Rappresentano potere e moneta. Ogni volta che ognuno di noi si concede a Internet trasferisce potenza a chi gestisce quelle informazioni. Le nostre generalità, i nostri desideri, le nostre inclinazioni, i nostri difetti o anche i nostri peccati, diventano uno strumento per orientare — a insaputa di ciascuno di noi — la nostra vita.

Diventano un elemento per tentarci o per ricattarci. Privandoci via via di un frammento di libertà. Anche perché la conservazione dei dati è affidata a strutture spesso non pubbliche, sovranazionali e non neutrali.

Questo mondo — osserva l’autore — è ancora privo di regole in grado garantire l’uso democratico delle informazioni. Le persone diventano una «mera cifra» e lo spazio dell’autodeterminazione un residuo.

Il prodotto finale rischia dunque di essere un inganno provocato dalla «apparente innocuità di oggetti o servizi» di uso quotidiano: il telefonino, il computer, il tablet. E in futuro tutti gli apparecchi connessi alla rete: il forno, il frigorifero, la lavatrice.

Chi entrerà in possesso dei dati, saprà cosa leggiamo, cosa mangiamo, cosa compriamo. Di conseguenza cosa ci manca, cosa ci serve e cosa desideriamo. Ci affidiamo ai “big tech“, grandi oligopoli, che possono profilare la nostra vita offrendo soluzioni o, soprattutto, inducendoci ad adottare una determinata soluzione.

Il giro di affari è gigantesco. Secondo la Commissione europea, la data economy vale nel 2015 285 miliardi di euro impiegando 6 milioni di persone. Nel 2020 raggiungerà la cifra di 739 miliardi con 7,5 milioni di addetti.

«Il caso Cambridge Analytica — scrive Soro — dimostra come i big tech e, in primo luogo Facebook, detengano un potere — fondato appunto sulla disponibilità dei dati personali, anche delicatissimi — non più limitato al piano economico- commerciale ma suscettibile di estendersi a ben altri e più rilevanti settori della vita pubblica».

Le polemiche sulle elezioni in America e i timori su quelle in Europa, compresa l’Italia, ne sono una prova. In Cina, poi, le autorità pubbliche iniziano a valutare la vita dei cittadini assegnando un punteggio anche alle abitudini online. A un passo da una sorta di “totalitarismo digitale”.

E ancor di più è immanente il pericolo che i bisogni indotti in rete abbiano anche un obiettivo politico. Lo chiamano “nudging“, ossia la capacità di persuadere proprio sulla base dei dati forniti. Si induce a «desiderare ciò che è utile desiderino. La forza politica che si avvalga del potere persuasivo e manipolatorio della profilazione, del microtargeting, della rappresentazione ad arte del reale esistente, riesce ad attrarre consensi come neppure i tribuni della plebe potevano fare».

Il consenso, insomma, diventa manipolabile e la sovranità statale compromessa.

Secondo Soro, allora, questa è la vera sfida che ci attende. «La democrazia può dirsi ancora tale finché siamo noi a creare gli algoritmi e non gli algoritmi a creare noi».

Il libro: Democrazia e potere dei dati di Antonello Soro, Baldini e Castoldi  2019

Claudio Tito     Repubblica  26/ 11/ 2019

 

 

Progressi in nome della sicurezza che mettono a rischio la libertà

Sorveglianza di massa anche in Occidente

Questa mattina probabilmente avete sbloccato il vostro smartphone mettendoci la faccia: avete fissato lo schermo, un software vi ha riconosciuto in meno di un secondo e avete iniziato a usarlo. Se poi avete fatto un bonifico bancario tramite app, è possibile che lo abbiate autorizzato nello stesso modo: uno sguardo allo schermo e i soldi sono partiti. E se siete tornati da un viaggio all’estero, invece del doganiere vi ha accolto una telecamerina che avete fissato per essere autorizzati a passare la frontiera.

Il riconoscimento facciale non è una tecnologia del futuro. È già nelle nostre vite. Quello che accade in Cina, il suo utilizzo per rafforzare la sorveglianza di massa di un miliardo e 400 milioni di persone (e identificare e opprimere un milione e mezzo della minoranza musulmana degli uiguri), è soltanto un passo più in là rispetto a quello che già accade da noi. Per esempio negli Usa.

Ad agosto Amazon ha presentato con orgoglio un software di riconoscimento per le forze dell’ordine in grado di individuare anche i sentimenti, come la paura. Per farci cosa? Il 12 luglio Vice era riuscita a mettere le mani sul manuale segreto della polizia di frontiera americana (Ice). Lo ha redatto una società di base a Palo Alto. Si chiama Palantir, l’hanno fondata degli ex della piattaforma di pagamenti PayPal, e tra le altre cose, si dice che sia stata determinante nell’individuare il nascondiglio di Osama Bin Laden usando i big data, cioé le infinite tracce che lasciamo sulla rete.

Era il 2011 e la tecnologia si è molto evoluta. La Palantir, che dal 2014 ha un contratto con l’Ice di circa 50 milioni l’anno, con il solo nome di una persona è in grado di aggiungere istantaneamente i dati personali e biometrici, le relazioni familiari e gli spostamenti. «Le informazioni delle banche date più disparate», si legge nel manuale, «vengono aggregate e sintetizzate in modo che la polizia sappia tutto di chiunque». Il software si chiama Gotham, omaggio alla città immaginaria dove si svolgono le imprese di Batman contro i criminali.

Anche in Cina naturalmente c’è una Palantir. Si chiama Mining Lab e ha sviluppato una piattaforma usata in circa 60 città per individuare non solo chi ha commesso un crimine ma anche chi potrebbe farlo. Un po’ come Minority Report. Un’altra startup cinese, CloudWalk, si vanta di aver fatto arrestare 10mila persone in 4 anni, grazie ad un sistema di riconoscimento facciale diffuso in ogni provincia. Del resto nelle prime 10 città del mondo per numero di telecamere in spazi pubblici, la Cina ne ha 8. La prima è Chongqing, con 2,58 milioni di telecamere che sorvegliano 15 milioni di abitanti.

Nel nome della sicurezza stiamo cedendo tutta la nostra libertà? Fuori dalla Cina il dibattito è forte. Quando il Manchester City ad agosto ha proposto di usare il riconoscimento facciale per eliminare le file allo stadio, c’è stata una levata di scudi e il progetto è stato accantonato. Ma a fine ottobre il derby scozzese Swansea- Cardiff ha visto i tifosi uniti contro la decisione della polizia di identificarli tutti via video per avere la certezza che non entrassero facinorosi e questo anche se a una recente finale di Champions League a Cardiff (Juve- Real Madrid 1-4) lo stesso software avesse identificato “per errore” duemila persone.

Oltre al tema della sorveglianza di massa, infatti, c’è il fatto che questi software ancora fanno errori clamorosi e sembrano incorporare pregiudizi verso le minoranze, come i neri per esempio. Ecco perché va seguito con attenzione quello che accade a San Francisco, che non è solo la capitale della Silicon Valley, ma anche la prima città al mondo ad aver messo al bando l’utilizzo indiscriminato di queste tecnologie da parte della polizia.

È una scommessa rischiosa, che chi ha proposto la legge, ha riassunto così: «Possiamo vivere nella sicurezza senza vivere in uno stato di polizia?».

Dalla risposta a questa domanda, dipende il nostro futuro e quello della libertà nell’era digitale.

Riccardo Luna        Repubblica  3/ 12/ 2019


 

“La Casaleggio nel 2013 su Facebook sottraeva dati ai simpatizzanti 5S”

Era il febbraio 2013, i 5 Stelle dovevano ancora entrare in Parlamento per la prima volta. Gianroberto Casaleggio guidava le strategie sul web e Beppe Grillo era il frontman assoluto del Movimento; alla sede della Casaleggio associati lavorava un giovane programmatore, Marco Canestrari.

Pochi mesi prima di quel voto che rese il M5S il primo partito italiano, sul blog venne lanciata una app, “attivista 5 Stelle”. «A voi che chiedo di diffondere il programma, di far conoscere i candidati, di informare chi non accede alla rete. Chi vuole può diventare da oggi un attivista e e spingere l’Italia verso un futuro migliore», scriveva Grillo.

Solo che – e questa è l’accusa raccontata da Linkiesta che fa Canestrari, il quale oggi vive a Londra e non lavora più nella srl milanese – la vera funzione di quella applicazione sarebbe stata un’altra: “succhiare” i dati di chi la scaricava e così pure dei rispettivi amici su Facebook, fondamentali per tastare scientificamente ciò che si muoveva sul più popolare social network e quindi nel Paese.

Una profilazione accurata: grazie alla app si potevano acquisire finanche i like, la partecipazione a eventi e gruppi, l’orientamento politico e religioso, di un numero non quantificabile di persone. Ciò che qualche anno dopo avrebbe fatto Cambridge Analytica, la società fondata da Steve Bannon che usò illegalmente 87 milioni di profili per favorire l’ascesa di Trump e la campagna pro-Brexit.

Perché Canestrari ne parla solo adesso? «Stavo leggendo il libro di Christopher Wylie (l’uomo che svelò l’affare Cambridge Analytica, avendoci lavorato per anni, ndr ), Mindfuck , e lì ho rivisto la stessa identica tecnica di acquisizione. Ho collegato le due cose e ho capito che stavamo anticipando quel metodo», spiega.

A proposito di Cambridge Analytica: non si è mai saputo qual era il partito italiano che si avvalse della loro consulenza, anche se i sospettati principali sono sempre stati due, M5S e Lega. Comunque sia, la risposta della Casaleggio è che «agli utenti era richiesto il consenso (…) i dati raccolti nel 2013 non sono stati utilizzati per altre finalità e sono poi stati cancellati alla fine dell’iniziativa, in piena sintonia con la legge, con le politiche di Facebook e con la normativa sulla privacy ».

Ma Canestrari conferma tutto: «Agli amici di chi scaricava la app non veniva chiesto alcun consenso. Si parla di “dati raccolti”, quindi effettivamente c’è stata, appunto, una raccolta». Secondo Marco Canestrari veniva utilizzata una app per profilare gli utenti.

Matteo Pucciarelli     Repubblica   5/ 12/ 2019

 

Articoli che vi raccomandiamo di leggere:

Dittatura digitale (1). L'uomo "chip".

Sorveglianza di stato

Nell’emergenza la Raggi punta alla delazione piuttosto che all’unità

Non sono i grillini a essere di sinistra ma viceversa

Internet senz'anima? Colpa dei "like"

Sorveglianza, il controllo mercificato

Oggi viviamo nella società del controllo. Deleuze l’aveva previsto vent’anni fa.

Sorvegliati digitali a quale prezzo

Per capire meglio chi vuole governarci

 

 


 


Calendario eventi
dicembre 2019
L M M G V S D
 1
2345678
9101112131415
16171819202122
23242526272829
3031EC
Cerca nel Sito
Newsletter
In carica...In carica...


Feed Articoli