Categoria | Politica-Economia

Big Data Big Danger

Pubblicato il 19 dicembre 2017 da redazione

reputazione on line

 

Le nuove tecnologie non sono tutte uguali. Alcuni non fanno altro che aggiungere un sottile strato al comportamento umano (un po’ come le pentole antiaderenti). Alcune tecnologie, tuttavia, scavano più a fondo, sradicano norme di comportamento umano e le sostituiscono con possibilità completamente nuove.

Negli ultimi mesi ci si è resi conto che i Big Data – raccolte astronomiche di informazioni – rappresentano un fatto epocale e, se per alcuni versi positivo, con le rivelazioni sul programma PRISM della NSA anche potenzialmente pericoloso.

La premessa è che i Big Data, e tutte le tracce digitali che ci lasciamo alle spalle nella nostra vita quotidiana, creano una scia di comportamenti che possono essere seguiti, catturati, archiviati e “minati” in massa, fornendo ai minatori intuizioni fondamentali sia sul nostro comportamento personale sia su quello collettivo.

Il fattore “X” iniziale dei Big Data è la perdita della privacy, dato che praticamente ogni aspetto della nostra vita (registrazione della tua posizione tramite telefono cellulare, acquisti tramite carte di credito, interessi tramite comportamenti di navigazione web) è stato registrato – e, possibilmente, condiviso – da qualche entità da qualche parte. I Big Data passano da “X” a potenzialmente dannosi quando tutti questi breadcrumb vengono lanciati in una macchina che li elabora.

Questa è la parte “data mining” dei Big Data e cosa accade quando gli algoritmi vengono utilizzati per cercare correlazioni statistiche tra un tipo di comportamento e un altro?

gestire la reputazione

Si consideri, ad esempio, l’antica attività di garanzia di un prestito. Nel giorno in cui sei andato in una banca, hanno guardato la tua domanda, il mercato e la tua storia di credito. Poi hanno detto “sì” o “no”. Fine della storia. Nel mondo dei Big Data, le banche ora hanno più modi per valutare il merito di credito.

“Riteniamo che tutti i dati siano dati di credito”, ha detto l’ex CEO di Google, Douglas Merrill, l’anno scorso. “Semplicemente non sappiamo come usarlo ancora.” Merrill è CEO di ZestCash, una delle tante start-up che utilizzano le informazioni da fonti come i social network, per determinare la probabilità che un richiedente rimborserà il proprio prestito.

I tuoi contatti su LinkedIn possono essere utilizzati per valutare il tuo “carattere e capacità” quando si tratta di prestiti. Anche gli amici di Facebook possono essere utili. Hai amici ricchi? Questo è positivo. Conosci alcuni deadbeats, questo non tanto. Le aziende sosterranno che stanno solo cercando di separare i buoni candidati dal resto. Ma c’è anche un reale rischio che si verrà ingiustamente messi in una “zona morta” da un algoritmo ed escluso da un prestito, con conseguenze devastanti per la tua vita.

Jay Stanley dell’ACLU dice che essere giudicati in base alle azioni degli altri non è limitato ai tuoi social network:

Le società di carte di credito a volte riducono il limite di credito di un cliente in base alla cronologia di rimborso degli altri clienti dei negozi in cui una persona acquista. Tale “valutazione comportamentale” è una forma di colpa economica per associazione basata sul fare inferenze statistiche su una persona che va molto al di là di ciò che la persona può controllare o di cui può essere consapevole.

Il legame tra comportamento, salute e assicurazione sanitaria è un’altra area grigia (o scura) per i Big Data. Considera il caso di Walter e Paula Shelton di Gilbert, Louisiana. Nel 2008, Business Week riportò come agli Shelton fu negata l’assicurazione sanitaria quando furono ritirate le registrazioni dei loro farmaci acquistati con una prescrizione. Anche se i loro farmaci per la pressione arteriosa e gli anti-depressivi erano prescitti per situazioni lievi, gli Shelton furono relegati in un’altra zona morta algoritmica che determinati tipi di acquisti innescava, con “bandiere rosse” che stoppavano e negavano la copertura.

reputation

 

Dal 2008 l’uso dei Big Data da parte del settore assicurativo è diventato molto più radicato. Come riporta il Wall Street Journal:

Le aziende hanno anche iniziato a esaminare più in dettaglio i comportamenti dei dipendenti. Blue Cross e Blue Shield della North Carolina hanno
recentemente iniziato a comprare i dati relativi agli acquisti di oltre 3 milioni di persone archiviate per datore di lavoro.

Se qualcuno, ad esempio, acquista abiti di taglia più grande, il piano sanitario potrebbe segnalarlo per potenziali obesità e quindi chiamare o inviare mailing offrendo soluzioni per la perdita di peso.

Naturalmente nessuno aiuterà le persone a diventare più sane. Ma con i costi assicurativi, che dominano i fogli di calcolo aziendali, non è difficile immaginare come dati su acquisti di dimensioni maggiori possano un giorno essere presi in considerazione nelle valutazioni su possibili assunzioni di lavoro.

E poi c’è l’uso, o l’uso improprio, da parte del governo dei Big Data. Per anni i critici hanno indicato le liste nere di “non volo” come un esempio di in cui i Big Data hanno arrecato dei danni.

Le liste di “non volo” hanno lo scopo di impedire alle persone che potrebbero essere terroriste di allontanarsi dagli aerei. È stato a lungo ipotizzato che la raccolta e l’estrazione dei dati facciano parte del processo per determinare chi si trova in una lista di “non volo”. Fin qui tutto bene.

Ma le storie di persone elencate ingiustamente sono molteplici: tutto di veterani del Corpo dei Marine disabili fino al defunto senatore Ted Kennedy.

Poiché i metodi usati per mettere le persone sulla lista sono segreti, uscire dalla lista può essere kafkiano.

Un rapporto dell’Accademia Nazionale delle Scienze del 2008, che esplora l’uso delle tecniche dei Big Data per la sicurezza nazionale, ha reso espliciti i pericoli: il ricco archivio digitale che è fatto di vite umane oggi offre molti vantaggi alla maggior parte delle persone nel corso della vita di tutti i giorni.

Tali dati possono anche essere utili per l’antiterrorismo e l’applicazione della legge.

Tuttavia, l’uso di tali dati per questi scopi solleva anche preoccupazioni in merito alla tutela della privacy e delle libertà civili.

Utilizzati impropriamente, i programmi che non proteggono esplicitamente i diritti di individui innocenti sono suscettibili di creare cittadini di seconda classe le cui libertà di viaggiare, impegnarsi in transazioni commerciali, comunicare e praticare determinate operazioni saranno ridotte – e in alcune circostanze potrebbero persino essere impropriamente imprigionanti.

 

E allora?

Dal credito all’assicurazione sanitaria alla sicurezza nazionale, le tecnologie dei Big Data sollevano preoccupazioni reali su molto di più della semplice privacy (anche se tali preoccupazioni sulla privacy sono reali, legittime e piuttosto spaventose). Il dibattito che si apre è essenziale per una cultura dominata dalla scienza e dalla tecnologia.

Chi decide come andiamo avanti?

Chi determina se una tecnologia può essere adottata?

Chi determina quando e come si schiererà e con Chi e contro Chi?

Chi ha i diritti sui tuoi dati?

Chi parla per noi?

Come parliamo per noi stessi?

Queste sono le grandi domande sulle quali i Big Data ci stanno costringendo a confrontarci.

 

Lascia un commento

Advertise Here

Foto da Flickr

Guarda tutte le foto

Advertise Here

LINK