Affrontare le sfide etiche dei big data

Pubblicato il 27 novembre 2017 da redazione

Intelligenza artificiale

 

Un’autorità sui dati sociali, Susan Etlinger, sostiene che dobbiamo applicare il pensiero critico e fare attenzione all’era dell'”ubiquità dei dati”

A volte le innovazioni e le rivoluzioni tecnologiche sono le benvenute perchè ipoteticamente in grado di  risolvere ogni tipo di mali sociali e ambientali, quindi a prima vista l’avvertimento di Susan Etlinger, di esercitare cautela e moderazione, può sembrare strano. Tuttavia, sebbene i dati possano portare progressi in molti campi, è essenziale cautela e impegno critico verso le informazioni che raccogliamo se vogliamo evitare errori e proteggere la privacy.

Oggi possiamo elaborare exabyte di dati alla velocità della luce, siamo potenzialmente in grado di prendere decisioni sbagliate molto più rapidamente, in modo più efficiente e con un impatto molto maggiore di quello che abbiamo potuto in passato.

Perché il pensiero critico è così importante per gestire i big data?
E gli esseri umani tendendono a dare molto credito alla tecnologia. È divertente, se guardi gli studi che vengono fuori, le persone tendono a fidarsi di più dei grafici. Ciò che è interessante è che sotto quel grafico può nascondersi un dato terribile, o in realtà potrebbe mostrare qualcosa di falso. Oppure potrebbe non rappresentare qualcosa di importante.

Nell’era della futura ubiquità dei dati, terremo il passo con il nostro pensiero critico e l’elaborazione di queste informazioni?
Dipende dal tipo di dati, per le previsioni del tempo va bene, il set di dati  che servono e i possibili risultati sono più o meno limitati, ma quando si passa a dati umani – espressioni umane, testi, discorsi, audio, o qualsiasi risultato di un’attività umana – interpretando il significato, e poi persino traducendolo, e poi interpretandolo di nuovo, la vera sfida diventa la comprensione di cosa le persone significano veramente.

Ad esempio, su Twitter è possibile vedere qualcosa come “Oh fantastico, ho lasciato cadere il mio telefono e l’ho rotto”. E la maggior parte delle tecnologie di elaborazione del linguaggio naturale la classificheranno come una dichiarazione positiva. Quindi cose come il sarcasmo, cose come quelle che si dicono in cui alcuni gruppi che usano un linguaggio velato perché sono attivi in qualche istituzione amministrativa che lo disapprova o più semplicemente il linguaggio degli adolescenti, che cambia in continuazione, potrebbero perdere di significato o ridursi di significato e dare risultati di significato diverso da quello attribuito dal soggetto parlante.

Alcune delle preoccupazioni etiche riguardano il ​​riconoscimento delle immagini (la capacità dei computer di “leggere” e interpretare le immagini in modo accurato) e la tecnologia di rilevamento emozionale (che mira ad analizzare e interpretare l’umore di una persona attraverso modelli di discorso, movimenti facciali o altri spunti).
Alcuni usi sono potenzialmente interessanti. Per esempio, disponendo di una serie fotografica di una città nel corso del tempo, si potrebbero capire i modelli di comportamento della popolazione, dove vivono le persone nei diversi momenti, dove lavorano, quali sono gli schemi dei pendolari, quali sentimenti provano, se sembrano più felici, più tristi o più preoccupati oppure si potrebbero indagare i loro interessi, come lo sport o i modelli di acquisto, ciò che le persone mangiano, qualsiasi cosa.

La domanda allora è: “visto che possiamo farlo, dovremmo farlo?”

Ci sono alcuni modi in cui la tecnologia può aiutarci a capire meglio la nostra storia, ma ci sono tremende implicazioni che riguardano il bene sociale. Fornire cibo e medicine a persone che sono più difficilmente raggiungibili, come anziani e disabili, ma allo stesso tempo utilizzare le stesse tecnologie per la sorveglianza di massa, per fini politici. È un sacco di potere, che ora, potenzialmente abbiamo a portata di mano. L’innovazione avverrà indipendentemente da ciò che faremo, ma occorrerà pensare ai modi in cui implementeremo queste tecnologie nelle imprese pubbliche, private e nella società.

Alcune operazioni di big data, anche ben intenzionate, hanno conportato violazioni impreviste della privacy. Ad esempio, uno studio sviluppato dall’università di Bristol, insieme all’associazione di volontariato Samaritani, che ha approfondito l’influenza dei social network sui casi di suicidio. Nel 2012, infatti, ci sono stati 6000 casi di suicidio, moltissimi tra giovani al di sotto di 15 anni, e lo studio si proponeva di appurare la loro relazione con i mass media elettronici.

Uno dei tratti distintivi dell’Intelligenza Artificiale, è che è davvero difficile capire come funziona un algoritmo. Un algoritmo è un po ‘come una ricetta nel senso che ti dice quali ingredienti e in quale proporzione puoi ottenere il tuo risultato, ma il risultato potrebbe essere una torta fantastica o qualcosa di completamente immangiabile, a seconda di ciò che fai. E le persone non vogliono condividere i loro algoritmi a causa del vantaggio competitivo che potrebbe derivarne.

Il bello della scienza dei dati è che si può tornare indietro e riprendere un algoritmo, e il suo modello di dati e riflettere di più sul mondo in cui vogliamo vivere piuttosto che il mondo in cui viviamo. Le immagini mostrano subito quando si usa un motore di ricerca la frase “tre adolescenti neri” rispetto alla frase “tre adolescenti bianchi”: le immagini dei tre adolescenti bianchi sono quelle di tre soggetti che si divertono a fare pic-nic e le immagini dei tre adolescenti neri sono invece quelle di persone che vengono portate nei dipartimenti di polizia.

Abbiamo codificato i pregiudizi…

 

Lascia un commento

Advertise Here

Foto da Flickr

Guarda tutte le foto

Advertise Here

LINK