Dataninja Magazine - Contenuti e risorse per capire il mondo con i dati

Diventa Data Leader · Lavorare con i dati

Dati , privacy e diritti umani: intervista a Ivana Bartoletti

Continuiamo con questa intervista a farti conoscere persone che con i dati ci lavorano ogni giorno: questa volta tocca a Ivana Bartoletti.
23 settembre 2021
4 minuti

Nel nostro viaggio alla scoperta delle professioni legate ai dati oggi incontriamo Ivana Bartoletti, Technical Director – Privacy in Deloitte e Co-Founder di Women Leading in AI Network, oltre che una delle docenti invitate al Master Diventa Data Leader.

Bartoletti ha costruito una carriera tra i dati che passa dalla privacy all’intelligenza artificiale fino all’attivismo. Andiamo a conoscerla meglio!

Ci racconti della tua carriera?

Sono appassionata della privacy e della protezione dei dati ma ho sempre percepito i dati come una grande risorsa collettiva. In fondo la pandemia ce l’ha pienamente dimostrato. Non c’è nulla di più importante per la collettività delle informazioni di ognuno. 

Sono arrivata alla privacy attraverso i diritti umani, il femminismo e la politica – e la mia carriera è stata lo specchio di un percorso anche intellettuale di cui scrivo e su cui commento pubblicamente. 

Lavoro con compagnie e multinazionali ma al contempo sono una Visiting Policy Fellow all’Università di Oxford, dove studio la questione annosissima dei trasferimenti dei dati a livello internazionale. Una questione che dobbiamo risolvere perché la localizzazione e il protezionismo in materia di dati mal si coniugano con i diritti e con la libertà.

Photo by Lagos Techie on Unsplash

Che ruolo giocano i dati e la tecnologia nella percezione che abbiamo dei diritti umani?

Fondamentale. Siamo abituati alla neutralità dei dati, all’idea – sbagliata – che i dati siano oggettivi e che, pertanto, ci informino sul mondo. E che quando dati in pasto agli algoritmi possono produrre predizioni e decisioni obiettive. Non c’è nulla di più sbagliato. I dati sono lo specchio della società e ne rappresentano le gerarchie e disuguaglianze. Lo stesso esercizio di raccogliere dati e di tralasciarne altri è il prodotto di un giudizio e una scelta che io definerei politica. Non c’è da stupirsi dunque se gli algoritmi discriminano – ma non sono gli algoritmi a discriminare, siamo noi. La mia paura è che le disuguaglianze, una volta automatizzate, diventino molto più difficili da comprendere e contestare. Ne parlo a lungo nel mio libro, An Artificial Revolution.

Hai introdotto un tema che ci piacerebbe approfondire meglio con te: quando si parla di minoranze, capita che i dati non siano rappresentativi. Ci puoi spiegare perché e come si può migliorare questo aspetto?

L’IA viene usata nel decision making, nelle predizioni e nelle allocazioni di risorse così come nel microtargeting. 

Possiamo dunque dire che gli algoritmi hanno una funzione editoriale, allocativa e di policy. Un potere enorme in pasto ai dati con il grande rischio di tradurre in codice, e quindi automatizzare, la realtà, incluso il razzismo il sessismo che caratterizzano le nostre società. Per donne e uomini di colore e più vulnerabili nella società questo vuol dire che la tecnologia, invece di essere liberatoria, costituisce un rischio di perpetuazione delle diseguaglianze. La soluzione non è però solo tecnologica. Cioè, non basta preparare i dati, controllare e verificare gli output degli algoritmi. La soluzione è politica, perché dobbiamo porci la domanda: chi beneficia dell’IA? 

Hai co-fondato the Women Leading in AI Network, un gruppo che punta a rendere l’AI inclusiva. Com’è nata l’idea?

Perchè adoro la tecnologia e proprio per questo voglio che ne beneficino tutti e che non si traduca in sistemi opachi che automatizzano la disuguaglianza. Ti faccio l’esempio del riconoscimento facciale e delle emozioni: è davvero quel che serve alla nostra umanità o faremmo meglio a investire in AI per un ambiente migliore, sia fisico che digitale?

Perché è importante secondo te oggi formarsi sui dati e imparare a capirli?

Perchè i dati non sono neutri e perchè se una cosa è possibile dal punto di vista tecnologico non è detto che lo sia dal punto di vista etico. L’Intelligenza artificiale è potere e con il potere viene la responsabilità. La questione è come facciamo in modo che le scelte sull’IA, sull’uso dei dati e degli algoritmi siano scelte condivise e frutto di un dibattito pubblico con i lavoratori e i cittadini e, soprattutto, su chi ne subirà di più l’impatto.

Ivana Bartoletti è esperta di privacy, etica e governance nel campo dell’Intelligenza Artificiale e delle nuove tecnologie. Visiting Policy Fellow all’Università di Oxford e consulente a imprese e multinazionali in tutto il mondo.

Condividi l'articolo