Il tracciamento dei contatti: questioni etiche (collana di ricerca)

0 Commenti
568 Visualizzazioni

Quando pensiamo ai cambiamenti epocali che la pandemia del COVID-19 ha apportato alle nostre vite, raramente tendiamo a includere nella lista anche il contact-tracing. Vuoi perché in Italia il dibattito sul tema è stato relativamente ridotto o riservato agli “addetti ai lavori”; vuoi perché meno radicale rispetto a misure senza dubbio più restrittive delle nostre libertà personali, il tracciamento dei contatti sembra esser stato maggiormente tollerato dalla collettività.

È fondamentale fare un’analisi critica su come questa misura possa far sorgere questioni di natura etica, oltre che questioni di privacy. In particolare, ci si deve interrogare come questo strumento possa essere democratico e inclusivo, adatto ad una società in cui nessuno rimane indietro o è considerato cittadino di serie B.

Alla luce di ciò, e della mancanza di studi in materia nel panorama italiano, Privacy Network ha deciso di condurre una ricerca con l’obiettivo di carpire a tutto tondo i vantaggi e gli svantaggi di questo strumento, cercando di avere un respiro internazionale.  La ricerca verrà pubblicata in una serie di articoli, a cadenza regolare.

Parte 1: Tracciamento dei contatti, le origini

Parte 2: Il contact-tracing nel XXI secolo: dalla MERS al COVID-19

Parte 3: L’approccio europeo e italiano al tracciamento dei contatti

Parte 4: Il tracciamento dei contatti fuori dall’Italia

Autore: Dipartimento Ricerca

Le misure non farmaceutiche come il contact-tracing, la sorveglianza e il social distancing sono solo alcuni dei pochi strumenti efficaci per arginare i virus facilmente trasmissibili, in assenza di un vaccino specifico e di agenti antivirali. Seppure la storia del contact-tracing si possa far risalire fino al Medioevo, la crisi del COVID-19 è stata la prima pandemia in cui la tecnologia è stata sfruttata come strumento di massa per facilitare il contenimento e l’attenuazione del contagio. L’introduzione di app di contact-tracing, così come l’adozione di altre tecnologie digitali e di data infrastructures, per garantire la salute pubblica può essere percepita come una vera e propria rivoluzione digitale.

Tuttavia, il suo impiego presenta nuove sfide oltre che grandi opportunità. Ad esempio, come vedremo, tutti questi strumenti più o meno innovativi si basano sul fatto che le persone possiedano e portino con sé dei dispositivi mobili adatti. Conseguentemente, le persone che non possiedono un dispositivo mobile adeguato non potranno godere degli stessi benefici di chi invece ne possiede uno. Inoltre, le tecnologie data-driven, che si basano sul trattamento dei dati personali, hanno un forte impatto sulla privacy e la protezione dei dati, e altri diritti e libertà fondamentali.

Da una parte, le applicazioni mobili sono spesso percepite da molti come una risposta necessaria e complementare al bisogno di monitorare la diffusione del COVID-19. Infatti, questo tipo di tecnologie di contact-tracing consentirebbe di risparmiare ore preziose di lavoro del personale sanitario, rendendo più rapido ed efficiente l’intero processo di tracciamento. Inoltre, secondo alcuni, tali tecnologie ridurrebbero le possibilità di errore umano. Tuttavia, anche se gli strumenti tecnologici sembrano giocare un ruolo importante ed efficace nell’affrontare la sfida attuale, la prima – essenziale – domanda che dobbiamo porci prima dell’adozione sistematica e acritica delle tecnologie (senza averne valutato la loro efficacia e proporzionalità) è: queste “app” sono la soluzione?

Considerando l’assenza di prove della loro efficacia, le promesse valgono i prevedibili rischi sociali e legali? Quando i governi decidono di ricorrere alla tracciamento digitale dei contatti nella loro gestione della pandemia COVID-19, quali sono le garanzie legali e tecniche che devono essere in atto per mitigare i rischi in in gioco?

In generale, infatti, il COVID-19 ha messo in luce ed esacerbato le già presenti discriminazioni sociali in termini di genere, razza, status economico e nazionalità. In tal contesto, le tecnologie data-driven (tra cui si annoverano anche le applicazioni di contact-tracing) non solo riflettono tali discriminazioni, ma spesso le promuovono e le esasperano. A proposito del pericolo di riprodurre già esistenti e generare nuove discriminazioni e gerarchie sociali, è importante anche ricordare come ci sia stata, e ci sia tuttora, poca diversità tra coloro che programmano le tecnologie digitali, e come le figure che ricoprono ruoli professionali di questo tipo spesso appartengano a classi sociali privilegiate.

Considerando che, come notato dalla matematica Cathy O’Neil in “Armi di distruzione matematica”, i sistemi basati su dati tendono a riflettere le dinamiche sociali e le relazioni di potere presenti nella società all’interno della quale questi vengono sviluppati, il rischio che il design di queste tecnologie perpetui equilibri e dinamiche di esclusione, creandone parallelamente di nuove, sembra essere tangibile.

Ma in che modo, nello specifico, queste tecnologie possono riflettere ed esasperare forme di discriminazione? 

Digital divide

In primis, l’uso di applicazioni di contact-tracing tende ad escludere gran parte della popolazione andando ad alimentare il cosiddetto digital divide, termine con cui si definisce il divario tra coloro che hanno accesso alle  tecnologie data-driven e coloro che non lo hanno. 

Gran parte della popolazione mondiale non ha accesso alle infrastrutture e agli strumenti necessari, come smartphone, computer e banda larga, per beneficiare delle tecnologie data-driven nel settore sanitario. Tale divario si aggrava ancor di più se l’installazione e l’utilizzo di app di contact-tracing richiede smartphone e/o altri dispositivi di ultima generazione, comportando, in questo modo, un’automatica esclusione di coloro che non possono o non sono in grado di investire su nuovi strumenti tecnologici. Gli analisti del settore stimano che fino a 2 miliardi di utenti di telefonia mobile nel mondo non possiedono dispositivi configurati per supportare il tracciamento basato sul Bluetooth.

Le disparità di accesso potrebbero minare ulteriormente l’adozione delle app di contact-tracing: solo circa il 52% della popolazione in America Latina usa regolarmente internet mobile; nell’Africa sub-sahariana, è il 23%. Inoltre, il mero accesso alle infrastrutture non garantisce il corretto utilizzo delle applicazioni di contact-tracing. Infatti, per il loro corretto utilizzo, si deve presupporre che il singolo individuo abbia un bagaglio di competenze digitali sufficiente per poter comprendere al meglio il funzionamento delle app di contact-tracing e farne un uso efficace.

Per questo motivo, secondo diversi studi, spesso chi non ha accesso a queste tecnologie o chi non è in grado effettivamente di sfruttarle sono coloro che sono già fortemente discriminati e/o coloro che più sono a rischio di contrarre il COVID-19. Ciò avviene anche nei paesi democratici dove questo tipo di app sembra escludere diversi target. Tra questi, figurano gli anziani, disabili e coloro appartenenti alle classi sociali più basse. Inoltre, per molti gruppi svantaggiati, la ricerca digitale dei contatti non sarebbe solo inefficace, ma anche un pericolo per i loro diritti.

I falsi positivi possono costringere gruppi emarginati a dover far fronte ad ingenti problemi basate su notifiche non corrette. Ad esempio, i lavoratori a basso salario tra cui corrieri rischiano di perdere lo stipendio o il lavoro se si danno in malattia. In alcuni Paesi, come gli Stati Uniti, per gli immigrati senza documenti, visitare l’ospedale o un centro di test può portare alla loro deportazione. 

Privacy

La seconda questione rilevante quando si parla di applicazioni di contact-tracing è quella della privacy. Infatti, molte di queste app raccolgono e usano una grande quantità di dati, sia personali sia di geolocalizzazione, per poter identificare potenziali focolai e mettere in quarantena le persone infette. La modalità con cui tali dati vengono gestiti dipende anche dalle norme e dagli obblighi legali che le aziende tech sono tenute a rispettare. 

In Unione europea, a far da tutela ai dati personali degli utenti è il Regolamento 2016/679, meglio conosciuto come GDPR. Entrato ufficialmente in vigore nel 2018, il GDPR ha per la prima volta stabilito alcuni principi standard per la protezione dei dati personali individuali. In particolare, ai fini di questa ricerca, se ne elencano i principali:

  • consenso: al fine di effettuare un’attività di trattamento dei dati personali, un’organizzazione e/o un’azienda deve ottenere il consenso inequivocabile da parte degli utenti. Nel caso in cui gli utenti siano dei minori, è necessario il consenso dei genitori o di chi ne fa le veci legali.
  • diritto all’informazione: per poter dare il proprio consenso inequivocabile, è diritto dell’utente sapere i fini e le modalità del trattamento dei propri dati. Tale diritto, inoltre, implica che tali informazioni debbano essere comunicate in modo chiaro e semplice. Per questo motivo, al fine di ottenere il consenso al trattamento dei dati, un’azienda deve redigere una privacy policy che sia leggibile e comprensibile anche per chi non conosce il gergo legale.
  • diritto all’accesso : gli utenti hanno il diritto di accedere ai propri dati personali e alle informazioni relative alle modalità di trattamento degli stessi. Su richiesta dell’utente, i titolari del trattamento devono fornire informazioni sulle categorie di dati trattati, una copia degli effettivi dati raccolti dell’utente ed una descrizione delle modalità del trattamento. In questo senso, tale diritto è complementare a quello all’informazione dato che permette una reiterazione di quest’ultimo.
  • diritto alla modifica: gli utenti hanno il diritto di richiedere la modifica dei loro dati personali se sono imprecisi o incompleti. Questo diritto implica anche che la rettifica debba essere comunicata a tutti i soggetti terzi coinvolti nel trattamento dei dati in questione, a meno che ciò non sia impossibile o particolarmente difficile.
  • diritto alla cancellazione: nel momento in cui i dati non sono più utili alla fine del trattamento per cui sono stati raccolti o se l’utente decide di disdire il consenso al trattamento dei propri dati, l’utente ha il diritto di chiederne la cancellazione nonché la cessazione di ogni altra forma di diffusione con enti terzi.

L’implementazione di applicazioni di contact-tracing, dunque, si deve conformare ad una corretta applicazione del GDPR. In caso di non conformità al regolamento, l’utente si può appellarsi all’autorità giudiziaria o al Garante per la protezione dei dati personali. In tal modo, il soggetto è in grado, almeno sul piano legale e teorico, di far valere ed esercitare i propri diritti.

Al contrario, ci sono molti esempi di Stati che hanno introdotto l’obbligatorietà dell’uso di questo tipo di strumenti senza che venissero messe in atto una serie di adeguate misure di protezione della privacy degli utenti. Molto spesso, soprattutto nei Paesi non democratici e autoritari, tale assenza di salvaguardie sulla privacy individuale è andata a discapito della sicurezza, dei diritti umani e delle libertà democratiche, soprattutto per le minoranze etniche, politiche, religiose e sociali. 

In generale, infatti, si può sostenere che i governi potrebbero utilizzare le applicazioni di contact-tracing anche per istigare conflitti e perpetuare violazioni dei diritti umani di minoranze o oppositori politici dato che questi strumenti possono essere facilmente sfruttati come mezzi di sorveglianza.     Gli esempi sono numerosi. In Cina è stata introdotta, come misura obbligatoria per arginare il COVID-19, un’applicazione per smartphone in grado di tracciare i movimenti dei propri utenti e di imporre loro restrizioni alla propria libertà di movimento. Inoltre, sembrerebbe abilitata ad inviare i dati personali dei propri utenti direttamente alla polizia. Per tali motivi, in un paese che già utilizza le tecnologie di riconoscimento facciale per targetizzare e colpire le minoranze etniche, essa risulterebbe particolarmente pericolosa. 

In Guatemala, l’app di contact-tracing approvata e promossa dal governo, Alerta Guate, raccoglie i dati di geolocalizzazione degli utenti, anche quando l’app non è in funzione. I dati raccolti possono essere conservati fino a dieci anni e il Presidente guatemalteco ha già annunciato la possibilità che l’app si possa evolvere ed espandere per coprire “questioni di sicurezza”. 

In Etiopia, lo Stato ha rilasciato una piattaforma di monitoraggio del COVID-19 dove gli utenti possono segnalare altre persone sospettate di avere sintomi – sulla base di valutazioni soggettive e non scientifiche – dei loro sintomi. Ciò risulta particolarmente preoccupante sia perché responsabilizza eccessivamente il singolo individuo, bypassando il ruolo dell’operatore sanitario, sia perché si applica inevitabilmente in un contesto in cui tale strumento può essere utilizzato contro le minoranze già discriminate. Non è sorprendente, infatti, che si sia assistito a numerose segnalazioni di molestie e discriminazioni contro gli stranieri e contro operatori sanitari. 

In altri casi, l’aumento della sorveglianza sanitaria digitale può esacerbare forme di discriminazione e di disuguaglianza nei confronti di gruppi minoritari come le persone LGBTQ e i migranti. Se da una parte i dati di localizzazione aggregati possono monitorare i flussi di popolazione in tempo reale e identificare potenziali hotspot di trasmissione, essi possono anche danneggiare gli utenti vulnerabili identificando la loro posizione esatta. Questo dato è estremamente preoccupante visto che una recente analisi di 50 applicazioni relative al COVID-19 nello store di Google ha mostrato che solo 16 hanno esplicitamente dichiarato nelle loro politiche l’impegno a rendere anonimi i dati personali degli utenti, rendendo ancora più vulnerabili a violenze gli emarginati. Per esempio, la ricerca di contatti per un focolaio di COVID-19 in Corea del Sud ha portato ad abusi omofobi mirati alla comunità LGBTQ sudcoreana. 

Infine, in alcuni casi, le politiche governative di discriminazione nei confornti di minoranze etniche, politiche e religiose si è riflessa anche nell’impedimento a tali minoranze di utilizzare app di contact-tracing. In Bangladesh, Paese che ospita il più grande campo profughi del mondo per i rifugiati Rohingya provenienti dal Myanmar, il governo ha imposto un blackout di internet e confiscato le carte SIM dei residenti del campo, apparentemente per motivi di sicurezza. In altri campi, i rifugiati cambiano più volte le schede SIM per far fronte a connessioni Internet instabili, il che ostacolerebbe un corretto uso delle app di tracciamento dei contatti.

Applicazioni etiche della tecnologia

Così come altri problemi intrinseci alla natura delle tecnologie, le app di contact-tracing, in generale, presentano dei problemi che sono strettamente collegati al  modo in cui le tecnologie sono pensate, sviluppate e modellate. Infatti, ad esempio, nel pensare e sviluppare applicazioni di contact-tracing che si basino esclusivamente su tecnologie Bluetooth si è preso più o meno deliberatamente in considerazione solo la classe dominante e privilegiata, non tenendo in considerazione i bisogni e le necessità di chi non rientra all’interno di questa categoria. In altri casi, non è la tecnologia in sé a presentare dei “difetti”, ma è il contesto sociale, politico ed economico a rendere particolarmente dannosa tale tecnologia per certe fasce della popolazione. Ciò, di nuovo, è dovuto al fatto che nel pensare e sviluppare una tale tecnologia si è tenuta in considerazione solo la classe dominante al potere non ragionando su come un determinato strumento possa avere effetti politici e sociali diversi all’interno della stessa popolazione.

Come è possibile, dunque, ideare delle tecnologie che siano eticamente inclusive e democratiche? In tal merito, si propongono tre approcci differenti, ma complementari l’uno all’altro: un approccio che mette al centro la logica dei diritti umani; il design thinking; e i principi per lo sviluppo digitale. In particolare, anche per poter mitigare i limiti di ciascuna di queste metodologie, si propone una coordinazione dei seguenti approcci:

  • la logica dei diritti umani: secondo questo approccio, ogni misura, strumento o norma che viene ideata ed implementata deve avere un impatto ragionato sui diritti e sulle libertà individuali. Pertanto, anche quando degli strumenti tecnologici vengono adottati per il bene comune o per implementare un diritto umano (quale la salute), bisogna tenere in considerazione che il loro effetto sugli altri diritti umani e sulle libertà fondamentali deve essere legale, necessario e proporzionato. Ciò vuol dire che tali misure devono essere prescritte dalla legge, necessarie per il bene comune e proporzionali, ovvero non devono avere un impatto sproporzionato sugli altri diritti e libertà dell’individuo; 
  • design thinking: il design thinking è un processo iterativo in cui si cerca di capire l’utente, sfidare le ipotesi e ridefinire i problemi nel tentativo di identificare strategie e soluzioni alternative che potrebbero non essere tratte dalla nostra parziale conoscenza del mondo. In particolare, questo approccio promuove la necessità di mettere al centro del processo di design l’utente per poter centrare e risolvere i suoi problemi e rispondere ai suoi bisogni;
  • principi di sviluppo digitale: i principi per lo sviluppo digitale sono nove linee guida, ideate dall’UNICEF e progettate per aiutare a integrare delle best practices nell’uso delle tecnologie. Esse fungono da guida per ogni fase del ciclo di vita del progetto e devono essere considerate in modo proattivo, piuttosto che come rigide regole da seguire. 

Grazie alla combinazione di questi metodi – si sostiene – i designers possono tentare di superare la soggettività dei dati che elaborano e, quindi, rispondere ai loro beneficiari in modo più efficiente ed efficace. Ad esempio, nell’ideare e progettare un’app di contact tracing che sia inclusiva e democratica, il designer si deve porre domande di varia natura, concernenti argomenti quali l’etica, la privacy e la società che ci circonda (se ne possono vedere alcuni esempi nel paragrafo successivo).

Spesso è molto difficile rispondere a tali domande e talvolta le risposte stesse non riescono a tener conto della continua evoluzione della società, ma sicuramente il solo tentativo di porre la persona al centro del processo ideativo è un primo passo verso una società più inclusiva e democratica.

Linee Guida: l’App di contact-tracing è eticamente giustificabile?

I designer di app di contact tracing dovrebbero rispondere alle seguenti domande.

Principi: è questa la giusta app da sviluppare?

1. È necessaria?

• Si, deve essere sviluppata per salvare vite e per il bene comune (+).

• No, ci sono soluzioni migliori (–).

2. È proporzionata?

• Si, la gravità della situazione giustifica i potenziali impatti negativi (+).

• No, il potenziale impatto negativo è sproporzionato rispetto alla situazione (–).

3. È sufficientemente efficiente, efficace e accurata?

• Sì, l’esperienza dimostra che è sufficientemente efficiente, puntuale, che verrà usata da sufficienti persone e che produce dati accurati (+).

• No, non funziona bene, è in ritardo o in anticipo, non verrà usata da abbastanza persone, probabilmente collezionerà dati che hanno falsi positivi e/o  falsi negativi (–).

4. È temporanea?

• Sì, c’è una data di termine esplicita e ragionevole in cui l’app cesserà di funzionare  (+).

• No, non c’è una data di termine definita (–).

Requisiti: l’app sta per essere sviluppata nella giusta maniera? 

5. È su base volontaria?

• Si, è l’individuo a scegliere se scaricarla sul telefono (+).

• No, è obbligatorio installarla e i detrattori possono essere sanzionati nel caso si rifiutino di farlo (–).

6. Richiede il consenso?

• Sì, gli utenti possono decidere quali dati personali condividere e quando, e possono cambiarli in qualsiasi momento (+).

• No, le impostazioni di default costringono a condividere tutto in qualsiasi momento, e non si possono cambiare (–).

7. I dati personali sono tenuti privati e l’anonimato degli utenti è preservato? 

• Sì, i dati sono anonimi e sono salvati solo sul telefono dello user. Coloro che sono entrati a contatto con lo user vengono notificati di essere a rischio contagio, ma non dicono da chi e dove (+).

• No, i dati sono identificabili (o re-identificabili) data are (re)identifiable a causa del numero alto di dati raccolti e salvati in modo centralizzato. Viene notificato dove si ha avuto il contatto potenzialmente pericoloso (–).

8. Gli user possono cancellare i propri dati?

• Sì, possono farlo (+).

• No, non è garantito che i dati vengano eliminati definitivamente (–).

9. Il fine per cui i dati vengono raccolti è definito?

• Sì, esplicitamente; ad esempio, per avvertire gli utenti di aver incontrato una persona potenzialmente infetta (+).

• No, i fini della raccolta dati non sono esplicitamente definiti  (–).

10. Il fine è limitato?

• Sì, viene usato per tracciare solo la propagazione del COVID-19 (+).

• No,  può essere regolarmente aggiornata con funzioni extra che estendono la sua funzionalità (–).

11. È utilizzata solo per la prevenzione?

• Sì, è usata solo per aiutare le persone a limitare volontariamente il contagio (+).

• No, è anche usata come passaporto per permettere alle persone di avere certi diritti o meno (–).

12. È usata per sanzionare?

• No, non è usata per obbligare un certo comportamento (+).

• Sì, il non adeguamento a quanto stabilito dall’app può risultare in una punizione come una multa o il carcere (–).

13. È open source?

• Sì, il codice è pubblicamente disponibile per analizzarlo, condividerlo e migliorarlo a livello collettivo (+).

• No, il codice è proprietario e nessun tipo di informazione in merito è pubblica (–).

14. È disponibile per tutti?

• Sì, è gratuita e distribuita a tutti (+).

• No, è arbitrariamente distribuita solo ad alcuni o ad alcune fasce della popolazione (–).

15. È accessibile per tutti?

• Sì, è user-friendly (anche per chi non è pratico) e funziona su tutti (o quasi tutti) i telefoni cellulari (+).

• No, funziona solo su alcuni specifici devices e serve una conoscenza digitale sufficientemente elevata (–).

16. C’è un processo per decommissionarla?

• Sì, ci sono le pratiche per renderla inutilizzabile (+).

• No, non ci sono pratiche (–).


Fonti:

– Amoore, L. e Piotukh, V. (2015), ‘Life Beyond Big Data: Governing with Little Analytics’, Economy and Society 44(3), 341-366. DOI: 10.1080/03085147.2015.1043793.

– Anonimo (2020), ‘È giusto sorvegliare gli spostamenti delle persone contro il coronavirus?’, il Post, 18 marzo. Disponibile su: https://www.ilpost.it/2020/03/18/sorveglianza-coronavirus-privacy/ (Ultimo accesso: 18 novembre 2021).

– Barbican Centre (2019), ‘Joy Buolamwini: examining racial and gender bias in facial analysis software’, Google Arts & Culture. Disponibile su: https://artsandculture.google.com/exhibit/joy-buolamwini-examining-racial-and-gender-bias-in-facial-analysis-software/LgKCaNKAVWQPJg (Ultimo accesso: 22 febbraio 2022).

– Benjamin, R. (2019), Race After Technology: Abolitionist Tools for the New Jim Code, Cambridge, UK: Polity Press.

– Bowker, G. e Star, S. (1999), Sorting Things Out: Classification and its Consequences, Cambridge, MA.: MIT Press.

– Boyd, d. e Crawford, K. (2012), ‘Critical Questions for Big Data’, Information and Communication Society 15(5), 662-679. DOI: 10.1080/1369118X.2012.678878.

– Broussard, M. (2018), Automated Unintelligence: How Computers Misunderstand the World, Cambridge, MA: MIT Press.

– Brown, D. e Toh, A. (2020), ‘How Digital Contact Tracing for COVID-19 Could Worsen Inequality’, Human Rights Watch, 4 giugno. Disponibile su: https://www.hrw.org/news/2020/06/04/how-digital-contact-tracing-covid-19-could-worsen-inequality# (Ultimo accesso: 22 febbraio 2022).

– Browne, S. (2015), Dark Matters: On the Surveillance of Blackness, Durham, NC: Duke University Press.- Cheney-Lippold, J. (2011), ‘A New Algorithmic Identity: Soft Biopolitics and the Modulation of Control’, Theory, Culture & Society 28(6), 164-181. DOI: 10.1177/0263276411424420.

– Costanza-Chock, S. (2020), Design Justice. Community-Led Practices to Build the Worlds We Need, Cambridge, MA: MIT Press.

–  Davis, S. L. M. (2020), ‘Contact Tracing Apps: Extra Risks for Women and Marginalized Groups’, Health and Human Rights Journal, 29 aprile. Disponibile su: https://www.hhrjournal.org/2020/04/contact-tracing-apps-extra-risks-for-women-and-marginalized-groups/ (Ultimo accesso: 22 febbraio 2022).

– Easterday, J. (2020), ‘Technology in Conflict: how COVID-19 contact tracing apps can exacerbate violent conflicts’, LSE Ideas, 12 agosto. Disponibile su: https://lseideas.medium.com/technology-in-conflict-how-covid-19-contact-tracing-apps-can-exacerbate-violent-conflicts-5df0ac0631c2 (Ultimo accesso: 22 febbraio 2022).

– Eubanks, V. (2018). Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, New York, NY: St Martin’s Press.

– Foucault, M. (1971), L’archeologia del sapere (traduzione di Giovanni Bogliolo), Milano, IT: Rizzoli. 

– Gitelman, L. e Jackson, V. (2013), ‘Introduction’. In: Gitelman, L. (Ed.), “Raw Data” is an oxymoron, Cambridge, MA: MIT Press, pp.1-15.

–  Harari, Y. N. (2016), Homo deus. Breve storia del futuro (traduzione di Marco Piani), Milano, IT: Bompiani.

– Haraway, D. (1988), ‘Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective’, Feminist Studies 14(3), 575-599. DOI: 10.2307/3178066 

– Hier, S. (2003), ‘Probing the Surveillant Assemblages: On the Dialectics of Surveillance Practices as Processes of Social Control’, Surveillance and Society 1(3), 399-411. DOI: 10.24908/ss.v1i3.3347

– Kitchin, R. (2021), Data Lives: How Data Are Made and Shape Our World. Bristol, UK: Bristol University Press.

– Lo, B. e Sim, I. (2021) ‘Ethical Framework for Assessing Manual and Digital Contact Tracing for COVID-19’, Annals of Internal Medicine 174, 395-400. DOI: 10.7326/M20-5834.

– Mayer-Schönberger, V. e Cukier, K. (2013), Big Data: A Revolution That Will Transform How We Live, Work and Think. London, UK: John Murray.

– Mittelstadt B. D., et al. (2016) ‘The ethics of algorithms: Mapping the debate’, Big Data & Society 3(2), 1-21. DOI: 10.1177/2053951716679679.

– Rouvroy, A. e Poullet, Y. (2009), ‘The Right to Informational Self-Determination and the Value of Self- Development: Reassessing the Importance of Privacy and Democracy’. In: Gutwirth, S, Poullet, Y., De Hert, P., de Terwangne, C. (Eds.), Reinventing Data Protection?, Dordrecht, NL: Springer, pp. 45-76.

– Saetta, B. (2020), ‘App di contact tracing: soluzione o problema?’, Valigia Blu, 30 maggio. Disponibile su:  https://www.valigiablu.it/app-immuni-contact-tracing-soluzione-problema/ (Ultimo accesso: 18 novembre 2021).

– Sekalala, S., et al. (2020), ‘Analyzing the Human Rights Impact of Increased Digital Public Health Surveillance during the COVID-19 Crisis’, Health and Human Rights 22(2), 7–20. DOI: 10.17615/8e8a-m957.

– Tedford, T. (2019), ‘Apple Card algorithm sparks gender bias allegations against Goldman Sachs’, The Washington Post, 11 novembre. Disponibile su: https://www.washingtonpost.com/business/2019/11/11/apple-card-algorithm-sparks-gender-bias-allegations-against-goldman-sachs/ (Ultimo accesso: 22 febbraio 2022).

– Van Dijck, J. (2014), ‘Datafication, dataism, and dataveillance: Big Data between scientific paradigm and secular belief’, Surveillance & Society 12(2), 197-208. DOI: 10.24908/ss.v12i2.4776

– Varley-Winter, O. (2020), ‘The overlooked governance issues raised by facial recognition’,  Biometric Technology Today 2020(5), 5-8. DOI: 10.1016/S0969-4765(20)30061-8.

– Weckler, A. (2020), ‘The Big Tech Show: Is stopping the spread of Coronavirus worth handing over our Google passwords to see where we’ve been?’, Independent.ie, 6 marzo. Disponibile su: https://www.independent.ie/business/technology/the-big-tech-show-is-stopping-the-spread-of-coronavirus-worth-handing-over-our-google-passwords-to-see-where-weve-been-39022193.html (Ultimo accesso: 18 novembre 2021).

– Whittaker, M. et al. (2019) ‘Disability, Bias, and AI’, AI NOW Institute. Disponibile su: https://ainowinstitute.org/disabilitybiasai-2019.pdf (Ultimo accesso: 22 febbraio 2022).