Intelligenza Artificiale e pazienti: un rapporto ancora poco chiaro

0 Commenti
376 Visualizzazioni

Che l’uso dell’intelligenza artificiale e del machine learning sia utile anche in ambito medico e scientifico è indiscusso, specie in momenti di sovraccarico delle strutture come quello che sta avvenendo nel mondo a causa della pandemia.

È innegabile però – e abbiamo già affrontato l’argomento nei giorni scorsi sulla nostra pagina LinkedIn – che anche l’IA va incontro a numerosi problemi, come bias, errori e malfunzionamenti, che rischiano di compromettere o comunque influenzare negativamente il suo utilizzo.

L’uso dell’Intelligenza Artificiale negli ospedali e i risvolti che ne derivano

Già oggi nel mondo, molti medici si appoggiano alla intelligenze artificiale per prendere decisioni sul come curare i loro pazienti. Da malati, non vorreste sapere chi sta decidendo della vostra salute e futuro – se si tratta di un giudizio squisitamente umano, o aiutato da IA?

Da quanto emerge da una ricerca di STAT, negli Stati Uniti non tutti i pazienti degli ospedali sono informati del fatto che ci sia una IA dietro la scelta sui trattamenti a cui andranno incontro.

Qualcuno obietterà che alcune decisioni derivanti dall’uso del machine learning e dell’intelligenza artificiale non siano poi così importanti da condividere con i pazienti, perché trattasi di strumentazione medica.

La questione però, quando si tratta di intelligenza artificiale, è diversa.

Ad esempio, molti reparti di oncologia fanno già uso di software di intelligenza artificiale, per valutare e prevedere diversi scenari, ed infine raccomandare le procedure con il più alto tasso di successo per il trattamento dei tumori.

Che succede se la terapia o l’operazione chirurgica scelte grazie al software di intelligenza artificiale non si rivelano adeguate?

Tendenzialmente, il medico potrebbe rispondere di responsabilità civile, ma potrebbero esserci anche importanti implicazioni per quanto riguarda la responsabilità di chi ha sviluppato il software di intelligenza artificiale, o di chi avrebbe comunque dovuto garantirne il corretto funzionamento.

Il paziente però per esercitare il suo diritto al risarcimento del danno ha bisogno di conoscere i processi decisionali che hanno portato a scegliere la terapia non adeguata.

Da questo deriva il diritto di informare le persone sull’uso di processi automatizzati che in qualche modo possono avere conseguenze dirette per la persona. Il Regolamento UE 2016/679 per la protezione dei dati già prevede un simile diritto, che però non è sufficiente per abbracciare ogni ambito di applicazione dell’intelligenza artificiale.

Perché i medici non informano i pazienti sull’uso dell’intelligenza artificiale?

I medici però non informano adeguatamente i pazienti in cura per diversi motivi.

Primo, per questioni di tempo.

Secondo, per la scarsa consapevolezza sulle implicazioni di queste tecnologie.

Terzo, per la complessità dei sistemi di intelligenza artificiale, che spesso a causa di un effetto “black-box” sono fin troppo opachi per essere compresi davvero.

Rimane poi la preoccupazione che i medici possano essere indisposti verso questo tipo di trasparenza, che potrebbe suscitare nel paziente reazioni avverse, sia verso il medico (che potrebbe perdere di autorevolezza), che verso il software.

La trasparenza va però perseguita

È nella confusione che però rischiano di sorgere problemi gravi. La trasparenza, specialmente quando parliamo di salute, è fondamentale.

Le aziende che sviluppano e vendono software di intelligenza artificiale dovrebbero dare indicazioni specifiche in merito alla trasparenza del software, specie per quanto riguarda i processi decisionali. Allo stesso tempo, gli ospedali e le cliniche dovrebbero adottare specifiche politiche di trasparenza.

Molti istituti si nascondono dietro al fatto che siano sistemi utilizzati sono per rendere più efficienti gli ospedali e le terapia, e che l’ultima parola rimane sempre al medico. Ciò non toglie che i pazienti sono ormai abituati a vedere e comprendere strumenti come TAC, ecografie e così via. Allo stesso modo, dovrebbero essere informati circa la natura degli strumenti di intelligenza artificiale, così da poterli comprendere e scegliere consapevolmente.

E nel mondo ideale a quale puntiamo, una discussione tra aziende che si occupano di Intelligenza Artificiale, strutture sanitarie e medici, ricercatori e professionisti della privacy sarebbe assolutamente necessaria.


Autrice: Ana Maria Fella