sabato, Novembre 23, 2024

Ultimi articoli

Articoli correlati

L’etica dell’intelligenza artificiale: una questione essenziale per un’assistenza eticamente sostenibile

Il clamore che circonda l’intelligenza artificiale (AI) in campo medico è ancora forte [1]. Il potenziale e le capacità dei sistemi di intelligenza artificiale sono chiari alla maggior parte delle persone, ma pochi sono ugualmente consapevoli di quanto sia importante progettarli correttamente.

Per quanto i sistemi di IA efficienti, accessibili ed economici possano essere, se costruiti correttamente, rischiano di essere razzisti, misogini e disuguali se costruiti in modo errato. [2, 3].

Lo sviluppo tecnologico è veloce, ma il dibattito etico è in ritardo, il che significa che noi medici rischiamo di impantanarci nel nostro lavoro clinico quotidiano. Tre aree importanti che influenzano l’etica dell’IA sono la questione della responsabilità, il pregiudizio sistemico e la questione della partecipazione dei medici allo sviluppo.

La questione della responsabilità può essere rappresentata nel modo seguente; La radice viene sottoposta a un esame a raggi X. Il sistema di IA valuta che non ci sia nulla di anormale e Ratt riceve un messaggio rassicurante. Un anno dopo, ha cercato di nuovo il trattamento e si è scoperto che aveva un tumore al polmone destro. Dopo la revisione, sembra che il tumore possa già essere visto nella prima foto. che è in carica? Sono stati gli ingegneri a sviluppare l’algoritmo, è stata la persona che ha acquistato il sistema o è stato il medico a trasmettere il messaggio?

Una soluzione è che i sistemi di intelligenza artificiale diventino solo consultivi e che il medico che prende la decisione diventi legalmente responsabile. Ma è moralmente responsabile? Si potrebbe certamente sostenere il contrario.

L’implementazione di strumenti che semplificano i processi di valutazione crea rischi che aumentano i requisiti di produzione. Affinché il medico possa recuperare il ritardo, le recensioni non saranno rigide. Il rischio è allora grande che il medico abbia troppa fiducia nel suo strumento robotico e prenda decisioni basate sulla sua autorità formale, ma senza reale potere o influenza, il cosiddetto sigillo di gomma. [4]. La domanda è se il medico in questi casi debba assumersi la responsabilità legale e morale.

READ  Il fumo aumenta il rischio di morire di cancro alla prostata

Il pregiudizio cognitivo (errori di pensiero sistematico) non si trova solo nel cervello umano. Anche i sistemi di intelligenza artificiale possono essere interessati e i rischi ad essi associati sono molto maggiori. Un singolo medico con pregiudizi dannosi crea problemi ai singoli pazienti che vede, mentre pregiudizi dannosi in un sistema di intelligenza artificiale possono avere conseguenze disastrose.

Gran parte del problema è dovuto alla sottorappresentazione dei dati di addestramento [3]. Proprio come un medico impara dai casi che vede, il sistema di intelligenza artificiale impara dai dati disponibili. Un medico che, ad esempio, è addestrato solo a valutare i cambiamenti della pelle nelle persone con la pelle chiara diventa bravo, ma è meno bravo a valutare i cambiamenti nelle persone con la pelle scura [5, 6]. Nei database per l’addestramento degli algoritmi di valutazione della pelle, le persone dalla pelle scura sono gravemente sottorappresentate [7]. Se questo continua, c’è un rischio significativo che le disuguaglianze sanitarie siano radicate [3].

Il terzo aspetto riguarda il tema della partecipazione allo sviluppo di algoritmi. Noi medici non dovremmo rimanere sul sedile del passeggero e consentire alle professioni tecniche di sviluppare algoritmi sanitari senza la nostra influenza. Anche i rappresentanti dei pazienti devono essere coinvolti direttamente, ma il coinvolgimento dei medici che sono clinicamente responsabili del paziente può aumentare indirettamente l’attenzione sul paziente.

Un ingegnere di intelligenza artificiale, l’amministratore delegato di un’azienda di tecnologia medica o altri a distanza da una persona malata o sofferente rischiano di ridurre il paziente a un punto dati. Un medico può, ovviamente, agire allo stesso modo, ma c’è una differenza: avere il privilegio e la fiducia di essere responsabile della vita di qualcun altro dà un senso di responsabilità e di appartenenza. Un clinico, con la propria esperienza, può aiutare a vedere un singolo paziente in un mare di dati.

READ  Il gemello digitale potrebbe progettare una cura per le malattie autoimmuni

Crediamo fermamente che medici e sistemi di intelligenza artificiale insieme possano fare cose straordinarie per l’assistenza sanitaria. Tuttavia, noi medici dobbiamo fare la nostra parte per contribuire a un’assistenza sanitaria eticamente sostenibile. Quindi gli obiettivi di apprendimento tradizionali nell’educazione medica devono fornire spazio per la riflessione etica associata alle nuove innovazioni tecnologiche, compresi gli algoritmi di intelligenza artificiale.

Giornale medico 32-33 / 2022

Lakartidningen.se