Skip to content

Intelligenza artificiale e Medicina

Intelligenza artificiale e Medicina

L’uso dell’intelligenza artificiale in medicina: profili di responsabilità

In questi ultimi anni, ed in particolar modo nell’ultimo anno, proprio anche a causa della pandemia COVID-19, la medicina, come abbiamo più volte avuto modo di vedere, ha dovuto impegnarsi ed espandere alcuni ambiti di operatività, come quello legato allo sviluppo e utilizzo dell’intelligenza artificiale in ambito medico.

Certo, interventi con l’utilizzo congiunto della macchina e dell’uomo non sono poi così rari, ma altro è pensare al servirsi della macchina, da parte del medico, altro è che la macchina sostituisca il medico stesso.

Un lampante esempio di ciò, si verifica in ambito radiografico.

In molte realtà, infatti, la lettura delle radiografie viene ora eseguita meccanicamente da computer in grado di individuare e quindi qualificare la lesione all’interno delle immagini radiografiche.

Intelligenza artificialeCiò che però la macchina, almeno ad oggi, non riesce a fare è comprendere la natura della lesione stessa.

È in questa differenza, che qui si prende a modello per la sua semplicità ed evidenza, che forse risiede l’esigenza della compartecipazione e compenetrazione tra attività umana e artificiale.

Ma oltre al profilo di comprensione dei fatti, viene in rilievo un secondo elemento fondamentale:

quale responsabilità ha la macchina nei confronti delle proprie “dichiarazioni”?

Lo scenario che si apre è dei più vasti ed è connotato da un’assoluta incertezza, attesa l’attualità e novità del problema.

Da un lato un filone di pensiero ipotizza che il medico che analizza e valuta i dati offerti dalla macchina si frapponga di fatto tra quest’ultima ed il paziente, e che quindi su di lui debba ricadere la responsabilità in caso di errore.

Questa interpretazione, però, esporrebbe il medico a ulteriori, gravi responsabilità per fatti non derivanti dalla sua condotta personale.

Al contempo però alcune correnti sembrerebbero invocare una forma di responsabilità nei confronti del trainer–produttore, ossia di colui che materialmente ha costruito e programmato l’intelligenza artificiale.

Altri ipotizzano invece una responsabilità della struttura sanitaria, derivante dalla custodia e dall’utilizzo degli strumenti meccanici, assimilando lo sfruttamento di tali strumenti nelle attività cosiddette pericolose, ai fini civilistici, con tutto ciò che ne consegue a livello di responsabilità, onere probatorio e conseguente rischio professionale.

Ciò che rileva, ad oggi, è che se da un lato la stessa Commissione Europea, nelle proprie raccomandazioni, spinge affinché si diffonda l’utilizzo di questa intelligenza artificiale in ambito medico, dall’altro canto si avverte la stringente necessità di creare apparati in grado di tutelare i pazienti ma anche le strutture sanitarie e i medici da eventuali richieste risarcitorie, magari imponendo alle società produttrici di dotarsi di specifici fondi e polizze idonee a coprire i danni svolti dai propri prodotti “nell’esercizio della professione”.

Contattaci per raccontarci la tua esperienza e per approfondimenti!

Articoli Correlati