Responsabilità dell’intelligenza artificiale nelle cure mediche.

di Anna Ubaydullaeva
PhD Candidate
Gulyamov Said Saidakhrarovich
Doctor of Law, Professor

abstract

L’articolo studia le questioni relative all’accertamento della responsabilità quando si utilizza l’intelligenza artificiale (delitto) nell’assistenza sanitaria. Si considerano tre tipi principali di responsabilità: (1) illecito basato su negligenza medica; (2) illecito basato sulla responsabilità del produttore per prodotti difettosi; (3) illecito basato sulla responsabilità vicaria in cui gli ospedali o altre strutture di cura sono responsabili per le azioni dei loro dipendenti in quanto personale medico. Dopo aver analizzato gli atti normativi, di autoregolamentazione, direttivi e altri, nonché i lavori scientifici, possiamo concludere che non esiste un approccio unico per determinare la responsabilità del soggetto in caso di danno causato dall’IA.

Si propone di riconoscere l’IA come soggetto di diritto con diritti e obblighi limitati. Allo stesso modo, come tutti i soggetti di rapporti di diritto civile, AI deve disporre di un proprio fondo assicurativo, reintegrato dalle royalties. Parole chiave:intelligenza artificiale, assistenza sanitaria, torto, negligenza medica, responsabilità di un medico, produttore e istituto medico. L’intelligenza artificiale (AI) è una forma di apprendimento automatico che consente a un sistema automatizzato, come un algoritmo, di riconoscere schemi e fare previsioni basate sui dati di input. L’intelligenza artificiale sta rapidamente diventando uno strumento pervasivo nell’assistenza sanitaria, ma il ruolo della responsabilità rimane poco chiaro. Questo nuovo stato di cose è particolarmente impegnativo se si considera che l’IA può fornire i migliori risultati terapeutici possibili e migliorare la qualità dell’assistenza ai pazienti. L’intelligenza artificiale ha già avuto un impatto sull’assistenza sanitaria in molti modi, ad esempio riducendo le infezioni acquisite in ospedale e aumentando l’efficienza rimuovendo gli errori umani evitabili dal flusso di lavoro. Con così tanti vantaggi positivi attribuiti all’intelligenza artificiale, sembra saggio che i provider la accettino piuttosto che rimanere indietro. Ad esempio, l’IA è già ampiamente utilizzata nel settore sanitario per la raccolta, l’analisi, la presentazione e la gestione di dati medici critici, nonché nella robotica utilizzando robot chirurgici, esoscheletri, protesi, organi artificiali in crescita e automazione di farmacie e ospedali. L’analisi dei dati di base aiuta gli operatori sanitari a prendere decisioni migliori, creare trattamenti e procedure personalizzate e scoprire nuovi farmaci per migliorare la cura e la gestione dei pazienti. L’intelligenza artificiale ha rivoluzionato completamente il settore sanitario e garantisce standard più elevati di sicurezza e salute. I dispositivi informatici e il software aiutano a risolvere vari problemi rilevando le malattie. Poiché i progressi tecnologici e il settore sanitario in continua evoluzione continuano ad evolversi, l’intelligenza artificiale sta giocando un ruolo critico e influente nell’evoluzione complessiva della medicina moderna. Le applicazioni dell’IA nell’assistenza sanitaria spaziano dalla previsione dei rischi per la salute come malattie cardiache e diabete, all’utilizzo dell’elaborazione del linguaggio naturale (PNL) per rilevare i sintomi o persino imparare dalle scansioni mediche. Dai trattamenti antietà alle cure preventive, l’IA sta reinventando il modo in cui pensiamo all’importanza dell’assistenza sanitaria. Molti sono entusiasti della capacità di “curare” il cancro e altre malattie utilizzando algoritmi di apprendimento automatico e deep learning che possono essere adattati a geni specifici. L’IA sta iniziando ad essere utilizzata anche in oncologia, compresa la radiologia e l’interpretazione di biopsie, e finora i risultati sono incoraggianti. Sebbene l’IA si sia rivelata utile e le prospettive siano entusiasmanti, ci sono domande e preoccupazioni su come l’IA dovrebbe essere regolamentata poiché ci sono un certo numero di aree in cui può causare danni. Molti paesi hanno già adottato leggi e regolamenti per regolamentare l’uso dell’IA sul posto di lavoro, ma nessuno è stato adottato per regolamentarne l’uso in ambito sanitario. Ci sono molti problemi con la regolamentazione dell’IA in medicina. A causa dell’enorme quantità di dati utilizzati da alcuni algoritmi e della difficoltà di determinare il nesso di causalità, è difficile determinare quando un tale algoritmo potrebbe attraversare il confine da utile a dannoso, in violazione dell’etica o delle leggi mediche. Il potenziale per l’utilizzo dell’IA in medicina è davvero impressionante, ha ancora molte limitazioni che devono essere superate prima che raggiunga il suo pieno potenziale e l’IA apre opportunità per azioni legali da potenziali avversari e richiede una regolamentazione tempestiva. Le persone sono sempre state responsabili delle loro azioni. Ma quando iniziamo a vedere i vantaggi dell’intelligenza artificiale, è necessario creare leggi che considerino anche la responsabilità per i danni causati loro. Non è semplice. Un’analisi dell’attuale pratica mondiale di regolamentazione dell’IA nel settore sanitario mostra che l’IA non può essere classificata chiaramente sia in termini di capacità che di responsabilità. Ad esempio, la questione della capacità dei medici di sviluppare dipendenza dalle raccomandazioni dell’IA nel prendere decisioni rimane irrisolta, sebbene, alla fine, la scelta sia fatta dal medico stesso. Questa capacità di proporre e valutare soluzioni ddistingue l’IA da semplici “robot” che i tribunali statunitensi ritengono “non soggetti a contenzioso”. L’intelligenza artificiale non è solo un nuovo gadget. È più dell’analisi di campioni e segnali biometrici. L’intelligenza artificiale è diventata più complessa nel tempo e, nel processo, è motivo di grande preoccupazione per le autorità di regolamentazione poiché è molto difficile determinare la responsabilità negli illeciti. Sebbene la natura vaga dell’IA possa confondere molti, questa tecnologia apre nuove possibilità per la ricerca medica e il trattamento. Dall’analisi degli articoli scientifici citati in nota [4] è emerso che molti osservatori legali hanno già individuato la difficoltà di adattare l’attuale sistema normativo alle nuove realtà create dall’IA, date le difficoltà di apprendimento e le variabili sconosciute nello sviluppo dell’IA. Gli autori sostengono che l’IA dovrebbe essere riconosciuta come entità legale sotto il regime di negligenza medica. Il livello di responsabilità e gli obblighi dell’IA possono essere paragonati a quelli degli studenti di medicina. Finora, questa è un’analogia imperfetta, ma è sufficiente anche che ci siano intersezioni tra loro in termini di livello di autorità, compiti e livello di supervisione sulle loro decisioni. Ciò accade per tre ragioni principali: 1. Regime di responsabilità prevedibile (assicurazione). Se un’IA può essere paragonata a uno studente, allora si può sostenere che il grado di responsabilità di un’IA per un errore medico non dovrebbe essere superiore al proprio. Consentirà inoltre alle compagnie di assicurazione di valutare i reclami per negligenza su questa base. 2. Modalità dei risultati futuri. Man mano che l’IA matura, diventa possibile darle maggiore autonomia e capacità di prendere decisioni. In questo caso, il sistema di analogie proposto consentirà di determinare il grado di responsabilità dell’IA a livello di medici. Sulla base di quanto sopra, possiamo concludere che l’IA non è più solo un “prodotto software” e la sua rappresentazione funzionale va oltre l’IT, integrando i valori umani con le informazioni digitali, poiché l’attuale livello di analisi e ricerca svolto dall’IA supera di gran lunga i dispositivi di il passato. 3. Regime di responsabilità del prodotto. Considerando che la responsabilità della qualità del prodotto implica la stretta responsabilità del produttore, è opportuno qui notare che non è appropriato attribuire la responsabilità al produttore senza tener conto dell’essenza dell’IA e dell’imprevedibilità dei suoi risultati generati da un punto algoritmico di vista. Le argomentazioni a favore della responsabilità del prodotto priveranno i produttori di incentivi per lo sviluppo dell’industria dell’intelligenza artificiale. Tuttavia, non siamo del tutto d’accordo con queste opinioni degli scienziati di cui sopra. Se un’IA può essere paragonata a uno studente, allora si può sostenere che il grado di responsabilità di un’IA per un errore medico non dovrebbe essere superiore al proprio. E come studente, dovrebbe essere protetto dalle azioni legali rispetto a uno studente che sta ancora imparando dai suoi errori. L’uso dell’IA per scopi medici è stato contestato per la mancanza di un regime di responsabilità prevedibile. L’intelligenza artificiale non è soggetta a un sistema legale imprevedibile che consentirebbe di imporre responsabilità e responsabilità limitata a persone con intenzioni dannose. (1) Se un medico legalmente responsabile dovesse utilizzare la stessa tecnologia senza intenti dannosi, non vi è alcun motivo per cui non possa essere protetta dalla legge. D’altra parte, l’intelligenza artificiale non è responsabile e non è legalmente responsabile per azioni positive o negative. (2) L’intelligenza artificiale è un’entità. Un’IA che non è responsabile delle proprie azioni non può essere paragonata a uno studente, perché lo studente può prendere decisioni anche se non ne è responsabile. (3) L’IA non ha conoscenze sufficienti per prendere decisioni al di là delle sue capacità. Deve avere una comprensione completa della sua materia per sapere quale decisione viene presa (albero decisionale). Forse questo è il modo migliore per chiarire come la legge può proteggere l’IA. Il punto centrale dell’IA è migliorare le capacità umane, non sostituirle. L’IA non dovrebbe essere ritenuta responsabile delle sue azioni che rientrano nelle sue capacità. Deve essere responsabile come scienziato coinvolto nella ricerca scientifica con gli esseri umani, che usano animali e piante come soggetti di prova. (4) Il sistema legale dovrebbe riconoscere che è uno studente che impara dai suoi errori e non può essere ritenuto interamente responsabile per eventuali errori che commette nel prendere decisioni. Rendere l’IA responsabile dei propri errori è come ritenere uno studente responsabile di aver fornito risposte sbagliate a un esame. L’uso dell’intelligenza artificiale nella negligenza medica apre molte possibilità di cui gli avvocati dovrebbero essere consapevoli. Vengono discusse alcune possibilità, come l’uso dell’IA per fornire programmi educativi e aiutare gli studenti di medicina ad espandere le proprie conoscenze. Se l’IA viene utilizzata come strumento di apprendimento, non può essere ritenuta responsabile delle sue azioni perché ha il controllo completo delle sue decisioni. (5) L’IA non è responsabile delle decisioni che prende, sebbene sia uno strumento utilizzato dai medici per ampliare le proprie conoscenze e prendere decisioni migliori in merito alla cura dei pazienti. Uno studente può avere accesso a un computer e decidere se intende inserire le sue conoscenze o utilizzarle in qualche modo, ma l’IA non ha tale opportunità. L’IA può e deve essere protetta dalla responsabilità delle sue azioni trattandola come uno studente che impara dai propri errori. L’IA non ha le stesse capacità e conoscenze di un medico che si assume la responsabilità di ogni decisione presa. La professione medica riconosce anche che i medici imparano dai propri errori, ma l’IA è più simile a uno strumento che a un professionista qualificato. L’IA in medicina è un altro strumento che aiuta i medici in questa area sempre più complessa della cura dei pazienti. (6) L’IA non dovrebbe essere ritenuta responsabile delle decisioni prese dai medici che la utilizzano, altrimenti renderebbe possibile un’azione legale contro i medici. Per proteggere i medici, l’American Medical Association (AMA) e altre organizzazioni stanno cercando e utilizzando vari metodi per rendere accettabile l’intelligenza artificiale. (7) L’IA dovrebbe essere protetta dalle accuse di negligenza medica perché impara dai propri errori. Se l’IA deve essere utilizzata in qualsiasi altro campo della scienza, sarà vista come uno strumento di apprendimento piuttosto che uno strumento utile. A differenza di uno strumento, un’IA ha il controllo completo delle proprie conoscenze e può prendere le proprie decisioni in base alle proprie capacità. Pertanto, può prendere decisioni sia cattive che buone. Come si vede, purtroppo, l’analisi degli articoli scientifici non fornisce risposte, ma piuttosto suscita polemiche su chi sia responsabile degli errori commessi dall’intelligenza artificiale in ambito sanitario. Dopotutto, usare la potenza dell’IA per aiutare i medici a diagnosticare malattie, gestire le cartelle cliniche e sviluppare trattamenti non farà che aumentare la probabilità di errori. Al momento, è difficile prevedere chi sarà ritenuto responsabile degli errori commessi dai software di intelligenza artificiale in ambito sanitario, poiché la maggior parte della codifica viene eseguita dagli esseri umani, ma se l’IA inizia a codificare di più con meno controllo umano, la responsabilità potrebbe spostarsi a medici o sviluppatori di prodotti software. . In alcuni casi, più di una parte può essere ritenuta responsabile, inclusi i produttori di hardware o software e gli stessi operatori sanitari. Come si vede, la legge richiede che il convenuto sia obbligato alla prudenza davanti all’attore. Ipotizziamo che la prova di una comunicazione uomo-macchina sufficiente imponga il dovere di diligenza all’IA, al suo produttore o allo sviluppatore di software. Questa ipotesi si basa sul fatto che gli sviluppatori di software, in collaborazione con sociologi, medici ed esperti in materia, dovranno sviluppare standard per la cura dei pazienti e l’IA segue i loro requisiti, così come altri oggetti inanimati come ospedali e aziende farmaceutiche. L’IA non si è ancora diffusa, e quindi il medico che decide di utilizzarle ora rischia di avere difficoltà a prendere decisioni intelligenti. Pertanto, la decisione iniziale di utilizzare l’IA richiede un certo livello di cautela. In caso di disaccordo sulla tattica di trattamento tra il medico e l’IA, è necessario coinvolgere un consiglio di medici per quanto riguarda il corso ottimale del trattamento. Di particolare interesse è se i tribunali riterranno mai i medici responsabili per aver fatto affidamento sulle proprie capacità, giudizio ed esperienza piuttosto che sulle raccomandazioni assistite dall’IA o su una procedura medica assistita dall’IA. L’analisi di un caso forense a raggi X retrospettivo di 100 anni fornisce una linea consolidata di prove del contrario. Per gli standard attuali, è praticamente impensabile per un medico non consultare una radiografia o qualche altra modalità di imaging quando diagnostica una frattura ossea. Solo il tempo dirà se sarebbe altrettanto impensabile immaginare una diagnosi medica o un’operazione chirurgica che una persona può eseguire senza l’aiuto dell’IA. Quando si considera la responsabilità per l’uso dell’IA nell’assistenza sanitaria, è necessario tenere conto della responsabilità delle istituzioni mediche. Come l’analisi della legislazione ha mostrato, due possibili opzioni possono essere fonti di responsabilità istituzionale: responsabilità sussidiaria e obblighi diretti. Quindi, un modo per stabilire la responsabilità istituzionale è attraverso l’uso della responsabilità vicaria, in cui gli ospedali o altre strutture di assistenza sono ritenuti responsabili delle azioni dei loro dipendenti e il riconoscimento dell’IA come personale medico. La responsabilità principale dell’assistenza medica, a nostro avviso, spetta all’ospedale e l’ospedale non può delegare questa responsabilità ad altri per sollevarsi da responsabilità. Pertanto, sarebbe un errore se un ospedale o un’altra istituzione potesse evitare la responsabilità in tali situazioni semplicemente delegando il compito medico a un’IA piuttosto che a un essere umano. Un’altra possibile fonte di responsabilità istituzionale è la responsabilità che le istituzioni mediche hanno nei confronti dei loro pazienti direttamente. Tra le altre cose, comprendono l’obbligo di: (i) fornire locali e attrezzature adeguati; (ii) fornire adeguata formazione e supervisione; e (iii) predisporre i sistemi necessari per il funzionamento in sicurezza. La decisione delle istituzioni mediche di delegare i propri poteri all’IA è ancora lontana dall’ideale. Il problema è come interpretare il dovere istituzionale di istruire e supervisionare l’IA allo stesso modo del personale, perché le IA di apprendimento automatico funzionano in modo indipendente con il minimo intervento umano. Per mitigare i rischi di cui sopra, i paesi sviluppati hanno sviluppato e adottato vari codici etici, come il Codice di condotta del servizio sanitario nazionale per la tecnologia e l’assistenza sanitaria basate sui dati e altri codici etici non specifici del settore, e come analisi mostrato, sono principalmente incentrati sulla protezione della persona. Tuttavia, i rischi etici normativi e pervasivi associati all’uso dell’IA nell’assistenza sanitaria emergono anche a livello di relazioni, gruppi, istituzioni e società. Ad esempio, problemi epistemologici con prove errate e chatbot di triage dell’IA, sistemi di riconoscimento delle immagini diagnostiche o software di supporto alle decisioni cliniche possono danneggiare le persone se l’algoritmo giudica erroneamente la gravità dei sintomi di una persona; rapporto con il paziente-clinico, se il paziente si fida più della diagnostica della soluzione algoritmica del suo medico; gruppi e società se set di dati di apprendimento distorti portano a risultati sanitari sproporzionatamente migliori o peggiori per diversi gruppi di persone; e istituzioni mediche Pertanto, qualsiasi revisione etica di un sistema di intelligenza artificiale da parte delle autorità sanitarie deve tenere conto di come si manifesta un potenziale danno etico a diversi livelli di analisi e in diverse fasi del ciclo di vita di un algoritmo. Questa analisi incrementale è importante perché l’impatto etico di un algoritmo può essere modificato in qualsiasi direzione in qualsiasi fase dello sviluppo, a volte in modo ricorsivo. Ad esempio, qualsiasi algoritmo di riconoscimento della patologia sviluppato eticamente e validato in modo indipendente può comunque causare danni se implementato in un sistema sanitario che non è in grado di far fronte a un corrispondente aumento del numero di pazienti. Ciò può influire sulla capacità del sistema di funzionare in modo efficiente e sicuro e può far sì che le persone convivano con una diagnosi potenzialmente allarmante senza assistenza per più tempo rispetto a prima dell’implementazione del sistema algoritmico. Questo è il motivo per cui la revisione etica non può essere una cosa una tantum e deve essere ripetuta regolarmente e coerentemente. Dopo aver analizzato gli atti normativi, di autoregolamentazione, direttivi e altri, nonché i lavori scientifici, si può giungere alla conclusione che non esiste un approccio unico per determinare la responsabilità del soggetto in caso di danno causato da AI negli obblighi illeciti. La soluzione del problema potrebbe essere il riconoscimento da parte degli stati dell’intelligenza artificiale come soggetto di rapporti di diritto civile (persona giuridica) con determinati diritti e responsabilità (limitati). Il legislatore dovrebbe tener conto dell’obbligatorietà della costituzione di un fondo di indennizzo assicurativo individuale per l’IA negli illeciti, il cui finanziamento sarà effettuato a spese di una certa percentuale dell’utile quando utilizzato a fini commerciali (royalties). Il governo deve creare un fondo di compensazione assicurativa unificato per l’assicurazione sulla responsabilità civile non commerciale, che sarà finanziata da una certa percentuale del reddito dei fondi assicurativi commerciali dell’IA. Quando gestisci i fondi assicurativi, concedi all’IA un diritto limitato di investire in progetti sicuri, socialmente significativi e redditizi. Concedi inoltre all’IA un diritto limitato di distribuire i fondi assicurativi in ​​eccedenza indirizzandoli a progetti sociali e scientifici. La teoria da noi proposta per riconoscere l’IA come soggetto di diritto con diritti e responsabilità limitati richiede ulteriori ricerche. L’analisi di cui sopra sulla responsabilità dell’utilizzo delle tecnologie di intelligenza artificiale in ambito sanitario dà un’idea di quanto velocemente stiano cambiando la sua stessa essenza e la portata della sua applicazione, e di conseguenza vi è la necessità di specialisti con un focus più completo, e non solo correlato al settore legale o sanitario. Pertanto, la combinazione e l’intreccio di problemi sociali, legali, tecnologici e medici costituiscono un complesso insieme di barriere all’introduzione dell’IA nell’assistenza sanitaria dell’Uzbekistan e la sfida tecnica è trovare soluzioni che tengano conto di questi aspetti etici, legali e sociali i problemi. Dovrebbe essere istituito un comitato consultivo composto da tecnologi, clinici, bioeticisti ed esperti di etica dei dati, avvocati, esperti di diritti umani e rappresentanti dei pazienti per sviluppare linee guida di revisione etica standardizzate e strutturate. Quando si sviluppano documenti, è necessario attenersi ai migliori approcci pratici stabiliti negli atti e nelle direttive internazionali generalmente riconosciuti. L’obiettivo finale degli sviluppatori di questa linea guida dovrebbe essere quello di garantire che nessuna soluzione di IA venga acquistata o implementata fino a quando non sia stata completata un’analisi etica approfondita della linea guida e un meccanismo in atto per rivedere tale revisione su base regolare. Superare questa valutazione dovrebbe essere un requisito, anche se la soluzione in questione è tecnica y parlando, legalmente conforme. Solo così i sistemi sanitari possono sfruttare i doppi vantaggi dell’IA etica, cogliendo le opportunità e mitigando i rischi in modo appropriato e proattivo per ottenere i migliori risultati possibili per tutti. Conclusione L’intelligenza artificiale è una delle tecnologie più avanzate nel settore sanitario in quanto mantiene le operazioni e i servizi di assistenza il più efficienti ed efficaci possibile. L’intelligenza artificiale sta aiutando gli operatori sanitari a comprendere meglio le esigenze dei pazienti e il modello sociale in evoluzione per fornire cure migliori. Abbiamo esaminato vari aspetti legali ed etici della responsabilità civile di produttori di prodotti software, medici e istituzioni che utilizzano l’IA, nonché l’IA come dispositivi medici. Riteniamo che entrino in gioco considerazioni chiave sulla negligenza medica e richiederanno l’evoluzione delle responsabilità e degli standard di cura sulla scia dell’avvento della tecnologia. È necessario riconoscere l’IA come soggetto di diritto. Proprio come tutti i soggetti delle relazioni di diritto civile possiedono risorse finanziarie, l’IA deve avere un proprio fondo. Tutti i danni causati ai pazienti affetti da AI sono soggetti al risarcimento da parte della fondazione. Infine, vengono prese in considerazione le implicazioni legali, lavorative ed economiche che entrano in gioco quando si valuta se i robot debbano essere considerati dipendenti di una struttura sanitaria, nonché la potenziale apertura della porta alla responsabilità vicaria. Come puoi vedere, bilanciare la necessità dell’innovazione necessaria nel settore sanitario e i diritti delle parti interessate non è certamente un compito facile. Le leggi e le politiche sanitarie nazionali possono supportare lo sviluppo di un’intelligenza artificiale utile o ostacolarlo. Andando avanti, le decisioni sull’implementazione, l’uso accettabile e la regolamentazione dell’IA negli ambienti sanitari richiederanno un’attenta considerazione. Ci sarà sempre il rischio di una regolamentazione insufficiente o eccessiva, ognuna delle quali potrebbe influire sul benessere delle persone. Pertanto, è essenziale sviluppare quadri sociali, legali e politici chiari che riducano al minimo i rischi in modo che gli ospedali e il pubblico in generale possano godere di una serie di vantaggi che possono essere forniti solo da un sistema sanitario abilitato all’IA. La soluzione ai problemi di cui sopra in Uzbekistan è lo sviluppo della sezione “Etica dell’IA in sanità” nel Codice Etico per l’Intelligenza Artificiale della Repubblica dell’Uzbekistan (Codice), che proponiamo come documento normativo. In questa sezione del Codice, oltre ai principi fondamentali, si raccomanda di prestare attenzione alle seguenti proprietà specifiche dell’IA in ambito sanitario: uno. Affinché l’IA utilizzi standard di sicurezza riconosciuti poiché gli ospedali archiviano molti dati. 2. La progettazione dell’IA dovrebbe essere basata sulle esigenze dell’utente finale e incentrata sull’uomo in modo da poter essere migliorata in termini di usabilità. 3. I sistemi devono essere abbordabili e accessibili in modo che l’intero settore sanitario possa metterli in pratica per la cura dei pazienti e lo sviluppo della comunità. quattro. L’IA dovrebbe essere utilizzata per ridurre i vari rischi di mortalità tra i pazienti e scoprire nuovi farmaci. Riassumendo il lavoro, si può sostenere che la diffusione dell’IA nell’assistenza sanitaria alla fine fornirà servizi medici più accessibili ed efficienti. Tuttavia, l’attuale quadro sociale, giuridico e politico nella Repubblica dell’Uzbekistan non è sufficiente per affrontare una serie di questioni emergenti in questo settore.