L’approccio digitale ai disturbi mentali richiede una prospettiva etica

Con la rapida espansione delle frontiere della salute digitale, come succede con qualsiasi avanzamento in un nuovo o in questo territorio, lo spazio che si crea può sembrare privo di regole.1 All’ECNP 2019 si è discusso del fatto che è quindi necessaria una regolamentazione per chiarire le responsabilità e nuovi codici etici per mantenere gli standard di responsabilità nell’era dell’Intelligenza Artificiale e dei big data. Per coloro che si occupano di salute mentale, è giunto il momento di pensare proattivamente.

Al simposio sono stati presentati due esempi convincenti dell’impatto delle nuove tecnologie sulle relazioni sociali e legali.

Uno, tratto dal calcio, mostrava un’applicazione limitata; l’altro, relativo alle auto senza conducente, riguarda potenzialmente chiunque.

Entrambi però hanno implicazioni per la pratica medica, nel senso che pongono una domanda fondamentale sulla nostra responsabilità nel processo decisionale.

Nell’esempio del calcio, l’arbitro contestato dai giocatori mostra la tecnologia che lo ha assolto dal ruolo di prendere una decisione: “il computer dice NO”. Nessuna discussione o negoziazione, fine della storia.

Se i sistemi esperti minano il controllo significativo, cosa succede alla responsabilità clinica ed etica?

Nel secondo esempio, il conducente di un’autovettura autonoma che provoca un incidente sta guardando un film nel momento in cui – in teoria – avrebbe dovuto tenere le mani sul volante ed essere pronto ad invertire un’eventuale decisione errata presa dal computer di bordo.

 

Colpevolezza fin dalla progettazione

In questo esempio, la persona a cui è tecnicamente assegnata la responsabilità è giudicata colpevole. Ma se le persone vengono messe in una posizione in cui i normali processi psicologici fanno sì che non possano sostenere l’attenzione e la concentrazione necessarie per essere al comando, non è la tecnologia stessa ad essere colpevole di “induzione al reato” creando condizioni in cui gli incidenti sono inevitabili?

Se i sistemi esperti minano il controllo significativo, cosa succede alla responsabilità clinica ed etica? Non è questa colpevolezza fin dalla progettazione?

L’Intelligenza Artificiale può alterare la comprensione delle esperienze professionali e la relazione medico-paziente

Queste domande si applicano ugualmente ad una complessa situazione clinica in cui i sistemi esperti arrivano ad una diagnosi o una decisione sul modo migliore di gestire i pazienti. Dove risiedono la legittimità etica e la responsabilità legale? Cosa succede alle vecchie relazioni tra medico e paziente, basate sulla fiducia, e in che modo i medici mantengono l’orgoglio professionale nel valore di ciò che fanno quando è una macchina ad aiutarli? Dov’è la linea di confine?

 

L’etica medica è qualcosa di più dei divieti

Al momento, ci sono più domande che risposte, ma la sessione dell’ECNP ha sottolineato la necessità di pensare in modo proattivo alle domande: il momento di farlo è “prima” che le nuove tecnologie prendano piede, non dopo. 

La discussione deve essere multidisciplinare e coinvolgere gli specialisti in etica. Per etica, in questo contesto non intendiamo dire alle persone cosa dovrebbero o non dovrebbero fare, o come essere buoni, ma identificare le loro preoccupazioni morali, stimolare la discussione su di esse e integrare i risultati nello sviluppo della tecnologia. Questo approccio è migliore del cercare di aggiungere delle soluzioni dopo l’evento.

Gli esseri umani devono mantenere un grado significativo di controllo

Disponiamo di biomarker digitali, terapie basate su software (sempre più comuni nel campo della salute mentale) e algoritmi avanzati a supporto della diagnosi e della gestione del paziente. Ciascuno di questi strumenti può avere problemi di accuratezza, efficacia, responsabilità professionale e legale. È quindi giusto che l’ECNP mostri un interesse crescente in questo campo e che ciò si sia rispecchiato in questo stimolante simposio.

 

Evitare un’algocrazia

Si dovrebbe essere cauti nel coniare nuove parole senza che ve ne sia bisogno, ma sembra che “algocrazia” abbia un senso.2 Dopo la democrazia, o la burocrazia, potremmo entrare in un mondo che non è governato da persone, o da funzionari, ma da algoritmi? La previsione è che tale mondo esisterà.

Nella sfera pubblica, tale sviluppo porterebbe una crisi di legittimità nel processo decisionale. Anche nel campo medico, il dominio incontrastato dell’Intelligenza Artificiale e del machine learning causerebbe problemi. Gli esseri umani devono mantenere un grado significativo di controllo, secondo quanto esposto all’incontro dell’ECNP.

Our correspondent’s highlights from the symposium are meant as a fair representation of the scientific content presented. The views and opinions expressed on this page do not necessarily reflect those of Lundbeck.

References

1. Nebeker C et al. BMC Med 2019;17(1):137.

2. Danaher J. Philosophy and Technology 2016;29(3)