Melissa Beebe, un’esperta infermiera dell’unità di oncologia presso il Davis Medical Center dell’Università della California, ha dedicato anni alla cura dei pazienti affetti da cancro. Sa come prendere decisioni, valutando le condizioni dei pazienti. Uno addormentato con le pupille dilatate potrebbe aver avuto un ictus, una persona anziana con un respiro rancido potrebbe avere un’ostruzione addominale e via dicendo.
Un giorno è scattato un allarme riguardante un paziente di oncologia al quale era stata diagnosticata un’infezione. Beebe era convinta che ci fosse un errore: “Lavoro con malati di cancro da quindici anni e so come appare un paziente colpito da setticemia“. L’allarme, generato dalla presenza di globuli bianchi nel sangue, sembrava confermare la presenza di un’infezione. Tuttavia, l’algoritmo che guidava le attività dell’unità oncologica aveva analizzato solo i dati numerici, ignorando il fatto che il paziente soffriva di leucemia. Il robot, come riferito dal Wall Street Journal, non aveva spiegato il motivo della sua decisione.
Questo potrebbe essere un nuovo problema nel sistema sanitario americano. Sempre più ospedali negli Stati Uniti stanno affidandosi all’intelligenza artificiale, sostituendo infermieri che, oltre alle loro competenze tecniche, si basano sulle loro esperienze sul campo accumulate nel corso degli anni. Dettagli come il colore della pelle di un paziente, un leggero movimento delle palpebre o della mano, o un gonfiore sospetto spesso possono indicare una crisi imminente, che solo il personale ospedaliero esperto è in grado di riconoscere, anche se non sono descritti in alcun manuale di studio. Lo stesso vale per i sintomi descritti dal paziente, che possono fornire informazioni sulle condizioni che cambiano, migliorano o peggiorano. Ma l’intelligenza artificiale non è in grado di comprendere queste sfumature. Procede solo in base a criteri rigidi, escludendo la percezione umana.
L’espansione della tecnologia negli ospedali sta generando tensioni tra il personale medico e infermieristico. L’intelligenza artificiale è in grado di analizzare i dati dieci volte più velocemente rispetto agli esseri umani ma non può comprendere se un paziente sta soffrendo veramente o prova dolore. Non può, con sicurezza, stabilire un percorso diagnostico accurato. Per cui, a tratti, l’utilizzo dell’IA in Ospedale fa davvero paura. Possiamo essere veramente sostituiti da un robot? Questa sarebbe la risposta alla carenza di personale infermieristico?
Secondo un’indagine condotta dal sindacato National Nurses United, il 24% dei partecipanti ha dichiarato di aver preso decisioni basandosi sulle indicazioni degli algoritmi, nonostante queste non fossero ritenute nel migliore interesse del paziente. Ma l’IA ha parlato. Di questi, il 17% ha dichiarato di aver potuto ignorare il robot, mentre il 31% non ha potuto farlo. Un altro 34% ha dovuto chiedere il permesso al supervisore o al medico del reparto.
Nei centri di traumatologia, gli algoritmi vengono utilizzati per avvisare gli infermieri di eventuali cambiamenti nelle condizioni dei pazienti. In generale, i nuovi assunti sembrano fidarsi dell’intelligenza artificiale più di quanto facciano i colleghi con più esperienza. Con il passare degli anni e l’avanzare della tecnologia questa potrebbe diventare la norma. Sempre più algoritmi e sempre meno intuizione. Sempre meno personale agirà in base alle segnalazioni fornite direttamente dal paziente e sempre meno infermieri si baseranno sulla valutazione di segni/sintomi.