L’IoT è la cifra della quarta rivoluzione industriale, quella in cui il digitale esce dai computer e comincia a entrare negli oggetti, nella realtà. Ma forse si può andare anche oltre: l’IoMT, insieme ad internet, estende i nostri corpi e ci connette indissolubilmente. La svolta è rappresentata dall’IA generativa.
L’Internet of Medical Thing è da sempre una grande promessa della medicina del futuro, ma fino ad ora è rimasta tale. La narrazione prevalente è che l’IoMT genera una mole infinita di dati, difficili da normalizzare e da gestire e spesso con scarsa rilevanza clinica. Ci sono però alcuni elementi di novità interessanti che stanno cambiando radicalmente questa narrazione.
Le aziende che stanno cambiando la narrazione
Innanzitutto, l’emergere e lo stabilizzarsi di alcune soluzioni di mercato per omogeneizzare e standardizzare i dati. Un esempio è l’americana Validic, ora integrata nella piattaforma di EPIC e con Cerner (acquisita da Oracle). Di aziende simili a Validic ce ne sono un numero ormai interessante, come Health Recovery Solutions, Vivify Health, Current Health e Optimize health, per citarne solo alcuni. La differenza però è che la maggior parte di queste aziende preferisce utilizzare dispositivi medici per la rilevazione dei parametri vitali, invece che smartwach ed altri dispositivi più orientati al fitness o al wellness. Validic invece integra, oltre ai dispositivi professionali come flussimetri, i misuratori di pressione o i rilevatori di frequenza cardiaca catalogati come dispositivi medici, anche i vari Fitbit, Garmin, Apple Watch, Strava e tanti altri. Validic armonizza i dati provenienti dai dispositivi e dalle piattaforme (come, ad esempio, Google Fit o Apple Health) e li rende disponibili al personale clinico. Sul sito di Validic è attualmente pubblicata una lista di 567 app e device integrati.
L’entrata in scena dell’Intelligenza Artificiale Generativa
Il secondo elemento è l’entrata in scena dell’Intelligenza Artificiale nella versione attuale, che tramite le reti neurali riesce a dare risposte convincenti in tutti i casi in cui il problema possa ricondursi alla ricerca e al riconoscimento di “pattern”. Nell’ambito dell’analisi dei segnali biologici, il riconoscimento dei pattern è il 90% del problema ed ecco perché le reti neurali, a differenza dei “motori a regole” degli anni 70 e 80, possono produrre risultati di elevata qualità. Qui una nota di cautela è necessaria. Le reti neurali non sono la soluzione ad ogni problema e no, non abbiamo “svoltato” e non siamo di fronte ad una vera intelligenza generalista, nonostante l’entusiasmo suscitato da ChatGPT. I Large Language Model come ChatGPT non sono intelligenza, sono più dei predittori linguistici molto molto sofisticati. Però quello che tutti questi strumenti basati sul deep learning sanno fare bene è proprio quello di riconoscere e manipolare dei pattern. Era quello che ci mancava nel gestire la cornucopia di dati generati in tempo reale dall’IoMT e dell’IoT in generale.
Le proiezioni sulla crescita del mercato IoMT dicono che, a partire da circa 50 Miliardi di dollari nel 2020, si arriverà verosimilmente a 130-150 miliardi di dollari nel 2025. Cifre che raccontano di un mercato in grande fermento.
I mercati più ricchi sono naturalmente il Nord America e l’Europa, ma non è da meno l’area Asia-Pacifico.
La sfida di riuscire ad analizzare una mole enorme di dati
Quello che sta accadendo all’IoMT sta succedendo anche in altri mercati, dato che ormai la mole di dati destrutturati o semi strutturati (chiamati, con un termine inflazionato, Big Data) generali dalla digitalizzazione galoppante è soverchiante rispetto alla capacità umana di analisi. Uno studio di IDC indica che dal 2021 al 2025 il volume di dati generati, grazie anche al contributo dell’IoT, aumenterà a un tasso annuo del 23%, con una creazione di circa 175 Zettabyte (ZB) entro il 2025. Per inciso, uno zettabyte equivale a un trilione di gigabyte, difficile anche immaginarlo. Questa abbondanza è una ricchezza e una sfida.
Ad esempio, nell’ambito della cybersecurity, la mole di log disponibili anche in un’azienda di medie dimensioni è un potenziale tremendo per identificare eventuali situazioni di cyber-risk, ma una sfida ardua il loro utilizzo. Ecco allora che l’approccio si è evoluto nel tempo, passando da sistemi di identificazione delle minacce sugli end-point a sistemi, potenziati da algoritmi di intelligenza artificiale, che analizzano sia i dati dei dispositivi che i pattern di lavoro degli utenti e identificano eventuali anomalie. Non si tratta quindi di algoritmi deterministici basati su regole come nell’approccio tradizionale (=Tizio può accedere a questi applicativi da questi device e può fare queste cose), ma piuttosto di approcci di “pattern recognition”, tramite i quali possono essere identificati i “comportamenti standard” e quelli anomali. Ad esempio, se un utente si collega frequentemente ad un applicativo a cui normalmente non accede o da luoghi per lui inusuali, questo è un indicatore di pattern anomalo. Avete già capito che il tema dei “falsi positivi” qui è gigantesco, perché in aziende sempre più liquide e con lo smartworking galoppante… situazioni apparentemente anomale in realtà non lo sono. In ogni caso i sistemi UBA fanno proprio questo e, dopo una fase di training iniziale, danno risultati molto interessanti.
Lo stesso approccio può essere utilizzato per i “big data” generati dai dispositivi medici e dai wearable in ambito fitness e wellness. Sono molti ormai gli studi clinici che mostrano come i wearable possano essere utilizzati per monitorare i pazienti in varie situazioni.
Quando si potrà ridefinire il concetto di virtual hospital
Ma penso che il vero salto di qualità si avrà, come nell’ambito UBA visto sopra, quando sistemi di intelligenza artificiale evoluta verranno utilizzati per correlare dati da diverse fonti. A questo punto anche il concetto di Virtual Hospital potrà essere ridefinito grazie alla possibilità di utilizzare, per il monitoraggio remoto dei pazienti, un mix di dispositivi medicali certificati e di wearable/IoT per poter disporre di telemetrie avanzate e poco invasive sul paziente e sull’ambiente (temperatura, umidità…). La correlazione tra dati ambientali e fisiologici permette ad esempio di “pesare” rispetto al contesto i valori di pressione, di temperatura corporea ecc. La correlazione tra dati fisiologici multipli, in particolare se provenienti da wearable devices di tipo commerciale, può permettere di limitare i falsi positivi e i falsi negativi. E purtroppo (o per fortuna) dovremo abbandonare il mindset corrente che vede l’uomo come “interprete” dei dati, con accesso diretto alle fonti. Semplicemente questo non è più possibile, dovremo “fidarci” (ma con quali garanzie?) di intelligenze artificiali che analizzeranno per noi trilioni di informazioni, identificando patterns e fornendoci delle chiavi interpretative.
I tre problemi da considerare
Non dobbiamo però fare l’errore di cadere in un positivismo acritico. I problemi ci sono e sono tanti. Ne sintetizzo tre. Tutti e tre riguardano la fiducia: verso le macchine, verso gli altri, verso noi stessi.
- In primis, come essere sicuri di poterci fidare degli algoritmi a cui demanderemo l’analisi dei dati e l’elaborazione di ipotesi interpretative? Come essere sicuri che non ci siano dei bias, come più volte dimostrato? Non dimentichiamoci che gli algoritmi di intelligenza artificiale sono sviluppati da élite tecnologiche (o tecnocratiche) per lo più bianche, di sesso maschile ed anglosassoni. Ora per la verità si sta creando un altro polo, quello asiatico e in particolare cinese, che comunque ha già fatto emergere una sua élite tecnocratica[1] con dei propri bias.
- Il secondo problema riguarda invece la fiducia nella componente umana. Anche immaginando di porre in atto strategie di “algoretica”, come possiamo essere ragionevolmente certi che chi raccoglie e gestisce i nostri dati lo faccia in modo corretto ed etico? Anche senza pensare a intenzioni malevole dei gestori delle grandi piattaforme, vi è senza dubbio un livello di rischio elevato di hacking da parte di malintenzionati, di possibili abusi (magari con le migliori intenzioni) da parte delle aziende che manipolano i dati, di violazioni della privacy. Se pensiamo che alcuni dati raccolti potrebbero essere biometrici o genetici, il livello di rischio aumenta in modo esponenziale anche perché, secondo alcuni studi, molti degli IoMT sono facilmente hackerabili.
- Il terzo problema riguarda la fiducia che possiamo porre in noi stessi. Mi spiego meglio. Il tema dell’evoluzione digitale si gioca tutto non sulla capacità nostra di comprendere e di controllare i dettagli, ma sulla capacità di governare. E quando si parla di governo in italiano si intendono due cose: l’organizzazione di governo e i processi di governo (quest’ultima accezione è chiamata governance per gli anglosassoni). In questo momento in cui la tecnologia sta manifestando tassi di sviluppo esponenziale, quali sono gli organismi e i processi di governo che possediamo? L’Europa un po’ ci sta provando sia sulla privacy che sull’Intelligenza Artificiale, ma questo sarebbe proprio il caso di un organismo di governo mondiale. Anche la proposta di alcuni tecnocrati e scienziati di sospendere gli sviluppi sull’AI per sei mesi, pur lodevole perché ha attirato l’attenzione sulla necessità di governo, è però chiaramente inadeguata. È come se di fronte al problema del cambiamento climatico qualcuno dicesse: spegniamo tutte le fonti di inquinamento per sei mesi, così ci parliamo per capire cosa fare. La proposta è inadeguata innanzitutto perché utopica e poi perché per creare modelli di governo complessi ci vogliono anni. Comunque, in effetti anche nel caso dell’evoluzione digitale, dell’IoT e dell’AI, come per il cambiamento climatico, tutto si riconduce ad un tema di sostenibilità. Riusciremo a rendere sostenibile e governabile l’evoluzione che sembra travolgerci?
Insomma, l’IoT è la cifra della quarta rivoluzione industriale, quella in cui il digitale esce dai computer e comincia ad entrare negli oggetti, nella realtà[2]. Ma forse si può andare anche oltre: l’IoMT, insieme ad internet, estende i nostri corpi e ci connette indissolubilmente.
Conclusioni
Un insospettabile Joseph Ratzinger scriveva 1968, citando Teilhard de Chardin:
“Che ci sia questo processo di ‘complessificazione’ dell’essere materiale da parte dello spirito e, a partire da esso, una sua sintesi in una nuova forma di unità, lo possiamo in un certo senso sperimentare già oggi, nella trasformazione a opera della tecnica. Nella manipolazione del reale cominciano per noi già a scomparire i confini tra natura e tecnica […]. Nei processi cui assistiamo si va delineando una figura di mondo in cui spirito e natura non saranno più semplicemente uno accanto all’altra, ma lo spirito, in una nuova ‘complessificazione’, include in sé ciò che in apparenza è purante naturale, creando così un mondo nuovo, che comporta al contempo il tramonto del vecchio.”[3]
Complessificazione, trasformazione e manipolazione del reale, confini tra natura e tecnica che scompaiono: non so quante persone abbiano compreso queste parole nel 1968, ma descrivono in modo preciso e profondo quanto sta accadendo in questi anni. Non so dire se da questo stato di ‘complessificazione’ che stiamo vivendo, in cui IoT e intelligenza artificiale hanno una parte così importanti per la capacità di interconnettere e di modificare la realtà, nascerà una umanità rinnovata o una realtà distopica, ma spero fortemente nella prima ipotesi. Sono però fermamente convinto che ora siamo sul crinale: il mondo vecchio è al tramonto e quale delle due vie si realizzeranno dipenderà dalle scelte dei prossimi anni. Se anche Sam Altman chiede di costituire un’agenzia per regolamentare l’intelligenza artificiale, forse è veramente giunto il momento di fare qualcosa. Eppure, parafrasando un altro autore a me molto caro, credo che se avessi potuto scegliere, non avrei scelto nessun’altra epoca in cui vivere[4].
- Amy Webb – The Big Nine: How the Tech Titans and Their Thinking Machines Could Warp Humanity – published by PublicAffairs ↑
- “Sostenibilità Digitale” – S. Epifani ↑
- Introduzione al Cristianesimo – J. Ratzinger ↑
- Don Carlo Gnocchi, Educazione del cuore, 1937. La frase esatta è: “Amiamo di un amore geloso il nostro tempo, così grande e così avvilito, così ricco e così disperato, così dinamico e così dolorante, ma in ogni caso sempre sincero e appassionato. Se avessimo potuto scegliere il tempo della nostra vita e il campo della nostra lotta, avremmo scelto…il Novecento senza un istante di esitazione.” ↑
Fonte immagine copertina: https://www.previti.it/limpatto-dellintelligenza-artificiale-sulla-profilazione
l’Autore: Giuliano Pozza
Chief Information Officer at Università Cattolica del Sacro Cuore