Il 29 gennaio 2024, un post su X di Elon Musk ha suscitato l’attenzione globale dei media per l’impianto da parte dell’azienda Neuralink di un dispositivo elettronico, chiamato Telepathy N1, nel cervello di un individuo disabile. L’apparecchio promette di mettere in comunicazione diretta con un computer il paziente, affinché quest’ultimo possa muoversi e operare nell’ambiente superando i limiti impostigli dalla patologia (una quadriplegia che gli blocca tutti gli arti). Il razionale scientifico, in sintesi, è che gli elettrodi inseriti nella corteccia registrano l’attività dei neuroni corrispondenti all’intenzione del movimento, la traducono e la trasmettono in modalità wireless grazie al chip collocato nel cranio.
Di qui la sintesi suggestiva quanto imprecisa di “strumenti comandati con il pensiero”. L’annuncio ha provocato sia un “entusiasmo tecnologico” (“L’unione perfetta tra umanità e tecnologia è realizzata?”) sia “allarme neuroscettico” (“Tutte le ombre di un potenziamento senza etica”), sebbene le notizie fornite sull’intervento siano state finora scarse e molto di ciò che si può ricostruire proviene da precedenti comunicazioni della società e dello stesso Musk.
Successivamente, il 20 marzo, lo stesso imprenditore ha diffuso un video del paziente, 29 anni, da otto paralizzato dopo un tuffo, che descrive come riesca a muovere il puntatore del computer e quindi a giocare a scacchi, videogiochi e a postare messaggi su X. Il giovane si descrive in ottime condizioni, parla del dispositivo come di facile utilizzo, anche se «non tutto è perfetto». In una successiva presentazione, presente il paziente, sono stati forniti alcuni dati sui tempi di utilizzo del dispositivo. E Musk ha fatto sapere che il passo successivo sarà il tentativo di ripristinare la vista in persone cieche con la stimolazione diretta della corteccia visiva.
Di fronte a questo indubbio avanzamento tecnico (altri impianti simili sono già stati realizzati, quello di Neuralink sarebbe più performante – del tutto senza fili, compresa la ricarica – e meno invasivo) è opportuno fare chiarezza e approfondire i diversi profili clinici, etici, normativi, sociali e filosofici che sono toccati dal progresso nella ricerca sulle neurotecnologie.
Aspetti clinici
Dal punto di vista neurochirurgico, le tecniche invasive (Cortical Brain Stimulation o CBS) e mininvasive (Deep Brain Stimulation o DBS) di neuromodulazione cerebrale sono in uso da alcuni decenni in ambito clinico, con risultati confortanti per il trattamento di patologie neurologiche. La tecnica della DBS per alcune particolari malattie (morbo di Parkinson, alcune turbe psichiatriche, sindrome di Tourette) nei casi di inadeguata risposta farmacologica fornisce risposte terapeutiche positive in un’alta percentuale di casi. Uno stimolatore esterno (pacemaker inserito sottocute e regolabile in funzione del tipo di stimolazione che si vuole inviare nei target cerebrali ai quali giungono gli elettrodi intracranici posizionati) invia impulsi elettrici in grado di “attivare” i nuclei neuronali identificati come bersaglio da neuromodulare. Dal punto di vista neuroetico, in queste situazioni l’intervento, una volta ottenuto il consenso informato del paziente, è legittimato in quanto si tratta di una procedura di tipo terapeutico su soggetti malati.
Si lavora anche per realizzare interventi in grado di creare un’interfaccia cervello-computer (Brain-Computer Interface, BCI); il primo caso umano risale al 1998. In questo caso sono gli stimoli cerebrali, captati attraverso microelettrodi posizionati su alcune aree cerebrali (corteccia parietale motoria, corteccia temporale), che inviano i loro segnali a un computer che li decodifica in modo tale che essi possano essere utilizzati per fare svolgere un’azione non possibile altrimenti per un danno cerebrale (come nei disturbi del linguaggio) o midollare (come nelle tetra- o paraplegie).
Clamore aveva suscitato il “ponte digitale”, messo a punto all’Università di Losanna, tra il cervello di un uomo paraplegico a causa di un incidente e la parte di midollo spinale indenne al di sotto della lesione, permettendogli in tal modo di tornare a camminare. Quando l’uomo pensava di camminare, gli elettrodi cerebrali rilevavano i segnali elettrici della corteccia che, decodificati attraverso un sistema di controllo informatico wireless indossabile contenuto in uno zaino, venivano trasmessi in tempo reale al midollo spinale, dove altri elettrodi lì applicati svolgevano la funzione di interfaccia attiva.
Diverse aziende, soprattutto statunitensi (Precision Neuroscience, Synchron Medical, Paradromics, Blackrock Neurotech, BrainGate e Corticale solo per citarne le principali) lavorano da tempo per mettere a punto sistemi di questo tipo sempre più perfezionati. Neuralink dunque non opera come antesignana in questo ambito, anche se le novità tecnologiche del loro primo impianto umano riguardano la miniaturizzazione del dispositivo collocato a livello intracranico e il grande numero (più di un migliaio rispetto alle consuete centinaia) di sottilissimi microelettrodi posti a livello della corteccia cerebrale. Da sottolineare inoltre la procedura robotica d’impianto del device.
Aspetti bioetici e neuroetici
La sperimentazione di Neuralink promette di offrire benefici rilevanti per varie tipologie di pazienti con patologie neurologiche. Le possibili preoccupazioni riguardano in primo luogo la sicurezza dell’impianto e del dispositivo. È importante ottenere dati certi sul corretto funzionamento e su eventuali effetti collaterali a medio e lungo termine, inclusa la qualità del segnale, la durata nel tempo del device e l’esperienza dell’utilizzatore; vanno anche stimati la probabilità che si renda necessaria la rimozione o sostituzione del device e i rischi connessi a tali interventi. Va considerato anche il pericolo di malfunzionamento improvviso, dato che stiamo parlando di un sistema che comanda effettori esterni e che quindi può provocare danni a soggetti terzi. Su questi aspetti, Neuralink dovrebbe fornire maggiori informazioni, oltre a rendere pubblicamente disponibile il protocollo. Inoltre, ci si può interrogare sulla possibilità di sovraccaricare il cervello attraverso l’interazione con dispositivi esterni.
Nel novero degli aspetti etici e della comunicazione dei rischi, bisogna prendere in considerazione il fatto che i pazienti con gravi disabilità, come quelli affetti da locked-in syndrome, tetra- o paraplegia, possano essere così desiderosi di ottenere un miglioramento da accettare rischi elevati senza una piena comprensione delle implicazioni. Tuttavia, è fondamentale garantire a tali pazienti ampia autonomia decisionale, anche quando accettino di sottoporsi a trattamenti sperimentali o poco testati, purché siano informati in modo adeguato sui potenziali rischi e benefici.
Un altro tema delicato è quello delle garanzie di continuità di assistenza da parte di aziende private. L’integrazione di una BCI del tipo impiantato da Neuralink fa sì che essa diventi parte fondamentale del soggetto e la manutenzione assume un rilievo centrale per il benessere del paziente. Che cosa accadrà se l’azienda cessasse l’attività o i costi diventassero proibitivi per il paziente? Sembra sensato normare il settore per tenere conto anche di queste eventualità non così remote.
Inoltre, il sistema realizzato da Neuralink (come peraltro anche quelli di altre industrie che lavorano in questo ambito) è bidirezionale e questo apre incognite sia sui problemi legati al suo possibile uso come mezzo per potenziare le capacità fisiche e mentali di persone sane (e non essere usate solo per i malati) sia sulla possibilità di estrapolare informazioni che invadano la sfera della privacy individuale. Queste nuove capacità di interfaccia cervello-macchina aprono affascinanti prospettive in ambito neuroscientifico (diventa realtà il sogno di realizzare dei “cyborg” e interagire in modo dinamico con l’Intelligenza Artificiale), ma tutto questo richiede un’attenta riflessione critica relativa all’impiego di questa neurotecnologia se non vogliamo perdere il controllo della nostra dimensione umana.
Aspetti legati all’etica della ricerca
Il processo tradizionale di disseminazione scientifica, che prevede la pubblicazione di risultati attraverso riviste peer-reviewed, conferenze specializzate e database pubblici, è fondamentale per garantire trasparenza, verificabilità e integrità nella ricerca scientifica. Questo approccio consente alla comunità scientifica e al pubblico di valutare criticamente i metodi, i risultati e le implicazioni etiche degli studi. Tuttavia, la prassi adottata da Neuralink, di comunicare aggiornamenti significativi tramite piattaforme di social media, segnala una deviazione da questi standard consolidati, sollevando preoccupazioni riguardo alla trasparenza e alla responsabilità etica.
Sempre dal punto di vista dell’etica della ricerca, la mancata registrazione dello studio clinico di Neuralink nel database ClinicalTrials.gov viola le linee guida etiche fondamentali per la ricerca biomedica, quali la Dichiarazione di Helsinki. Questa omissione rende difficile per la comunità scientifica e il pubblico valutare la sicurezza, l’efficacia e l’etica della ricerca condotta. Infatti, la preregistrazione dei trial clinici rappresenta una pratica fondamentale nel panorama della ricerca biomedica per diverse ragioni etiche, che vanno dalla trasparenza alla responsabilità fino alla protezione dei partecipanti. Questa procedura consiste nell’iscrivere lo studio in un registro pubblico prima dell’inizio della raccolta dei dati, dettagliandone il disegno, gli obiettivi, le ipotesi, le misure e le analisi previste.
Tale pratica sostiene l’integrità della ricerca e rafforza la fiducia pubblica nei risultati scientifici per quattro motivi. Anzitutto, preregistrare un trial clinico significa rendere pubblici gli obiettivi e le metodologie dello studio prima che questo abbia inizio. Ciò aumenta la trasparenza della ricerca, permettendo alla comunità scientifica e al pubblico di avere accesso a informazioni chiare e dettagliate sugli studi in corso. La trasparenza è cruciale per costruire e mantenere la fiducia nel processo di ricerca, evidenziando l’impegno degli scienziati nei confronti dell’onestà e dell’integrità.
Secondariamente, la preregistrazione aiuta a prevenire l’outcome switching, una pratica che comporta la modifica degli obiettivi o degli esiti primari di uno studio dopo aver osservato i dati. Tale pratica può portare a distorsioni nei risultati della ricerca e a conclusioni potenzialmente fuorvianti. La preregistrazione fissa gli obiettivi dello studio prima dell’inizio della raccolta dei dati, riducendo il rischio di reporting selettivo e aumentando la validità e la credibilità dei risultati scientifici.
Ancora, la preregistrazione evidenzia la responsabilità degli scienziati nei confronti della comunità scientifica e dei partecipanti allo studio. Indicando chiaramente il disegno dello studio e gli obiettivi prima dell’inizio della raccolta dei dati, i ricercatori si impegnano a seguire un percorso predeterminato, aumentando la responsabilità per le proprie azioni e decisioni. Questo aspetto è particolarmente rilevante in studi che implicano questioni etiche delicate o il benessere dei partecipanti.
Infine, la preregistrazione contribuisce alla scienza fornendo una visione completa degli studi condotti, inclusi quelli che potrebbero non portare a risultati significativi o pubblicabili. Questo aiuta a combattere il problema del file drawer, ovvero la tendenza a non pubblicare studi con risultati negativi o non significativi. Rendendo pubblici tutti gli studi preregistrati, la comunità scientifica può avere un quadro più completo e accurato del panorama della ricerca, favorendo un avanzamento più olistico e informato della scienza.
Aspetti giuridici
Interfacce cervello-computer (BCI) quali quelle di Neuralink pongono in modo rilevante il tema della tutela dei diritti della persona rispetto alla ricerca scientifico-tecnologica e all’uso di tali device. Va, infatti, protetta la sfera della libertà dal potere pubblico (soprattutto rispetto a regimi non democratici) e privato (con riferimento ai grandi player tecnologici), oltreché da singoli terzi (malevoli): sfera che comprende sia la dimensione corporale (se il dispositivo richiede operazioni chirurgiche), che quella “mentale” (cognizione, memoria, sensorio, …), la quale può essere perturbata o violata dalla manipolazione dei segnali cerebrali mediante BCI.
Occorre anche assicurare la tutela dell’integrità psico-fisica dell’utilizzatore di BCI in termini di sicurezza del dispositivo. Vi sono, peraltro, diritti che beneficiano di un ampio sviluppo di BCI: il diritto all’autonomia e all’inclusione sociale delle persone diversamente abili (comunicazione, domotica, ecc.) o il diritto alla salute (recupero da patologie psichiche o motorie).
Rilevante è l’impiego delle BCI, anche da parte di normodotati, per l’esercizio di diritti a contenuto economico (come l’acquisto di beni e servizi) o personale (per es. consenso/rifiuto informato a trattamenti dati, a interventi sanitari…). In tali casi, va assicurata la corretta rappresentazione della volontà di colui che si serve dell’interfaccia, e che sia possibile disconnettervisi.
Molti dei diritti coinvolti dal prender piede di BCI trovano codificazione nelle costituzioni nazionali o nelle carte internazionali attuali, senza, però, esser mai stati “pensati” come “neuro-diritti”. È, quindi, aperto il dibattito se applicare codeste norme alla nuova realtà, o se procedere alla “codificazione” di appositi “neuro-diritti”, e a che livello (come fu fatto per la genetica). In ogni caso, nel definire il quadro dei neuro-diritti fondamentali, non si può prescindere dai necessari bilanciamenti, e dalla considerazione del rilievo che assume la finalità dell’uso del device.
Lo sviluppo della neurotecnologia in ambito medico ha portato grandi speranze a pazienti con disturbi neurologici o malattie mentali. Ma cosa succede quando questi metodi per registrare, interpretare o alterare l’attività cerebrale lasciano l’arena clinica, governata da rigorosi standard e norme bioetiche, e diventano un prodotto disponibile per il consumatore?
Da una parte, la questione dell’aggregazione e analisi di dati cerebrali ottenuti attraverso queste tecnologie può essere inquadrata all’interno dei dibattiti sulla tutela della privacy. Quando però le neurotecnologie disponibili sul mercato non si limitano all’ottenimento dei dati ma agiscono sul cervello, sorgono rischi di natura diversa.
Le risposte normative a questi rischi nell’Unione Europea e negli Stati Uniti sono differenti: mentre nell’UE la regola è la medicalizzazione di molti dispositivi neurotecnologici (considerati di classe III, alto rischio), ai quali si applica il Regolamento EU 2017/745 sui dispositivi medici, negli Stati Uniti, le neurotecnologie dirette al consumatore possono evitare di essere considerate dispositivi medici rivendicando una finalità di benessere o wellness. Di conseguenza, se il rischio associato al suo utilizzo è basso, il device sarà considerato un prodotto di consumo al quale sarà applicabile la legislazione sui consumatori (sicurezza del prodotto e normativa sulla pubblicità).
I legislatori su entrambe le sponde dell’oceano sembrano preoccuparsi principalmente dei rischi per la sicurezza e la salute che il loro utilizzo comporta, tralasciando l’impatto sull’integrità mentale, autonomia e libertà di pensiero e sui valori a esse correlate. Dal 2019, organizzazioni internazionali come l’OCSE o l’UNESCO hanno reagito a questo vuoto di governance attraverso l’adozione di dichiarazioni che affrontano gli aspetti etici e di diritti umani delle neurotecnologie.
Aspetti psicologico-filosofici
Che si tratti di un nuovo corso o di una semplice evoluzione di tecniche già ben note al mondo della medicina riabilitativa o della ricerca neuroscientifica applicata (come le interfacce cervello-computer, per esempio), la suggestione del superamento dei confini pensiero-azione pone alcuni quesiti alla ricerca e all’intera società. Limitandoci alle applicazioni relative al sistema motorio, senza aprire ulteriori scenari per estensioni del dispositivo a funzioni di più alto ordine, tre i possibili punti critici che si pongono all’attenzione, che aprono quesiti senza avere risposte immediate: come cambia il nostro senso di agency; che cosa fare della conoscenza “embodied”; quale il ruolo del mirroring dell’azione nello sviluppo del senso di con-divisione sociale.
Innanzitutto, il senso di agency (che significa essere agenti nel mondo attraverso la nostra azione) che origina dal compiere azioni, dall’averne feedback sensoriale, propriocettivo, che consente lo sviluppo di una body ownership, alla base del senso di essere autore dell’azione (authorship) e più estesamente di identità personale come agente nel mondo, con piena responsabilità del volere, del pensare e dell’agire. Il venir meno della mediazione dell’azione per agire nel mondo, modificandolo, quali scenari può aprire?
In secondo luogo, come le neuroscienze cognitive ci hanno detto, il cervello (dal bambino in poi) costruisce conoscenze astratte e di alto livello sulla base dell’esperienza sensoriale, mediata dal vedere, toccare, manipolare le cose del mondo, che diventano poi pensieri, ma pur sempre ancorati a quella precisa esperienza sensoriale “incarnata”, come il linguaggio ci suggerisce, preservando questa natura embodied del sapere: un nuovo pensiero disincarnato che natura avrebbe?
Infine, i meccanismi di mirroring (dai mirror neurons in poi) che vedono nell’osservazione dell’altro agente un’occasione di rispecchiamento, fondamentale per riconoscere “il sé nell’altro”, per sviluppare il senso di empatia e, in ultima analisi, una socializzazione costruita sull’inter-azione. Una persona dunque con una soft agency, disincarnato, sarà più solipsistico? È possibile, ma certamente possiamo dire che applicazioni come quella di Neuralink promuovono il primato del pensiero sull’azione, eliminandone la linea di demarcazione.
Un altro aspetto rilevante è che il carattere interamente “mentale” del rapporto col computer, senza la mediazione di arti artificiali, determina un approfondimento del fenomeno di disincorporazione del sé: l’individuo può concepirsi come “esteso” al di là del proprio corpo in un ente complesso che integra in sé il computer. Ciò può modificare l’esperienza del sé e può potenzialmente mettere alla prova l’autenticità del vissuto coscienziale del soggetto; se si adotta una definizione minimale di postumano, come un individuo che possiede almeno una capacità postumana, si può addirittura dire che l’individuo con questo device impiantato sia postumano.
Infatti, le BCI sollevano interrogativi filosofici profondi riguardanti la nostra stessa natura umana. Ci dobbiamo chiedere se questi interventi possano portare a un cambiamento fondamentale nella nostra identità, trasformandoci in una sorta di cyborg, un ibrido tra essere umano e macchina. In tal caso, sorge la domanda se diventare meno umani e più simili a robot sia per se stesso un fatto negativo, o se ci siano aspetti positivi da considerare.
Probabilmente la difficoltà di integrare nella propria identità individuale qualcosa di esterno e non biologico è un prezzo meritevole di essere pagato, a fronte del miglioramento della qualità di vita e di comunicazione con l’ambiente realizzabile per i pazienti candidabili a questo trattamento. Nondimeno, questo tipo di ricerca va seguita con attenzione, perché c’è il rischio che, procedendo ulteriormente nella linea di un’ibridazione del corpo con parti non biologiche, si finisca con il compromettere nei pazienti un’esperienza di vita autenticamente umana.
Inoltre, bisogna capire se l’introduzione delle BCI possa interferire con la nostra autonomia. È possibile che l’accelerazione del collegamento tra pensiero e azione o la limitazione dei freni inibitori possa indebolire la nostra libertà decisionale o, al contrario, aumentarla, soprattutto per coloro che sono fisicamente limitati e incapaci di eseguire azioni che normalmente una persona farebbe autonomamente.
Una questione correlata all’autonomia è quella della responsabilità. Come possiamo determinare la responsabilità morale e legale per le azioni compiute tramite una BCI? È difficile stabilire se un individuo avesse effettivamente l’intenzione di compiere un’azione o se questa sia stata influenzata da un malfunzionamento del dispositivo o da una manipolazione esterna, come un hacking del sistema.
Infine, l’introduzione delle BCI solleva la possibilità futura del brain uploading, ovvero la creazione di una copia del cervello umano. Questo rappresenta una svolta significativa nella nostra comprensione della mente e apre nuove possibilità rispetto all’estensione indefinita della vita umana, ma solleva anche interrogativi etici e filosofici profondi che richiedono attenta riflessione e ampia discussione.
Aspetti relativi al potenziamento
Ciò che è peculiare del progetto di Neuralink e che – oltre alla popolarità di Musk – può essere utile menzionare per comprendere l’interesse (e talvolta la preoccupazione) che questa BCI ha suscitato – un interesse che altri dispositivi non hanno ricevuto – è l’esplicito riferimento alle sue possibili applicazioni non terapeutiche. La maggior parte dei dispositivi in uso o in sperimentazione sono pensati unicamente, o primariamente, per aiutare coloro che soffrono di una patologia che rende difficile o impossibile svolgere alcune funzioni della vita ordinaria. Il sito ufficiale di Neuralink è, invece, molto chiaro nell’indicare come il proprio obiettivo sia duplice: «Creare un’interfaccia cerebrale generalizzata per restituire l’autonomia alle persone con esigenze mediche insoddisfatte oggi e sbloccare il potenziale umano domani».
È così questo secondo obiettivo che giustifica la peculiare attenzione riservata all’applicazione di un dispositivo non in soggetti affetti da qualche patologia invalidante, ma in soggetti sani, «per sbloccare il loro potenziale umano». Interventi di questo tipo sono da qualche decennio discussi ampiamente all’interno del dibattito neuroetico sotto l’etichetta di potenziamento umano (human ehancement). Senza assumere posizioni eccessivamente ottimistiche o pessimistiche rispetto alle potenzialità e i rischi di questo utilizzo, è certamente importante considerare le obiezioni e i problemi che in quel dibattito vengono messi in evidenza per comprendere se e fino a che punto riteniamo desiderabile l’uso potenziante delle BCI.
Ci si potrebbe, infatti, chiedere che cosa significhi «sbloccare il potenziale umano», qual è questo potenziale e come possiamo essere certi che a decidere le funzioni o le potenzialità desiderabili non siano solo fattori commerciali. Che cosa riteniamo essenziale mantenere degli esseri umani così come oggi li conosciamo e che cosa è invece da migliorare? Chi può decidere su questioni di questo tipo? Se il dispositivo di Neuralink sarà disponibile sul libero mercato e avrà importanti effetti su aspetti cruciali della nostra persona – sbloccando quel potenziale di cui il sito parla -, renderà meno equa la competizione lavorativa? Il suo costo permetterà a tutti coloro che vogliano usufruirne di poterlo fare o sarà per alcuni proibitivo, incrementando il già notevole vantaggio posizionale di alcuni? Si tratta di interrogativi che coinvolgono anche profili giuridici, sia dal punto di vista della responsabilità sociale delle scelte individuali, sia, all’opposto, rispetto alla tutela dei diritti fondamentali da obblighi di potenziamento imposti per ragioni di pubblico interesse in specifici contesti (per esempio, militare).
È presto per alcune di queste domande, poiché Neuralink è ancora in fase sperimentale su un singolo paziente, ma è importante che casi come questo sollecitino una riflessione più vasta. Per quanto il cammino sia lungo, Neuralink si sta muovendo rapidamente e considerare il possibile uso potenziante di questa tecnologia è utile per valutare eventuali regolamentazioni, ma anche futuri dispositivi ancora più avanzati. Pensare in anticipo circa la desiderabilità è fondamentale per non essere preda di entusiasmi o timori infondati e per comprendere meglio e decidere più consapevolmente che cosa riteniamo socialmente utile o consentito – non tanto per l’uso terapeutico delle BCI, quanto per il loro possibile utilizzo in chiave di potenziamento.
Aspetti di responsabilità nell’innovazione: verso quali fini?
Il caso Neuralink (e le sperimentazioni analoghe già tentate, come ricordato in precedenza) ci porta a osservare, insieme, il dito e la luna; operazione che il comune buon senso riterrebbe sconsigliabile ma alla quale non possiamo sottrarci, perché i big player delle tecnoscienze – siano essi i big del settore digitale o le molteplici intraprese targate Musk – evocano l’interrogativo: a quale sapere andrà il potere?
Che si tratti di capire se l’uso dei dati estratti dagli esperimenti sia o non sia regolato dalle norme esistenti (l’innovazione, si sa, non è “normale”, difficile regolarla), oppure di considerare l’impatto sulla sfera pubblica di un annuncio “scientifico” emanato tramite social network dei quali l’imprenditore scienziato è anche il proprietario, fronteggiamo collettivamente il problema dello scrutinio pubblico sui processi di innovazione.
Infatti, allorché ci si accinga a disegnare non solo politiche della ricerca aggiornate, ma nuovi neurodiritti (habeas corpus, habeas mentem), è inevitabile constatare che le neuroscienze, come le scienza della vita o l’intelligenza artificiale, hanno portato fuori dall’accademia il dibattito sulla “crisi dei saperi esperti”, trasferendo il problema della fiducia (a chi mi affido?) direttamente nella sfera dell’opinione pubblica. Appena gli esseri umnai sanno e possono di più, subito si scatena la lotta per definire verso quali fini questo plus di potere – l’innovazione – vada orientato.
È il tema evocato dalla responsabilità nell’innovazione, le cui prassi si sono istituzionalizzate dagli anni duemila nella formula Responsible Research and Innovation (RRI): ecco diffondersi strumenti come consensus conference, giurie di cittadini, momenti di deliberazione pubblica che comportano il coinvolgimento di cittadini, stakeholder e istituzioni quando si tratti di affrontare investimenti pubblici – o di normare – tecnologie controverse. Presa da sola, la RRI non risolverà il problema sempre più aperto del rapporto tra tecnoscienza e società; ma è necessario collocarla nell’alveo più largo della diplomazia della scienza. Se il ministero della Scienza e tecnologia cinese ha inserito le brain-computer interface tra le sette aree d’innovazione strategiche per il Partito (documento del gennaio 2023), e se otto ore dopo l’annuncio di Neuralink i canali social cinesi hanno rivendicato loro analoghi esperimenti, abbiamo abbastanza materiale per ricordarci, come collettività, che sul versante della neuroetica non si attestano “solo” gli avanzamenti nella ricerca o quelli di mercato, ma si definisce una parte rilevante del nostro assetto sociale in questo secolo. Meglio, dunque, non sottovalutare i risvolti di responsabilità e gli strumenti di cui ci dotiamo per tradurli nella pratica.
Immagine: DA: Neuralink Electrode Insertion Demo, di Steve Jurvetson (CC BY 4.0 Deed).