La lettera firmata da Musk per sospendere lo sviluppo dell’intelligenza artificiale è una sorta di auto moral suasion. Il sindacato non teme la rivoluzione digitale
Mentre il Garante della privacy sospende momentaneamente l’utilizzo di Chat Gpt in ottemperanza al Gdpr, un lungo elenco di firmatari, tra cui Elon Musk e Steve Wozniak (uno dei fondatori di Apple), chiede di sospendere per sei mesi gli sviluppi dei sistemi di intelligenza artificiale del tipo di Chat Gpt. I due fatti, come è chiaro, sono del tutto distinti, ma merita attenzione questa richiesta di “moratoria” posta in essere da chi quei sistemi li finanzia, li studia e, soprattutto, li commercializza.
I dubbi di Bill Gates
Sono in molti a chiedersi, non senza ragione, quale sarà lo sviluppo di meccanismi di intelligenza artificiale sempre più sofisticata. Bill Gates, dopo il lancio di Bard, unico attuale competitor di Chapt Gpt, non nascondeva il rischio che si potesse creare una IA sempre più forte, tanto da essere in grado di stabilire da sé i propri obbiettivi. Se c’è un tema su cui, anche come Cgil, abbiamo sempre puntato il dito, è che i modelli di IA presentano problemi di trasparenza e riproducono, secondo meccanismi di autoefficientamento, comportamenti e casi tratti dai database utilizzati per addestrarli.
Un’improvvisa paura
I rischi sono ovvi. Ma qual è, tra gli altri, il tema che come grande organizzazione di massa ci interessa? La concentrazione in mano a poche aziende di meccanismi cosi performanti da poter modificare gli assetti sociali, economici e politici del mondo. La lettera che chiede la moratoria sugli investimenti e la ricerca, una sorta di auto moral suasion se si considera chi l’ha firmata, mira a concedersi sei mesi che dovrebbero essere utilizzati a pensare e realizzare dei protocolli di sicurezza ma, soprattutto, sistemi di governance della IA. La stessa ricerca andrebbe, secondo la lettera, riorientata per garantire maggiore affidabilità e sicurezza ai sistemi di IA.
Il punto cruciale della questione
Questo a nostro avviso è il punto cruciale della questione. I sistemi di IA non sono una tecnologia come le altre, e non è affatto un caso che, a livello europeo, ci si interroghi su come regolamentare al massimo l’utilizzo di questi strumenti, adottando un approccio basato sul rischio. Tradotto: l’intelligenza artificiale è potenzialmente pericolosa e allora è bene stabilire intanto cosa NON si può fare. Questo ci ha spinto, da ultimo, a scrivere una raccolta delle norme europee in merito alla trasformazione digitale: Europa digitale, la sfida di un continente.
Una vigilanza europea
La cara vecchia Europa, con tutti i suoi limiti, non è dimentica della lunga storia di pensiero che ne ha costruito le fondamenta del diritto e, pur consapevole di come la legge non possa che essere sempre un passo indietro rispetto a ogni innovazione tecnologica, tuttavia ha la possibilità di stabilire quadri generali entro cui muoversi per meglio tutelare le persone, i cittadini e le cittadine. E cosi anche l’ultimo atto di una lunga serie su cui in Europa si sta lavorando, l’Artificial intelligence act, tenta di regolare questi temi.
La situazione è sfuggita di mano?
E allora torniamo alla lettera, indirizzata ai governi ma anche alle stesse aziende di cui alcuni firmatari, Musk per primo, fanno parte. Sembrerebbe quasi che la situazione gli sia sfuggita di mano. Tra i firmatari Domenico Talia, professore di Ingegneria informatica all’Università della Calabria: “Sappiamo che l’innovazione non si può fermare, ma questo è un caso eccezionale. Quello che sono in grado di fare queste tecnologie non è chiaro nemmeno a chi le crea. Sta succedendo tutto troppo in fretta … Queste tecnologie sono destinate a cambiare tutto. Cambieranno il lavoro di milioni di persone. Centinaia di milioni di persone. Soprattutto lavori intellettuali”.
Si può o meno essere d’accordo ma altri da tempo sostengono che vi sarà una profonda e radicale innovazione nel modo di lavorare. E Goldman Sachs ci dice che il Pil mondiale, grazie all’IA, aumenterà del 7% ma si rischia il terremoto sociale. Sarà davvero così?
L’avevamo detto
Non è mai bello dire ‘l’avevamo detto”, ma questa volta corre l’obbligo di ricordare che sono anni che, ragionando con più soggetti, scrivendo libri che utilizzassero le competenze interne alla Cgil, ospitando interventi autorevoli sulla nostra rivista on-line Idea diffusa, organizzando incontri, fino a costituire il Forum della digitalizzazione con esperti di diverse discipline, proviamo ad affrontare il tema dell’impatto prevedibile (per ciò che non si può prevedere c’è solo da attendere) sul lavoro e sulle professioni ad opera di implementazioni di nuove e sempre più performanti tecnologie.
E lo facciamo chiedendo trasparenza, coinvolgimento dei soggetti interessati, siano essi lavoratrici e lavoratori o cittadini/e, esigendo piani nazionali di formazione specifica e formazione alla cittadinanza, contrattando una riorganizzazione dell’organizzazione del lavoro che non sia penalizzante per chi lavora ma con un utilizzo intelligente delle tecnologie, atto a migliorare, semplificare, anche ridurre l’orario delle prestazioni: lo facciamo chiedendo di essere coinvolti e di conoscere anticipatamente le tecnologie, capirne finalità e modo di addestramento e di utilizzo.
E chiediamo anche forme di redistribuzione degli enormi profitti che le aziende che innovano ricavano, implementando i loro modelli con il know how di lavoratrici e lavoratori.
Né catastrofisti, né rassegnati
Insomma, non è già scritto né che si perderanno posti di lavoro, né che la tecnologia porterà con sé sconvolgimenti nefasti. Da sempre ci siamo detti non catastrofisti e neppure entusiasti rispetto alla cosiddetta rivoluzione tecnologica. Siamo realisti, sappiamo di essere dinanzi a trasformazioni epocali e a una nuova faccia del vecchio capitalismo ma, di certo, non siamo inclini alla rassegnazione.
Non ci sfuggono i temi centrali che attengono il lavoro, la formazione, l’educazione stessa, la democrazia e la libertà. Non ci cono sfuggiti i temi della privacy e su questi, dove necessario e possibile, abbiamo agito legalmente. Insomma, sappiamo da tempo che siamo dinanzi a una situazione del tutto nuova, che necessita di grande attenzione, di intelligenze, di commistione di diversi saperi e di una idea di regolamentazione nazionale e sovranazionale che non abbia intenzione di bloccare gli sviluppi tecnologici ma di renderli utili, umanocentrici, e non dannosi.
E, proprio perché ne siamo consapevoli, lavoriamo nella direzione di tutela sia degli interessi individuali che degli interessi collettivi. Direzione che è, da sempre, la nostra cifra costitutiva.
fonte: Collettiva
fonte immagine in copertina: https://www.intelligenzaartificiale.it/