È difficile proteggere i bambini quando navigano tra i contenuti di internet. Le grandi piattaforme ostacolano l’introduzione di limiti all’accesso e la regolazione si trova spesso a rincorrere le novità tecnologiche. Ma due interventi fanno ben sperare.
La fatica di imporre regole
Occorre proteggere le menti vulnerabili dei più giovani dalle insidie dei media e dei servizi di comunicazione: è una consapevolezza che ha caratterizzato fin dagli albori la legislazione dei servizi audiovisivi (televisione, radio) e delle comunicazioni interpersonali (chat).
La legislazione per la protezione on line dei minori e la garanzia di maggiore sicurezza quando entrano nel mondo delle app, dei social media, delle chat, è tuttavia molto più lenta e difficile rispetto a quella dei media tradizionali. E questo sebbene il web sia un portale verso materiale dannoso (violenza, pornografia, contenuti che istigano al suicidio e all’autolesionismo o incentivano disturbi alimentari).
Le big tech riducono al minimo le loro responsabilità e ostacolano l’introduzione di strumenti e processi che limitano la libertà di utilizzo dei servizi o contrastano la circolazione di contenuti online. Trincerandosi dietro il rispetto del diritto fondamentale della libertà di espressione e di fruizione dei contenuti nel web, equiparano i minori agli adulti, sottovalutando gli effetti nocivi – a volte gravissimi – su bambini e ragazzi.
La legislazione per spingere gli operatori economici a una maggiore responsabilità, tuttavia, avanza molto lentamente o si presenta frammentata e sporadica, intervenendo spesso sull’onda di fatti di cronaca particolarmente gravi. In Italia, ne è un esempio la recente introduzione del Capo IV della legge 159/2023 di conversione del decreto legge 123/2023 (il cosiddetto “decreto Caivano”), che contiene disposizioni per la sicurezza dei minori in ambito digitale. Il decreto, tra l’altro, ampia i poteri dell’Autorità per le garanzie nelle comunicazioni, designandola quale autorità nazionale competente e coordinatore nell’attuazione degli obblighi stabiliti dal regolamento (Ue) 2022/2065 o Digital Single Market, tra cui la vigilanza e il conseguimento degli obiettivi di garanzia dei diritti del minore e protezione on line di bambini e adolescenti.
Due esempi concreti
Nel quadro legislativo europeo, si sono stabiliti di recente due punti fermi. L’8 maggio, il regolatore inglese Ofcom, sulla base degli obblighi stabiliti nell’Online Safety Act approvato nell’ottobre scorso, ha definito un quadro di quaranta misure che i fornitori di servizi on line dovranno adottare per garantire che i bambini trascorrano un tempo più sicuro davanti allo schermo quando sono online. Le big tech devono agire per fermare i loro algoritmi quando raccomandano contenuti dannosi per i bambini e mettere in atto seri controlli sull’età per mantenerli più sicuri, secondo piani indicati nelle misure proposte dal regolatore e suddivise in tre macro-classi: Robust age check, Safer algorithms, Effective moderation (in consultazione il Codice di condotta a protezione online nel documento Protecting children from harms online, pubblicato l’8 maggio).
Il 16 maggio, la Commissione europea ha avviato un procedimento formale per verificare se Meta, la casa madre di Facebook e Instagram, abbia violato gli obblighi del Digital Services Act relativi alla protezione dei minori.
La Commissione ritiene non sufficienti le misure messe in atto dai social network. In particolare, teme che le due piattaforme e i loro algoritmi possano incoraggiare comportamenti di dipendenza nei bambini, portarli verso contenuti dannosi ed esporli a materiale inappropriato. Ritiene inoltre inadeguati i metodi di verifica dell’età proposti dalla società. Un procedimento simile era stato aperto nel mese di febbraio contro TikTok.
Secondo il Digital Services Act, le piattaforme online utilizzate da oltre 45 milioni di utenti al mese (very large online platform) generano un rischio sistemico sulla società. E se il rischio sistemico è verso i diritti dei minori e il loro benessere fisico e mentale, le piattaforme devono sviluppare misure e rispettare regole per la moderazione dei contenuti, compresi obblighi di trasparenza e gestione del rischio.
L’elenco delle very large online platform include i social media Instagram e Facebook di Meta, TikTok e X. Nell’aggiornamento di dicembre si sono aggiunte alla lista tre piattaforme di pornografia – XVideos, Pornhub e Stripchat – proprio a voler sottolineare la rilevanza e la priorità della protezione dei minori nell’attuazione del Dsa.
L’indagine nei confronti di Facebook e Instagram esaminerà se Meta fa abbastanza per proteggere bambini e ragazzi dal diventare dipendenti dai social media e per attenuare l’effetto “tana del coniglio”, per cui i minori vengono attirati sempre più in profondità nei feed e nei materiali dannosi.
Le misure adottate dalla Commissione e da Ofcom sono significative e possono essere estese alla regolazione italiana, tanto più che Commissione europea e Ofcom il 13 maggio hanno sottoscritto un accordo per la complementarità tra Dsa e Online Safety Act e la cooperazione nella legislazione secondaria. Le aree di interesse comune sono la tutela dei minori on line, le tecnologie di progettazione adeguate all’età, la trasparenza e la valutazione del rischio con particolare riguardo all’impatto degli algoritmi sui rischi sistemici per i minori.
I due esempi mostrano lo sforzo normativo compiuto finora per la protezione online dei minori: c’è voluto molto tempo per arrivare a questo punto e il successo è tutt’altro che assicurato. La legge conferisce maggiori poteri all’autorità di regolamentazione, per poter investigare e ritenere responsabili delle violazioni le big tech, incluse le responsabilità penali se non riescono a prendere le misure richieste e necessarie a proteggere i bambini. Il mondo on line, nel frattempo, è in continua evoluzione. Le normative prevedono un certo grado di flessibilità (legislazione secondaria e autoregolamentazione) per affrontare rischi in evoluzione. Tuttavia, i legislatori e i regolatori dovranno sforzarsi per anticipare l’innovazione tecnologica e non limitarsi a tenerne il passo o ancor peggio ad inseguirla. Per questo, saranno fondamentali personale e risorse adeguati al compito che sono chiamati a svolgere.
fonte: https://lavoce.info/archives/104755/bambini-su-internet-leuropa-verso-regole-piu-rigide/