Il Foglio
Il 13 marzo il Consiglio Europeo ha fatto propria la proposta presentata alla fine del 2025 da parte della Commissione e maturata anche sulla scia delle sollecitazioni avanzate da Mario Draghi per rinviare le disposizioni più incisive dell’AI Act, la normativa destinata a regolare l’Intelligenza Artificiale in Europa . Il 26 marzo il Parlamento, in seduta plenaria, ha votato a favore del testo, il cosiddetto Digital Omnibus, che sposterà dall’agosto 2026 alla fine del 2027 l’entrata in vigore degli adempimenti necessari a servirsi di questa tecnologia nelle attività “ad alto rischio”, dal vaglio delle candidature alla gestione del personale, dall’erogazione di un prestito alla concessione di un sussidio. E’ un segnale esplicito che l’approccio regolatorio europeo si è scontrato con la difficoltà di rendere le norme tecnicamente applicabili. Gli obblighi restano formalmente previsti – gestione documentata del rischio, tracciabilità, supervisione umana, qualità dei dati – ma la loro applicazione viene rinviata con l’impegno a dotarsi delle condizioni tecniche necessarie a verificarli. Partita prima dell’avvento di ChatGPT , l’Europa ha nel tempo confezionato una normativa ambiziosa prima che esistesse però un’infrastruttura tecnica adeguata per sostenerla. I sistemi di Intelligenza Artificiale che la norma intende disciplinare non sono infatti strumenti statici, ma sistemi che coordinano informazioni, processi e decisioni e che stanno trasformando ambiti sensibili come l’informazione, la manifattura, persino la scuola. Regolare l’Intelligenza Artificiale non può dunque significare imporre un divieto o un obbligo, ma intervenire su sistemi cognitivi distribuiti, spesso opachi anche per le imprese e le organizzazioni che se ne servono. Il rinvio delle disposizioni più incisive dell’AI Act riflette una presa d’atto che era già emersa nelle analisi sulla competitività europea: la regolazione anticipata, da sola, non garantisce il controllo effettivo dei sistemi tecnologici. La leadership normativa europea, costruita negli ultimi anni attraverso il Gdpr e il Digital Services Act, si è fondata sulla capacità di definire standard globali prima degli altri. Ma questa strategia presuppone che le norme possano essere applicate e verificate. Senza questa capacità, il rischio è che la regolazione produca conformità formale più che cambiamento reale. Il paradosso è che proprio il riconoscimento di questo limite, sollecitato anche dalla necessità di rafforzare la competitività europea, può indebolire il principale strumento di influenza dell’Unione: il suo apparato regolatorio. Lo stesso limite emerge nelle iniziative nazionali che si propongono di limitare l’accesso dei minori ai social media, come quelle adottate o in discussione in Francia e Spagna. Il legislatore può stabilire un’età minima, ma l’efficacia della norma dipende dalla possibilità di verificare l’età reale degli utenti. I sistemi oggi disponibili sono imperfetti: l’autodichiarazione è facilmente aggirabile, la verifica documentale introduce rischi significativi di sicurezza e responsabilità, quella biometrica solleva problemi di accuratezza e proporzionalità. Anche laddove la norma imponesse obblighi stringenti alle piattaforme la loro applicazione resterebbe difficile. In Australia, dove dallo scorso dicembre gli under 16 non possono accedere ai social network , escamotage come l’uso di connessioni virtuali (Vpn) si è coniugato con la migrazione verso piattaforme al momento non oggetto del divieto. Eppure la spinta regolatoria nei confronti dei social network è sostenuta da una crescente evidenza scientifica sugli effetti dei social media sugli adolescenti. Negli ultimi anni, studi pubblicati su riviste come JAMA Pediatrics e The Lancet Child & Adolescent Health hanno evidenziato una correlazione significativa tra uso intensivo dei social media e aumento dei livelli di ansia, depressione, disturbi del sonno e riduzione dell’autostima, soprattutto nella fascia tra i 12 e i 16 anni. Una delle ragioni principali è il funzionamento stesso degli algoritmi, progettati per massimizzare il tempo di permanenza, amplificare contenuti emotivamente intensi, favorire meccanismi di confronto sociale continuo. L’adolescenza è una fase particolarmente sensibile a questi stimoli, perché il sistema di regolazione cognitiva è ancora in sviluppo mentre quello di risposta alla ricompensa è già pienamente attivo. Una recente e storica sentenza americana condanna Meta e YouTube per aver consapevolmente diffuso prodotti in grado di creare dipendenza, come nel caso delle aziende del tabacco degli anni Novanta. In entrambi i casi della regolazione dell’Intelligenza artificiale e dei social network l’Europa si trova di fronte a una nuova sfida. Per anni, l’Europa ha esercitato il proprio potere attraverso la capacità di scrivere le regole, oggi si trova di fronte al problema di costruire le condizioni per renderle effettive.
Go to News Site