Una novità che riguarda anche i calabresi. Da oggi, 25 agosto, su internet si applica in tutta l’Ue il Digital Services Act (DSA). Le norme che contiene tutelano i diritti di tutti i cittadini dell’UE. E dovranno osservare le sue prescrizioni tutti gli intermediari online: social network, motori di ricerca, marketplace, servizi di hosting.
Le piattaforme più grandi, tra le quali ovviamente le cosiddette Big Tech, sono definite VLOP (very large online platforms) e VLOSE (very large online search engines), piattaforme e motori di ricerca on line molto grandi. Esse sono soggette a obblighi più rigidi e figurano in un elenco redatto in base al numero di utenti – superiore a 45 milioni – che le utilizzano mensilmente in tutta l’Unione.
I social media Meta (Facebook), Instagram, Snapchat, TikTok, X (già Twitter), Linkedin, Pinterest, YouTube; i servizi di prenotazione, ad esempio Booking.com; i marketplace Amazon, Zalando, Google Shopping, Alibaba, AliExpress; gli store per le applicazioni Apple App Store e Google Play; Google Maps e Wikipedia; i motori di ricerca Google e Bing. Tutti loro, nella vecchia Europa, dovranno finalmente sottostare a regole.
Ciò rappresenta, mentre negli USA ancora si discute su come intervenire per limitarne lo strapotere, una vera rivoluzione. È infatti grazie alla deregulation che in questo settore hanno potuto generarsi profitti immensi e fenomeni deleteri e pericolosi quali disinformazione e hate speech.
Dsa in vigore: le novità su internet in UE
Entrando nel merito, ecco le novità più significative. Per quanto concerne la segnalazione dei contenuti pubblicati dagli utenti, fino ad oggi le piattaforme erano ritenute responsabili quando, venutene a conoscenza, non procedevano con la loro rimozione. Adesso, invece, le VLOP e le VLOSE dovranno sempre rimuovere i contenuti segnalati. Ma dovranno in più attrezzarsi con un “punto di contatto”. Un team in ogni Paese prenderà in carico le segnalazioni di Autorità e utenti, predisponendo un sistema semplice ed efficace per la raccolta, l’esame e l’eventuale rimozione dei contenuti. Questi potranno essere rimossi, e i loro autori “bannati”, solo a seguito di preavviso. In quest’ultimo si dovrà esporre in modo chiaro il motivo per il quale si procede. Non più soltanto, quindi, facendo generico riferimento alla violazione di termini e condizioni del servizio.
Per i marketplace è previsto un controllo sui prodotti venduti per verificarne la legalità. Ma il DSA, per i contenuti, va oltre. Onde evitare che, come in passato, il meccanismo della rimozione entro brevissimo tempo provochi, come effetto collaterale, rischi di censura, è stato introdotto il concetto dell’analisi del rischio sistemico.
Ogni anno le Big Tech devono perciò presentare un documento di valutazione dei rischi per la libertà d’espressione, la tutela dei minori, i diritti fondamentali, che possono scaturire dal loro utilizzo illegittimo o da abusi.
Alla valutazione segue la proposizione di soluzioni per mitigare gli effetti dei rischi individuati: per l’attività di moderazione dei post, di uso degli algoritmi di raccomandazione, per modificare termini, condizioni e design, e altro ancora.
A valutare tutto saranno le Autorità e – elemento importantissimo anche ai fini della tanto agognata trasparenza – ricercatori esterni.
Dsa: stretta dell’Ue per pubblicità e disinformazione su internet
Altra previsione altamente significativa riguarda la lotta alla disinformazione. In occasione di pericoli per la salute e la sicurezza dei cittadini le piattaforme dovranno adottare, con la Commissione europea, protocolli di crisi e misure d’emergenza.
Sul piano ancora della trasparenza, bisognerà rendere noti i parametri in base ai quali gli algoritmi raccomandano i contenuti. In altre parole, la spiegazione sul motivo per il quale un determinato utente vede un certo post, e non altri, diviene obbligatoria. Per limitare le influenze esterne, inoltre, la possibilità di scegliere la modalità cronologica di visione dei contenuti deve essere valorizzata anche nella progettazione.
La pubblicità non potrà usare informazioni che riguardano religione, salute, orientamento sessuale. Diviene assoluto il divieto di usare dati relativi ai minori, e di proporre loro avvisi in base alla cosiddetta “targettizzazione”.
Ancora sulla pubblicità, le piattaforme hanno adesso l’obbligo di tenere traccia degli investitori e conservare, per ogni post, le informazioni su chi l’ha pubblicato e pagato, per quanto tempo è stato mostrato e a quale gruppo.
Veniamo ai famigerati Dark pattern (modello di progettazione ingannevole: interfaccia utente studiata e realizzata per indurlo a compiere azioni indesiderate e svantaggiose, come iscriversi a servizi in abbonamento non voluti, fonte Wikipedia). Un esempio? L’icona per accettare i cookie colorata, le altre grigie. Il DSA risolve il problema alla radice vietando finalmente tali pratiche.
Da febbraio non solo Big Tech
In conclusione, si può affermare che il Regolamento UE sui servizi digitali rappresenta un enorme passo avanti in questo campo. Lo dimostra anche la celerità con la quale alcune piattaforme hanno rivisto o stanno rivedendo le loro politiche per adeguarvisi.
Certo, è necessario che i Paesi europei designino al più preso l’Autorità nazionale incaricata di monitorare e garantire il rispetto del DSA. Per l’Italia dovrebbe essere l’AGCOM. Da febbraio 2024, infatti, esso diventerà vincolante anche per le piattaforme con meno di 45 milioni di utenti mensili, e le sanzioni potranno ammontare al 6% del fatturato globale.
Ciò in attesa delle decisioni in itinere su un altro tema molto delicato, quello sull’utilizzo dell’Intelligenza artificiale. I presupposti per una sua sistemazione normativa in Europa sono abbastanza buoni.
Bisogna considerare, tuttavia, la necessità di affrontarlo in termini globali in quanto nel web i confini fisici e politici hanno poca o nulla rilevanza.