La Commissione Europea a capo del nuovo strumento di controllo della rete
di La Redazione di InTheNet
In occasione dell’arresto di Pavel Durov, proprietario di Telegram, ripubblichiamo questo articolo. Il nostro blog aveva avvertito di quanto sia pericoloso il Digital Service Act per chi voglia fare informazione. Ma gli europei sembrano un gregge di pecore che va al macello peggio dell’agnellino di Clarice Starling… E Jean-Luc Mélenchon che fa il giochino della desistenza rafforzando Macron che dice?
°*°*°*
Si chiama Digital Service Act (1) e viene applicato dallo scorso 25 agosto a 19 piattaforme internet e motori di ricerca – da Pinterest a Tik Tok, da Google Search a FB – mentre dal 17 febbraio 2024 sarà esteso anche a tutti gli altri ‘siti’ che superano i 45 milioni di destinatari attivi, ovvero “l’equivalente del 10% della popolazione dell’Unione”.
Inteso a un “Maggiore controllo democratico e vigilanza sulle piattaforme sistemiche” e alla “Attenuazione dei rischi sistemici, quali la manipolazione o la disinformazione”, tale strumento interessa sia piattaforme atte alla compravendita di beni e servizi, come Booking o Zalando, sia social (FB, eccetera) e motori di ricerca (come Bing), sia ‘archivi digitali’ quali Wikipedia e YouTube. In pratica, oltre a difendere i consumatori da frodi, pubblicità ingannevoli e merci o messaggi illegali (come materiale pedopornografico, per il quale esistono però leggi ad hoc), la Commissione Europea (organo non elettivo) deciderà anche quali siano le opinioni conformi in momenti di crisi, le fonti di informazione attendibili e le notizie da ritenersi tali – pur garantendo, non si sa come, la libertà di parola e opinione.
Leggere l’intero testo del DSA è un’impresa di per sé ardua, essendo oltremodo verboso e composto da ben 156 articoli, con fiotti di retorica a mascherare alcune scelte legislative e pratiche che potremmo definire discutibili.
L’articolo 83, ad esempio, spiega che per proteggere la salute psico-fisica delle persone da “campagne di disinformazione coordinate”, le piattaforme online e i motori di ricerca dovranno dotarsi di mezzi utili a controllare il “modo in cui i loro servizi sono utilizzati per diffondere o amplificare contenuti fuorvianti o ingannevoli, compresa la disinformazione” (articolo 84). Trasformandosi, in pratica, in un Grande Fratello che monitora i nostri contenuti e scambi social, al servizio della Commissione Europea.
Ovviamente tali controlli (invasivi e pervasivi?) saranno affidati ad algoritmi e se è già abbastanza inquietante che sia un algoritmo a decidere cosa sia informazione e cosa disinformazione (basti pensare al paracetamolo e vigile attesa per la Covid-19), ci pare persino peggio immaginare che delle ‘istruzioni che dovrebbero servire a una macchina per svolgere le funzioni per le quali è programmata’ (2) diventino istruzioni imposte da una Commissione Europea per direzionare la nostra libera espressione e condivisione, come essere umani, di contenuti, idee e opinioni. Forse siamo andati oltre il GF e ci stiamo affidando ad Al (di 2001: Odissea nello Spazio). In effetti, se il primo ci ‘guardava’, adesso sarà la rete (nelle intenzioni originarie strumento di libertà) a zittirci direttamente – per ‘il nostro bene’.
L’articolo 91 è persino più inquietante – ovviamente per chi apprezzi ancora valori come la libertà di opinione (garantita dall’articolo 21 della Costituzione italiana): “In tempi di crisi, potrebbe essere necessario adottare con urgenza determinate misure specifiche da parte dei fornitori di piattaforme online di dimensioni molto grandi, oltre alle misure che adotterebbero in considerazione degli altri obblighi che incombono loro a norma del presente regolamento. A tale riguardo, si dovrebbe considerare che si verifichi una crisi quando si verificano circostanze eccezionali che possano comportare una minaccia grave per la sicurezza pubblica o la salute pubblica nell’Unione o in parti significative della stessa. Tali crisi potrebbero derivare da conflitti armati o atti di terrorismo, compresi conflitti o atti di terrorismo emergenti, catastrofi naturali quali terremoti e uragani, nonché pandemie e altre gravi minacce per la salute pubblica a carattere transfrontaliero”. In tali casi la Commissione Europea potrà chiedere ai succitati provider “l’adeguamento dei processi di moderazione dei contenuti e l’aumento delle risorse destinate alla moderazione dei contenuti, l’adeguamento delle condizioni generali, i sistemi algoritmici e i sistemi pubblicitari pertinenti, l’ulteriore intensificazione della cooperazione con i segnalatori attendibili (3), l’adozione di misure di sensibilizzazione, la promozione di informazioni affidabili e l’adeguamento della progettazione delle loro interfacce online”. Tali misure – che possiamo tranquillamente affermare siano di indirizzo della pubblica opinione – dovrebbero essere “adottate in tempi molto brevi” e messe in atto “solo se e nella misura in cui ciò sia strettamente necessario”. A questo proposito potremmo ragionare sulle forme di censura e propaganda storicamente consolidatesi in tempo di guerra, che si sa quanto siano state sempre fuorvianti (maestro indiscusso in tempi moderni, Joseph Goebbels). Oppure potremmo ragionare su quanto è durato lo Stato d’emergenza in Italia – ovviamente solo per il tempo ‘strettamente necessario’ a fronteggiare la Covid-19. Su quest’ultimo punto facciamo un semplice paragone. Il 19 luglio 2021 gli UK toglievano le misure restrittive, dichiarando di fatto l’inutilità delle stesse di fronte a una pandemia che sarebbe rimasta con l’umanità forse per sempre, mentre il Italia lo Stato d’emergenza sarebbe continuato per altri 8 mesi, fino al 31 marzo 2022, e l’obbligo vaccinale per gli over 50 addirittura fino al 15 giugno 2022. Il risultato? Secondo Worldometers del 26 agosto scorso, il totale dei casi per milione di abitanti, in UK, è stato di 360.179, mentre in Italia (con le nostre misure draconiane per evitare i contagi) si sono raggiunti i 430.462 casi per milione di abitanti. Quanti mezzi dell’informazione ‘affidabile’ italiana hanno mai messo in dubbio quelle misure? Quanti articoli, tweet o manifestazioni che potrebbero mettere in dubbio, un domani, scelte simili potrebbero essere oscurati dal nuovo Regolamento europeo?
D’altro canto, a coloro che si sono opposti ai filmati delle borseggiatrici nella metropolitana milanese perché “mettevano alla gogna” (4) le responsabili (e vi era obiettivamente il rischio di esacerbare pregiudizi etnici), il Regolamento, all’articolo 12 risponde che: “un video di un testimone oculare di un potenziale reato non dovrebbe essere considerato un contenuto illegale per il solo motivo di mostrare un atto illecito quando la registrazione o la diffusione di tale video al pubblico non è illegale ai sensi del diritto nazionale o dell’Unione” Europea. Ci domandiamo quando sia diventato obsoleto per la società civile fornire il materiale probatorio di un crimine alle autorità competenti, invece di trasformarlo – magari – in video virali. Ci domandiamo altresì come mai i video della guerra in Donbass che contestano la versione ufficiale della Nato siano stati cancellati dalle piattaforme social – spesso perché esempi di ‘disinformazione’ o in non idonei agli utenti ‘sensibili’.
Anche un altro articolo suscita la nostra perplessità, per l’esattezza il 139, in quanto non solo specifica che al vertice della piramide di controllo è posta la Commissione Europea che, quindi, travalica la funzione politica (pur non essendo elettiva) per farsi in certo senso giudiziaria. Il che significa dire addio alla separazione dei poteri (quel principio già adombrato da Platone ne La Repubblica, in cui il filosofo si esprimeva sull’indipendenza del giudice dal potere politico). Ma il 139 afferma che: “Per svolgere efficacemente i propri compiti, la Commissione dovrebbe conservare un margine di discrezionalità per quanto riguarda la decisione di avviare un procedimento nei confronti di fornitori di piattaforme online di dimensioni molto grandi o di motori di ricerca online di dimensioni molto grandi”. Visto il recente caso di ‘discrezionalità’ esercitato dalla Presidente della Commissione, che avrebbe acquistato decine o addirittura centinaia di milioni di dosi di vaccino Pfizer via whatsapp (5), ci chiediamo quali conseguenze potrebbe avere tale esercizio anche a livello di libera concorrenza nel settore – allorquando solo alcuni provider siano sanzionati o sottoposti a procedimenti.
L’articolo 140 rende anche noto che la Commissione “dovrebbe disporre di forti poteri di indagine e di esecuzione che le consentano di svolgere attività di indagine, esecuzione e monitoraggio in merito al rispetto delle norme stabilite nel presente regolamento”, il che dà a quest’organo politico persino potere di ‘investigare’ oltre che di ‘perseguire’ e, per farlo – come specifica l’articolo 101 – dovrà essere “dotata di tutte le risorse necessarie, sul piano del personale, delle competenze e dei mezzi finanziari”. Chi pagherà tutto ciò? Leggiamo: “la Commissione dovrebbe imporre un contributo per le attività di vigilanza, il cui livello dovrebbe essere stabilito su base annuale, alle piattaforme online di dimensioni molto grandi e ai motori di ricerca online di dimensioni molto grandi” e, a questo punto, ci sorgono due dubbi. Il primo è sull’opportunità che il controllato finanzi il controllore, il secondo che le piattaforme si rifacciano sugli utenti – ossia noi cittadini che, con tasse dirette e indirette, già finanziamo non solamente l’Unione Europea ma anche la giustizia e gli organi di polizia e vigilanza presenti in ciascuna nazione.
(1) Digital Services Act – Regolamento dell’Unione Europea per modernizzare e ampliare la Direttiva sul commercio elettronico 2000/31/CE, testo integrale in italiano: https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32022R2065&qid=1693061900436
(2) L’algoritmo secondo Treccani: “In informatica, insieme di istruzioni che deve essere applicato per eseguire un’elaborazione o risolvere un problema”, https://www.treccani.it/vocabolario/algoritmo/
(3) L’Articolo 61 qualifica come ‘segnalatore attendibile’ (carica conferita dal coordinatore dei servizi digitali dello Stato membro in cui il richiedente è stabilito): “tutti i fornitori di piattaforme online che rientrano nell’ambito di applicazione del presente regolamento. Tale qualifica di segnalatore attendibile dovrebbe essere riconosciuta soltanto a enti, e non a persone, che hanno dimostrato, tra l’altro, di disporre di capacità e competenze particolari nella lotta ai contenuti illegali e di svolgere le proprie attività in modo diligente, accurato e obiettivo. Tali enti possono essere di natura pubblica – ad esempio, per i contenuti terroristici, le unità addette alle segnalazioni su internet delle autorità di contrasto nazionali o dell’Agenzia dell’Unione europea per la cooperazione nell’attività di contrasto («Europol») – o possono essere organizzazioni non governative e organismi privati o semipubblici quali le organizzazioni facenti parte della rete di linee di emergenza per la segnalazione di materiale pedopornografico INHOPE e le organizzazioni impegnate nella notifica dei contenuti razzisti e xenofobi illegali online. Per evitare di attenuare il valore aggiunto di tale meccanismo, è opportuno limitare il numero complessivo di qualifiche di segnalatore attendibile conferite in conformità del presente regolamento. In particolare, le associazioni di categoria che rappresentano gli interessi dei loro membri sono incoraggiate a fare domanda per ottenere la qualifica di segnalatore attendibile, fatto salvo il diritto delle persone o degli enti privati di concludere accordi bilaterali con i fornitori di piattaforme online”
(5) La denuncia del New York Times: https://europa.today.it/attualita/new-york-times-denuncia-von-der-leyen-vaccini.html
venerdì, 22 settembre 2023
In copertina: Foto di Artie_Navarre da Pixabay