Dal momento in cui le Social Platforms hanno assunto un ruolo centrale nelle relazioni interpersonali e gli utenti hanno utilizzato la possibilità di condividere direttamente contenuti online è sorto il tema del ruolo e delle responsabilità delle Social Platform in ragione della incontrollata pubblicazione dei contenuti degli utenti, che possono sconfinare a volte anche in atti e attività illecite

L’evoluzione della regolazione in cui la flebile responsabilità delle Social Platform si è venuta progressivamente delineando ha conosciuto (per ora) tre periodi: l’ultimo decennio del XX secolo, caratterizzato dall’assenza di specifiche norme legali in materia; i primi due decenni del XXI secolo, in cui la fonte normativa principale è stata rappresentata dalla Direttiva sul commercio elettronico e dai provvedimenti nazionali di attuazione; il periodo attuale e prossimo futuro, caratterizzato dall’adozione del regolamento europeo denominato DSA (acronimo di Digital Services Act), entrato in vigore nel novembre del 2022 ed ancora in fase di attuazione.

Nel primo periodo, caratterizzato dall’assenza di disposizioni normative ad hoc, la giurisprudenza nazionale italiana ha sostanzialmente escluso che sulle Social Platform gravasse un dovere di preventivo controllo dei contenuti caricati dagli utenti, fermo restando che le medesime avevano un dovere di rimuovere il contenuto una volta avuta effettiva conoscenza del suo carattere illecito.

Nel secondo periodo, con l’entrata in vigore della Direttiva sul commercio elettronico (e in Italia del D. Lgs. n. 70 del 9 aprile 2003 di attuazione di detta direttiva), si è consolidato il principio che il c.d. hosting provider, ossia chi provvede alla memorizzazione delle informazioni fornite da un utente destinatario del servizio (come è il caso delle Social Platform), fosse esonerato da responsabilità, purché non effettivamente a conoscenza dell’illiceità dell’informazione o non a conoscenza di fatti o circostanze che rendevano manifesta l’illiceità dell’informazione dell’illiceità dell’informazione. Solo quando fosse giunto a conoscenza dei predetti fatti, su comunicazione delle autorità competenti, l’hosting provider doveva immediatamente rimuoverne il contenuto e, non ciò facendo, sarebbe divenuto co-responsabile. Sulla scorta del modello statunitense, la Direttiva sul commercio elettronico specificava che non sussisteva alcun obbligo generale di sorveglianza o di ricerca in capo alla Social Platform di attività illecite (c.d. Safe Harbor).

A parziale compensazione di quest’atteggiamento molto generoso nei confronti delle Social Platform, la Corte di giustizia dell’Unione europea ha progressivamente enucleato le categorie dell’host provider passivo (che si riteneva potesse continuare a beneficiare del Safe Harbor, ossia dell’esonero dalla responsabilità, in quanto non conosceva, né controllava le informazioni memorizzate) e dell’host provider attivo, che si riteneva non meritevole di beneficiare del Safe Harbor, in quanto svolgeva un’attività ulteriore rispetto alla semplice e neutra memorizzazione delle informazioni, in qualche modo interferendo attivamente con la pubblicazione del contenuto da parte dell’utente (che era individuata sulla base della presenza di uno o più dei c.d. ‘indici di interferenza’, quali, ad esempio, un’attività di filtro, di selezione, di indicizzazione, organizzazione, catalogazione, aggregazione, valutazione, uso, modifica, estrazione o promozione).

Il terzo periodo è appena iniziato e si fonda sulle nuove disposizioni del DSA, che introducono una serie di gradati obblighi procedurali e sostanziali che si auspica possano contrastare il compimento di attività illecite per il tramite delle Social Platform. Tali obblighi mirano a rafforzare il principio di accountability delle Social Platform e segnano il passaggio dalla mera responsabilità (ma – come visto – solo in presenza di certe condizioni) alla responsabilizzazione rispetto a specifici doveri di diligenza. Tale responsabilizzazione si concretizza nell’esecuzione da parte delle Social Platform di una serie di risk assessment e di attività di prevenzione e contenimento dei rischi insiti nell’ambiente digitale.

Va detto, a onor del vero, che non sembra tuttavia un gran passo avanti.

Infatti, come in passato, in primo luogo il DSA conferma l’impianto della Direttiva sul commercio elettronico e, anzitutto, ribadisce che non esiste un obbligo generale di sorveglianza sulle informazioni memorizzate o trasmesse dagli utenti, né di accertamento dei fatti che indichino la presenza di attività illegali. Le Social Platform sono tenute ad intervenire non appena (ma solo) esse vengano a conoscenza di tali attività o contenuti illegali o divengano consapevole di tali fatti o circostanze, agendo immediatamente per rimuovere i contenuti illegali o per disabilitare l’accesso agli stessi.

Il passo avanti compiuto dal DSA dovrebbe risiedere nell’introduzione di una serie di obblighi che declinano nel dettaglio il dovere di diligenza (anche) delle Social Platform, distinguendo fra Social Platform e Social Platform di dimensioni molto grandi (c.d. VLOPS, Very Large Online Platforms), per queste ultime intendendosi quelle piattaforme il cui numero medio mensile di destinatari attivi del servizio nell’Unione sia pari o superiore a 45 milioni e che la Commissione abbia designato come tali.

Al di là di una serie di obblighi in materia di diligenza per un ambiente online trasparente e sicuro applicabili a tutti i prestatori di servizi intermediari, il DSA stabilisce per le Social Platform più rigorosi standard di trasparenza e responsabilità in relazione alla moderazione dei contenuti, alla pubblicità e ai processi basati sull’uso di algoritmi, istituendo altresì obblighi di valutazione dei rischi e di sviluppo di sistemi di gestione di tali rischi.

La recentissima introduzione del DSA e la sua non ancora piena operatività (oltre che i primi contrasti sulla sua applicazione, come dimostrano i ricorsi di recenti presentati da Zalando e Amazon) non consentono di svolgere una approfondita valutazione sull’efficacia della nuova disciplina europea rispetto agli obiettivi di maggiore tutela degli utenti.

In ogni caso, il DSA segna un “cambiamento di rotta” del legislatore europeo, che si orienta nel senso di una da più parti invocata co-regolazione, diretta a modellare l’ambiente digitale, quanto meno sotto il profilo di porre le basi comuni per assicurare un medesimo contesto di procedimenti e procedure che informino la relazione fra Social Platform e utenti in relazione al contrasto delle attività illecite svolte tramite Social Platform.

La portata e gli effetti di questo “cambiamento di rotta” saranno tutti da verificare e valutare nei prossimi anni.

L’AUTORE

L’articolo è a cura di Raffaele Torino,  professore di Diritto privato comparato presso l’Università degli Studi Roma Tre e componente del Comitato scientifico dell’Associazione La Nuova Europa APS.

IL CONTRIBUTO

Questo articolo è tratto dal Numero speciale del 16 dicembre 2023 della rivista “La Nuova Europa”. La parte I è stata pubblicata nel Numero speciale del 9 maggio 2023. Entrambe le edizioni della rivista sono acquistabili in formato cartaceo e digitale QUI