Le condanne
Due sentenze contro Meta e Youtube stanno facendo discutere parecchio. Un tribunale del New Mexico ha condannato Meta a pagare 375 milioni per aver “favorito lo sfruttamento minorile” sulle sue piattaforme. E un tribunale della California ha condannato Meta e Youtube per aver progettato prodotti che creano dipendenza e per aver danneggiato un giovane utente, condannandoli a pagare un risarcimento totale di 6 milioni di dollari.
Queste pronunce giudiziarie sono arrivate anche in Italia, producendo una prima proposta di legge (qui la proposta e qui la mia analisi preliminare basata, ovviamente, sul testo dell’articolo).
Si tratta di un problema piuttosto sentito e che fa presa sul pubblico per vari motivi, per cui vale la pena cercare di mettere ordine agli argomenti perché, come si è notato anche nella proposta italiana, spesso si affastellano argomentazioni senza alcune coerenza logica.
La premessa è d’obbligo: il tema è estremamente complesso e, per mantenerlo entro limiti leggibili, in alcuni passaggi sarà necessario semplificare. In questa prospettiva non ricostruirò nel dettaglio le posizioni dei querelanti, che emergono chiaramente dalle pronunce e dagli articoli di riferimento, ma entrerò direttamente nel merito delle criticità.
Come punto di partenza utilizzo l’analisi di Mike Masnick, che ha il merito di mettere a fuoco in modo rapido ed efficace le debolezze più evidenti dei verdetti. Tuttavia, proprio perché si tratta di un’analisi giornalistica, è utile assumerla solo come ingresso nel problema: molti dei nodi che emergono richiedono infatti di essere riformulati in termini più rigorosamente giuridici, soprattutto per quanto riguarda la causalità, la natura della responsabilità e le conseguenze sistemiche delle soluzioni prospettate.
L’obiettivo, quindi, non è tanto ripercorrere le critiche già formulate, quanto usarle come base per sviluppare un’analisi più strutturata, che tenga insieme il piano tecnico, quello giuridico e quello sistemico, in una prospettiva esplicitamente critica verso l’impostazione delle sentenze.
I querelanti e la responsabilità del prodotto
La distinzione che i querelanti hanno costruito – e che i giudici hanno accettato – è: non ti sto dicendo che hai pubblicato contenuti illegali, né che il tuo algoritmo ha raccomandato questo post specifico che ha danneggiato questo utente. Ti sto dicendo che la tua interfaccia (il design), in quanto tale, è un prodotto difettoso. Lo scroll infinito è progettato per non farti smettere. L’autoplay elimina il momento di scelta consapevole. Le notifiche sono calibrate per creare un riflesso condizionato. Il sistema di raccomandazione massimizza il tempo trascorso sulla piattaforma a scapito del benessere dell’utente.
È una mossa legalmente furba perché aggira il Section 230 su un fianco che prima sembrava protetto. Il Section 230 dice: non sei responsabile per ciò che gli utenti pubblicano. Ma se io non ti cito per cosa hai pubblicato, bensì per come hai costruito la macchina che lo pubblica, il Section 230 – almeno secondo questi giudici – non si applica più.
Il problema, come fa notare Masnick, è che questa separazione è in larga parte fittizia. Il design di una piattaforma social non esiste in astratto: lo scroll infinito su un feed di video di vernice (esempio citato da Masnick) che si asciuga non crea dipendenza. È inseparabile dal contenuto che veicola. Quando dici “il design è addictive”, stai implicitamente dicendo “il contenuto che questo design distribuisce è addictive”, e a quel punto sei di nuovo nell’ambito del Section 230.
C’è però un livello ulteriore che vale la pena sottolineare: questa teoria del “design difettoso” sposta il social media dal diritto della comunicazione al diritto della responsabilità del prodotto, lo stesso che si applica a un’automobile con i freni difettosi o a un farmaco con effetti collaterali nascosti. È un cambio di paradigma enorme, perché nel diritto del prodotto il produttore ha obblighi molto più stringenti verso l’utente finale, indipendentemente da chi ha creato il danno in senso stretto.

L’esempio più illuminante riguarda la crittografia. Il ragionamento del procuratore generale del New Mexico è strutturalmente questo: Meta ha aggiunto la crittografia end-to-end a Messenger nel 2023. I predatori usavano Messenger per adescare minori. La crittografia ha reso più difficile per le forze dell’ordine accedere alle prove. Quindi la crittografia è una scelta di design che ha abilitato il danno. Puro e semplice.
Il problema è che questo ragionamento è formalmente corretto ma sostanzialmente devastante, perché si applica a qualsiasi strumento di sicurezza. La crittografia non distingue tra un giornalista dissidente in un paese autoritario, una vittima di stalking che comunica con il suo avvocato, e un predatore sessuale. Protegge tutti indistintamente, ed è precisamente questo il suo valore. Indebolirla per catturare la terza categoria significa esporre le prime due.
Ma nell’ambito della teoria del “design difettoso”, questo non conta. Conta solo che una minoranza di utenti ha usato quella funzionalità per commettere crimini, e che l’azienda sapeva (poi vederemo come sapeva) che questo era tecnicamente possibile. Il fatto che la stragrande maggioranza degli utenti ne tragga beneficio diventa irrilevante, o peggio, diventa una circostanza attenuante insufficiente.
Masnick individua qui un effetto sistemico molto grave: se documentare internamente i rischi di una funzionalità diventa automaticamente una “prova che sapevano e hanno fatto lo stesso”, le aziende smettono di fare quelle valutazioni. Non perché siano negligenti, ma perché la prudenza legale lo impone. Il paradosso è che un’azienda che non si pone mai domande sulla sicurezza è legalmente più al sicuro di una che se le pone e le documenta onestamente.
E il principio si estende ben oltre la crittografia. Qualsiasi funzionalità pensata per proteggere la privacy degli utenti – messaggi temporanei, account anonimi, accesso senza numero di telefono – può essere riformulata con lo stesso schema: “avete reso più difficile identificare i cattivi, quindi avete favorito i cattivi”. È una logica che, portata alle estreme conseguenze, rende la privacy stessa una forma di complicità.
Pensiamo alla crittografia come una serratura. Nel diritto della responsabilità del prodotto esiste già un concetto che si chiama design defect, e funziona più o meno così: un prodotto è difettoso nel design se i rischi prevedibili superano i benefici, oppure se esisteva un’alternativa ragionevole più sicura. Applicato alla crittografia o ad una serratura, un avvocato creativo potrebbe effettivamente argomentare: sapevi che le serrature si bloccano, esistono serrature con sblocco di emergenza dall’interno, non l’hai implementata, quindi il tuo design è negligente.
E qui emerge la vera profondità del problema che Masnick solleva. Questo tipo di ragionamento, applicato alla tecnologia digitale, diventa potenzialmente infinito perché ogni funzionalità ha uno scenario avverso immaginabile. Il motore di ricerca che ti trova informazioni utili può trovare anche istruzioni pericolose. Il sistema di notifiche che ti ricorda un appuntamento medico può anche svegliare qualcuno nel cuore della notte. La funzione che ti permette di trovare persone con i tuoi stessi interessi può permettere anche a un predatore di trovare le sue vittime.
La differenza fondamentale rispetto alla serratura fisica è però una: la serratura non è protetta dal Primo Emendamento americano, mentre le piattaforme social veicolano discorso. E questo è l’argomento che Meta e YouTube useranno in appello: trattare le scelte editoriali su come presentare contenuti come “design di prodotto” soggetto a responsabilità civile confligge con le protezioni costituzionali della libertà di espressione. Una serratura non ha nulla da dire, un algoritmo di raccomandazione invece sta compiendo qualcosa di molto simile a una scelta editoriale.
Il punto finale, e forse più inquietante, è quello che Masnick lascia implicito: in un sistema legale dove qualsiasi design può essere reinterpretato come difettoso se qualcuno ne ha subito un danno in qualche scenario, smetti di progettare. O meglio, progetti solo ciò che un avvocato ti autorizza, che è un modo elegante per descrivere la fine dell’innovazione.
La responsabilità oggettiva
La responsabilità oggettiva nel diritto classico esiste, ma è sempre stata confinata ad attività intrinsecamente pericolose – maneggiare esplosivi, tenere animali selvatici, smaltire sostanze tossiche. Attività dove il rischio è così elevato e così sbilanciato rispetto ai benefici che la società ha deciso che chi le esercita risponde sempre del danno, indipendentemente dalla colpa. La logica è: se vuoi fare questa cosa pericolosa, ti assumi tutto il rischio.
Applicare implicitamente questo schema ai social media significa dire che gestire una piattaforma dove gli utenti pubblicano contenuti è intrinsecamente pericoloso quanto maneggiare dinamite. Ed è un salto enorme, perché introduce quella che i giuristi chiamano responsabilità senza fine causale verificabile. Il danno c’è stato, la piattaforma è stata usata, quindi la piattaforma è responsabile. Il passaggio intermedio – dimostrare che quel design ha causato quel danno specifico – viene sostanzialmente saltato o ridotto a un criterio così vago da essere sempre soddisfacibile.
Da una situazione del genere non se ne esce, perché si crea un circolo chiuso:
Se il design è semplice e poco coinvolgente, la piattaforma non viene usata e non ha valore
Se il design è coinvolgente, qualcuno lo userà troppo e si potrà sempre argomentare che era “addictive by design”
Se aggiungi strumenti di moderazione, diventi publisher e rischi responsabilità sui contenuti
Se non li aggiungi, sei negligente sulla sicurezza
Se implementi la crittografia, proteggi i criminali
Se non la implementi, violi la privacy degli utenti
Ogni scelta ha uno scenario avverso costruibile, e con il criterio del “fattore sostanziale” usato dalla giuria californiana – non la causa principale, non la causa prevalente, solo un fattore sostanziale – qualsiasi scenario avverso diventa potenzialmente sufficiente per la condanna.
Il parallelo storico più preciso forse non è nemmeno Stratton Oakmont, come suggerisce Masnick, ma la situazione della stampa americana prima del caso New York Times v. Sullivan del 1964, quando le testate venivano sistematicamente trascinate in giudizio nel Sud degli Stati Uniti con cause per diffamazione strumentali, non per vincerle necessariamente, ma per renderle economicamente insostenibili. Il processo come arma, indipendentemente dall’esito – esattamente quello che Masnick descrive quando nota che TikTok e Snap si sono accordate non perché avessero torto, ma perché non potevano permettersi la battaglia.
La via d’uscita teorica esiste, ed è quella che Masnick accenna senza approfondire: un intervento legislativo che ridefinisca con precisione cosa costituisce negligenza verificabile per una piattaforma, con standard causali chiari e criteri oggettivi di danno. Ma richiede esattamente il tipo di lavoro “duro e non glamour” che la politica tende a evitare quando può invece offrire lo spettacolo di un gigante tech portato in giudizio.
I dipendenti e la discussione interna sui rischi
Il fatto che i dipendenti avessero discusso dei rischi della piattaforma è stato considerato la “prova” dell’intenzionalità del design. Laddove, sostiene Masnick, le discussioni interne sono naturali in grandi aziende.
Partiamo dal problema fondamentale. Nel diritto, la distinzione che conta non è tra “sapevano” e “non sapevano”, ma tra diverse qualità del sapere:
Conoscenza del rischio astratto: sapere che una funzionalità potrebbe essere usata male
Conoscenza del rischio concreto: sapere che sta causando danni misurabili
Deliberata indifferenza: sapere del danno concreto e scegliere consapevolmente di non agire
Il problema dei verdetti contro Meta è che questa distinzione è stata sostanzialmente ignorata. Le discussioni interne dei dipendenti – che per loro natura mischiano preoccupazioni fondate, speculazioni, ipotesi di lavoro, scenari worst-case, e a volte semplicemente sfoghi personali – sono state presentate alla giuria come se fossero tutte equivalenti alla terza categoria. Il risultato è che qualsiasi documento interno diventa potenzialmente una “pistola fumante”, indipendentemente dal contesto in cui è stato prodotto. Basta che se ne sia discusso.
Il paradosso è reale e devastante. In un’azienda sana il dibattito interno sui rischi è un segnale di salute organizzativa, non di malafede. Gli ingegneri che sollevano preoccupazioni, i team di sicurezza che documentano scenari avversi, i manager che chiedono valutazioni d’impatto. Tutto questo è esattamente ciò che vogliamo che le grandi aziende tecnologiche facciano. Ma se ogni preoccupazione documentata diventa automaticamente prova che “sapevano e hanno fatto lo stesso”, l’incentivo razionale è smettere di documentare qualsiasi cosa. Non per nascondere la malafede, ma per sopravvivere legalmente.
Qui possiamo citare il whistleblowing che nasce per tutelare chi segnala illeciti concreti e verificabili – frodi contabili, violazioni di sicurezza, dati falsificati. Ma quando lo strumento viene esteso a preoccupazioni soggettive sul design di un prodotto, il confine tra tutela legittima e strumento di pressione diventa molto poroso. È perfettamente immaginabile un dipendente che documenta preoccupazioni genuine ma non verificabili, e quelle stesse preoccupazioni vengono poi usate in un contenzioso come prova di intenzionalità aziendale.
C’è però un aspetto ulteriore che vale la pena considerare. Il problema non è solo il dipendente scontento, ma la struttura stessa di come le grandi organizzazioni producono conoscenza interna. In un’azienda di centomila persone, su qualsiasi questione esiste sempre qualcuno che ha espresso preoccupazione, qualcuno che ha detto il contrario, e qualcuno che non se ne è occupato. Un avvocato sufficientemente motivato può sempre trovare il documento che gli serve, perché in un archivio sufficientemente grande esiste quasi sempre. Questo significa che il vero effetto di questi verdetti non è rendere le aziende più responsabili, ma rendere la documentazione interna un esercizio legalmente pericoloso indipendentemente dal suo contenuto.
La soluzione teorica sarebbe un sistema in cui le preoccupazioni interne vengono valutate nel loro contesto – chi le ha espresse, con quale autorità, con quale seguito, con quale risposta aziendale – invece di essere estrapolate come prove autonome. Ma questo richiederebbe giurie con competenze tecniche e organizzative che realisticamente non hanno, e giudici disposti a istruirle in modo molto più sofisticato di quanto sia avvenuto nei due casi in questione. Il che ci riporta al punto di Masnick: quando il defendants è Mark Zuckerberg, la giuria non ha bisogno di capire la complessità organizzativa. Ha bisogno solo di sentirsi convinta che qualcuno di potente sapeva e non ha agito. Ed è una sensazione molto facile da produrre in un’aula di tribunale.
I social come attività pericolosa
Il parallelo con le attività pericolose non regge. Nel diritto della responsabilità oggettiva applicato alle attività pericolose, il meccanismo funziona perché esiste una catena causale fisica verificabile. Il reattore nucleare emette radiazioni misurabili, le radiazioni causano danni biologici documentabili, i danni sono attribuibili a quella fonte specifica. La causalità è lineare, misurabile, riproducibile in laboratorio.
Con l’informazione questa catena si spezza immediatamente, per ragioni che non sono tecniche ma ontologiche. L’informazione non agisce sul corpo, agisce sulla mente, e la mente non è un sistema chiuso. Tra il contenuto pubblicato e il comportamento dell’utente si interpongono la sua storia personale, il suo contesto familiare, le sue condizioni psicologiche preesistenti, le sue relazioni sociali, e decine di altri fattori che interagiscono in modi che nemmeno la psicologia più avanzata sa isolare con precisione. Come ricorda Masnick, tutti gli studi che hanno tentato di stabilire un nesso causale tra uso dei social media e problemi di salute mentale hanno fallito nel trovare una relazione robusta e generalizzabile.
Ma c’è un livello ancora più importante. Nelle democrazie liberali l’informazione non è mai stata trattata come un’attività pericolosa regolabile attraverso la responsabilità oggettiva, e questo non è un caso storico, è una scelta di civiltà deliberata.
Il ragionamento sottostante è questo: se chi veicola informazioni deve dimostrare preventivamente che quelle informazioni non causeranno danni a nessuno, la libertà di espressione smette di esistere come diritto e diventa un privilegio concesso caso per caso. Qualsiasi informazione può danneggiare qualcuno in qualche contesto – le istruzioni per cucinare con il gas possono aiutare un cuoco e danneggiare chi le usa impropriamente, una notizia politica può informare un cittadino e radicalizzarne un altro. Il test “questo contenuto potrebbe causare danni?” applicato rigidamente svuoterebbe qualsiasi spazio informativo.
Detto questo, esistono aree in cui un ragionamento simile alla responsabilità del prodotto è stato applicato all’informazione in modo più difendibile. La pubblicità ingannevole, ad esempio – dove c’è una dichiarazione verificabilmente falsa che causa un danno economico misurabile. O la diffamazione, dove il danno reputazionale è attribuibile a un’affermazione specifica e falsa. O ancora la frode finanziaria, dove l’informazione distorta causa perdite quantificabili.
In tutti questi casi però c’è una caratteristica comune: il danno è specifico, attribuibile, e separabile dal contenuto lecito. Puoi isolare la dichiarazione falsa dal resto del discorso. Con la “dipendenza da social media” questo isolamento è impossibile per definizione. Stai dicendo che l’intera esperienza della piattaforma è il prodotto difettoso, il che equivale a dire che veicolare informazioni in modo coinvolgente è di per sé una forma di negligenza.
Il punto più profondo è che c’è una tensione costituzionale che nessun sistema legale ha ancora risolto soddisfacentemente: le piattaforme più utili sono quelle che fanno circolare informazioni in modo più efficiente ed efficace, ma “efficiente ed efficace” è esattamente ciò che i querelanti traducono come “addictive by design”.
In altri termini, stai chiedendo al diritto di stabilire qual è la quantità corretta di coinvolgimento che un mezzo di comunicazione può produrre negli utenti prima di diventare un prodotto difettoso. È una domanda a cui il diritto non ha gli strumenti per rispondere, perché non è una domanda giuridica, ma è una domanda filosofica su dove finisce la comunicazione e comincia la manipolazione. E storicamente le società liberali hanno preferito lasciare quella linea volutamente vaga, perché restringerla significa sempre, inevitabilmente, restringere il discorso.
Algoritmo come black box
Tutti i problemi che abbiamo discusso finora – la causalità vaga, la responsabilità oggettiva, le discussioni interne come prova – soffrono di un difetto comune: richiedono di attribuire responsabilità in assenza di un danno specifico e verificabile. Ma il problema della “scatola nera” algoritmica è diverso, perché riguarda qualcosa di più concreto: l’impossibilità strutturale per l’utente, per il regolatore, e persino per il giudice di sapere cosa sta facendo il sistema che dovrebbe essere sotto esame.
In un processo normale il convenuto ha accesso alle prove quanto l’attore. Se ti cito per un difetto dei freni, posso smontare i freni e analizzarli. Se ti cito per un algoritmo, non ho accesso all’algoritmo, e spesso nemmeno tu, nel senso che i sistemi di machine learning moderni producono comportamenti emergenti che i loro stessi creatori non sanno prevedere completamente. Questa asimmetria è reale e giuridicamente problematica indipendentemente dalla questione della responsabilità.
L’esempio più chiaro è quello che tecnicamente si chiama amplificazione algoritmica di contenuti dannosi. Non si tratta di dire genericamente che lo scroll infinito crea dipendenza – argomento debole come abbiamo visto. Si tratta di dire qualcosa di più specifico e verificabile: il sistema di raccomandazione ha una tendenza documentabile a portare certi utenti, attraverso passaggi progressivi, verso contenuti sempre più estremi. Il fenomeno della radicalizzazione algoritmica su YouTube è stato studiato con una certa solidità, non in modo definitivo, ma con più rigore della semplice “dipendenza da social media”.
Qui la catena causale è almeno in parte ricostruibile: questo utente ha visto questo contenuto, poi questo, poi quest’altro, e la sequenza non è casuale ma è il prodotto di un sistema ottimizzato per massimizzare il tempo di visione. Non è ancora la linearità del reattore nucleare, ma è qualcosa di più vicino a una causalità verificabile rispetto al generico “usava Instagram e stava male”.
Molti regolatori europei, e il Digital Services Act in particolare, hanno percorso questa strada, non imponendo responsabilità oggettiva per i danni, ma richiedendo trasparenza e auditabilità degli algoritmi. L’idea è: non ti chiedo di provare che il tuo algoritmo non fa danni, ti chiedo di renderlo ispezionabile da ricercatori indipendenti e autorità competenti, così che possiamo valutarlo con strumenti adeguati invece di farlo decidere a una giuria.
È un approccio molto più difendibile intellectualmente perché separa due questioni che nei processi americani vengono confuse. La prima è epistemica – sapere cosa fa l’algoritmo. La seconda è normativa – decidere se quello che fa è accettabile. Mischiarle in un processo civile davanti a una giuria significa rispondere alla prima questione con strumenti inadeguati e alla seconda con criteri imprevedibili.
Ma anche qui ci sono limiti seri. Il problema è che la trasparenza algoritmica è molto più difficile di quanto sembri quando la si invoca. Un algoritmo di raccomandazione moderno basato su reti neurali profonde non è un insieme di regole leggibili. È un sistema con miliardi di parametri che produce output in modi che nemmeno i suoi progettisti sanno spiegare completamente. Puoi auditarlo statisticamente, puoi osservarne i comportamenti aggregati, ma non puoi aprirlo e leggere “questa è la regola che ha portato questo utente verso questi contenuti”.
Questo crea un paradosso ulteriore. Se l’azienda stessa non sa esattamente perché il suo algoritmo fa quello che fa, in che senso ha scelto quel design? La responsabilità presuppone sempre, anche nella forma oggettiva, che ci sia un agente che ha fatto una scelta. Ma quando il comportamento emerge da un sistema che nessuno ha programmato esplicitamente per comportarsi in quel modo, la nozione stessa di “scelta di design” diventa filosoficamente problematica.
La responsabilità civile per danni individuali è lo strumento sbagliato, invece è preferibile agire attraverso obblighi di trasparenza, audit indipendenti, e standard verificabili di comportamento sistemico. È un terreno su cui una conversazione giuridica seria è possibile, a differenza della teoria del “design addictive”.
Il problema è che è anche un terreno molto più complicato politicamente, perché richiede competenze tecniche che i legislatori raramente hanno, e perché le aziende hanno ogni incentivo a rendere quella conversazione il più tecnica e oscura possibile. Molto più semplice, per tutti, portare Zuckerberg davanti a una giuria e lasciare che la giuria decida se l’algoritmo è “cattivo”. Anche se quella giuria non ha gli strumenti per rispondere alla domanda.
Il nesso causale
Questo è probabilmente il punto più debole dell’intera costruzione giuridica, e Masnick lo sfiora ma non lo approfondisce quanto meriterebbe.
Dal testo emerge che la querelante californiana, identificata come KGM, ha iniziato a usare YouTube a 6 anni e Instagram a 9 anni, e ha sviluppato depressione, autolesionismo, dismorfismo corporeo e fobia sociale. Nessuno mette in dubbio che questi siano danni reali e seri. Il problema è tutto nella catena causale che si suppone li colleghi all’uso delle piattaforme.
Masnick cita Goldman che nota come la vita di KGM fosse “piena di traumi” preesistenti, e che le prove suggerissero addirittura che i social media l’avessero in alcuni casi aiutata ad affrontarli. Ma questo dettaglio cruciale è sparito nel racconto pubblico del processo, perché emotivamente non si adatta alla narrativa.
Per stabilire che Instagram ha causato il dismorfismo corporeo di KGM dovresti rispondere a domande che la scienza attuale non sa rispondere:
Quali contenuti specifici ha visto, in quale sequenza, con quale frequenza? Di quei contenuti, quali erano stati raccomandati dall’algoritmo e quali cercati attivamente? Tra quelli raccomandati, quali avrebbero avuto effetto su una ragazza con la sua storia specifica e quali no? Come si separa l’effetto di quei contenuti dall’effetto dei traumi preesistenti, delle dinamiche familiari, delle relazioni scolastiche, della predisposizione genetica a condizioni psicologiche? E infine, come si stabilisce il controfattuale – cosa sarebbe successo a KGM senza Instagram, in un mondo in cui le stesse pressioni culturali sull’immagine corporea esistono attraverso decine di altri canali?
Nessuna di queste domande ha avuto risposta nel processo, perché risponderle richiederebbe uno studio controllato su questa specifica persona, che è ovviamente impossibile.
Il criterio usato dalla giuria non era “Instagram ha causato i danni di KGM” ma “Instagram è stato un fattore sostanziale nel causare i danni di KGM”. Questa distinzione apparentemente sottile è in realtà enormemente consequenziale.
Nel diritto della causalità (ovviamente il riferimento è alla normativa americana) esistono due test principali. Il primo è il but-for test: il danno non si sarebbe verificato ma per il comportamento del convenuto. È il test standard e rigoroso. Il secondo è il substantial factor test: il comportamento del convenuto ha contribuito in misura sostanziale al danno. Viene usato tipicamente quando ci sono cause multiple concorrenti e il but-for test darebbe risultati assurdi.
Il problema è che il substantial factor test presuppone comunque che tu possa isolare il contributo specifico del convenuto rispetto alle altre cause. Nel caso di KGM questo isolamento non è stato fatto. Si è sostanzialmente detto: aveva traumi, usava Instagram, stava male, Instagram è stato un fattore sostanziale. Il ragionamento intermedio – quanto ha contribuito Instagram rispetto a tutto il resto – è stato lasciato alla percezione emotiva della giuria.

In nessun momento del processo risulta che siano stati analizzati i contenuti specifici che KGM ha effettivamente visto. Questo è straordinario, perché la giuria ha sostenuto che certi contenuti, presentati in un certo modo, hanno causato danni psicologici specifici, ma non hanno identificato quei contenuti, non hano dimostrato che fossero oggettivamente dannosi, non hanno mostrato che la loro raccomandazione algoritmica fosse distinguibile da una ricerca attiva dell’utente.
Senza questa analisi non stai dimostrando che il design di Instagram ha causato danni. Stai dimostrando che Instagram esiste, che KGM lo usava, e che KGM stava male. Il collegamento causale tra questi tre fatti è stato costruito retoricamente, ma non dimostrato empiricamente.
Masnick menziona il paragone con le sigarette e la vernice al piombo che viene fatto dai sostenitori dei verdetti. Vale la pena svilupparlo perché è illuminante proprio per le differenze. Nel caso delle sigarette la causalità è stata stabilita attraverso decenni di studi epidemiologici su milioni di persone, con meccanismi biologici identificati con precisione, e con un effetto dose-risposta misurabile – più fumi, più il rischio aumenta in modo quantificabile. Nel caso della vernice al piombo il meccanismo neurologico è noto, misurabile nel sangue e distinguibile da altri fattori con test clinici specifici.
Con i social media non esiste nulla di paragonabile. La ricerca disponibile mostra correlazioni deboli e inconsistenti, effetti che variano enormemente tra individui, e nessun meccanismo causale identificato con precisione. Alcuni studi mostrano effetti negativi, altri mostrano effetti neutri o positivi, e la variabile più predittiva sembra essere non quanto usi i social media ma come li usi e in quale contesto della tua vita li usi.
Da questa situazione non se ne esce se il criterio rimane questo. Se “ho usato una piattaforma e sto male” è sufficiente per soddisfare il substantial factor test senza analisi causale rigorosa, allora qualsiasi utente di qualsiasi piattaforma che sviluppa qualsiasi problema psicologico ha una causa potenzialmente vincibile. Moltiplicato per la scala dei social media – miliardi di utenti, percentuali inevitabili di problemi psicologici nella popolazione generale – il numero di cause potenziali è praticamente illimitato.
E la cosa più paradossale è che questo sistema non produrrà più sicurezza per gli utenti. Produrrà piattaforme più chiuse, meno funzionali, progettate da avvocati invece che da ingegneri, dove le funzionalità vengono eliminate non perché siano dimostratamente dannose ma perché sono difendibili in tribunale. Il che è esattamente l’opposto di quello che chi tifa per questi verdetti dice di volere.
Cosa dice la ricerca sugli effetti dei social sui minori
Il punto di partenza è che la ricerca empirica è molto meno solida del consenso popolare suggerirebbe. Il lavoro più citato in questo ambito è quello di Jean Twenge, psicologa americana che dal 2017 sostiene una correlazione tra l’aumento dello smartphone e dei social media e il deterioramento della salute mentale degli adolescenti, specialmente delle ragazze. I suoi libri hanno avuto un impatto culturale enorme e hanno alimentato molta della narrativa pubblica sul tema.
Il problema è che la sua metodologia è stata criticata duramente da altri ricercatori. Andrew Przybylski e Amy Orben dell’Università di Oxford hanno riesaminato gli stessi dataset con tecniche statistiche più rigorose e hanno trovato che la correlazione tra uso dei social media e benessere psicologico è reale ma minuscola – paragonabile, nelle loro parole, all’effetto di mangiare patate o indossare occhiali. Non zero, ma enormemente inferiore a quello che la narrativa pubblica suggerirebbe.
Altri ricercatori hanno trovato risultati ancora più complicati. Alcuni studi mostrano che per certi gruppi – adolescenti già vulnerabili, ragazze con bassa autostima – gli effetti negativi sono più pronunciati. Per altri gruppi gli effetti sono neutri o addirittura positivi. La variabile che sembra contare di più non è la quantità di uso ma la qualità (uso passivo di scorrimento versus uso attivo di comunicazione con persone conosciute produce effetti molto diversi).
C’è poi un problema metodologico fondamentale che raramente viene discusso pubblicamente. La maggior parte degli studi disponibili sono osservazionali, cioè misurano correlazioni tra uso dei social media e problemi psicologici, non causalità. Ma la causalità inversa è perfettamente plausibile e probabilmente significativa: i ragazzi che stanno già male tendono a usare i social media di più, non necessariamente perché i social li fanno stare male, ma perché chi è depresso o ansioso tende a isolarsi fisicamente e a rifugiarsi negli schermi.
Distinguere questi due meccanismi richiede studi molto sofisticati con gruppi di controllo adeguati, e quei studi sono pochissimi e producono risultati contraddittori. Il che significa che il consenso popolare che i social media causano problemi psicologici nei giovani è in realtà molto più fragile scientificamente di quanto sembri.
Purtroppo diversi fattori convergono a creare una percezione di certezza che i dati non giustificano.
Il primo è l’esperienza soggettiva. Chiunque abbia figli adolescenti o lavori con giovani ha osservazioni aneddotiche potenti. I ragazzi sembrano più ansiosi, meno capaci di concentrazione prolungata, più dipendenti dalla validazione sociale immediata. Queste osservazioni sono reali. Il problema è che non sappiamo quanto siano causate dai social media rispetto a decine di altri cambiamenti culturali, economici e sociali avvenuti nello stesso periodo – la crisi finanziaria del 2008, la pandemia, l’aumento della competitività scolastica, la precarietà lavorativa percepita, la crisi climatica come fonte di ansia esistenziale per i giovani.
Il secondo fattore è l’interesse convergente di attori molto diversi. I ricercatori che trovano effetti negativi ottengono più attenzione mediatica di quelli che trovano effetti nulli. I politici trovano nei social media un bersaglio comodo che non richiede politiche costose. I genitori trovano una spiegazione esterna per le difficoltà dei figli che altrimenti richiederebbero autoesame. E i media tradizionali, che competono con i social per l’attenzione pubblicitaria, hanno ogni incentivo a costruire una narrativa negativa su di essi.
Il terzo fattore è la testimonianza di ex dipendenti come Frances Haugen, che ha portato i Facebook Papers nel 2021. Quei documenti interni mostravano che Meta sapeva che Instagram era associato a problemi di immagine corporea in alcune ragazze. Il problema è che “associato” non significa “causato”, e che le stesse ricerche interne mostravano risultati contraddittori, ma la narrativa pubblica ha trattenuto solo la parte più drammatica.
Il termine dipendenza, come ha precisato Nature, è particolarmente problematico perché viene usato in due sensi molto diversi che vengono costantemente confusi. Nel senso clinico preciso, la dipendenza è una condizione neurobiologica caratterizzata da tolleranza crescente, sindrome da astinenza, perdita di controllo sul comportamento, e continuazione nonostante conseguenze negative gravi. Applicato in questo senso rigoroso, la “dipendenza da social media” è una condizione rara e non riconosciuta come diagnosi ufficiale nel DSM, il manuale diagnostico americano, né nell’ICD dell’OMS.
Nel senso popolare invece “dipendenza” significa semplicemente “uso frequente e difficoltà a ridurlo”. In questo senso quasi qualsiasi attività piacevole può essere chiamata dipendenza – dalla lettura al jogging al caffè. Usare questa definizione allargata per sostenere che i social media creano dipendenza clinica è un salto logico non giustificato, ma è esattamente quello che avviene nel discorso pubblico e, evidentemente, nelle aule di tribunale.
Cercando di essere il più onesti possibile, quello che la ricerca suggerisce con ragionevole solidità è più limitato e più sfumato della narrativa dominante. Per la maggioranza degli adolescenti l’uso dei social media ha effetti modesti e ambivalenti sul benessere psicologico. Per una minoranza vulnerabile – ragazze con predisposizione a disturbi dell’immagine corporea, adolescenti già in difficoltà psicologica, giovani in contesti sociali poveri di relazioni reali – gli effetti negativi possono essere più significativi. Il tipo di uso conta enormemente. Il contesto in cui avviene conta enormemente. La presenza o assenza di adulti di riferimento conta enormemente.

Questo non significa che i social media siano irrilevanti per la salute mentale giovanile. Significa che sono uno dei tanti fattori in un sistema complesso, non la causa dominante di una crisi che ha radici molto più profonde e diffuse. E significa che le risposte efficaci – investimento in salute mentale, educazione digitale, sostegno alle famiglie – sono molto meno drammatiche e molto più costose della soluzione narrativamente soddisfacente di portare Zuckerberg in tribunale.
Il fantasma che aleggiava nelle aule giudiziarie era probabilmente composto di parti diverse in proporzioni che nessuno ha cercato di misurare. Una parte di osservazione reale di un fenomeno complesso. Una parte di ansia culturale legittima sul cambiamento tecnologico accelerato. Una parte di semplificazione narrativa che trasforma correlazioni deboli in causalità drammatiche. E una parte, forse non piccola, di bisogno collettivo di trovare un responsabile identificabile per ansie diffuse che non hanno un’unica causa e quindi non hanno una soluzione semplice.
Il problema è che i sistemi legali sono progettati per trovare responsabili, non per gestire complessità diffuse. E quando porti una complessità diffusa davanti a una giuria con un imputato molto ricco e molto antipatico, ottieni un verdetto che soddisfa emotivamente il bisogno di responsabilità senza avvicinarsi minimamente alla comprensione del fenomeno reale.
Il problema strutturale del processo
Un processo civile per definizione ha una struttura binaria: un danneggiato e un danneggiante. Questa struttura è funzionale per la maggior parte dei contenziosi: se la tua auto mi ha investito, siamo io e te, il danno è mio e la responsabilità è tua. Ma quando il “prodotto difettoso” è un mezzo di comunicazione usato da miliardi di persone, questa struttura binaria produce una distorsione sistematica: in aula ci sono i danneggiati, non ci sono i beneficiati. E i beneficiati sono spesso molto più numerosi e molto più vulnerabili dei danneggiati rappresentati.

Masnick fa alcuni esempi nell’articolo, ma vale la pena svilupparli con più precisione perché la categoria dei beneficiari dei social media non è omogenea, ma è composta da gruppi molto diversi con bisogni molto diversi, e le conseguenze di una ristrutturazione forzata li colpirebbero in modo asimmetrico.
Chi perde di più?
Il primo gruppo è quello degli adolescenti LGBTQ+ in contesti ostili. Per un ragazzo gay in una piccola città del Sud Italia, o dell’Alabama, o della Polonia, o di qualsiasi contesto culturalmente conservatore, i social media non sono un lusso o un intrattenimento. Sono spesso l’unico spazio in cui esistono come sono, trovano pari, ricevono conferma che non sono soli e non sono sbagliati. La ricerca su questo gruppo specifico mostra effetti positivi robusti sull’autostima e sulla riduzione dell’ideazione suicidaria. Una piattaforma resa più chiusa, con algoritmi di raccomandazione disabilitati per ridurre il “rischio di dipendenza”, è una piattaforma dove questo ragazzo non trova più quella comunità.
Il secondo gruppo è quello delle persone con malattie rare o condizioni croniche. Prima dei social media, chi aveva una malattia che colpisce una persona su centomila era statisticamente solo, nella sua città probabilmente non esisteva nessun altro con la sua condizione. Le piattaforme con algoritmi di raccomandazione hanno reso possibile la formazione di comunità globali di pazienti che si scambiano informazioni, si supportano, e collettivamente fanno pressione per la ricerca. Questi gruppi dipendono esattamente dalle funzionalità di discovery che vengono indicate come “addictive design”, senza raccomandazione algoritmica, un gruppo di pazienti con una malattia rara è invisibile.
Il terzo gruppo è quello delle persone con disabilità fisiche o sociali. Per chi ha difficoltà di mobilità, disturbi dello spettro autistico, ansia sociale grave, o semplicemente vive in isolamento geografico, i social media sono spesso il principale canale di relazione sociale. La narrativa dominante presuppone implicitamente che la socialità online sia un surrogato inferiore di quella fisica, ma per molte persone non è un surrogato, è l’unica forma accessibile.
Il quarto gruppo è quello degli attivisti e dei dissidenti in contesti autoritari. Gli algoritmi di amplificazione che vengono descritti come pericolosi sono gli stessi che hanno permesso alla Primavera Araba di coordinarsi, che permettono ai giornalisti in Bielorussia di far circolare documentazione di abusi, che permettono alle donne in Iran di organizzarsi. Una piattaforma riprogettata per minimizzare la viralità e l’amplificazione è una piattaforma molto meno utile per chi ha bisogno che la sua voce raggiunga persone al di là della sua rete immediata.
Il quinto gruppo è economicamente il più visibile ma politicamente il meno simpatico: i piccoli creatori, artigiani, artisti, imprenditori locali che hanno costruito visibilità e reddito attraverso i social media. Per un ceramista calabrese o una sarta napoletana, l’algoritmo di Instagram che mostra i loro prodotti a persone con interessi simili in tutto il mondo è la differenza tra un mercato globale e un mercato di quartiere. Questo gruppo è reale e numeroso, ma non genera simpatia in un’aula di tribunale.
Il sistema legale non ha meccanismi per rappresentare i beneficiari diffusi di un prodotto in un processo che riguarda i danni a un individuo specifico. Non esiste un “avvocato dei beneficiati” che possa alzarsi in aula e dire: per ogni KGM che ha sofferto usando Instagram, ci sono diecimila adolescenti LGBTQ+ che hanno trovato comunità, diecimila pazienti con malattie rare che hanno trovato informazioni, diecimila persone sole che hanno trovato connessione.
Questa asimmetria non è accidentale, ma è strutturale nel modo in cui il diritto della responsabilità civile funziona. Il danno individuale è visibile, quantificabile, rappresentato da una persona in carne e ossa con una storia emotivamente coinvolgente. Il beneficio diffuso è invisibile, statistico, non rappresentato da nessuno.
C’è però un’altra categoria che raramente viene discussa apertamente, e che ha interessi molto più materiali degli adolescenti vulnerabili che compaiono nelle narrazioni pubbliche: i beneficiari dei verdetti.
Il primo sono i grandi player consolidati. Una piattaforma riprogettata per minimizzare il rischio legale è una piattaforma più costosa da costruire e mantenere, richiede team legali enormi, compliance complessa, assicurazioni contro il rischio di contenzioso. Meta e Google possono permetterselo. Un concorrente emergente probabilmente no. I verdetti contro Meta producono paradossalmente un vantaggio competitivo per Meta, che sopravviverà mentre i potenziali sfidanti vengono eliminati dal costo del rischio legale.
Il secondo sono i media tradizionali. Giornali, televisioni, editori hanno perso enormi quote di attenzione e pubblicità a favore dei social media. Una narrazione che delegittima i social media come pericolosi e irresponsabili serve oggettivamente i loro interessi economici, anche se nessuno lo dice esplicitamente.
Il terzo sono certi settori dell’industria della salute mentale, che hanno ogni interesse a far riconoscere la “dipendenza da social media” come condizione clinica trattabile. Il che apre un mercato enorme indipendentemente dalla solidità scientifica della diagnosi.
La questione finale, e più scomoda, è questa: se dovessimo fare un bilancio onesto tra i danni documentabili dei social media e i benefici documentabili per le popolazioni più vulnerabili, quale sarebbe il risultato? Non lo sappiamo, perché nessuno lo ha calcolato seriamente. E non lo calcoleremo mai in un’aula di tribunale, perché un’aula di tribunale non è progettata per fare quei calcoli.
Quello che otterremo invece è una serie di verdetti costruiti attorno a storie individuali emotivamente potenti, che produrranno incentivi sistemici a ristrutturare piattaforme usate da miliardi di persone, senza mai chiedersi chi, tra quei miliardi, perderà qualcosa che non può permettersi di perdere.
L’opinione di Casey Newton
Casey Newton è uno degli osservatori più attenti e informati sul funzionamento delle piattaforme digitali, e rappresenta probabilmente la formulazione più solida della posizione intermedia tra difesa delle piattaforme e critica ai verdetti. Proprio per questo è utile prenderlo sul serio, non tanto come semplice contraddittorio di Masnick, ma come tentativo di costruire una sintesi tra le due posizioni.
Newton si colloca infatti in quello che potremmo definire un “terzo campo”: accetta molte delle preoccupazioni sollevate dai querelanti, in particolare sul ruolo del design nel modellare i comportamenti degli utenti, ma cerca al tempo stesso di evitare le conseguenze più radicali delle teorie giuridiche emerse nei processi.
Tuttavia, a un esame più attento, questa posizione intermedia presenta una tensione interna difficile da risolvere: nel momento in cui si accetta che certe scelte di design siano intrinsecamente problematiche, si finisce per avvicinarsi strutturalmente alla logica dei querelanti, anche quando si tenta di limitarne la portata.
L’argomento più solido di Newton è il contro-esperimento mentale che oppone a quello di Masnick. Masnick dice: immagina Instagram con video di vernice che si asciuga, stesso design, nessun danno. Newton risponde: immagina lo stesso contenuto problematico di Instagram, ma servito con un’app dove devi premere un bottone per ogni post, nessuna notifica, nessun autoplay. Stesso contenuto, meno danno?
È un punto genuinamente valido. Aggiungere attrito riduce il consumo, questo è dimostrato in molti contesti comportamentali. La differenza tra content e design non è completamente illusoria, ci sono elementi meccanici che esistono indipendentemente dal contenuto specifico.
Ma Newton non si accorge che questo argomento dimostra meno di quanto pensi. Dimostra che il design influenza i comportamenti, non che il design causa danni. La differenza è cruciale esattamente per le ragioni causali che abbiamo discusso sopra, e Newton non affronta mai seriamente il problema della causalità, che è il punto più debole dei verdetti.
Il problema centrale è che Newton accetta acriticamente la premessa che certi design features siano “difettosi” senza mai chiedersi difettosi rispetto a quale standard verificabile. Quando scrive che le notifiche dopo mezzanotte o gli streak di Snapchat hanno “close to no value outside boosting the valuations of the world’s richest companies”, sta facendo un giudizio di valore mascherato da analisi tecnica.
Chi stabilisce che una feature ha poco valore? Per i 150 milioni di adolescenti che usano Snapchat, gli streak sono un meccanismo di mantenimento delle amicizie – psicologicamente discutibile forse, ma non privo di valore per chi lo usa. Le notifiche dopo mezzanotte sono dannose per un adolescente che deve dormire, ma potrebbero essere essenziali per qualcuno in un fuso orario diverso o in una situazione di emergenza. Newton assume che il suo giudizio sul valore di queste features sia oggettivo, ma è esattamente il tipo di giudizio che nel sistema legale diventa arbitrario e imprevedibile.
Il problema più profondo nell’argomentazione di Newton è un salto che non viene mai esplicitato. Lui dice: il design può essere regolato separatamente dal contenuto, quindi i verdetti sono giusti nell’identificare certi design come difettosi. Ma questo sillogismo ha una premessa mancante, che i design identificati in questi processi siano effettivamente quelli regolabili senza toccare il contenuto.
Newton cita autoplay, notifiche, streak come esempi di features meccaniche separabili dal contenuto. Ma i verdetti non si sono fermati lì. Hanno incluso gli algoritmi di raccomandazione, che come abbiamo discusso sono inseparabili dal contenuto che raccomandano. E soprattutto hanno incluso la crittografia, che Newton stesso ammette essere problematica ma liquida rapidamente come “tangential” al caso del New Mexico – il che è discutibile dato che il procuratore generale sta esplicitamente cercando un ordine del tribunale per limitarla.
L’argomento storico di Newton – che il Section 230 fu scritto per un internet custodiale del 1996 e non si applica alle piattaforme sofisticate del 2026 – è il più seducente ma anche il più pericoloso. È seducente perché è vero che le piattaforme sono cambiate enormemente. È pericoloso perché “la legge non si adatta ai tempi” è storicamente uno degli argomenti più usati per erodere protezioni fondamentali.
Il Section 230 non proteggeva un tipo specifico di tecnologia – proteggeva un principio: che il responsabile di un contenuto dannoso è chi lo ha creato, non chi lo ha ospitato o distribuito. Questo principio non diventa meno valido perché la distribuzione è diventata più sofisticata. Se lo rendessimo dipendente dalla tecnologia specifica del momento, ogni nuova generazione tecnologica richiederebbe una riscrittura delle protezioni fondamentali, il che è esattamente l’instabilità giuridica che Masnick teme.
La lacuna più grave nell’analisi di Newton è che non risponde alla domanda centrale di Masnick: chi paga il costo di questa regolazione? Newton scrive come se il problema si risolvesse limitando le notifiche dopo mezzanotte e gli streak di Snapchat delle grandi piattaforme. Non considera che la teoria legale stabilita da questi verdetti non si applica solo a Meta e Snapchat – si applica a qualsiasi piattaforma che faccia scelte di design su contenuti generati dagli utenti.
Un forum per pazienti oncologici che manda notifiche quando qualcuno risponde al tuo post sta usando una “design feature that increases engagement”. Un blog con commenti ordinati per rilevanza sta usando un “recommendation algorithm”. Newton non risponde a questo problema perché non può. La sua posizione moderata funziona solo se assumi che i tribunali e i legislatori sapranno distinguere tra il design predatorio di Meta e il design innocuo di un forum di supporto. Ma non c’è nessun meccanismo giuridico che garantisca quella distinzione. Dovresti specificare nella legge che si applica solo a piattaforme oltre determinate grandezze, ma rimarrebbe il problema che anche i piccoli forum sono “defective by design” anche se non sanzionabili.
In sintesi, Newton è più onesto intellettualmente dei querelanti – ammette le complessità, riconosce i rischi per la crittografia, non ignora le preoccupazioni sul Section 230. Ma la sua posizione moderata è in realtà una capitolazione ai verdetti con alcune riserve estetiche. Accetta la premessa fondamentale – che il design delle piattaforme può essere trattato come prodotto difettoso soggetto a responsabilità civile – senza mai affrontare le conseguenze sistemiche di quella premessa che Masnick sviluppa in modo molto più rigoroso.
La differenza tra i due, alla fine, è che Masnick ragiona come giurista preoccupato dal precedente, mentre Newton ragiona come osservatore delle piattaforme attento ai loro effetti concreti e alla loro evoluzione. Sono domande diverse: Masnick si chiede quali conseguenze sistemiche produca questo tipo di costruzione giuridica, Newton quali correttivi siano ragionevoli rispetto al funzionamento attuale delle piattaforme. Newton risponde bene alla seconda, ma proprio per questo tende a lasciare sullo sfondo la prima.
Goldman, l’esperto di Section 230
Goldman è citato da entrambi gli articoli, ma sempre in modo frammentario. Vale la pena soffermarsi sul suo contributo perché è il punto in cui il dibattito cambia natura: dalle intuizioni e dalle valutazioni di policy si passa a una ricostruzione più propriamente giuridica del problema.
Accademico specializzato nel Section 230, Goldman offre un’analisi che non si limita a criticare i verdetti, ma ne mette in discussione le premesse giuridiche di fondo, chiarendo in modo più preciso la natura delle scelte delle piattaforme e i rischi sistemici derivanti da una loro riqualificazione in termini di responsabilità del prodotto.
Dai frammenti citati nei due articoli emergono almeno tre contributi distinti.
Il primo è la critica alla distinzione design/contenuto che abbiamo già discusso, ma formulata in modo più preciso di Masnick. Goldman dice che le configurazioni delle piattaforme sono decisioni editoriali dei publisher su come presentare contenuti di terzi, e che quindi la linea tra “design choice” e “publication decision” è illusoria non solo logicamente ma giuridicamente. Non è solo un argomento di buon senso come quello di Masnick sulla vernice che si asciuga, è un argomento sulla natura legale dell’attività editoriale, che il Section 230 fu scritto esplicitamente per proteggere nella sua interezza.
Il secondo è la dimensione sistemica del rischio che Goldman quantifica in modo più esplicito di Masnick. Quando scrive che il totale dei danni potenziali potrebbe essere “many tens of billions of dollars” con migliaia di cause pendenti e potenzialmente milioni di vittime, non sta solo facendo retorica, sta descrivendo un rischio di insolvenza sistemica per l’intero settore che va ben oltre il fastidio del contenzioso. È una differenza di scala importante: Masnick parla del processo come arma contro i piccoli operatori, Goldman parla di un rischio esistenziale anche per i grandi.
Il terzo, che è forse il più originale, è quello che Newton cita sulla “riconfigurazione delle offerte core” e sulle comunità che ne verrebbero danneggiate. Goldman qui fa un argomento che né Masnick né Newton sviluppano fino in fondo, che la pressione legale produrrà non solo piattaforme più chiuse ma una ristrutturazione fondamentale di cosa i social media possono essere, e che questa ristrutturazione silenzerà comunità che dipendono esattamente dalle features sotto attacco.
Quello che non abbiamo ancora affrontato, e che Goldman tocca implicitamente, sono almeno tre questioni.
La prima è la questione del rimedio. Anche ammettendo che le piattaforme abbiano fatto qualcosa di sbagliato, quale sarebbe il rimedio appropriato? I verdetti non rispondono a questa domanda in modo soddisfacente – i danni monetari sono irrisori per Meta, e gli ordini comportamentali che potrebbero emergere dal New Mexico sono potenzialmente devastanti per tutti. Goldman implicitamente suggerisce che il rimedio legislativo sarebbe più appropriato di quello giudiziario, ma non sviluppa cosa dovrebbe contenere.
La seconda è la questione del processo come strumento di discovery. Uno degli effetti collaterali dei processi è che hanno prodotto una quantità enorme di documenti interni di Meta che ora sono pubblici. Goldman non lo dice esplicitamente, ma c’è una tensione reale qui. Quegli stessi documenti che diventano “pistole fumanti” nelle mani dei querelanti sono anche la base empirica più solida che abbiamo per capire cosa fanno effettivamente queste piattaforme. C’è un valore pubblico in quella trasparenza forzata che né Masnick né Newton riconoscono pienamente.
La terza, e forse la più importante, è la questione di cosa succederebbe se il Section 230 venisse riformato legislativamente invece di essere svuotato giudizialmente. Goldman è abbastanza sofisticato da capire che “difendere il Section 230 com’è” non è una posizione sostenibile a lungo termine politicamente. La pressione per fare qualcosa sui social media e i minori è reale e bipartisan. La domanda è se esiste una riforma legislativa che preservi le protezioni fondamentali mentre affronta i problemi reali, o se qualsiasi modifica apre una falla che viene immediatamente sfruttata per svuotare le protezioni.
Su quest’ultima questione né Masnick né Goldman né Newton hanno una risposta convincente, il che suggerisce che il vero problema non è giuridico ma politico, e che il sistema legale sta cercando di risolvere per via giudiziaria una questione che richiede un consenso democratico che al momento non esiste.
Dapne Keller: riformare il 230
Daphne Keller è probabilmente la studiosa che ha lavorato più sistematicamente su questa domanda: come riformare la regolazione delle piattaforme senza distruggere le protezioni fondamentali. Con il suo contributo il piano del discorso cambia ancora: non si tratta più soltanto di criticare i verdetti o di chiarirne le implicazioni giuridiche, ma di capire quale architettura regolatoria possa sostituirli senza produrre effetti peggiori.
A differenza di Masnick e Goldman, che si concentrano prevalentemente sui rischi di un’erosione del Section 230, Keller prova a costruire un modello alternativo, affrontando direttamente il problema che i verdetti tentano – in modo discutibile – di risolvere.
La categoria concettuale più originale di Keller è quella che chiama il discorso “lawful but awful”, cioè contenuti protetti dal Primo Emendamento ma oggettivamente dannosi o offensivi. Questa categoria è fondamentale perché smonta una semplificazione che sia i querelanti che i difensori del Section 230 tendono a fare. I querelanti assumono che i contenuti dannosi siano illegali e quindi perseguibili. I difensori del Section 230 assumono che proteggere le piattaforme significhi automaticamente proteggere il discorso legittimo. Keller mostra che entrambe le posizioni ignorano la zona grigia più vasta: contenuti che non sono illegali ma che producono danni reali e che nessuna riforma semplice del Section 230 può affrontare senza toccare la libertà di espressione.
Keller sostiene che eliminare il Section 230 non rimuoverebbe dall’internet il discorso protetto dal Primo Emendamento ma oggettivamente dannoso, e imporrebbe incertezza legale e costi che i giganti tech incumbenti potrebbero sopravvivere ma che i loro concorrenti minori non potrebbero. È un argomento che Masnick condivide ma che Keller formula in modo più preciso. Il problema non è solo che le piccole piattaforme sarebbero danneggiate, ma che il risultato paradossale sarebbe rafforzare esattamente i monopoli che si vogliono colpire.
Keller osserva inoltre che le posizioni di democratici e repubblicani sulla riforma del Section 230 sono spesso incompatibili tra loro: i primi vogliono che le piattaforme rimuovano contenuti offensivi come la disinformazione sul Covid o i discorsi d’odio, i secondi vogliono che le piattaforme siano obbligate a tenere contenuti conservatori che oggi vengono rimossi. Questo significa che qualsiasi riforma legislativa dovrà navigare tra obiettivi contraddittori, e il rischio di produrre leggi incoerenti è molto alto.
Il contributo più costruttivo di Keller, e quello che la distingue maggiormente dagli altri commentatori, è la proposta del middleware. Keller identifica tre possibili approcci alla regolazione del discorso online:
lasciare che siano le piattaforme a stabilire le regole, come avviene oggi;
lasciare che sia il governo a stabilire le regole per il discorso legale;
oppure dare agli utenti più potere di decidere quale discorso legale vogliono vedere.
Quest’ultima opzione è, a suo giudizio, la migliore.
Il middleware in concreto significa questo: invece di costringere Meta a usare un algoritmo specifico approvato dal legislatore, o di tenerla immune da qualsiasi responsabilità per il suo algoritmo, si crea un’infrastruttura che permette a soggetti terzi – organizzazioni non profit, ricercatori, aziende concorrenti – di offrire sistemi alternativi di moderazione e raccomandazione che gli utenti possono scegliere di adottare al posto di quello della piattaforma. Questa idea ha trovato sostenitori trasversali tra pensatori tecnologici e politici, e versioni sperimentali esistono già (Bluesky offre algoritmi di raccomandazione personalizzabili, e piattaforme federate come Mastodon permettono agli amministratori dei singoli server di impostare politiche di moderazione proprie).
Il vantaggio fondamentale di questo approccio rispetto a quello dei verdetti è che sposta il problema dalla responsabilità civile alla scelta dell’utente. Invece di chiedere a una giuria di stabilire quale algoritmo è “difettoso”, si crea un mercato di algoritmi alternativi dove gli utenti possono scegliere. La piattaforma non è più l’unico gatekeeper della propria esperienza.
Keller è abbastanza onesta intellettualmente da riconoscere i problemi del suo stesso approccio. Il middleware ha ostacoli pratici irrisolti e solleva seri interrogativi sulla privacy degli utenti. Non risponde alle preoccupazioni di chi teme che gli utenti scelgano camere d’eco piene di discorsi d’odio o disinformazione. E richiederebbe una supervisione regolamentare significativa per impedire agli incumbenti di svantaggiare i concorrenti middleware.
C’è anche un problema più profondo che Keller identifica. Le leggi sulle piattaforme troppo spesso usano termini come “design” o “mitigazione del rischio” come eufemismi per mandati che prendono di mira espressioni legalmente protette. Questo è esattamente il problema che emerge dai verdetti contro Meta – il linguaggio del “design difettoso” è in realtà un modo per regolare il contenuto senza dirlo esplicitamente, aggirando le protezioni costituzionali del Primo Emendamento.
Un contributo specifico di Keller che gli altri commentatori non sviluppano è l’uso del modello europeo come riferimento concreto. Keller ha suggerito che il Congresso americano potrebbe usare il Digital Services Act europeo come cheat sheet- Non copiarlo acriticamente, ma imparare da un sistema che ha affrontato seriamente per anni i problemi della regolazione delle piattaforme.
Il DSA europeo è rilevante perché ha adottato esattamente l’approccio che Keller teorizza: obblighi di trasparenza, audit indipendenti degli algoritmi, diritto degli utenti di ricevere raccomandazioni non basate sulla profilazione. Senza toccare la responsabilità per i contenuti nel modo in cui lo fanno i verdetti americani. Non è una soluzione perfetta, ma è un tentativo sistematico di separare la regolazione del design da quella del contenuto in modo giuridicamente più difendibile di quanto abbiano fatto le giurie californiana e del New Mexico.
Keller occupa una posizione genuinamente diversa da tutti gli altri attori in questo dibattito. Non è semplicemente difensiva del Section 230 come Masnick e Goldman. Non capitola ai verdetti come Newton. Propone invece un cambio di paradigma, dalla responsabilità civile per danni individuali alla strutturazione di un mercato competitivo di sistemi di moderazione e raccomandazione dove la scelta appartiene all’utente. È una posizione intellettualmente più ambiziosa, con problemi pratici reali che lei stessa riconosce, ma è l’unico approccio che prova a rispondere alla domanda che nessun altro affronta seriamente: come si regola l’algoritmo senza regolare il discorso.
Il problema del middleware: la deresponsabilizzazione delle piattaforme
Se la piattaforma può dire “abbiamo offerto agli utenti la possibilità di scegliere un algoritmo alternativo, quindi la responsabilità di cosa vedono è loro”, si crea esattamente il meccanismo inverso a quello che i verdetti cercavano di correggere. Invece di troppa responsabilità sulle piattaforme, si produce zero responsabilità.
E il problema non è solo teorico. Lo vediamo già oggi in forme meno sofisticate. Meta offre agli utenti la possibilità di disattivare le raccomandazioni algoritmiche e di vedere il feed cronologico. Quanti utenti lo fanno? Una percentuale minuscola. Quanti sanno che esiste questa opzione? Ancora meno. La scelta formale esiste, la scelta sostanziale no, e la piattaforma può comunque invocare quella scelta formale come scudo legale.
C’è una dimensione più profonda che la proposta del middleware non risolve. Perché la scelta dell’utente sia significativa in senso sostanziale e non solo formale, l’utente deve sapere cosa sta scegliendo. Deve capire cosa fa l’algoritmo della piattaforma, cosa farebbe un algoritmo alternativo, quali sono le differenze pratiche per la sua esperienza e per il suo benessere psicologico.
Ma questa informazione non è disponibile nemmeno ai ricercatori più sofisticati, figuriamoci all’utente medio. Offrire la scelta tra algoritmi opachi è come offrire a qualcuno la scelta tra due farmaci senza indicare gli effetti collaterali di nessuno dei due. La forma della scelta c’è, la sostanza manca completamente.
Questo problema è particolarmente acuto per i minori, che sono esattamente la categoria al centro dei verdetti. Un adolescente di tredici anni non ha gli strumenti cognitivi per valutare le implicazioni di una scelta algoritmica, anche se quella scelta venisse presentata in modo trasparente. E i genitori che potrebbero farlo per lui raramente hanno le competenze tecniche necessarie. Il middleware presuppone implicitamente un utente adulto, informato e razionale , esattamente il tipo di utente che meno ha bisogno di protezione.
Il rischio più grave però non è che le singole piattaforme si disinteressino attivamente della sicurezza dei loro utenti. È che il middleware crei un incentivo strutturale a non investire nella sicurezza perché quell’investimento non produce più vantaggio competitivo.
Oggi Meta ha almeno un incentivo reputazionale e legale a moderare i contenuti e a rendere la piattaforma ragionevolmente sicura. Perché se non lo fa viene criticata pubblicamente e ora anche citata in giudizio. In un sistema middleware puro, quella responsabilità si dissolve in una nebbia di attori distribuiti. La piattaforma fornisce l’infrastruttura grezza. I provider di middleware forniscono i filtri. L’utente sceglie i filtri. Quando qualcosa va storto, chi è responsabile? La risposta più probabile è: nessuno in modo chiaro, il che significa che nessuno ha un incentivo forte a prevenire il danno.
Vale la pena notare che questo problema non è unico al middleware, ma è un problema generale con i modelli di regolazione basati sulla scelta del consumatore in mercati con forte asimmetria informativa. Lo abbiamo visto con i mercati finanziari prima del 2008, dove la proliferazione di prodotti complessi con disclosure formali ma incomprensibili ha prodotto esattamente questa combinazione di scelta formale e deresponsabilizzazione sostanziale. Lo vediamo con i mercati assicurativi, dove la complessità dei contratti rende la scelta informata quasi impossibile per il consumatore medio.
In tutti questi casi la soluzione non è stata eliminare la scelta ma affiancarla con standard minimi non negoziabili che esistono indipendentemente dalla scelta – regolamentazione prudenziale, requisiti patrimoniali, standard di prodotto. L’utente può scegliere tra fondi di investimento diversi, ma tutti devono rispettare certi requisiti minimi di trasparenza e solidità.
La versione più difendibile della proposta di Keller non è il middleware come sostituto della responsabilità delle piattaforme, ma come complemento a uno strato di standard minimi non negoziabili. La piattaforma rimane responsabile per certe soglie minime di sicurezza, diciamo, non amplificare attivamente contenuti che promuovono l’autolesionismo, non raccomandare contenuti sessualmente espliciti a utenti minorenni, non usare pattern di design che sfruttano vulnerabilità psicologiche documentate. Al di sopra di queste soglie minime, il middleware permette agli utenti di personalizzare la propria esperienza.
Questo approccio preserva la responsabilità della piattaforma per le scelte fondamentali di design, mentre sposta verso l’utente le scelte di personalizzazione che non hanno implicazioni di sicurezza significative. È molto più complicato da implementare del middleware puro perché richiede di definire quegli standard minimi, il che ci riporta esattamente al problema che abbiamo discusso dall’inizio, ovvero come si stabilisce quali scelte di design sono dannose senza finire per regolare il contenuto.
In ultima analisi il problema rivela un limite costitutivo di tutti gli approcci. La responsabilità civile per i verdetti è troppo vaga e produce incentivi perversi. La deregolazione totale del Section 230 è politicamente insostenibile e ignora problemi reali. La riforma legislativa rischia di essere catturata da interessi politici contraddittori. Il middleware rischia di deresponsabilizzare le piattaforme proprio mentre pretende di empowerare gli utenti.
Il problema di fondo è che stiamo cercando una soluzione tecnico-giuridica a qualcosa che è fondamentalmente un problema di potere asimmetrico. Le piattaforme hanno risorse computazionali, dati comportamentali e competenze tecniche che nessun regolatore, nessun utente e nessun provider di middleware alternativo potrà mai pareggiare nel breve termine. In un sistema con questa asimmetria strutturale, qualsiasi meccanismo di scelta o responsabilità tende a essere catturato dall’attore con più risorse, che è esattamente la piattaforma che si vorrebbe regolare.
La soluzione più onesta che emerge da tutto questo dibattito è probabilmente quella meno glamour: non un singolo meccanismo elegante ma una combinazione di standard minimi obbligatori, trasparenza algoritmica forzata, ricerca indipendente finanziata pubblicamente, e responsabilità civile limitata a violazioni specifiche e verificabili. Nessuno di questi elementi da solo risolve il problema. Tutti insieme potrebbero creare un sistema abbastanza robusto da produrre incentivi migliori senza distruggere le protezioni fondamentali. Ma richiede esattamente il tipo di lavoro legislativo serio e di lungo periodo che il sistema politico americano (ma non solo) attuale sembra incapace di produrre.
L’approccio europeo
L’approccio americano, sia nella versione dei querelanti che in quella di Newton, parte dalla domanda “cosa non dovrebbe essere pubblicato o come non dovrebbe essere presentato?”. È una domanda sul risultato. L’approccio europeo del Digital Services Act parte invece dalla domanda “quali processi deve seguire una piattaforma per gestire i propri contenuti e i propri algoritmi?”. È una domanda sulla procedura. La differenza non è solo tecnica, è filosofica.
La regolamentazione del risultato presuppone che qualcuno – un legislatore, un giudice, una giuria – sappia in anticipo quali contenuti o quali design sono dannosi. Abbiamo visto quanto questa presupposizione sia problematica. La regolamentazione procedurale presuppone invece che nessuno lo sappia con certezza, e che quindi il meglio che si possa fare sia imporre processi trasparenti, verificabili e contestabili che producano risultati ragionevolmente buoni in media, anche se non perfetti in ogni caso specifico.

Il Digital Services Act opera su diversi livelli che vale la pena distinguere perché non sono tutti ugualmente efficaci o privi di problemi.
Il primo livello è la trasparenza algoritmica. Le piattaforme molto grandi sono obbligate a fornire agli utenti spiegazioni comprensibili su come funzionano i loro sistemi di raccomandazione, e a offrire almeno un’opzione di raccomandazione non basata sulla profilazione. Non si dice quale algoritmo usare, si dice che l’utente deve sapere quale algoritmo gli viene applicato e deve poterne scegliere uno alternativo. È esattamente il nucleo razionale del middleware di Keller, ma implementato come obbligo procedurale invece che come proposta di mercato.
Il secondo livello è la valutazione del rischio sistemico. Le piattaforme molto grandi devono condurre annualmente valutazioni dei rischi sistemici che i loro servizi producono, non per singolo utente, ma a livello di effetti sulla società, sul discorso pubblico, sulla salute pubblica. Queste valutazioni devono essere condivise con i regolatori e con ricercatori indipendenti. Non si dice cosa fare dei rischi identificati, si dice che devono essere identificati, documentati e comunicati in modo verificabile.
Il terzo livello è l’accesso ai dati per la ricerca. I ricercatori accreditati hanno diritto di accesso ai dati delle piattaforme per studiare i loro effetti sociali. Questo affronta direttamente il problema della scatola nera algoritmica, non aprendo l’algoritmo al pubblico, ma creando una classe di soggetti autorizzati a studiarlo con metodi scientifici rigorosi.
Il quarto livello è la moderazione dei contenuti illegali con standard procedurali. Non si definisce quali contenuti le piattaforme devono rimuovere al di là di quelli già illegali, si definisce come devono gestire le segnalazioni, con quali tempistiche, con quali meccanismi di appello per gli utenti. È una regolamentazione del processo di moderazione, non del suo risultato.
La regolamentazione procedurale non dice alla piattaforma cosa può o non può pubblicare, ma dice come deve gestire ciò che pubblica. Questo significa che non esiste un elenco governativo di contenuti vietati, non esiste un funzionario pubblico che decide cosa è troppo pericoloso per essere pubblicato, non esiste un meccanismo diretto attraverso cui il potere politico può orientare la moderazione verso i propri interessi.
Questo non elimina completamente il rischio censorio – come Keller ha notato, le valutazioni del rischio sistemico potrebbero essere usate per fare pressione indiretta sulle piattaforme affinché moderino certi tipi di contenuti politicamente scomodi. L’esperienza del DSA con la disinformazione durante le elezioni europee ha mostrato esattamente questa tensione. Ma il rischio è strutturalmente molto più contenuto che in qualsiasi sistema di regolamentazione del contenuto, perché il potere governativo agisce sulle procedure e non direttamente sui contenuti.
Detto questo, sarebbe disonesto presentare il DSA come soluzione priva di problemi, e Keller stessa è abbastanza rigorosa da riconoscerli.
Il primo problema è l’enforcement asimmetrico. Il DSA si applica alle piattaforme molto grandi – quelle con più di 45 milioni di utenti nell’UE. Questo significa che il sistema di incentivi che Masnick descrive – solo i giganti sopravvivono al costo della compliance – si riproduce anche nell’approccio europeo, semplicemente con costi di compliance procedurale invece che costi di contenzioso. Una piattaforma media o piccola potrebbe essere esclusa dagli obblighi più stringenti, ma anche dalla credibilità e dalla fiducia degli utenti che gli obblighi più stringenti tendono a produrre.
Il secondo problema è la tensione con il Primo Emendamento americano. L’approccio europeo funziona in un sistema costituzionale dove la libertà di espressione è bilanciata esplicitamente con altri diritti fondamentali – la dignità umana, la protezione dei dati personali, la coesione sociale. Nel sistema americano la libertà di espressione ha un peso costituzionale molto più assoluto, e molti degli obblighi procedurali del DSA – in particolare quelli che riguardano la valutazione del rischio sistemico e l’accesso ai dati dei ricercatori – solleverebbero probabilmente seri problemi costituzionali se applicati negli Stati Uniti.
Il terzo problema, più sottile, è quello che potremmo chiamare la regolamentazione procedurale come vettore di influenza culturale. Il DSA è stato scritto da regolatori europei con certi valori culturali impliciti su cosa costituisce rischio sistemico per la società. Questi valori non sono neutri, ma riflettono una concezione particolare del rapporto tra discorso pubblico, coesione sociale e democrazia che non è universalmente condivisa. Quando questo sistema viene applicato a piattaforme globali, esporta implicitamente quei valori anche in contesti culturali diversi.
Il punto più importante però va al di là dei dettagli tecnici del DSA. L’approccio europeo ha dimostrato che è possibile porre la domanda regolamentare in modo diverso. Non “quale contenuto o quale design è dannoso?” ma “quali obblighi procedurali producono un ecosistema informativo più sano?”. Questa riformulazione non risolve tutti i problemi, ma evita la maggior parte delle trappole in cui sono caduti i verdetti americani.
In un certo senso, quello che l’Europa ha fatto è applicare alla regolamentazione delle piattaforme lo stesso principio che il diritto amministrativo applica alla regolamentazione di qualsiasi attività complessa. Invece di specificare il risultato che vuoi ottenere, specifica i processi che devono essere seguiti per arrivarci, e poi verifica che quei processi vengano effettivamente seguiti. È un approccio più umile epistemicamente, perché riconosce che il regolatore non sa meglio della piattaforma quale algoritmo specifico produca i migliori risultati, ma sa che certi processi – trasparenza, valutazione del rischio, accesso alla ricerca indipendente – sono precondizioni per qualsiasi risultato ragionevole.
Il vero nodo, per tornare al dibattito americano, è se il sistema politico americano sia in grado di produrre qualcosa di simile: una regolamentazione procedurale sofisticata che preservi le protezioni fondamentali del Primo Emendamento mentre crea obblighi verificabili di processo. L’esperienza degli ultimi anni suggerisce che il Congresso americano non ha né la competenza tecnica né la volontà politica per farlo. E in assenza di quella legislazione, i tribunali continuano a riempire il vuoto con verdetti che risolvono il problema politico nel modo più semplice disponibile, trovando qualcuno ricco e antipatico a cui addebitare il danno.
Cosa è trasportabile nel dibattito europeo
La parte del dibattito americano che non ha senso in Europa è quella che riguarda il Section 230 come struttura giuridica. Il Section 230 è una norma specifica dell’ordinamento americano, e il dibattito su come interpretarla o riformarla è privo di equivalente diretto nel diritto europeo. Il DSA ha già risolto per via legislativa molte delle tensioni che negli Stati Uniti vengono risolte per via giudiziaria, e lo ha fatto in modo più sistematico e meno casuale di quanto possa fare una giuria californiana.
Analogamente, il dibattito americano sulla “design liability” come strumento per aggirare le protezioni costituzionali ha poco senso nel contesto europeo perché le protezioni costituzionali europee per la libertà di espressione sono strutturalmente diverse – più bilanciate con altri diritti fondamentali, quindi meno assolute e meno bisognose di essere aggirate surrettiziamente attraverso la teoria del prodotto difettoso.
La parte del dibattito che si trasporta integralmente in Europa è quella che riguarda le questioni di fondo che precedono qualsiasi framework giuridico specifico: la debolezza del nesso causale tra social media e salute mentale, il problema della causalità inversa, l’asimmetria tra chi è rappresentato nei processi decisionali e chi non lo è, i rischi per le comunità che dipendono dai social media, il problema delle discussioni interne come prova di intenzionalità. Sono domande che si pongono con la stessa forza in Europa indipendentemente dal DSA.
Il DSA regola le procedure, ma non risponde alla domanda empirica fondamentale: i social media fanno male ai giovani, e se sì, in che misura e attraverso quali meccanismi? Questa domanda è irrisolta in Europa esattamente come negli Stati Uniti, e il dibattito pubblico europeo tende a presumere una risposta affermativa con la stessa mancanza di rigore scientifico che Masnick critica nel contesto americano.
C’è però una dimensione del dibattito che in Europa è potenzialmente più pericolosa che negli Stati Uniti, e che il DSA non risolve, anzi rischia di amplificare.
Il DSA impone alle piattaforme valutazioni del rischio sistemico. Queste valutazioni vengono esaminate dalla Commissione Europea e dalle autorità nazionali competenti. Se il clima culturale e politico europeo converge sul consenso che i social media fanno male ai giovani – consenso che, come abbiamo visto, è scientificamente debole ma politicamente fortissimo – le autorità di enforcement del DSA hanno strumenti molto più diretti e meno trasparenti delle giurie americane per fare pressione sulle piattaforme affinché modifichino i loro sistemi.
La giuria californiana ha almeno prodotto un verdetto pubblico, motivato, appellabile, soggetto a scrutinio accademico e mediatico. Una decisione della Commissione Europea che ordina a Meta di riconfigurare il suo algoritmo di raccomandazione per “ridurre il rischio sistemico” sulla salute mentale dei giovani sarebbe molto meno visibile, molto meno contestabile nel merito e potenzialmente molto più incisiva. In questo senso il DSA, che è strutturalmente superiore all’approccio americano per i motivi che abbiamo discusso, non è immune dalla stessa deriva. Semplicemente la incanalizza attraverso procedure burocratiche invece che attraverso il sistema giudiziario.
La posizione nel dibattito
Schierarsi contro i verdetti americani e contro la narrativa dominante sui social media non significa necessariamente difendere Meta o Zuckerberg. Significa qualcosa di più specifico e più difendibile: ritenere che gli strumenti usati siano sproporzionati rispetto ai danni dimostrati, che i meccanismi causali non siano stati stabiliti con sufficiente rigore, e che le conseguenze sistemiche degli strumenti usati siano potenzialmente peggiori dei problemi che si vogliono risolvere.
Questa posizione è compatibile con riconoscere che Meta è un’azienda che ha fatto scelte discutibili, che i giovani affrontano pressioni reali di cui i social media sono probabilmente un fattore tra molti, e che una regolamentazione seria delle piattaforme è necessaria. La differenza sta nel come, e su questo la posizione che emerge da Masnick, Goldman e Keller letta insieme è più sofisticata e più difendibile di quella dei querelanti o di Newton.
Il dibattito americano è utile per gli europei non come modello da seguire ma come laboratorio da osservare con cautela. Ci mostra dove porta la regolamentazione per via giudiziaria senza un framework legislativo adeguato: approdo caotico, casuale, dominato dall’emotività delle giurie e dalla capacità retorica degli avvocati. Il DSA è un tentativo serio di evitare quell’approdo, e per questo merita di essere difeso anche da chi – come chi scrive – è critico verso le grandi piattaforme.
Ma il DSA non è immune dalla pressione culturale e politica che alimenta i verdetti americani: la convinzione diffusa che i social media siano intrinsecamente dannosi e che qualcuno debba pagare. Se quella pressione si accumula, può deformare anche un framework procedurale ben costruito, spingendo le autorità di enforcement a usare gli strumenti del DSA per ottenere risultati sostanziali sulla moderazione dei contenuti che il DSA non era stato progettato per produrre.
Il vero antidoto, sia in America che in Europa, non è giuridico ma epistemico, investire seriamente nella ricerca indipendente sui reali effetti dei social media, costruire un consenso scientifico più robusto di quello attuale, e resistere alla tentazione di usare strumenti giuridici potenti per rispondere a domande empiriche ancora aperte. È un lavoro lento, costoso e poco visibile. Molto meno soddisfacente che portare Zuckerberg in tribunale. Ma probabilmente l’unico che produce risultati senza danni collaterali peggiori dei problemi che si vogliono risolvere.
Il paradosso del DSA
Il DSA, come abbiamo visto, è superiore tecnicamente perché evita le distorsioni del sistema giudiziario americano: la casualità delle giurie, la retorica degli avvocati, la mancanza di competenza tecnica, i verdetti guidati dall’antipatia verso il convenuto. Ma questa superiorità tecnica ha un costo democratico reale che raramente viene discusso apertamente.
Il sistema americano, con tutti i suoi difetti, è rumoroso. Produce dibattito pubblico, articoli come quello di Masnick, contraddittorio accademico, copertura mediatica intensa. Quando una giuria californiana condanna Meta, tutti sanno cosa è successo, perché è successo, e possono contestarlo. Goldman scrive il suo blog, Masnick scrive su Techdirt, Newton risponde, il lettore legge tutto e si fa un’opinione. Il processo è caotico ma trasparente nel senso più letterale, avviene alla luce del sole.
Il sistema europeo è tecnicamente più sofisticato ma strutturalmente più opaco. Le decisioni rilevanti non vengono prese in un’aula di tribunale pubblica ma in riunioni tra funzionari della Commissione Europea, rappresentanti delle autorità nazionali competenti, e lobbisti delle piattaforme. I documenti che contano sono le valutazioni del rischio sistemico, le decisioni di enforcement, le linee guida interpretative, testi tecnici che pochi leggono e ancora meno capiscono.
Nel sistema americano il contraddittorio è strutturale, è incorporato nella procedura. Ogni affermazione del querelante deve essere contestata dal convenuto, ogni prova deve essere controesaminata, ogni esperto può essere sfidato da un controesperto. Il risultato può essere sbagliato, ma il processo di contestazione è garantito istituzionalmente.
Nel sistema del DSA il contraddittorio è molto più debole. Se la Commissione Europea commissiona o adotta uno studio che stabilisce che certi algoritmi di raccomandazione sono sistematicamente dannosi per la salute mentale dei minori, questo studio diventa la base per decisioni di enforcement che le piattaforme devono rispettare. Le piattaforme possono contestare le decisioni davanti alla Corte di Giustizia dell’UE, ma questo è un contraddittorio tecnico-giuridico tra grandi attori istituzionali, non un dibattito pubblico accessibile all’opinione pubblica.

E il problema va oltre le piattaforme. Chi rappresenta gli utenti che beneficiano dei social media in questo processo? Chi porta la voce dell’adolescente LGBTQ+ in un paese conservatore, del paziente con malattia rara, dell’attivista in un contesto difficile? Nel sistema americano almeno esiste la possibilità teorica di amicus brief, di interventi di organizzazioni della società civile, di copertura mediatica che amplifica voci altrimenti inascoltate. Nel processo decisionale della Commissione Europea questi meccanismi esistono formalmente – le consultazioni pubbliche, i pareri degli stakeholder – ma nella pratica sono dominati da attori organizzati con risorse sufficienti per partecipare.
Il DSA prevede che la Commissione possa ordinare alle piattaforme di adottare “misure di mitigazione del rischio” per i minori sulla base delle valutazioni del rischio sistemico. Se quelle valutazioni convergono su un consenso – anche scientificamente debole – il meccanismo per tradurlo in obblighi concreti esiste già.
E la storia della regolamentazione europea suggerisce che questo scenario è plausibile. Il GDPR è nato come regolamentazione tecnica della privacy dei dati ed è diventato uno strumento che ha profondamente modificato il modo in cui le piattaforme operano in Europa, con effetti che vanno molto al di là di quello che il dibattito pubblico originario aveva anticipato. Il DSA ha potenzialmente un impatto ancora maggiore sul discorso pubblico, e il suo enforcement è ancora più distante dall’opinione pubblica del GDPR.
C’è però una dimensione più profonda che spiega perché questo rischio sia strutturalmente diverso in Europa rispetto agli Stati Uniti, e non è solo una questione di istituzioni.
La cultura politica europea – almeno quella continentale – ha una concezione del rapporto tra Stato, mercato e società civile che tende a vedere le istituzioni europee come depositarie di un interesse generale che trascende il dibattito pubblico contingente. C’è una fiducia implicita nella competenza tecnocratica delle istituzioni europee che negli Stati Uniti sarebbe considerata inaccettabilmente antidemocratica. Questa fiducia non è del tutto ingiustificata – le istituzioni europee hanno prodotto framework regolamentari sofisticati come il DSA proprio perché operano con una certa distanza dal rumore del dibattito politico immediato. Ma quella stessa distanza è esattamente il problema.
Vale la pena notare che questo problema non è nuovo né unico al DSA. È la tensione classica tra expertise tecnocratica e legittimità democratica che attraversa tutta la storia dell’integrazione europea. La BCE decide la politica monetaria senza mandato elettorale diretto. L’EFSA decide sulla sicurezza alimentare con criteri tecnici che il pubblico non comprende e non può contestare efficacemente. La Commissione decide sulle fusioni aziendali con analisi economiche inaccessibili ai non specialisti.
In tutti questi casi la risposta europea è stata sostanzialmente: la complessità tecnica richiede expertise tecnocratica, e la legittimità democratica si garantisce attraverso il controllo parlamentare ex post, non attraverso la partecipazione diretta dell’opinione pubblica alle decisioni. È una risposta non del tutto soddisfacente, ma che ha funzionato abbastanza bene in ambiti dove l’oggetto della regolazione è relativamente separabile dal discorso pubblico: la politica monetaria, la sicurezza alimentare, la concorrenza.
Ma la regolazione del discorso pubblico stesso è fondamentalmente diversa da questi ambiti. Quando l’oggetto della regolazione è come le persone comunicano, si informano, si organizzano politicamente, affidare le decisioni chiave a un processo tecnocratico poco visibile produce una forma di cattura del discorso pubblico da parte delle istituzioni che dovrebbero limitarsi a regolarne le condizioni. Non è necessariamente malafede – può essere la conseguenza non intenzionale di decisioni prese in buona fede da funzionari competenti. Ma l’effetto è lo stesso.
Il quadro che emerge è sconfortante ma forse necessariamente tale. Non esiste un sistema di regolazione delle piattaforme che sia simultaneamente tecnicamente sofisticato, democraticamente legittimo, costituzionalmente solido, efficace nel prevenire danni reali, e immune da cattura da parte di interessi politici o economici. Ogni sistema disponibile ottimizza alcune di queste dimensioni a scapito delle altre.
Il sistema americano dei verdetti ottimizza la visibilità pubblica e il contraddittorio a scapito della coerenza tecnica e della proporzionalità. Il DSA ottimizza la sofisticazione tecnica e la coerenza a scapito della visibilità democratica e del contraddittorio pubblico. Il middleware di Keller ottimizza la libertà individuale a scapito della responsabilità collettiva.
La scelta tra questi sistemi non è quindi una scelta tecnica, è una scelta di valori. Quale rischio sei disposto ad accettare? Il caos democratico americano con i suoi verdetti irrazionali ma pubblicamente contestabili? O la razionalità tecnocratica europea con le sue decisioni più coerenti ma meno trasparenti?
Forse la risposta più onesta è che nessuna società dovrebbe scegliere uno solo di questi sistemi, ma dovrebbe costruire deliberatamente meccanismi che compensino i difetti di quello che ha adottato – più trasparenza e contraddittorio pubblico nell’enforcement del DSA, più competenza tecnica e standard causali rigorosi nel sistema americano. Non come soluzione definitiva, ma come lavoro permanente di aggiustamento in un campo che cambia più velocemente di qualsiasi framework regolamentare possa anticipare.
La prospettiva assente nel dibattito
Tutti gli approcci che abbiamo discusso – responsabilità civile, DSA, middleware – operano assumendo come dato il panorama attuale in cui tre o quattro piattaforme controllano la stragrande maggioranza del flusso informativo globale. Nessuno di questi approcci affronta la domanda preliminare: perché questo panorama esiste, e se fosse diverso il problema si porrebbe negli stessi termini?
La risposta alla prima parte è chiara. Le piattaforme attuali hanno raggiunto la loro posizione dominante attraverso una combinazione di effetti di rete, acquisizioni strategiche, e sfruttamento di dati comportamentali accumulati nel tempo. Facebook ha comprato Instagram nel 2012 e WhatsApp nel 2014 proprio quando questi stavano emergendo come potenziali concorrenti. Google ha comprato YouTube nel 2006 quando era ancora una startup. In entrambi i casi i regolatori antitrust hanno approvato le acquisizioni usando criteri sviluppati per mercati industriali tradizionali, completamente inadeguati a cogliere la dinamica competitiva dei mercati digitali basati sui dati e sugli effetti di rete.
La risposta alla seconda parte (se il panorama fosse diverso, il problema si porrebbe negli stessi termini) è probabilmente no, e questo è il punto più importante. Il problema della “dipendenza da social media”, il problema dell’amplificazione algoritmica di contenuti dannosi, il problema della moderazione opaca, esistono nella forma acuta in cui li conosciamo perché esistono piattaforme con miliardi di utenti che non hanno alternative reali. Se esistessero dieci piattaforme competitive invece di tre dominanti, ciascuna con un approccio diverso alla moderazione e all’algoritmo di raccomandazione, la pressione competitiva produrrebbe differenziazione. Alcune ottimizzerebbero per l’engagement a breve termine, altre per il benessere degli utenti, e gli utenti potrebbero scegliere.
La Direttiva Copyright del 2019, con il suo articolo 17, ha imposto alle piattaforme obblighi di filtraggio preventivo dei contenuti che violano il copyright. L’implementazione pratica richiede sistemi automatizzati di riconoscimento dei contenuti – il Content ID di YouTube è l’esempio più noto. Sviluppare, mantenere e aggiornare questi sistemi richiede investimenti nell’ordine di centinaia di milioni di euro e competenze tecniche che solo le piattaforme più grandi possono permettersi.
Il risultato è esattamente una barriera all’ingresso massiccia che protegge i giganti esistenti dalla concorrenza. Una startup che volesse costruire una piattaforma alternativa a YouTube dovrebbe, dal primo giorno, implementare un sistema di filtraggio del copyright equivalente a quello che Google ha sviluppato in vent’anni con miliardi di investimenti. È strutturalmente impossibile. La Direttiva Copyright, nata con l’obiettivo dichiarato di proteggere i creatori di contenuti, ha prodotto come effetto collaterale – o forse come effetto intenzionale, considerato chi ha fatto lobbying per essa – il consolidamento definitivo del duopolio YouTube-Meta nel mercato delle piattaforme video.

E questo meccanismo non è limitato alla Direttiva Copyright. Il DSA stesso, con i suoi obblighi di compliance per le piattaforme molto grandi, produce un effetto simile. Le piattaforme che superano la soglia dei 45 milioni di utenti nell’UE devono sostenere costi di compliance significativi – team legali dedicati, sistemi di audit, processi di valutazione del rischio. Questi costi sono assorbibili per Meta e Google. Sono proibitivi per una piattaforma che cerca di crescere fino a quella soglia. Si crea paradossalmente un incentivo a rimanere sotto la soglia – che significa rimanere piccoli – o a crescere molto rapidamente fino a una scala in cui i costi di compliance diventano marginali rispetto al fatturato. La fascia intermedia, quella delle piattaforme medie che potrebbero rappresentare la concorrenza più reale ai giganti, viene compressa.
Il diritto antitrust tradizionale si basa sul concetto di posizione dominante definita dalla quota di mercato e dalla capacità di fissare prezzi superiori alla concorrenza. Entrambi questi criteri sono inapplicabili ai mercati delle piattaforme digitali. La quota di mercato è difficile da definire quando i mercati rilevanti cambiano continuamente – Meta compete con YouTube, TikTok, Twitter, ma anche con Netflix, con i giochi video, con qualsiasi altra forma di intrattenimento digitale. E il prezzo per gli utenti è zero, quindi il criterio del prezzo superconcorrenziale non si applica direttamente.
Quello che le piattaforme dominanti controllano non è un mercato di prodotti ma un’infrastruttura di attenzione e di dati. L’asimmetria competitiva fondamentale non è che Meta produca un prodotto migliore di un potenziale concorrente, è che Meta ha accumulato dati comportamentali su tre miliardi di utenti per vent’anni, e quei dati rendono il suo sistema di targeting pubblicitario incomparabilmente più efficace di quello di qualsiasi concorrente che parta da zero. Questa è una forma di vantaggio competitivo che non si erode con la concorrenza normale e che non viene catturata dagli strumenti antitrust tradizionali.
Alcuni regolatori hanno iniziato ad affrontare questo problema. Il Digital Markets Act europeo, che è il complemento concorrenziale del DSA, introduce il concetto di “gatekeeper” (piattaforme che controllano accessi infrastrutturali che altri devono usare per raggiungere gli utenti) e impone obblighi di interoperabilità e di accesso ai dati che cercano di erodere questo tipo di vantaggio strutturale. È un passo nella direzione giusta, ma è ancora lontano dall’affrontare il problema alla radice.
Alcuni economisti parlano di “separazione strutturale” applicata alle piattaforme digitali – l’idea che le infrastrutture di comunicazione non debbano essere controllate dagli stessi soggetti che producono i contenuti che vi circolano. È il principio che ha ispirato la separazione tra reti telefoniche e servizi di telecomunicazione, tra reti ferroviarie e operatori ferroviari, tra reti elettriche e produttori di energia.
Applicato alle piattaforme digitali significherebbe separare l’infrastruttura – i server, i sistemi di distribuzione dei contenuti, le API di accesso agli utenti – dai servizi che ci girano sopra. Un utente potrebbe scegliere il proprio servizio di raccomandazione, il proprio sistema di moderazione, la propria interfaccia, accedendo tutti alla stessa infrastruttura sottostante. È esattamente il middleware di Keller, ma implementato attraverso un obbligo strutturale invece che attraverso un incentivo di mercato.
Ma il problema pratico è enorme, smontare l’integrazione verticale di Meta o Google richiederebbe un intervento regolamentare di una complessità e di una durata che nessun sistema politico attuale sembra capace di sostenere. Il caso antitrust americano contro Google sulla ricerca ha impiegato anni per arrivare a un verdetto, e l’implementazione dei rimedi è ancora in corso con esiti incerti. Un caso che affrontasse la separazione strutturale delle piattaforme social sarebbe di diversi ordini di grandezza più complessi.
E qui giunge subito alla mente il caso italiano. Il conflitto di interesse Mediaset-governo Berlusconi è stato per decenni il caso di scuola di come la concentrazione dei media possa distorcere il discorso pubblico in modo che né il mercato né la regolamentazione riescano a correggere efficacemente. Ma quello che è interessante in retrospettiva è che era un problema relativamente semplice: un singolo attore con interessi identificabili che controllava piattaforme con tecnologie comprensibili.
Il problema delle piattaforme digitali è strutturalmente più complesso perché la distorsione del discorso pubblico non avviene attraverso scelte editoriali esplicite e identificabili, ma attraverso miliardi di micro-decisioni algoritmiche che nessun singolo attore ha programmato esplicitamente. Zuckerberg non decide cosa vedere ai singoli utenti, lo decide un sistema che ottimizza per obiettivi che Zuckerberg ha impostato, producendo effetti che nemmeno lui può prevedere completamente. Questo rende il problema molto più difficile da affrontare con gli strumenti antitrust tradizionali, che sono costruiti attorno all’idea di un attore con intenzioni identificabili.
Il filo che abbiamo tracciato in questo lungo excursus, dalla responsabilità civile al DSA al middleware all’antitrust alle barriere all’ingresso, è in realtà il percorso più coerente che emerge. Tutti gli approcci a valle, quelli che cercano di regolare il comportamento delle piattaforme esistenti, sono condannati a una forma di inseguimento permanente perché operano su un terreno strutturalmente sfavorevole – poche piattaforme enormi con risorse incomparabilmente superiori a quelle di qualsiasi regolatore.
L’approccio a monte (ridurre la concentrazione, abbassare le barriere all’ingresso, creare condizioni per una concorrenza reale) è l’unico che affronta il problema alla radice invece di gestirne i sintomi. Ma è anche il più difficile politicamente, perché richiede di toccare interessi economici enormi e di sostenere processi regolamentari di lunghissima durata senza garanzia di successo. Quale politico si impegnerebbe in un’impresa così titanica guardando nel contempo gli indici di consenso che scendono costantemente?

Ma forse la lezione più importante è proprio che la difficoltà di un approccio non è una ragione sufficiente per preferire approcci più semplici che non funzionano. I verdetti americani sono semplici. Il DSA è più sofisticato ma ancora insufficiente. L’antitrust strutturale è enormemente complesso ma è l’unico che potrebbe produrre un ecosistema informativo genuinamente plurale. La semplicità che non risolve il problema non è una virtù, è solo una forma di rinvio.
Fonte:
www.valigiablu.it



