Algoritmi dei social network: una proposta italiana interviene sul design delle piattaforme

A seguito della storica sentenza del 25 marzo 2026, emessa dal Tribunale di Los Angeles, che ha condannato Meta e YouTube per aver progettato prodotti intenzionalmente assuefacenti dannosi per la salute, in Italia prende forma un disegno di legge che sposta il focus della regolamentazione: non più i contenuti, ma il modo in cui vengono organizzati e distribuiti dagli algoritmi.

Il testo interviene in primo luogo sulla dipendenza algoritmica, legata a meccanismi ormai strutturali delle piattaforme come scroll infinito, autoplay e notifiche continue, progettati per massimizzare il tempo di permanenza e l’interazione degli utenti.

In realtà, il tema non è nuovo nel panorama europeo. Già dal 2024 è pienamente in vigore il Digital Services Act (Reg. UE 2022/2065), regolamento volto a rafforzare le tutele degli utenti della rete, con particolare attenzione ai soggetti più vulnerabili.

Non è un caso che la Commissione Europea, nelle sue conclusioni preliminari del 6 febbraio scorso, abbia ritenuto che TikTok violi il Digital Services Act proprio per il suo “design”: un sistema che induce il cervello degli utenti, soprattutto minorenni, ad attivare una sorta di “pilota automatico”, alimentando il meccanismo degli scroll infiniti, con effetti che possono tradursi in ansia, depressione e, in ultima analisi, dipendenza.

Anche l’AI Act (Reg. UE 2024/1869), dal canto suo, aveva già vietato espressamente l’immissione sul mercato di sistemi di intelligenza artificiale che utilizzassero “tecniche manipolative o ingannevoli” finalizzate a distorcere il comportamento umano causando un “danno significativo”, anche di natura “psicologica”.

Si pone poi il problema dell’influenza algoritmica, ossia della capacità dei sistemi non solo di registrare le preferenze ma di contribuire attivamente a costruirle, per questo motivo, si introduce l’idea che l’utente possa scegliere consapevolmente il livello di profilazione, fino anche ad escluderla del tutto. Tale impostazione è pienamente coerente con il diritto europeo: l’articolo 22 del GDPR riconosce, infatti, il diritto di non essere sottoposti a decisioni basate unicamente su trattamenti automatizzati.

Infine, la manipolazione selettiva dei contenuti, che riguarda le ipotesi in cui le piattaforme intervengono nella distribuzione dei contenuti, amplificando o riducendo la visibilità di alcuni contenuti con possibili impatti sull’informazione e sul dibattito pubblico.

Accanto a questi profili, il disegno di legge interviene anche sul piano della responsabilità, prevedendo un ribaltamento dell’onere della prova: non sarà più l’utente a dover dimostrare il danno subito, ma la piattaforma a dover provare di aver adottato tutte le misure idonee a evitarlo.

Il danno risarcibile viene inoltre esteso anche a profili non patrimoniali, come la salute mentale e il benessere psicologico.

Un ulteriore elemento di rilievo riguarda la possibilità, per l’autorità giudiziaria, di accedere alla documentazione tecnica degli algoritmi, incidendo così sul tradizionale equilibrio legato alla tutela del segreto industriale.

La direzione è dunque chiara: la proposta di legge non si concentra più soltanto su ciò che circola online, ma su come le piattaforme lo rendono visibile, costruendo di fatto l’esperienza digitale degli utenti.

Articoli recenti

Dai valore alla tua idea

Richiedi ora una valutazione per conoscere le opportunità di tutela e registrare il tuo marchio o il tuo brevetto