no-bavaglio-social-media-m5s-ue-movimento.jpg

di Isabella Adinolfi, EFDD - M5S Europa

Ogni giorno milioni di persone caricano contenuti sui social network, producendo una mole d'informazioni che nella maggior parte sono lecite, ma che talvolta risultano anche illegali o addirittura dannose: parliamo di video, ad esempio, che incitano all'odio o che riprendono in diretta atti illegali, episodi di cyberbullismo (come purtroppo riportano anche le cronache recenti) o più semplicemente violazioni del diritto d'autore. La rimozione di questi contenuti non deve in alcun modo ledere il diritto alla libertà di espressione dell'individuo, anche se tale compito è oggi affidato a freddi algoritmi di riconoscimento o addirittura esercitato su basi discriminatorie. Il Parlamento europeo ha approvato la nostra proposta di ricerca intitolata "Algoritmi e riconoscimento automatico dei contenuti: quale impatto sulla libertà di espressione e il pluralismo dei media?". L'argomento di ricerca verrà inserito all'interno di un più grande studio, condotto dallo STOA (l'Ufficio di valutazione delle opzioni scientifiche e tecnologiche del Parlamento europeo), dedicato a esaminare il delicato equilibrio tra sicurezza online e libertà di espressione, indagando nello specifico il ruolo e le conseguenze dell'utilizzo di algoritmi che hanno il compito di vigilare sui contenuti.

Vista l'enorme mole di materiale caricato sulle piattaforme online, infatti, l'identificazione e la rimozione di quei contenuti che risultano dannosi e illegali non avviene ad opera di persone fisiche, bensì di tecnologie di riconoscimento automatico dei contenuti, basate appunto su sofisticati algoritmi in grado di identificare e rimuovere le violazioni. Fatto salva la libertà di espressione, un diritto che non deve essere in alcun modo violato, viene da chiedersi quanto siano efficaci questi algoritmi, specialmente quando si tratta di distinguere tra satira e menzogna o quando ci sia da identificare un chiaro caso di cyberbullismo o di pubblicazioni di video che rappresentano una grave violazione dell'onorabilità della persona.

Il rischio, infatti, è che le misure adottate implementando queste tecnologie, piuttosto che proteggere gli utenti da contenuto effettivamente illegale, pregiudichino come dicevamo la libertà di espressione. Rischio che si acuisce ulteriormente quando non vi è trasparenza sul funzionamento di questi algoritmi e sui criteri seguiti per la rimozione dei contenuti. In un momento storico dove, anche a seguito del recente scandalo di Cambridge Analytica, i social network promettono pesanti interventi per contrastare, tra gli altri, la manipolazione delle elezioni e il fenomeno impropriamente etichettato come "fake news", è essenziale analizzare il meccanismo di funzionamento di questi sistemi per individuarne limiti e problematicità.

Per questi motivi abbiamo proposto con successo allo STOA di elaborare uno studio in materia, che sarà senz'altro in grado di fornire validi spunti e indicazioni che poi il legislatore dovrà essere in grado di tradurre in proposte concrete. Si tratta del secondo studio che lo STOA realizza in seguito alle nostre proposte, a dimostrazione del fatto che il MoVimento 5 Stelle resta all'avanguardia in materia di nuove tecnologie e di tutela dei diritti fondamentali nella rete.

Guarda anche ...


Titolo