Non è la stessa cosa, beninteso.

Penso che per tutelare un valore non si debba compromettere l’altro. (e nemmeno che per tutelare l’altro si comprometta l’uno).

Il fatto è che sono convinto che sia possibile salvare capra, cavolo e pastore.

Solo un mese fa scrivevo su Agendadigitale.eu:

Il problema qui, secondo me, è che si inverte l’onere della prova su un illecito demandando un primo grado di giudizio ad un privato che usa un sistema che, per costruzione, commetterà errori, e che per dinamiche naturali già verificatesi in casi simili, verrà successivamente applicato ad altri ambiti della vita online delle persone….

In un sistema che tuteli la libertà di espressione non è tanto sui falsi negativi che dobbiamo concentrarci, ma sul procedimento che riguarda i falsi positivi ed il loro immediato ripristino online.

La proposta di compromesso su questo punto (“redress”) appare vaga, ipotizzando che poi ci sia qualcuno, per ogni paese, in grado di dirimere tutte le controversie in tempi brevissimi e con l’autorità per imporre alla piattaforma la ripubblicazione del contenuto bloccato.

Un giudizio privato algoritmico (che indiscutibilmente commette errori) afferma l’illecito e il cittadino deve invece dimostrare la liceità…..

Una inversione dell’onere della prova, con una pre-giudizio informatizzato, privato, che deve far riflettere anche in chiave prospettica quando, per naturale evoluzione, l’adozione di sistemi simili sarà richiesta per il blocco preventivo di altri contenuti, come ad esempio quelli a sfondo terroristico o di hate speech, temi adiacenti ai quali le persone esprimono anche opinioni di natura politica. (update: e poi diffusione di manie e virus mentali vari)

Sbaglia chi ritiene che una simile estensione non possa accadere. Accadrà certamente. Chiunque abbia esperienza legislativa sui meccanismi di takedown e di “inibizione all’accesso” sa bene che gli articolati approvati poi vengono riutilizzati e copia-incollati in progetti di legge successivi.

Adesso leggo questo report dall’università di Stanford

NEW EU PROPOSAL ON THE PREVENTION OF TERRORIST CONTENT ONLINE: AN IMPORTANT MUTATION OF THE E-COMMERCE INTERMEDIARIES’ REGIME

Article 6 contains a group of additional “proactive measures” that definitely change the role of intermediaries in this area, particularly regarding their content monitoring responsibilities. According to the first paragraph, service providers “shall, where appropriate, take proactive measures to protect their services against the dissemination of terrorist content. The measures shall be effective and proportionate, taking into account the risk and level of exposure to terrorist content, the fundamental rights of the users, and the fundamental importance of the freedom of expression and information in an open and democratic society”.
Che e’ lo stesso, in sostanza, della direttiva copyright
E conclude..
As was outlined earlier, this expansion of platforms’ monitoring activities is a major change affecting the way intermediary liability and responsibilities will be understood within the European Union from now on. Even if the proposed Regulation refers only to the area of combatting the dissemination of terrorist content (however this is specifically defined), this legal reconsideration can also be detected in the new proposals regarding copyright or the regulation of audiovisual media services.
Therefore, the European legislators seem to move towards a progressive delegation on private companies of true law enforcement powers, depriving Internet users (and hosting service providers themselves) of the legal and procedural safeguards applicable to this kind of decision until now. Moreover, intermediary platforms may be progressively put in a position where cautiously overbroad decisions will be taken, as this will be the only way to avoid the high and somewhat vaguely defined penalties that may be imposed on them. Obviously, this is not good news for freedom of expression and due process in Europe.
E’ una di quelle volte che mi dispiace dover pensare “lo avevo detto…”
Siamo ad un tipping point e il punto è che sarebbe facilmente evitabile questa deriva salvaguardando, come detto, capra, cavolo e pastore.
Si potrebbero prevedere le basi giuridiche di un meccanismo che effettui una ripubblicazione in tempi estremamente brevi dei contenuti laddove l’uploader possa essere identificabile da una corte se e quando valuterà il caso. La regolamentazione europea eIDAS pone delle basi utili per la realizzazione di una forma di anonimato protetto, un sistema paneuropeo di fiduciari digitali che possano tutelare la privacy e l’anonimato degli utenti rispetto alle piattaforme (e rispetto agli altri utenti), ma rendendoli identificabili da una corte con le garanzie processuali previste dalla legge.
Speriamo che possa emergere come posizione nel trilogo…