Volevo scrivere qualcosa sulla complessa vicenda dei neonazisti espulsi da Internet; ho raccolto un po’ di link ed alcune idee.
La prima cosa da dire è che la legge già colpisce l’incitamento alla violenza (anche in USA) e quindi una corte aveva già il potere di sospendere l’attività di questi gruppi, se contro la legge.
Ho letto questo post di Massimo, che condivido e che invito a leggere.
La Electronic Frontier Foundation ha un pezzo sulla stessa falsariga (attenti a togliere a qualcuno la voce, per quanto ignobile sia, perchè un giorno potreste capitare a voi) ma va oltre, dicendo che, oltre l’educazione, la soluzione è che le aziende che controllano l’espressione online assicurino trasparenza, apertura e diritto d’appello.
The Internet’s “Nazi Purge” Shows Who Really Controls Our Online Speech
You might not worry about companies censoring Nazis. But you should be worried about the unelected bros of Silicon Valley being the judge and jury.
…I’m also deeply unconvinced that censorship, especially when decoupled from education, is an effective means of change.
…What we need is for companies to choose openness, transparency, and due process. In practice, that means giving experts and the public greater input into speech policies and their implementation — something that, right now, companies only do behind the secrecy of a nondisclosure agreement, if at all. It means offering users a way to consent to policies and policy changes, and being open about how rules are made and enforced. And it means ensuring that every user has the ability to appeal decisions made against them. Even assholes.
L’articolo mi pare in larga parte condivisibile; dissento però dalle conclusioni..
Non mi pare né sufficiente né desiderabile che siano le aziende a fare i giudici, per quanto si impegnino ad apertura, trasparenza e giusto processo.
Mi pare che i sottintesi possano essere due:
- una corte normale è troppo lenta per intervenire o
- una corte non può intervenire sui sistemi dell’azienda.
Pensare che sia impossibile che una corte riesca ad avere le competenze e strumenti mi pare che sia dichiarare un proprio fallimento.
Pensare che una corte sia intrinsecamente troppo lenta mi pare ancora peggio, è abdicare pilatescamente al proprio ruolo ritenendo che non sia possibile una giustizia celere e lavarsene le mani: “non si può fare, facciano loro”. (tra cui, anche, togliere mezzi di sussistenza)
Mi pare che la cosa a cui tendere dovrebbe essere superare questi limiti. Penso infatti che non possiamo delegare a dei privati senza supervisione democratica il ruolo di censori della dimensione immateriale
Magari non si può fare tutto subito e magari occorreranno procedure diverse e specifiche; dovremo pensarci e farle…
Ad esempio iniziando alimitare i monopoli della possibilià di espressione, per tutelare il pluralismo.
O ancora partire dall’anonimato protetto e dalla garanzia che chiunque voglia esprimere qualcosa, assumendone responsabilità rispetto a possibile rilevanza penale, possa farlo.
Altri articoli, di contesto (alcuni *molto* interessanti):
- Fighting Neo-Nazis and the Future of Free Expression (bel pezzo. Internet intermediaries, especially those with few competitors, control so much online speech, the consequences of their decisions have far-reaching impacts on speech around the world…every time a company throws a vile neo-Nazi site off the Net, thousands of less visible decisions are made by companies with little oversight or transparency… there’s always a risk that others—including governments—will use the opaqueness of the takedown process to silence legitimate voices. For any content hosts that do reject content as part of the enforcement of their terms of service, or are pressured by states to secretly censor, we have long recommended that they implement procedural protections to mitigate mistakes—specifically, the Manila Principles on Intermediary Liability…. If the entities that run the domain name system started choosing who could access or add to them based on political considerations, we might well face a world where every government and powerful body would see itself as an equal or more legitimate invoker of that power )
- China to Ban Anonymous Online Comments, Blacklist Users
- The right to ‘offend, shock or disturb,’ or the importance of protecting unpleasant speech
- Facebook says Pages that regularly share false news won’t be able to buy ads
- Mastercard Statement on the Use of our Network (! dice We value tolerance, respect, equality and diversity… we do not and will not permit merchants to engage in unlawful activity on our network. … we’re working with our acquirers to shut down the use of our cards on sites that make specific threats or incite violence — because this activity can be unlawful. Bloccano la circolazione dei denari perchè potrebbe esserci un reato di incitamento all’odio. Non so se ci sono precedenti)
- WordPress Banned The Website Of The Fascist Group Linked To The Alleged Charlottesville Killer
- Facebook and Reddit ban hate groups in wake of Charlottesville
- Tech companies continue efforts to banish extremist accounts (BTW, anche twitter, airbnb, paypal, spotify )
- Cloudflare is No Longer Protecting Neo-Nazi Site The Daily Stormer From DDoS attacks
- Alt-social network Gab booted from Google Play Store for hate speech (We have had an app on the Play Store for months. …We have been very consistent with promoting free and lawful expression and speech for everyone for over a year now. We have a diverse community (and also a diverse team that includes our Muslim Co-Founder and Indian CCO) of 225,000 people from around the world. What you should be writing about is Silicon Valley’s war on free speech and individual liberty online. This is the beginning of the alt tech revolution).
- Discord chats may be crucial to lawsuits over neo-Nazi violence (Discord è un sistema di chat che ha chiuso account dei neonazisti)
- White supremacist forum site Stormfront seized by domain hosts (Network solutions ha bloccato il DNS sospendendo la registrazione del dominio)
- The Daily Stormer was back online for a quick second
- Russia boots white supremacist website from its internet: report
- The dilemma of the dark web: protecting neo-Nazis and dissidents alike (si sono spostati su Tor; utile a tutelare dissidenti (e loro si considereranno tali ?) con l’effetto che adesso non sono più evidenti rispetto l’attività della giustizia (vedi link di Discord, sopra)
- YouTube Removes Videos Showing Atrocities in Syria (e fanno bene, ma anche qui c’e’ il tema del rapporto tra responsabilità editoriale o semplice intermediario (posizione ormai difficile da sostenere).)
Umm, manca il filone di ragionamento che a me pare più rilevante.
Il problema nel “dialogo” con l’azienda censoria è che parlare con qualcuno (o qualcosa) dotato di intelligenza a livello “standard” richiede prima di sfondare un muro di FAQ e risponditori automatici (umani o meno).
Tutti i casi noti, dal bulling alla rimozione ingiustificata di app, partono con la fatica di contattare qualcuno che abbia una intelligenza sufficientemente sviluppata per esaminare la questione capendo quanto gli viene esposto.
E in questa situazione si aggiunge l’ovvio futuro con il giudice robotizzato, assolutamente inevitabile ed ovvio per il sistema di common law ma anche per chi vuole dirottare altrove i soldi necessari per un civil law dignitoso.
Insomma il problema della censura attuale e futura è la scarsissima qualità dell’AI, il resto riguarda quei pochissimi casi clamorosi che riescono e possono essere esaminati da degli umani di livello almeno “normale”.