Meta, Twitter, Microsoft and others urge Supreme Court not to allow lawsuits against tech algorithms | CNN Business

Vi ricordate il caso di Google-Vividown di 14 anni fa ?

Allora scrivevo “Non mi pare cosi’ ridicolo il processo a Google per Youtube e il ragazzo down”

…tagging, classificazione, ranking, ecc possono essere una attività di “mere conduit” ?

dove si ferma il trattamento automatico possibile da parte di un sistema perche’ esso sia un “mere conduit”?

prima, quando certe “analisi” di contenuto potevano essere fatte solo da umani, era più facile tracciare la linea.

costruire un servizio che esaminasse dei contenuti e proponesse contenuti specifici illeciti era una attività che richiedeva intervento umano e quindi era facilmente individuabile una responsabilita editoriale che poteva essere perseguita in caso di illecito (per esempio un sito che promuova l’odio razziale o l’abuso di stupefacenti).

oggi, strumenti automatici possono produrre gli stessi risultati (anche su scala assai maggiore, trascendendo le capacità umane) grazie alla analisi semantica, il riconoscimento della voce, il riconoscimento di forme, volti, attributi, possibilità di correlazione, indicizzazione, classificazione, ecc. e potrebbero essere programmati per produrre lo stesso output senza intervento umano.

questo sarebbe sufficiente per dire che una entità che beneficia economicamente di questa attività è solamente un “mere conduit” ? solo perchè nessun umano è coinvolto nel processo ?

Adesso, 14 anni dopo, siamo arrivati allo stesso punto alla Corte Suprema USA

Leggete sotto la posizione delle tech companies, che pare ovvia. Ma se pensiamo alla società (non alle aziende) la cosa è meno ovvia.

Non sorprende che le tech webzine abbiano determinate posizioni. Sorprende un  po’ di più che nell’articolo della CNN non ci sia riportata _nessuna_ posizione diversa.

Non l’ha mica detto il dottore che i feed debbano essere oggetto di analisi da una AI e di raccomandazione con l’obiettivo di scatenare ondate emotive e tenerci attaccati piu’ tempo al media. Il fatto che il “direttore responsabile”, quello che fa le scelte editoriali, sia una AI, non dovrebbe esentare da responsabilità, almeno per quelle properties che condizionano così tanto la società per via della loro dimensione.

Tenerci incollati scatenando ondate emotive non è nell’interesse della società ma delle aziende. (in determinati casi a scapito della società, direbbe qualcuno, ricordando anche bazzeccole tipo cambridge analytica, january 6th, brexit, ecc.)

Come scrivevo su Mastodon rispetto a Twitter (questo il mio account mastodon)

La funzione obiettivo di Twitter (come di qualunque social) è massimizzare la permanenza degli utenti in modo tale da creare opportunità di mostrargli pubblicità. (Twitter un po’ meno di altri, per la verità). Ciò viene ottenuto favorendo e stimolando emozioni per aumentare la viralità e il coinvolgimento. Emozioni che spesso finiscono per essere tensioni esacerbate, aumentando la polarizzazione delle persone (e con esse, delle società).

Mastodon è disegnato per ottenere l’effetto opposto. Per questa ragione i creatori di Mastodon hanno previsto o escluso alcune funzioni, con il fine di creare attrito, di rallentare le cose, per ridurre la viralità, per inibire le ondate di emotività, non per stimolarla.

Mastodon è la dimostrazione concreta (anche per chi non si intende di tecnologia ed ha bisogno di una dimostrazione) che non è affatto detto che la linea evolutiva che i social hanno avuto sia l’unica possibile. Anzi. Si sono evoluti così proprio perchè hanno sfruttato maglie larghe della regolamentazione.

Con lo sviluppo enorme dell’IA (e quindi dell’ “AI direttore responsabile”, come lo ho chiamato sopra) il punto si pone.E’ legittimo che una AI, senza che la azienda sia accountable,  promuova contenuti  antivax ? o probrexit ? o nazisti ? o ISIS ?

Se non si pone un limite, diventa valido tutto e gli effetti sulla società possono essere importanti, come ahimè abbiamo visto.

E la linea non è “si o no”, ci possono essere molte sfumature.

Io usavo twitter perchè era l’unico social che consentiva di avere una timeline solo temporale, dove non c’era un algoritmo a indurmi come pensare. (curiosamente lo stesso diceva Musk, prima di comprarlo…)

Non mi pare una eresia ritenere che certi tipi di algoritmi sarebbe bene che non fossero usati mentre altri non mi paiono generare particolari  criticità  (se io clicco su “piu’ visti”, “maggiore rating”, “più visti oggi/in settimana” è una mia scelta, e ci puo’ stare, ad esempio). Si può sempre regolamentare scala e velocità di diffusione.

Insomma, esistono diverse gradazioni e diverse scale di opportunità di decisione, da parte della Corte Suprema. Mica solo on/off.

IMHO

Source: CNN Business

The question at the heart of the case, Gonzalez v. Google, is whether Google can be sued for recommending pro-ISIS content to users through its YouTube algorithm; the company has argued that Section 230 precludes such litigation. But the plaintiffs in the case, the family members of a person killed in a 2015 ISIS attack in Paris, have argued that YouTube’s recommendation algorithm can be held liable under a US antiterrorism law.

In their filing, Reddit and the Reddit moderators argued that a ruling enabling litigation against tech-industry algorithms could lead to future lawsuits against even non-algorithmic forms of recommendation, and potentially targeted lawsuits against individual internet users.

“The entire Reddit platform is built around users ‘recommending’ content for the benefit of others by taking actions like upvoting and pinning content,” their filing read. “There should be no mistaking the consequences of petitioners’ claim in this case: their theory would dramatically expand Internet users’ potential to be sued for their online interactions.”

Yelp, a longtime antagonist to Google, argued that its business depends on serving relevant and non-fraudulent reviews to its users, and that a ruling creating liability for recommendation algorithms could break Yelp’s core functions by effectively forcing it to stop curating all reviews, even those that may be manipulative or fake.

“If Yelp could not analyze and recommend reviews without facing liability, those costs of submitting fraudulent reviews would disappear,” Yelp wrote. “If Yelp had to display every submitted review … business owners could submit hundreds of positive reviews for their own business with little effort or risk of a penalty.”

Section 230 ensures platforms can moderate content in order to present the most relevant data to users out of the huge amounts of information that get added to the internet every day, Twitter argued.

Continua qui: Meta, Twitter, Microsoft and others urge Supreme Court not to allow lawsuits against tech algorithms | CNN Business

If you like this post, please consider sharing it.

Leave a Comment

Your email address will not be published. Required fields are marked *