The US supreme court case that could bring the tech giants to their knees

Vale la pena rileggere questo post del 2010

tagging, classificazione, ranking, ecc possono essere una attività di “mere conduit” ? dove si ferma il trattamento automatico possibile da parte di un sistema perche’ esso sia un “mere conduit”?

prima, quando certe “analisi” di contenuto potevano essere fatte solo da umani, era più facile tracciare la linea.

costruire un servizio che esaminasse dei contenuti e proponesse contenuti specifici illeciti era una attività che richiedeva intervento umano e quindi era facilmente individuabile una responsabilita editoriale che poteva essere perseguita in caso di illecito (per esempio un sito che promuova l’odio razziale o l’abuso di stupefacenti).

oggi, strumenti automatici possono produrre gli stessi risultati (anche su scala assai maggiore, trascendendo le capacità umane) grazie alla analisi semantica, il riconoscimento della voce, il riconoscimento di forme, volti, attributi, possibilità di correlazione, indicizzazione, classificazione, ecc. e potrebbero essere programmati per produrre lo stesso output senza intervento umano.

questo sarebbe sufficiente per dire che una entità che beneficia economicamente di questa attività è solamente un “mere conduit” ? solo perchè nessun umano è coinvolto nel processo ?

scopriremo presto cosa decideranno i giudici nel caso specifico, ma penso che potrà essere solo il primo di una sequenza di casi simili, man mano che la tecnologia evolve.

Ed i nodi stanno arrivando al pettine, spiega il Guardian.

Ci è voluto un po’…

Source: The Guardian

Two weeks ago, the US supreme court decided that it would hear Gonzalez v Google, a landmark case that is giving certain social-media moguls sleepless nights for the very good reason that it could blow a large hole in their fabulously lucrative business models.

The key thing about the Gonzalez suit, though, is not that YouTube should not be hosting IS videos (section 230 allows that) but that its machine-learning “recommendation” algorithms, which may push other, perhaps more radicalising, videos, renders it liable for the resulting damage. Or, to put it crudely, while YouTube may have legal protection for hosting whatever its users post on it, it does not – and should not – have protection for an algorithm that determines what they should view next.

Continua qui: The US supreme court case that could bring the tech giants to their knees | John Naughton | The Guardian

If you like this post, please consider sharing it.

Leave a Comment

Your email address will not be published. Required fields are marked *