Premesso che la disciplina US e UE e’ leggermente diversa, richiamo un passaggio di quanto scritto dai giudici italiani nel caso Youtube-Vividown ed un mio commento dell’epoca (2013). Ci abbiamo messo una decina d’anni, ma ci siamo arrivati…
… i giudici rilevano come “valutati tutti gli
elementi nel caso, la possibilità del filtraggio, della rimozione,
dell’individuazione di contenuti tramite parole chiave,
dell’indicizzazione dei contenuti e della eventuale utilizzazione a fini
pubblicitari, portano a ritenere che Google video non possa che essere
qualificata quantomeno come hosting attivo”.
All’epoca commentai così:
su quest’ultimo punto mi vorrei soffermare…
ho già sostenuto in altra sede che qui mi pare si stiracchi la norma di esenzione di responsabilita’ prevista dalla direttiva per gli hoster.
quando fu scritta, infatti, l’idea era dell’hosting puro, per cosi’ dire “passivo”.
se si accetta che e’ esente anche l’hosting “attivo”, mi pare che l’intero impianto venga meno.
come tracciare la soglia tra “hosting attivo” esente da responsabilita’ ed “hosting attivo” conr esponsabilita’ ?
e’ sufficiente il fatto che sia una macchina (un algoritmo o meno) a prendere le decisioni piuttosto che un umano ?
perchè con sistemi di intelligenza artificiale, reti neurali, analisi semnatica e quan’t altro posso immaginarmi un sito di “hosting attivo” che mette in evidenza solo contenuti che fanno apologia di fascismo (ad esempio) e potrei sostenere “lo ha fatto la macchina”.
Source: Forbes
The Supreme Court will consider to what extent tech companies can be held legally liable for the content that gets published on its platforms, as the court announced Monday it will take up a case that concerns whether Google was in the wrong for recommending YouTube videos that helped encourage ISIS recruitment, and by extension a separate case brought by Twitter over similar content.
Continua qui: Supreme Court To Consider Whether Tech Companies—Like Google, Twitter—Can Be Held Liable For Content Recommendations