Why the FTC’s case against Weight Watchers means death for algorithms – Protocol

Questa è una decisione molto importante (grazie GBG).

Potrebbe essere una pietra miliare (anche perche’ e’ avvenuta in USA; fosse accaduto in UE ci staremmo stracciando le vesti sul nostro essere retrogradi, contro un futuro inevitabile tecnologicamente scritto)

In sostanza: non solo devi cancellare i dati personali raccolti illecitamente, ma anche cancellare i modelli (fatti con Machine learning o altro modo) distillati da quei dati.

Il principio dovrebbe applicarsi allo stesso modo anche se viene raccolto in modo illecito lo 0,1% dei dati. Cancellare quelli e cancellare i modelli derivanti (e rifare il training).

Cio’ potrebbe portare ad sostanziale obbligo di un re-training periodico di tutti i modelli (basta che un utente faccia opt out e chieda la cancellazione…)

Google, poco meno di due anni fa, aveva detto ha detto che dopo 18 mesi cancella molti dati degli utenti. Tanto non gli servivano, una volta che aveva fatto i modelli.

L’idea era che i dati personali sono sacrificabili, una volta che hai i modelli, perche’ questo non essendo dati personali potevano essere conservati.

Adesso questa decisione gli ribalta un po’ le carte stabilendo un collegamento di responsabilita’ tra i dati personali ed i modelli generati. Se devi cancellare i primi, devi cancellare anche i secondi.

Viene meno per l’appunto l’idea che i dati fossero protetti da norme privacy ed i modelli potessero non esserlo.

Un’altro approccio “privacy preserving” di machine learning che si basava su questo presupposto e’ il “federated learning”: ciascuno sul proprio dispositivo tiene i dati (che non lasciano il proprio dispositivo) e distilla un pezzettino del modello che viene inviato al centro.

Alla fine al centro hai solo il modello ma non i dati.

Adesso, pero’, se devi cancellare anche il modello, viene meno anche questa idea di separazione e anche il federated learning perde un po’ di interesse.

(Mentre prima, se qualcuno faceva optout il modello centrale lo tenevi, adesso  lo devi buttare comunque, se qualcuno fa optout)

Source: Protocol

In a March 4 settlement order, the agency demanded that WW International — formerly known as Weight Watchers — destroy the algorithms or AI models it built using personal information collected through its Kurbo healthy eating app from kids as young as 8 without parental permission. The agency also fined the company $1.5 million and ordered it to delete the illegally harvested data.

Continua qui: Why the FTC’s case against Weight Watchers means death for algorithms – Protocol

Ti è piaciuto questo articolo? Condividilo!

Leave a Comment

Your email address will not be published.