Avevo scritto in precedenza che il diritto all’oblio ed il coneguente riaddestramento dei modelli sarebbe stata la nuova frontiera dei problemi privacy per i large language models (chatgpt e simili)
Forse mi sbagliavo per ottimismo.
Forse invece dell’opt-out si arriverà all’opt-in per le persone. E ad un filtro che dica “questo contenuto è probabilmente sbagliato”.
Gardate l’immagine sotto
Source: The Washington Post
ChatGPT invented a sexual harassment scandal and named a real law prof as the accusedThe AI chatbot can misrepresent key facts with great flourish, even citing a fake Washington Post article as evidence
…
Volokh said it’s easy to imagine a world in which chatbot-fueled search engines cause chaos in people’s private lives.
It would be harmful, he said, if people searched for others in an enhanced search engine before a job interview or date and it generated false information that was backed up by believable, but falsely created, evidence.
“This is going to be the new search engine,” Volokh said. “The danger is people see something, supposedly a quote from a reputable source … [and] people believe it.”
Continua qui: What happens when ChatGPT lies about real people? – The Washington Post
Qui si vede chiaramente che c’è un post-processing che esclude i politici, il problema è che il mondo si muove più velocemente del training di ChatGPT e che il modello non include la salita alla ribalta si Schlein.
E c’è il rischio, per lei, di uno scandalo inventato come quello del Washington Post.
Ma questo non riguarda solo i politici, come mostra l’articolo sopra. Riguarda anche il ristoratore del paesiello attivo nella blogosfera. Riguarda chiunque di noi.
Altro che sei mesi di sosta…
Forse chi ha ritenuto improvvida la decisione del garante, ci ripenserà.