pensate alle medicine.

sappiamo che in certi casi possono causare vittime.
in alcuni casi e se usate in modo inappropriato.
ma normalmente funzionano.
possono avere effetti collaterali e persino causare morti.

abbiamo un’infrastruttura normativa che ha permesso lo sviluppo dell’industria farmaceutica.
abbiamo richiesto alle aziende farmaceutiche di
– dichiarare a cosa servono le medicine
– dichiarare come dovrebbero essere usate
– dichiarare gli eventuali effetti collaterali negativi
– eseguire test con animali e, in caso di successo
– richiede l’autorizzazione per i test con umani (con un organismo di autorizzazione e controllo)
– eseguire vari test sull’uomo
– monitorare l’utilizzo successivo
– in alcuni casi (più rischiosi) tracciare ogni fase di utilizzo
– notificare possibili problemi
– rilasciare l’IPR dopo un certo numero di anni
– ritirarli immediatamente dal mercato in caso di problemi

e abbiamo regolamenti per tutto questo

consideriamo ora una patologia mortale

se non fai niente, hai 10.000 vittime
se fornisci un farmaco, hai 100 vittime.

è un guadagno meraviglioso per la società.

 

ora veniamo all’AI.

 

pensate alla guida in auto:

sei il CEO di una casa automobilistica.
date i vostri prodotti agli utenti umani sapendo che 10.000 di loro moriranno per una serie di motivi.
i prodotti sono ok, il problema è la guida umana.
non è una tua responsabilità, è dell’utente

poi introduci una tecnologia di guida e ci sono solo 100 vittime.
è un guadagno meraviglioso per la società.

ma le famiglie delle vittime ti faranno causa.

sei responsabile per il prodotto.
potresti essere stato preparato ed evitare che la società finisca in bancarotta per danni e responsabilità
ma potresti affrontare la prigione in varie giurisdizioni per avere immesso sul mercato un prodotto che ha causato un decesso, almeno in termini colposi.

 

nell’esempio farmaceutico, a livello di regolamentazione, consideriamo l’output complessivo per benefici e responsabilità; in altri prodotti si guarda la responsabilità per ogni singolo prodotto per responsabilità

IMHO per l’intelligenza artificiale dovremmo costruire un’infrastruttura normativa come quella che abbiamo per l’industria farmaceutica. (con tutte le fasi ed i vincoli di cui sopra, magari mutuando dalla regolamentazione dei farmaci).

la responsabilità delle società dovrebbe essere valutata non per l’incidente singolo ma per l’effetto complessivo che hanno, chiedendo loro di fare test appropriati e dichiarare ciò che ottimizzano e tenerli responsabili per ciò.

 

so che alcuni amici storceranno il naso, che un approccio che preveda una sorta di “spiegabilità algoritmica” sarebbe  preferibile in linea di principio ed è una linea che condivido. fino ad un certo punto. può determinare costi che di fatto impediscono l’uso di un sistema che produrrebbe benefici.

come noto, non sono un fedele singolaritariano, ma penso che andando avanti il costo della spiegabilità aumenterà comunque a livello esponenziale e potrebbe privarci di benefici.

penso anche che questa interpretazione sia inevitabile e che ci si arriverà, allora penso sarebbe meglio anticiparla e cercare di farne un vantaggio competitivo per il paese.  Questo è il senso della proposta di legge che presentai un anno fa.