9 thoughts on “Costruire il domani – istruzioni per un futuro immateriale (indice, prefazione e introduzione)”

  1. Gianluca Ulisse

    E’ molto interessante e stimolante, davvero complimenti!
    L’editore ha fatto una prima versione cartacea per i “non digitali”, ora vedo che vi è la versione digitale ma non su Amazon; è prevista la versione Kindle?
    Grazie e ancora complimenti

  2. Intanto grazie per aver consentito la pubblicazione, unica lamentela, se mi è concessa, il fatto che il formato non sia epub, mi avrebbe consentito maggior gestione della lettura/grandezza font sul mio kobo.
    Comnque lo leggerò con piacere.

  3. certamente un libro interessante e stimolante. chiedero’ alla mia Biblioteca di renderlo disponibile cosi’ possano leggerlo in tanti.. (io andro’ a comprarlo, ovviamente! 🙂
    leggo all’inizio la frase:
    “Resta tuttavia IN DUBBIO che le società sono plasmate dalla tecnologia” e non capisco cosa significa.
    mi viene il dubbio che lo spazio tra IN e DUBBIO non ci sarebbe dovuto essere e che sarebbe dovuto tutto attaccato “INDUBBIO” == SENZA DUBBIO.
    con lo spazio ho paura che il senso risulti rovesciato..

  4. Gianluca Ulisse

    capisco bene e conosci l’editore, riprendo la considerazione di Simone su una possibile versione epub, se si tratta di realizzarlo mi offro come volontario.
    Grazie in ogni modo

  5. Il libro di Stefano Quintarelli è molto interessante e sicuramente
    utile.
    Sembra particolarmente indirizzato a chi ha compiti poitici, tanto è
    vero che la parola “regole” o “regolamentare” appare ben 90 volte.
    Si ha l’impressione che Stefano voglia sollecitare i suoi colleghi
    parlamentari a dedicare maggiore attenzione ai fenomeni che stanno
    avvenendo o stanno per avvenire e di sollecitare la necessità di
    nuove regole.

    Si percepisce tuttavia una tensione tra questa esigenza e
    l’affermazione che le regole spesso sono deleterie: ad esempio regole
    che introducono barriere o che inibiscono le innovazioni. Oppure
    regole divenute obsolete perché concepite e legate ad aspetti
    materiali e non più facilmente applicabili ad aspetti immateriali,
    come ad esempio il “diritto di copia”, nato per proteggere il diritto
    astratto d’autore, ma legato al concetto fisico di copia.
    In essenza la posizione di Stefano è che “le società siano plasmate
    dalla tecnologia. Ma il suo sviluppo può e deve essere guidato e
    tendere ad un ideale di benessere sociale più ampio possibile”.
    Raramente però Stefano si sbilancia ad indicare quale tipo di regole
    servano: spesso si limita a suggerire che l’introduzione di nuove
    regole sarà inevitabile.
    In un certo senso pare quasi che Stefano stia preparando il terreno
    per il suo lavoro di parlamentare dei prossimi anni.
    È perlomeno rassicurante che a discutere e formulare tali regole ci
    sia qualcuno che conosce la tecnologia e le sue svariate implicazioni,
    per evitare i danni che in passato politici inesperti hanno prodotto.

    Il punto di partenza del libro sono le differenze tra le
    proprietà del mondo materiale e di quello immateriale.
    In particolare Stefano cita le differenze riguardo
    ai costi di produzione, riproduzione, archiviazione, trasferimento.

    Su alcuni aspetti non sono del tutto d’accordo: anche nel mondo
    immateriale produrre costa, non in termini fisici, ma di risorse umane
    oltre che sempre più di risorse di elaborazione, di raccolta e trattamento di
    grandi quantità di dati.

    Il costo degli impianti di fabbricazione di chip continua a raddoppiare ad ogni
    generazione ed anche gli investimenti in infrastrutture come i
    datacenter dove si concentreranno in futuro gran parte dei servizi
    di ICT.

    Nella dimensione immateriale, il fatto che trasferire dati costi
    poco, non è una legge di natura, ma una situazione storico/economica
    a cui si è arrivati attraverso un processo e conflitti negoziali i cui
    esiti non sono affatto scontati né acquisiti per sempre.
    Ad esempio ci sono spinte da parte di certi operatori a fare pagare i
    costi del traffico. Intanto il traffico si paga ancora oggi a consumo
    sui telefono cellulari.
    Vedasi poi la questione della Net Neutrality, quella
    della Zero Rating e la proposta di “caller charge” dell’ITU oppure le
    richieste di tassazione del traffico richieste agli OTT.
    Non c’è nessuna garanzia che trasferire dati non costi in futuro.
    Stefano sta ignorando il grave rischio di frammentazione di Internet,
    che ha ben espresso Vint Cerf in questo articolo [http://www3.weforum.org/docs/WEF_FII_Internet_Fragmentation_An_Overview_2016.pdf].
    Per esempio, quando Google, Facebook e Microsoft avranno realizzato la
    loro infrasrtuttura di rete, come stanno facendo stendendo cavi
    infibra attraverso l’Atlantico e in altre zone, potrebbero ben stabilire
    che il traffico all’interno delle loro rispettive reti sia gratis, ma
    il costo di comunicare con altre reti sia esorbitante.
    Tutta l’infrastruttura ICT (reti, apparati, storage) potrebbe essere
    concentrata in servizi cloud di pochi fornitori in tutto il mondo, che
    sarebberop loro a stabilire i prezzi dei servizi.

    Contrariamente a me, Stefano si dichiara non preoccupato dal rischio
    che milioni di posti di lavoro possano essere cancellati e sostituiti
    da bot (sistemi automatizzati che sfruttano tecniche di Intelligenza Artificiale).

    Ma l’argomento che porta non è del tutto convincente: è vero che nei prossimi
    anni aumenterà la richiesta di servizi di assitenza per persone non
    autosufficienti (badanti), ma questi lavori sono dovuti
    all’invecchiamento della popolazione, che è un fenomeno totalmente
    indipendente dalla causa di perdita di posti, ossia lo sviluppo tecnologico.

    Quei lavori sarebbero sorti comunque e avrebbero altrimenti prodotto
    un incremento dell’occupazione e non una riduzione del calo dell’occupazione.
    Non solo, si tratta di lavori logoranti e spesso svolti da immigrati stranieri,
    e quindi contribuiscono solo parzialmente all’occupazione dei
    cittadini italiani.
    Quindi non possiano consolarci col fatto che la perdita di posti di
    lavoro qualificati sia in parte compensata da lavori meno qualificati
    svolti da gruppi di popolazione diversi.
    Anche in termini numerici, il numero di tali nuovi posti è stimato
    intorno ai 500 mila nel 2030, mentre i posti perduti potrebbero essere
    diversi milioni.
    Non solo, le stime sono basate su ipotesi di reddito costante, mentre
    se ci fosse un massiccio aumento di disoccupazione, buona parte degli
    anziani bisognosi di assistenza non potrebbe permetterselo.

    Stefano sostiene inoltre di credere nei limiti alla legge di Moore.
    Ciò è vero nella sua formulazione basata sul numero di transistor per cm quadri.
    Questo però contraddice gran parte delle sue argomentazioni sul
    futuro, che sono strettamente legate all’esistenza di fenomeni di
    tipo esponenziale.
    Se la legge di Moore si fermasse, molte delle considerazioni sul mondo
    immateriale verrebbero a cadere.
    I costi dell’immateriale ritornerebbero a essere soggetti alle leggi
    del mondo materiale.
    Archiviare materiali crescenti in modo esponenziale di fronte a
    supporti che crescono solo in modo lineare farebbe di nuovo crescere i
    costi di archiviazione in modo lineare.
    Ogni due anni, il raddoppio dei dati da trattare richiederebbe di
    raddoppiare gli spazi dei data center. Il tasso di
    crescita attuale degli apparati nei datacenter è intorno al 15% l’anno: se
    la densità degli apparati non aumentasse esponenzialmente, si avrebbe
    presto un aumento esponeziale degli spazi.

    Quanto meno sulla crescita della capacità trasmissiva possiamo stare
    tranquilli, perchè la legge di Keck prevede una crescita superiore
    a quella di Moore e non è in vista la sua fine.

    In altri termini, il paradigma del “minuto 55” introdotto a pag. 24
    verrebbe a cadere con tutte le sue implicazioni nel resto del libro.

    D’altra parte, anche se la legge di Moore rischia di
    interrompersi, altre forme di crescita delle capacità di elaborazione
    sono possibili, ad esempio l’utilizzo di circuiti a 3 dimensioni,
    oppure l’avvento di computer neuromorfi, con l’integrazione di memorie
    e nano-CPU neurali su singolo chip, che abbasserebbero la densità di
    energia nei chip e consentirebbero ulteriori aumenti di densità.

    Credo quindi che in realtà Stefano creda che la crescita esponenziale
    delle tecnologie informatiche proseguirà, come io credo, ancora per
    parecchie decine di anni, con le conseguenze sul lato tecnologico che
    il libro preconizza.
    Temo invee che stiamo sottovautando le conseguenze socio-economiche
    sulla popolazione e sulla crescente disparità tra aziende e paesi che
    questa rischia di provocare.
    Le disparità crescenti di reddito e la concentrazione di ricchezza
    negli ultimi secoli sono state analizzate nel celebre
    saggio di Thomas Piketty (Capital in the Twenty-First Century, http://www.hup.harvard.edu/catalog.php?isbn=9780674430006).
    Penso che il fenomeno stia subendo una enorme accelerazione proprio
    sulla base degli effetti della tecnologia. Sarebbe fondamentale
    approfondire la questione, perché se si scoprisse che siamo all
    minuto 55 di una tale evoluzione, le conseguenze sarebbero immense.

    Insomma la questione fondamentale da porsi è ben espressa in questa
    frase:
    “Dobbiamo chiederci di quali istituzioni un Paese moderno dovrebbe
    dotarsi per vivere da protagonosta la rivoluzione determinata dal
    digitale e non finire per essere solo una colonia consumatrice di
    tecnologie beni e servizi venduti da altri.
    Mi pare però che il libro non affronti la questione se non per
    ribadire che bisogna affrontarla e principalmente sotto l’aspetto
    regolamentare, come fanno intuire frasi come questa:
    “Il punto che disidero evidenziare qui è che nella dimensione
    immateriale, ampiamente deregolamentata, estremamente veloce,
    caratterizzata da ritorni crescenti, che tende a monopoli o oligopoli
    globali in pochi anni si sono create (e si stanno creando) posizioni
    dominanti nella intermediazione di servizi della dimensione
    materiale.”

    E come ribadito nelle conclusioni:
    “Credo che a livello europeo [], la politica debba decidere se
    acettare lo status quo anche per il futuro oppure intervenire. Ad
    esempio con regole procompetitive ex ante come ha fatto nel settore
    delle comunicazioni.”

    Personalmente temo che la possibilità di contrastare la tendenza agli
    oligopoli nel settore tecnologico con regolamenentazioni sia poco
    praticabile, per tanti motivi, tra cui l’aforisma di V. Hugo citato nel
    sottotitolo del blog di Quintarelli:
    “Niente è più irresistibile di un’idea di cui il tempo sia giunto”.

    Purtroppo il senso finale che si potrebbe trarre dal libro è che la
    tecnologia digitale farà meraviglie, ma che “Europeans are doomed”
    (noi europei saremo rovinati).

    Un aspetto che il libro non approfondisce sono le forze e le tendenze
    che rischiano di minare la tendenza verso “un ideale di benessere
    sociale più ampio possibile”.
    La principale di queste sono i rischi di “frammentazione”, espressi
    nel già citato saggio di Vint Cerf.
    L’altra sono le dimensioni degli investimenti in infrastrutture per
    trattare Big Data, la capacità di raccolta di Big Data e la capacità
    di sviluppare tecnologie di analisi di Big Data con tecniche di Deep
    Learning.

    Solo poche aziende al mondo stanno investendo massicciamente sul
    capitale umano, assumendo tutti i maggiori esperti del settore e
    attraendo talenti da tutto il mondo, e sulla ricerca in questo
    settore.

    Sono poi le stesse che stanno sviluppando le nuove architetture di
    elaborazione basati su chip neurali a basso consumo
    (http://www.wired.com/2016/05/google-tpu-custom-chips/).
    Mentre nel frattempo il progetto europeo Flagship Human Brain pare stia
    naufragando (https://www.humanbrainproject.eu).

    L’Europa non sembra aver capito come reagire a queste tendenze, né a
    livello nazionale né a livello comunitario.
    Il supporto alla ricerca in ICT non ha diostrato di essere efficace in
    passato: avrebbe dovuto servire a rendere le imprese ICT competitive,
    mentre durante la durata dei programmi quadro l’industria ICT europea è sparita.

    Mi fermo qui, anche se ci sarebbe molto altro da dire.

    Piccola correzioni
    L’assitente di Microsoft si chiama Cortana, non Cortiana (lapsus sul nome di un
    ex-parlamentare)

    PS.
    L’edizione elettronica del libro è molto scadente: non si può
    navigare avanti e indietro sulle pagine né sui capitoli, non ci sono
    scroll bar, i commenti inseriti spariscono quando si riapre il testo,
    non si può fare cut&paste (le frasi che ho riportato ho dovuto
    ribatterle a mano!), la ricerca è inadeguata (non si possono contare i
    match, non si può ripetere da tastiera), non ci sono iperlink, le
    immagini sono in bianco e nero (anche quelle dei quadri rielaborati
    con Deep Learning, un insulto a Van Gogh e Pixasso).

    Ho perso tutte le dozzine di note che avevo fatto durante la lettura:
    mannaggia al reader di Acrobat Digital Edition!!!

    1. Stefano Quintarelli

      Cerco di dare alcune risposte…
      1) Alla fine del libro dico che ci vogliono regole ex ante analoghe a quelle delle autorita’ di regolamentazione attuali, anche per gli information services oltre4 che per i communicsation services ed altre regole procompetitive; certamente bisogna stare attenti a fare nuove regole. secondo me queste possono bastare in prima battuta ed in larga misura.
      2) piu’ che altro è un lascito della mia attività parlamentare.
      3) dico che nella dimensione immateriale produrre costa, ma molto meno. parlo chiaramente dei costi degli impianti di produzione chip e di come queste siano industrie strategiche
      4) non lo spiego bene nel libro (lo accenno nell aparte sull’energia), ma il fatto che trasmettere abbia un costo marginale nullo e’ dovuto al fatto che il costo dell’impianto di una rete non cambia con la quantità di bene (informazione) veicolata, a differenza di reti come gas o elettricità dove a fronte edi maggior consumo si hanno costi maggiori per lìinput. questo porta a costi sostanzialmente fissi (quelli di manutenzione sono minimi e comunque allocati a piu’ clienti) conseguentemente il modello competitvo che si sviluppa e’ a ripartizione dei costi di realizzazione degli impianti piu’ il ritorno sul capitale, e quindi indipendente dalla quanitta’ di dati trasmessi. per questo il costo marginale diventa nullo. Ovvio cmq. che ci sia qualcuno che si incaponisce e cerchi di far cambiare le cose, accade da 20 anni e continuera’ ad accadere, come i salmoni nuotano controcorrente.
      5) sul futuro del lavoro dico tante cose, non solo la sostituzione di alcuni lavori con altri. dico che tante previsioni sono troppo fosche perche’ considerano solo gli aspetti tecnologici e non quelli regolamentari, che ci sono lavori superflui che pero’ sono fondamentali, che si produce una compressione dei redditi e che occorrera’ introdurre istituzioni di tutela diverse 8come abbiamo fatto nel secolo scorso, ecc.
      6) scrivo che anche se non si arriva alla singolarita’, gli effetti della legge di moore per i prossimi 20 anni sarano notevolissimi. (e parlo anche di circuiti 3d, computer quantistici, ecc.) Quando hai sufficiente capacita’ di calcolo/storage/comunciazione per soddisfare la risorsa scarsa (l’attenzione dell’utente), crescere olgre quel livello non rileva. il costo marginale e’ sempre nullo.
      7) forse non sono stato sufficientemente chiaro quando dico che ad una situazione di nuovo equilibrio lavorativo ci si arriva, che la parte difficile e’ la transizione, specie per le persone che ci sono adesso, per cui occorrono nuove istituzioni per accompagnare la transizione, e che il reddito monetario si comprime, a meno di interventi regolamentari.
      8) penso che l’europa ha dimostrato in passato che con il suo grande mercato e’ in grado di consizionare gli sviluppi nel mondo e un po’ di regole procompetitive cambierebbero completamente los cenario (e’ gia’ accaduto. che mondo sarebbe adesso se l’allora commissario monti non fosse intrervenujto contro microsoft ? esisterebbe google ?)
      9) Cerf parla del rischio di frammentazione dal punto di vista di Google, e da quel punto di vista ha ragione. E’ il principale rischio per google. Ci sono molte forze che contrastano questo rischio. Quanto, il fatto di essere in google, influenza questa idea ?
      10) non credo negli investimenti colossali per il deep learning, ovvero ci ceredo solo in una fase iniziale. ci sono ormai N aziendine che hanno sistemi paragonabili a watson, oggi.

  6. x Giuseppe Attardi: Sulla sostituzione dei lavori con la tecnologia: sento questa paura descritta da molta gente. Esattamente qual è il livello di tecnologia ottimale? La macchina a vapore è stato un bene o un male per l’occupazione? La ruota? Il ferro? Si stava meglio quando mancava una di queste tecnologie? Combatterle sarebbe stato socialmente auspicabile? Io per rispondere egoisticamente vorrei avere accesso al mio albero genealogico.

    E poi, come si fa a identificare come lavoro “qualificato” un lavoro che si presuppone sostituibile facilemente con un bot mentre “non qualificato” un lavoro che invece non riteniamo sostituibile con un bot? Non dovrebbero essere più “qualificati” i lavori non banalmente sostituibili con delle macchine? Altrimenti qual è la sua definizione di “qualificato”?

Leave a Reply to Gianluca Ulisse Cancel Reply

Your email address will not be published. Required fields are marked *