Scrivevo ad agosto 2006 (concetti poi espansi nella seconda edizione libro Costruire il Domani)

In estrema sintesi un computer è un oggetto fatto da tre parti: una che elabora, una che immagazzina, una che comunica

Quella che comunica lo fa con oggetti elettronici o con umani, in ingresso/uscita, in una pluralità di modi.

Ricordiamo il personal computer disconnesso: tastiera,monitor, floppy drive per comunicare, processori per elaborare e disco fisso e memoria per archiviare.

Tutto li’, sulla nostra scrivania.

Avanti veloce fino al web e ai giorni nostri.

La elaborazione viene fatta da molti server remoti il cui risultato viene presentato in un unico oggetto sul nostro schermo (una pagina web).

L’archiviazione, corrispondentemente, viene fatta su una pluralita’ di oggetti remoti ed i dispositivi di input/output stanno sulla nostra scrivania o nella tasca.

In realta’ c’e’ ancora un po’ di elaborazione locale, oltre a quella necessaria per gestire l’input/output, ed un po’ di archiviazione locale – metti mai che non ci sia rete..

Man mano che la latenza della rete diminuisce e che il throughput aumenta, la necessità di archiviazione ed elaborazione locale diminuisce.

Un po’ come se i cavi interni disegnati sui circuiti dentro il computer venissero stiracchiati, allungati e avvinghiati alla rete globale ed il nostro ‘personal computer’ fosse decomposto e sparso in giro per il mondo. Il cloud.

Con l’aumento della capacità di elaborazione, l’input output non e’ solo tastiera/mouse e video, ma anche altoparlanti e microfoni, sensori di vario tipo, attuatori di vario tipo.

Il “nostro” “computer” (volutamente tra apici) è sparso in giro per il mondo e noi ci interagiamo con dispositivi di input output che stanno qua e la’.

Ciò che definisce la possibilità di accesso al “nostro” “computer”, in ultima analisi, è la nostra identità che viene riconosciuta e che ci garantisce l’accesso a elaborazioni e dati (e la raccolta di dati e la loro elaborazione).

Il termostato o la tv che ascoltano le nostre istruzioni, la console di videogiochi che riconosce i movimenti, il vivavoce che interagisce con noi in auto, lettori di impronta digitale e videocamere con riconoscimento biometrico della forma del volto, dispositivi bluetooth che si accoppiano con la nostra “chiave” (il telefono), ecc..

L’input/output, che una volta era la tastiera del personal computer, diviene tutto intorno a noi.

Il PC, con la sua elaborazione, archiviazione e comunicazione, tutto centralizzato e compatto sulla scrivania davanti a noi, sempre piu’ lascia il passo ad un sistema di input/ouput tutto attorno a noi, con l’elaborazione sparsa ovunque (penso a cose simili a ipfs per i processi) e i dati sparsi ovunque.

Cosa ci definisce ? un tag che e’ il nostro nome o l’insieme delle nostre relazioni, attività ed interessi ?

Gli estremi che consentono di identificare una persona sono degli handler, dei puntatori alla sua identità. Il nome o il codice fiscale non sono l’identità. La mia faccia non è la mia identità.

Proviamo a considerare l’identità come il complesso delle configurazioni della vita della persona. Materiali e immateriali.

Internet è la dimensione immateriale del mondo in cui una persona agisce relazioni sociali ed economiche tramite le sue configurazioni immateriali. I dati sono così la dimensione immateriale dell’identità degli utenti.

Questa dimensione immateriale dell’identità, i dati, sono sparsi tra soggetti diversi che li trattano.

La persona deve avere il diritto al governo della propria identità

Facciamo un esercizietto di immaginiazione.

Immaginiamo di avere

  • display ad alta risoluzione, leggeri, trasparenti, da 3 pollici e che li montiamo su degli occhiali per fare augmented reality;
  • MEMS da infilare nelle stanghette che sfruttano la conduzione ossea sia per riprodurre il suono che per acquisirlo;
  • telecamere nella struttura degli occhiali (una rivolta verso l’esterno per acquisire stereoscopicamnte l’ambiente ed una verso l’interno per acquisire nostre espressioni e fare motion capture)
  • un chip tipo NVIDIA per l’elaborazione grafica 3d realtime a basso consumo inserito in un “telefono” che portiamo in tasca (servirebbero delle batterie troppo grosse per montarle negli occhiali)

un oggetto del genere, con una visualizzazione con risoluzione e frame rate adeguati, dovrebbe collegare la parte di elaborazione alla parte di interazione probabilmente con una fibra. un collegamento wireless anche ultrawideband non sarebbe sufficiente. (ma non e’ un problema.. tutti usiamo un cordoncino per mettere al collo gli occhiali).

il motion capture serve per acquisire gesti ed espressioni ed applicarle ad un modello (ad esempio di nostro corpo/faccia) e trsmetterle ad un punto remoto dove un sistema di sintesi le prende, le applica al nostro modello, e il movimento e l’espressione vengono riprodotti localmente dal chip Nvidia-like di cui sopra.

altro che videoconferenza… telepresenza realtime, una dimensione immateriale in cui si realizza un metaverso dove fare incontri, riunioni, interazioni..

questo e’ il tipo di concorrenza che Luxottica avrà.

il design la spunterà sulla tecnica ? credo che sia fuorviante pensare che “tutto sommato” visto che apple watch non ha sfondato come orologio, allora anche gli occhiali tradizionali la spunteranno sugli occhiali A/R (Augmented reality). Intanto perchè Apple  watch fattura comunque più di ogni produttore di orologi e poi perchè gli orologi sono sempre meno, dato che c’e’ lo smartphone (soprattutto sui più giovani).

adesso, con in mente cio’, guardiamo indietro ai giorni nostri e vediamo che Apple ha distribuito ARKit, il motion capture per gli animoji ed un telefono con sofisticati sistemi di face recognition 3D (FaceID e Truedepth).

anche google con magic leap, microsoft con hololens e facebook con oculus stanno andando o andranno nella direzione di metaversi in realtà aumentata.

quale architettura dovrebbe essere preferibile ? una in cui ogni azienda può avere un proprio metaverse server che interopera con gli altri o una in cui il metaverso e’ un silos per cui tutti quelli che vogliono interagire, tipo facetime, passano da un unico server controllato da un unico fornitore ? (che ha quindi ogni potere sulle comunicazioni delle persone)

un fornitore alternativo dovrebbe avere accesso ai protocolli di un servizio di comunicazione fatto da un altro fornitore (se questo e’ dominante) o no ?

e riguardando indietro verso oggi, un fornitore alternativo (anche una persona per le proprie comunicazioni, al limite) dovrebbe potersi interconnettere ed interoperare con i server di altri (dominanti) o no ?

il modello desiderabile è quello della mail, degli SMS o di whatsapp ?

è una domanda cruciale, sia per le relazioni eocnomiche che per quelle sociali e politiche.