Anni fa qualcuno diceva che entro quest’anno avrebbe costruito un modello funzionante del cervello che ci avrebbe consentito di capire sostanzialmente tutto. Beh, non c’è. Anzi, ogni passettino avanti che si fa si capisce che si è lontanissimi dall’obiettivo, ed è sempre meno chiaro che sia possibile raggiungerlo.
Una sorta di effetto Dunning-Kruger.
Meno sai e più pensi di sapere. Più sai e più capisci di non sapere.
Già nel 2014 centinaia di scienziati avevano scritto una lettera aperta alla commissione europea per criticare la destinazione di fondi (1 Bn) a un progetto per simulare la mente con un approccio bottom-up, che poi ha portato ad una revisione del procedimento (un comitato di superesperti ha stabilito che le critiche erano fondate 15-03-19hbp-recommendations – PDF).
Non sappiamo bene cosa sia la coscienza, non abbiamo un modello preciso di come i neuroni comunichino, di come i neurotrasmettitori riconfigurino le reti neuronali, in che misura il connettoma determini il comportamento, di come funzionino i meccanismi della memoria, delle predizioni e del ruolo delle emozioni. Non sono chiari quali siano i meccanismi con cui intervengono i gangli della base e l’amigdala. Ecc. ecc.
Per cercare di capirne qualcosa tramite una simulazione bisogna decidere: cosa dovremmo simulare ?
Simuliamo ogni cellula ? sarà sufficiente ? o dobbiamo simulare ogni molecola ? il DNA ? (i geni contenuti nel DNA influenzano la struttura ed il funzionamento della mente), le proteine ? i neurotrasmettitori ? gli ormoni ? (che influenzano il funzionamento dei neurotrasmettitori). Oppure ogni atomo o particella subatomica ? beh, è ovviamente impossibile. E se il nocciolo del pensiero fosse lì ?
Il cervello non è un computer. E’ un organo biologico, analogico, forse con effetti quantistici.
Con il progetto genoma umano sapevamo dove stavamo andando. Si trattava solo di accelerare e fare più velocemente cose che già facevamo e in questo caso la legge di Moore ci ha dato una mano.
Qui non siamo ancora arrivati a “caro amico”…
Se la cultura è un “sistema che mette in comunicazione dialettizzandole un’esperienza esistenziale e un sapere costituito” (Morin) ….
non sarebbe interessante chiedersi come far comunicare il cervello di un esperto [portatore di sapere costituito] e quello di un cittadino qualunque [portatore di esperienza esistenziale]?
Se paragonassimo il primo a un computer e il secondo a un suo potenziale utilizzatore [programmatore] non salterebbe all’occhio il bisogno di un’interfaccia paragonabile a un “compilatore”?
In assenza di risposte al mio commento del 25 Luglio aggiungerei che il commento potrebbe trovare una sua contestualizzazione nell’ambito del capitolo 4 del libro “Capitalismo immateriale”, intitolato “Una questione politica”.
La mia domanda, con riferimento a quel capitolo, potrebbe essere rifrasata in: “la qualità della comunicazione fra esperto e utente è una questione politica o una questione d’interfaccia”?
Il mio ricordo dell’ambiente CERN ai tempi dei mainframe “stand alone” comprende due tipi d’interfaccia: quella “persona-computer”, che potremmo definire “alla Negroponte”, e quella “persona-persona”, che chiamerei “alla Chiarofiume”.
La mia personale conoscenza di quel secondo tipo d’interfaccia non ce l’ha fatta a diventare sapere costituito.
Può interessare, a un esperto, un resoconto del come e del perché non ce l’ha fatta?
perche’ no ?
🙂
Possiamo usare un file di lavoro? Tipo Google Drive o altro?
European ICT market in 1992 ???
Mercato Europeo dell’ICT nel 1992
???
1990 USA Government forecast ???
Previsioni USA del 1990
???