neurosoft.it
neurosoft.it

BRACCIO

 

RETE NEURALE AUTOAPPRENDENTE

PER IL CONTROLLO DI UN ARTO SIMULATO

 

Questa simulazione e la successiva “POSTURA” illustrano il meccanismo di apprendimento fenotipico che riteniamo essere il meccanismo fondamentale con cui il sistema nervoso apprende dall’esperienza, e che costituisce la base di ciò che viene chiamato memoria implicita (Schacter) o procedurale (Squire e Cohen) o non dichiarativa: cioè quel tipo di memoria che non può essere descritta simbolicamente, che riguarda ciò che facciamo piuttosto che ciò che sappiamo. Sebbene questo tipo di memoria sia largamente non-cosciente, a nostro avviso essa costituisce una tappa fondamentale nell’evoluzione verso la coscienza, in quanto filogeneticamente primo meccanismo neurale tramite cui l’esperienza personale è in grado di modificare ciò che l’individuo è e come agisce; e in tal modo rappresenta una componente essenziale della formazione del . Nel libro “Coscienza Artificiale” è descritto come questo modello possa essere ampliato ad altri campi.

 

Dato che qui l’obiettivo è dimostrare il funzionamento di un modello, piuttosto che osservare la comparsa spontanea della funzione in una popolazione in evoluzione, queste simulazioni, a differenza delle precedenti, non includono apprendimento genetico né fanno uso di algoritmi genetici. Non è simulata una popolazione di reti in evoluzione, ma una singola rete con architettura precostituita.

           

Uno dei principali problemi che si pongono agli studiosi di reti neurali è come incorporare nelle reti pesi di connessioni utili a rinforzare i comportamenti vantaggiosi per l’individuo e contrastare i comportamenti svantaggiosi. La regola di modifica dei pesi considerata più biologicamente plausibile, la “regola hebbiana”, recita semplicemente: “rinforza le connessioni tra i neuroni che si attivano contemporaneamente” (“neurons that fire together wire together”).

La grande plausibilità biologica di questa regola risiede nel suo essere una regola locale: non vi è bisogno di altra informazione che lo stato di attivazione dei neuroni in esame. Recentemente le neuroscienze hanno corroborato l’esistenza di questa regola nei sistemi nervosi biologici fornendo dati precisi sui suoi meccanismi ultrastrutturali-biochimici (Collingridge, Lynch, Nicoll).

 

D’altro canto la regola hebbiana non è in grado di distinguere tra esiti vantaggiosi e svantaggiosi. L’informazione circa l’esito delle attivazioni neurali, se cioè il comportamento che esse hanno determinato sia stato vantaggioso o svantaggioso per l’individuo, è un’informazione tutt’altro che locale. Essa richiede di postulare vie di informazione e valutazione di dubbia esistenza (l’unico sistema ipotizzabile al riguardo è quello delle endorfine), e di integrare queste vie con il sistema di modifica dei pesi. Modificare i pesi in questo modo costituisce un metodo supervisionato, in cui esiste un “supervisore” che distingue i comportamenti “giusti” (vantaggiosi) e quelli “sbagliati” (svantaggiosi), misura la differenza (“errore”) tra la risposta della rete e la risposta “giusta”, e rinforza i pesi che producono attivazioni determinanti comportamenti giusti, indebolendo invece i pesi che producono comportamenti sbagliati.

Va da sé che l’esistenza di un tale supervisore in biologia è tutt’altro che plausibile.

 

Come si può quindi spiegare il fatto che i sistemi nervosi imparano a ripetere i comportamenti vantaggiosi e abbandonano quelli svantaggiosi?

 

La soluzione è in un modello di apprendimento chiamato “modello invertito” (“inverted model”) o “apprendere facendo” (“learning by doing”). Questo modello, più ampiamente descritto nel libro “Coscienza Artificiale” (capitolo “Memoria e apprendimento nel sistema nervoso - 2”), adotta una misurazione dell’errore a livello completamente locale, di singola unità di rete neurale, inserendola in un contesto biologicamente plausibile dal quale rimane esclusa la parte più artificiale, il supervisore.

 

Come è possibile questa valutazione dell’errore locale senza un supervisore? Come può una singola unità di rete neurale venire a “sapere” se e quanto la sua attivazione è stata “giusta” o sbagliata”?

La risposta è nel riconsiderare il significato di “giusto” o “sbagliato”.

 

Immaginiamo un bambino che stia imparando a muoversi, in particolare a muovere volontariamente le braccia. Immaginiamo che sia davanti a un tavolo sul quale c’è un oggetto che lui vuole afferrare, diciamo una pallina rossa. Il suo braccio, prima del movimento, sarà in una  posizione qualsiasi che chiamiamo “posizione 1” (posizione di partenza).

La volontà del bambino chiede (ordina) al suo sistema motorio di portare la mano sulla pallina così da poterla afferrare (“posizione 2”, posizione desiderata come conclusione del movimento e cioè posizione finale desiderata). Il problema che il sistema motorio del bambino deve risolvere è tradurre questo comando in una sequenza di attivazioni muscolari di intensità e temporizzazioni tali che l’effetto finale complessivo sia quello richiesto dalla volontà, cioè di portare il braccio dalla posizione 1 alla posizione 2.

Immaginiamo ora che il sistema motorio sbagli, e che il braccio del bambino manchi clamorosamente la pallina e arrivi in una posizione finale (“posizione 3”, posizione finale reale) diversa da quella desiderata.

 

 

In questo processo ciò che il sistema motorio può apprendere in modo non supervisionato non è il movimento desiderato, quello dalla posizione 1 alla posizione 2 (movimento che non è mai avvenuto e petanto non può costituire esperienza), ma il movimento realmente effettuato, quello sbagliato, dalla posizione 1 alla posizione 3. Il sistema motorio infatti ha ora esperienza che le attivazioni muscolari che ha attuato sono capaci di portare il braccio dalla posizione 1 alla 3, ossia che per andare dalla posizione 1 alla posizione 3 bisogna attivare i muscoli in quel modo. Se questa informazione è apprendibile dal sistema motorio, quest’ultimo diventerà in grado di rispondere “bene” qualora in futuro la volontà dovesse ordinare un movimento proprio dalla posizione 1 alla posizione 3.

 

In questo modo il sistema motorio può apprendere a muoversi anche sbagliando sempre: le esperienze che accumula sbagliando “vengono comunque utili” per quando la volontà richiederà (e prima o poi lo farà) movimenti come quelli effettuati. Ma, soprattutto, i movimenti pur “sbagliati” effettuati si sommano comunque a poco a poco in una rete di esperienze i cui vuoti vengono riempiti per interpolazione ed estrapolazione dalle note capacità di generalizzazione delle reti neurali, fino a realizzare un “mappaggio sensori-motorio” sempre più completo e corretto, tale che abbastanza presto anche movimenti mai attuati prima vengono eseguiti correttamente già la prima volta che la volontà li richiede!

In altre parole, via via che l’esperienza della rete cresce e i suoi errori diminuiscono, il risultato è che l’eseguito arriva infine a coincidere con l’ordinato. A questo punto il miracolo è avvenuto: la rete ha imparato a eseguire gli ordini, senza niente e nessuno a misurare quanto la sua prestazione rispondesse agli ordini o meno.

 

Impostato in questo modo lo schema generale, realizzare l’apprendimento del sistema motorio è solo una questione di dettagli implementativi, che può essere fatto senza violare i principi della località e utilizzando solo le vie sensoriali esistenti, ancora senza invocare nulla di diverso dalla realtà biologica.

 

Metodo

 

La nostra simulazione prevede un arto a due o tre giunti che si muove su di un piano bidimensionale di 335x225 pixels, con la “spalla” fissa in un punto. Ciascun giunto è controllato da una coppia di muscoli agonista-antagonista (un muscolo per la flessione e uno per l’estensione), e può aprirsi e chiudersi entro limiti simili a quelli dell’arto umano; l’area complessiva raggiungibile dall’estremità della “mano” viene quindi ad assumere la forma di una goccia.

 

 

Le attivazioni muscolari sono controllate da una rete neurale, che riceve a sua volta informazioni di ritorno sullo stato dell’arto: angoli di apertura delle articolazioni (informazioni “propriocettive”), e posizione dell’estremità della “mano” in coordinate bidimensionali cartesiane oppure polari (informazione “visiva”).

 

La descrizione che segue si riferirà d’ora in poi a un arto a tre giunti. L’arto a due giunti ha semplicemente un’unità di input e due unità di output in meno nella rete neurale.

 

Rete neurale

 

La rete neurale è costituita da: 5 unità di input; un numero variabile di unità nascoste decidibile dallo sperimentatore (anche nessuna), disponibili in uno o due strati ancora a scelta dello sperimentatore; e 6 unità di output, ognuna delle quali determina l’attivazione di un muscolo.

 

 

Sensori, unità di input, volontà

 

Le 5 unità di input sono divise in due gruppi: uno, di 3 unità, riceve le informazioni “propriocettive” sugli angoli delle articolazioni; l’altro, di 2 unità, le informazioni “visive” sulla posizione dell’estremità dell’arto.

Essendo il focus di questa simulazione centrato sul modello di apprendimento, sensori e relative informazioni sensoriali sono simulati in modo più astratto che, ad es., in GAZE.

 

Il secondo gruppo di unità di input, quello di 2 unità “visive”, riceve non solo informazioni sensoriali sull’arto, ma anche attivazioni (“comandi”) dalla “volontà”. Questa è un’entità esterna alla rete neurale, generante i punti-obiettivo che la rete neurale deve raggiungere con l’estremità dell’arto. Nella realtà biologica essa risiede verosimilmente in altre aree del sistema nervoso; ma nella nostra simulazione consiste semplicemente di un generatore casuale, a cui lo sperimentatore può sostituirsi in qualsiasi momento per imporre i suoi propri comandi.

 

Si noti che, poiché le informazioni sensoriali dall’arto e i comandi dalla volontà convergono sulle medesime unità di input, anche i comandi dalla volontà devono essere in codifica sensoriale. Devono cioè consistere in sensazioni immaginate: le sensazioni corrispondenti all’avere l’arto nella posizione finale desiderata. I comandi motori sono insomma posti come posizione finale immaginata.

Questo ci sembra realistico e corrispondente alla nostra esperienza umana circa la motilità volontaria. Per preparare ed eseguire un movimento risolviamo forse mentalmente diagrammi di flusso, equazioni cinematiche dirette e inverse, equazioni differenziali, come nei modelli “computazionali classici” di movimento? O non ci creiamo piuttosto una sorta di anticipazione delle conseguenze sensoriali del movimento da eseguire?

Quando muoviamo un arto non prepariamo mentalmente equazioni da risolvere, ma produciamo, probabilmente, una rappresentazione mentale approssimativa di come percepiremo – propriocettivamente e, in modo accessorio, visivamente – l’arto durante il movimento stesso (o, nei movimenti ballistici, alla fine del movimento).

 

Non è critico quali tipi di informazioni sensoriali i due gruppi di input ricevono ricevano: visive, propriocettive circa gli angoli delle articolazioni, propriocettive circa lo stato di tensione dei muscoli, tattili, ecc. E non è neppure necessario che i due gruppi ricevano gli stessi tipi di informazioni. Nei sistemi nervosi biologici le informazioni sensoriali reali, provenienti dai sistemi sensoriali, consistono verosimilmente in un insieme completo di tutte queste componenti, mentre i segnali provenienti dalla volontà (quelli che abbiamo più adeguatamente chiamato comandi) consistono più verosimilmente in un insieme parziale, in cui la componente visiva (immaginazione della posizione finale della “mano”) ha probabilmente il ruolo prevalente. Le altre componenti, quando presenti, servono verosimilmente per restrizioni accessorie occasionalmente desiderate, o suppliscono ad eventuali incompletezze o mancanza della codifica visiva (es. movimenti a occhi chiusi.

Nel presente esperimento adottiamo soltanto informazioni sensoriali sugli angoli delle articolazioni e sulla posizione della “mano”, lasciando al successivo esperimento “Postura” l’indagine su un ventaglio più ampio di informazioni sensoriali.

 

Effettori

 

Come le sensibilità, anche i muscoli sono simulati a un livello astratto: semplici motori lineari che aprono e chiudono le articolazioni, non muscoli a molla dotati di punti di inserzione e di diagrammi tensione-lunghezza come in GAZE.

 

Apprendimento

 

Ad ogni movimento attivo consegue apprendimento delle attivazioni muscolari che lo hanno prodotto, con un meccanismo a due fasi.

 

Prima fase: movimento

 

In una fase iniziale a braccio fermo, in assenza di comandi dalla volontà, su entrambi i gruppi di unità di input è presente l’informazione sensoriale (veicolatadai sistemi sensoriali) descrivente lo stato attuale dell’arto. Poiché il braccio è fermo, lo stato iniziale e quello finale coincidono.

L’arrivo di un comando dalla volontà sostituisce, sulle unità del secondo gruppo, le preesistenti attivazioni provenienti dai sistemi sensoriali. Cioè, lo stato finale desiderato sostituisce lo stato finale reale (che, essendo il braccio fermo, coincideva come già detto con lo stato iniziale).

Questa nuova configurazione di input attiva la rete, che produce un output che viene veicolato agli effettori-muscoli e determina un movimento dell’arto. Le attivazioni delle unità di output (e delle eventuali unità nascoste) prodotte in questa fase sono temporaneamente archiviate/salvate per essere utilizzate nella fase successiva per l’apprendimento.

 

Seconda fase: apprendimento

 

Lo stato finale reale, al termine del movimento, è percepito dai sensori e riportato sulle sole unità del secondo gruppo di input, dove sostituisce quello desiderato prodotto dalla volontà. L’attivazione originaria delle unità del primo gruppo, quella corrispondente allo stato iniziale, viene invece per il momento mantenuta invariata.

Con questa nuova situazione di input viene generata una nuova attivazione della rete. Ma questo nuovo output non viene trasmesso agli effettori: viene invece confrontato con l’output immediatamente precedente, quello che ha prodotto effettivamente il movimento (e che fu temporaneamente memorizzato appunto per consentire l’attuale confronto). La differenza tra i due output costituisce l’errore da minimizzare. Infatti l’output generato nella fase di movimento, quello che produsse il movimento, rappresenta l’output corretto per l’input attuale, l’input che contiene lo stato finale reale dell’arto. L’input e l’output sono così in un certo senso temporalmente “invertiti”, nel senso che l’input corretto (lo stato finale reale) raggiunge la rete dopo che l’output ha prodotto i suoi effetti. Tale inversione è all’origine del nome “modello invertito” (inverted model) con cui questo modello è anche chiamato; ed è alla base della “magia” grazie a cui l’intenzione (espressa prima del movimento) e il risultato (ovviamente successivo al movimento) progressivamente convergono, ripetendo più movimenti, per infine arrivare a coincidere.

 

Regola locale di apprendimento

 

Ciò che caratterizza il modello learning-by-doing è l’architettura generale fin qui descritta e il meccanismo del modello invertito, non la regola utilizzata per cambiare ogni singolo peso tra due unità.

La “regola delta” è particolarmente efficiente, ed è quella che abbiamo utilizzato.

L’unico problema di questa regola è che, quando sono presenti unità nascoste, è generalmente indispensabile accettare meccanismi di retropropagazione (back-propagation) del calcolo dell’errore scarsamente plausibili dal punto di vista biologico. Tuttavia, nel modello proposto, le due fasi di attivazione della rete (movimento e apprendimento) generano ciascuna una distinta attivazione anterograda di tutte le unità, incluse le eventuali unità nascoste. Così, come è possibile misurare la differenza tra le due attivazioni (movimento e apprendimento) di ciascuna unità di output, è altrettanto possibile misurare la differenza tra le due attivazioni di ciascuna unità nascosta, e utilizzare tale differenza come segnale di errore, senza ricorrere alla retropropagazione dell’errore. Possiamo aspettarci che questo meccanismo sia meno efficiente della back-propagation (che è un eccellente e molto funzionale artificio matematico); ma abbiamo ritenuto interessante verificarne le possibilità per la maggiore plausibilità biologica.

Pertanto, come regola di apprendimento, abbiamo provato ambedue le possibilità, back-propagation e questo meccanismo delta-forward, e le abbiamo confrontate.

 

Esperimenti

 

Abbiamo provato varie simulazioni, con arto a due o a tre giunti, con differenti numeri di unità nascoste, con apprendimento a back-propagation o delta-forward, arrestando l’apprendimento quando l’errore medio (distanza tra punto-obiettivo desiderato e punto effettivamente raggiunto dall’estremità dell’arto) scendeva sotto i 5 pixels.

 

Per vedere come le prestazioni cambiano durante l’apprendimento abbiamo effettuato prima dell’apprendimento, e poi nuovamente dopo 5000 e dopo 30000 movimenti, un test di raggiungimento di 588 punti-bersaglio prefissati uniformemente distribuiti su tutta l’area raggiungibile, partendo con l’estremità del braccio dal centro dell’area,.

 

Per mettere alla prova l’ipotesi accessoria che gran parte dell’efficacia motoria finale è determinata dalle capacità di generalizzazione abbiamo anche provato a impedire l’apprendimento in aree fino al 50% dell’intera area di lavoro, impedendo la propriocezione in queste aree – una sorta di “macchia cieca sensoriale”.

 

Risultati

 

In tutte le nostre simulazioni il sistema ha costantemente raggiunto un buon controllo motorio dopo un numero variabile di “movimenti” da 10.000 a 30.000 (3-10 minuti su di un attuale PC) utilizzando la back-propagation; tempi circa 10 volte superiori, e risultati lievemente meno buoni, utilizzando il metodo delta-forward. Quest’ultimo, inoltre, si è mostrato funzionare solo a patto che la rete includa anche connessioni dirette dall’input all’output, che “saltino” le unità nascoste. Le descrizioni che seguono si riferiscono alla back-propagation.

 

Il miglioramento della capacità motoria della rete con l’esperienza è presentato nella figura seguente. In alto a sinistra viene mostrata la distribuzione dei 588 punti-bersaglio; le tre figure successive mostrano i corrispondenti punti raggiunti dalla rete rispettivamente al tempo zero, dopo 5000 movimenti, e dopo 30000 movimenti. Ovviamente, in presenza di una capacità motoria perfetta, i punti effettivamente raggiunti dovrebbero coincidere con quelli della prima figura.

 

 

Si nota che, prima dell’apprendimento, i punti raggiunti rappresentano un insieme contratto raggruppato nell’area corrispondente alle posizioni intermedie dei segmenti dell’arto. Via via che la rete muove l’arto questo insieme progressivamente si espande e, dopo 30000 movimenti, copre abbastanza uniformemente l’area di lavoro, approssimando accettabilmente i punti bersaglio, con una concentrazione dell’errore residuo soprattutto nelle zone di estrema flessione e – particolarmente – di estrema estensione delle tre articolazioni.

 

La distribuzione spaziale dell’errore ad apprendimento “ultimato” (errore medio inferiore a 5 pixels) è rappresentata in codice-colore nelle successive 4 figure ravvicinate. Si confermano (figura in alto a sinistra) prestazioni buone o eccellenti in quasi tutta l’area, con una molto limitata concentrazione dell’errore nella “coda” della goccia (corrispondente alla massima apertura di tutte le articolazioni).

 

Le altre tre figure mostrano l’effetto della “macchia cieca sensoriale” sull’apprendimento complessivo. Come si può osservare l’effetto non è rilevante, neanche all’interno stesso della “macchia cieca”, a conferma delle particolari capacità di generalizzazione della rete neurale costituente questo modello.

 

In assenza di unità nascoste le prestazioni sono altrettanto buone solo in caso di  arto a due giunti (modello più lineare, e soprattutto in cui la posizione dell’estremità definisce univocamente la posizione di tutto l’arto). Il modello a tre giunti richiede unità nascoste, seppur in numero limitato (anche solo un paio) e in un solo strato. Al crescere del numero delle unità nascoste la precisione aumenta, ma dopo le sei unità l’aumento non è rilevante. Disporre le unità nascoste in due strati anziché in uno non porta alcun vantaggio.

 

Discussione e conclusioni

 

La sperimentazione appare confermare sotto ogni aspetto l’attendibilità del modello learning-by-doing come modello dell’apprendimento motorio fenotipico umano e animale. L’eventuale utilizzo della back-propagation come metodo di modifica dei pesi delle connessioni non inficia, a nostro avviso, l’attendibilità complessiva del modello: sia perché il punto fondamentale del modello non è nel metodo di modifica dei pesi, ma nella interazione tra il versante sensoriale e quello motorio; sia perché le simulazioni effettuate con il metodo forward alternativo alla back-propagation hanno mostrato differenze quantitative piuttosto che qualitative. L’unica reale differenza qualitativa tra i due metodi è apparsa l’esigenza, nel metodo forward, dell’esistenza anche di connessioni dirette dallo strato di input a quello di output. Questa esigenza è correlata con la ricodificazione delle attivazioni (e quindi anche dell’errore) che avviene negli eventuali strati nascosti interposti: una “via diretta”, senza ricodificazione, appare necessaria per correlare ciò che avviene in output con ciò che avviene in input. Una volta che tale correlazione è stabilita, la ricodificazione intermedia può “agganciarsi” ad essa anche nel metodo forward.

 

Non crediamo di doverci dilungare su questi dettagli, considerando che in realtà non sappiamo con precisione quali siano i meccanismi di apprendimento effettivamente esistenti nei sistemi nervosi biologici. Anche i meccanismi che noi qui consideriamo biologicamente plausibili potrebbero essere (e probabilmente sono) ancora notevolmente distanti da quelli reali, che verosimilmente si fondano sull’accoppiamento di meccanismi hebbiani con princìpi neodarwinisti e pertanto coinvolgono apprendimenti anche genetici, mentre in questo modello siamo concentrati su una strategia di apprendimento fenotipico. Ricordiamo infatti che il learning-by-doing non è un modello di apprendimento cellulare, bensì una strategia di apprendimento fenotipico, e come tale è sostanzialmente indipendente dai modelli di apprendimento cellulare adottati.

E in ogni caso, anche adottando la back-propagation, una differenza fondamentale tra il learning-by-doing e i metodi di apprendimento supervisionato comunemente associati alla back-propagation, è che, come si vede facilmente, tutti gli elementi necessari all’apprendimento sono a piena disposizione della rete, senza alcuna necessità di un supervisore né di output desiderati noti a priori. Gli stati iniziale e finale sono infatti veicolati direttamente dal sistema sensoriale, e gli output sono prodotti dalla rete stessa. In altri termini la rete stessa genera, con le sue azioni, gli esempi da imparare.

 

Circa la verifica delle capacità generalizzatorie della rete neurale learning-by-doing, la resistenza del modello alla introduzione della “macchia cieca sensoriale” rappresenta la dimostrazione più eclatante di tali capacità. Ma un’altra dimostrazione, meno appariscente ma persino più significativa una volta presa in considerazione, risiede nel numero di movimenti effettuati rispetto al totale dei movimenti possibili.

Nello spazio motorio reale, tridimensionale e analogico, i movimenti possibili sono infiniti. Ma nello spazio bidimensionale e “pixellizzato” della nostra sperimentazione i movimenti sono molti, ma finiti. Per la precisione, essi sono oltre 300 milioni. Questo vuol dire che una rete che ha eseguito 30000 movimenti, come quella in figura, che ha raggiunto un basso livello di errore, ha realmente effettuato meno di 1/10000 dei movimenti possibili! E ciò nonostante mostra buone prestazioni su praticamente tutta l’area di lavoro. In altre parole, l’esplorazione casuale di meno di 1/10000 dei movimenti possibili è sufficiente ad apprendere adeguatamente il mappaggio sensori-motorio generale anche di un arto a tre giunti (quindi notevolmente non lineare); e anche il raggruppare forzosamente i movimenti non apprendibili (macchia cieca sensoriale) entro aree persino superiori al 50% dell’intero spazio esplorabile non degrada significativamente le prestazioni della rete.

 

Si noti che il feedback sensoriale e i segnali provenienti dal sistema della “volontà” arrivano alle medesime unità, quelle dello stato finale. Questo implica che entrambi questi tipi di segnali devono essere codificati nello stesso modo, ed ecco perché la volontà deve presentare il suo comando alla rete sotto forma di rappresentazione sensoriale dello stato finale desiderato. La rete learning-by-doing è per questo, ripetiamo, una rete che impara a tradurre la codifica sensoriale in quella motoria; o, per dirla in termini più sofisticati, effettua il mappaggio dello spazio sensoriale nello spazio motorio (più brevemente, mappaggio sensori-motorio).

Come si vede, tutto ciò è molto diverso dall’ipotesi classica, ma oggi poco plausibile, che il sistema “volitivo” (la corteccia cerebrale frontale) trasmetta alle strutture sottostanti (nuclei della base e midollo) comandi muscolo-scheletrici per raggiungere il bersaglio.

 

Riguardo ai correlati biologici di questo modello, in cui i comandi provenienti dalla volontà sono presentati alla rete esecutrice sotto forma di sensazioni desiderate, e lo strato di input della rete rappresenta una via comune per tali comandi e per le informazioni sensoriali provenienti dalla periferia, può essere interessante notare come infatti, nei cervelli biologici, le aree somatosensoriali (sensibilità tattili e propriocettive) siano collocate topograficamente molto vicine alle aree somatomotorie. Mentre, all’opposto, i sensi che ci informano essenzialmente sul mondo esterno (vista, udito, olfatto-gusto), e i cui dati sono meno direttamente influenzabili dai nostri movimenti e dalla nostra volontà, arrivano ad aree sensoriali relativamente lontane dalle aree motorie e più vicine ad aree e vie associative. Topografia, questa, che appare rispettata sia a livello paleoncefalico (talamo) che neoencefalico (corteccia).

 

Questo modello, inoltre, presenta caratteristiche in comune con l’apprendimento motorio umano non solo dal punto di vista anatomico, ma anche funzionale. Una caratteristica che ci sembra particolarmente significativa è che l’unico modo a disposizione della volontà per privilegiare l’apprendimento di certi desiderati movimenti consiste nell’intensificarne la ripetizione, con conseguente maggiore esplorazione di quelle aree dello spazio sensori-motorio. Esattamente come nel movimento umano, “repetita juvant”, “repetition makes perfect”.

 

Un dettaglio del processo di movimento-e-apprendimento simulato che genera particolare perplessità circa la sua verosimiglianza con la realtà biologica è la necessità, nella fase di movimento, di “salvare”, “archiviare” in qualche modo, i valori di attivazione generati in questa fase. Evento che sembra più confacente a un computer che a un sistema nervoso biologico.

Ma nella realtà non occorre pensare al “salvataggio” dei valori di attivazione come ad una loro copiatura in qualche fantomatica “area di memoria” stile computer. Invece qualsiasi fenomeno locale conseguente all’attivazione di ciascun neurone, e sufficientemente persistente da lasciare effetti ancora presenti nel momento di ritorno del feedback sensoriale, può funzionare in questo senso.

Ad esempio (senza voler assolutamente affermare che questo sia il metodo utilizzato dalla realtà biologica) si può immaginare un meccanismo capace di tenere traccia nel tempo dell’attivazione o meno di ciascun neurone basato sul “periodo refrattario” che segue la scarica del neurone. In questa fantasia la seconda ondata di attivazione della rete – quella della fase di apprendimento, che non viene trasmessa agli effettori, e non genera movimento ma apprendimento – quando incontra un neurone in periodo refrattario (quindi un neurone che si è attivato nella fase di movimento) provocherebbe un rafforzamento della connessione tra il neurone a monte della connessione stessa (neurone “sender”, attivato) e il neurone a valle (neurone “receiver”, che dovrebbe attivarsi ma non può in quanto in periodo refrattario).

In realtà la durata tipica del periodo refrattario (pochi millisecondi) è troppo breve perché il reale meccanismo biologico di apprendimento locale possa essere quello descritto. Esistono però fenomeni di attivazione neuronale, affiancanti l’attivazione di neuroni motori corticali, accertati ma tuttora inspiegati, quali la cosiddetta “scarica corollaria” (“corollary discharge”), che potrebbero essere coinvolti proprio nel meccanismo di mantenimento della traccia temporale delle attivazioni finalizzata all’apprendimento descritto.

RICERCA

DIAGNOSTICA

DIDATTICA

nelle

NEUROSCIENZE

 

Stampa | Mappa del sito
© neurosoft.it