Questo sito contribuisce alla audience di

cibernètica

Guarda l'indice

Definizione

sf. [sec. XX; dal greco kybernētike (téchnē), (arte) del timoniere, sul modello dell'inglese cybernetics]. Scienza che studia la progettazione e la realizzazione di sistemi artificiali, senza necessariamente partire da un sistema biologico esistente, avendo come massimo obiettivo la realizzazione di sistemi in grado di autoprogrammarsi, cioè di proporsi autonomamente delle finalità.

Cenni storici: le prime macchine

Sin dall'antichità si è tentato di costruire macchine che imitassero certi aspetti del comportamento umano, come scrivere, suonare uno strumento, ecc. Nel campo dei regolatori automatici l'anno 1871 segnò una tappa storica con l'apparizione del regolatore di Watt, la cui idea base si trova nel tardo Medioevo nella regolazione automatica dei mulini a vento. Le prime idee veramente cibernetiche provengono, però, dalla biologia, dove nelle idee di riflesso e di omeostasi è presente il concetto di retroazione. Nel 1930 L. von Bertalanffy creò le basi della teoria generale dei sistemi che ricerca principi unificanti nello studio delle entità complesse della biologia e della sociologia. Questa teoria non interessò però l'ingegneria sino al 1940 quando, due anni dopo la presentazione di una tesi di C. Shannon sull'applicazione dell'algebra di Boole ai circuiti di commutazione, si incominciarono a progettare i primi elaboratori elettronici numerici. La teoria generale dei sistemi fu allora applicata a queste macchine e a particolari automatismi usati nell'artiglieria contraerea. Nello stesso anno R. Ashby costruì il primo dispositivo per realizzare fenomeni omeostatici: l'omeostato. Nel 1943 W. S. McCulloch cominciò a definire modelli matematici per lo studio e l'imitazione del cervello umano. Contemporaneamente, in embriologia, comparivano temi chiaramente cibernetici nello studio delle cellule giganti e della riproduzione. La nascita della cibernetica nel senso precedentemente definito si ascrive appunto agli anni immediatamente precedenti la seconda guerra mondiale, quando un gruppo di scienziati, tra i quali N. Wiener, interessati alle discipline più diverse (matematica, statistica, ingegneria, elettronica, neurofisiologia, ecc.) cominciarono a riunirsi sotto la direzione del neurologo messicano A. Rosenbluth nella facoltà di medicina di Harvard per discutere i fondamenti del metodo scientifico in modo completamente nuovo e generale, cercando di scoprire idee comuni a tutte le discipline scientifiche, per poterne unificare i linguaggi. L'imminenza della guerra li portò a interessarsi ai due temi dell'automazione del calcolo e della direzione del tiro dei pezzi contraerei. In relazione al primo di essi, Wiener pubblicò, nel 1940, il risultato di uno studio sulle caratteristiche che avrebbe dovuto avere il futuro calcolatore automatico: esso doveva essere numerico ed elettronico con circuiti bistabili, con capacità logica e con memoria. Le sue idee rivoluzionarie si imposero e, già nel 1942, le università di Harvard, di Pennsylvania e di Princeton lavoravano attivamente su di esse. Il secondo tema diede luogo a un altro passo rivoluzionario, segnando la nascita della teoria della regolazione e del controllo; tuttavia la finalità di muovere con rapidità e precisione le torrette dell'artiglieria antiaerea coinvolgeva un così gran numero di difficoltà (predizione delle traiettorie ottimali, stabilizzazione rapida del cannone, ecc.) che per la sua soluzione fu necessario un enorme sforzo teorico. I risultati, che comprendono la teoria dei servomeccanismi, furono pubblicati e applicati solo nel dopoguerra. Le necessità belliche producevano così le prime “macchine intelligenti”. Due attività come il calcolo e la previsione, prima dominio esclusivo degli esseri umani, passavano nell'ambito delle capacità delle macchine segnando l'inizio, con l'avvio dell'automazione, di quella che è stata definita la “seconda rivoluzione industriale”. L'unità essenziale dei due problemi, centrata sui fenomeni della comunicazione e del controllo, comuni alle macchine e agli esseri viventi, venne rilevata da Wiener e Rosenbluth. Il termine cibernetica fu da loro adottato con l'obiettivo di arrivare a nozioni generali sui meccanismi, sulla loro organizzazione e sul loro controllo che potessero orientare su un'analisi più razionale delle funzioni degli esseri superiori e arrivare così alla loro produzione artificiale mediante organizzazione di materia inanimata in modo da imitare o simulare certi aspetti del comportamento degli esseri viventi, come la memoria e i riflessi condizionati.

Cenni storici: la cibernetica contemporanea

La cibernetica è una scienza interdisciplinare, cioè una scienza di collegamento tra varie discipline, quali l'ingegneria, la biologia, la matematica, la logica, ecc., che studia il comportamento degli animali e di ogni sistema paragonabile a un organismo vivente. Si occupa pertanto di organismi politici ed economici, di gruppi sociali, di elaboratori elettronici, di cellule, ecc., prestando particolare attenzione alle modalità con cui questi sistemi perseguono le proprie finalità e unificando la terminologia, e quindi la metodologia, delle discipline che si occupano della comunicazione (raccolta e analisi di informazioni) e del controllo (utilizzazione dell'informazione per regolare e comandare l'azione del sistema stesso). I metodi della cibernetica si basano sull'analisi statistica dell'informazione, sull'osservazione del comportamento globale dei sistemi complessi, sullo studio dell'organizzazione e interazione qualitativa dei diversi componenti e sulla considerazione dell'aspetto funzionale di ciascun organo, senza entrare nei dettagli materiali della sua costituzione. Al centro dell'interesse della cibernetica si trova il problema della finalità, in generale, e della sopravvivenza, in particolare, cioè, con linguaggio proprio di questa disciplina, il mantenimento dell'identità del sistema con la stabilizzazione della sua organizzazione, ottenuta mediante adeguati meccanismi di regolazione basati essenzialmente sul principio della retroazione. La cibernetica compie questo studio considerando i flussi di segnali che hanno luogo nel sistema e le elaborazioni funzionali cui vengono sottoposti indipendentemente da qualsiasi considerazione energetica. Più concretamente, per conseguire i propri fini, i sistemi studiati dalla cibernetica (siano animali, macchine o collettività) captano informazioni dal mondo esterno e le codificano per facilitarne la trasmissione al proprio centro coordinatore che le interpreta e, in funzione del contenuto, adotta le opportune decisioni, in generale scegliendo entro un insieme di molte possibili la linea di azione ottimale, cioè quella che meglio si adatta al conseguimento dei propri fini. Nell'ambito del campo di interesse della cibernetica si possono distinguere tre settori fondamentali: la cibernetica teorica, la cibernetica sperimentale, l'ingegneria cibernetica. La prima comprende la teoria dei sistemi che trasmettono ed elaborano informazioni e la teoria dei sistemi di controllo. La cibernetica sperimentale si occupa dello studio e della costruzione di modelli cibernetici, nonché della sperimentazione della teoria. L'ingegneria cibernetica si occupa della realizzazione di sistemi artificiali di alta complessità. In questo ambito si può far rientrare anche la bionica. La caratteristica fondamentale della cibernetica è quella di essere un modo di pensare, che emargina i concetti di energia, calore, rendimento, ecc. e centra tutto il suo interesse sul comportamento. La sua metodologia si orienta principalmente verso la soluzione delle seguenti tre grandi classi di problemi: analisi del sistema, del quale si distinguono le parti costitutive, il suo assemblaggio, la sua struttura, in modo da poterne dedurre e spiegare il comportamento; sintesi del sistema, per mezzo della quale si accoppiano i singoli costituenti in modo che il sistema globale soddisfi determinate condizioni, e sia, per esempio, in grado di realizzare un determinato obiettivo; costruzione di modelli, dove per modello si intende un sistema più semplice che funzioni in modo analogo o simile all'originale. Per la costruzione di un modello ci si basa su due forme di similitudine: di comportamento, o funzionale, e di struttura. L'obiettivo di costruire modelli secondo la prima forma è di imitare il comportamento dell'originale senza riprodurne la struttura. I modelli cibernetici si specificano mediante un insieme di blocchi simbolici con dettagli di entrate e uscite e con la rappresentazione del processo globale della trasformazione. La sua materializzazione si realizza generalmente mediante tecniche che, basate sulla meccanica e sull'elettronica, riproducono funzioni vitali senza entrare nei dettagli degli organismi. Questo, che a prima vista potrebbe sembrare fantascientifico, non lo è in quanto, in ultima analisi, un organismo vivente non è altro che un complesso di elementi più o meno semplici accoppiati in serie o in parallelo o con retroazione. § Le finalità centrali della cibernetica di costruire una teoria generale delle macchine indipendentemente dalla loro costituzione (elettronica, organica, micromeccanica) e di approfondire i campi della comunicazione e del controllo nelle macchine e negli esseri viventi hanno dato luogo a discipline autonome e, principali fra queste, l'ingegneria dei sistemi e l'intelligenza artificiale. Addirittura le discipline che si integrano nella cibernetica ne hanno sostituito, nei relativi campi di applicazione, il termine, fatto che, se indica da un lato un arretramento della visione di piena integrazione di scienze umane e fisiche di Wiener, rivela dall'altro il maggior spessore che esse stanno individualmente acquistando. L'ingegneria dei sistemi studia la natura e gli effetti delle interconnessioni fra “oggetti” e ha carattere spiccatamente interdisciplinare. Essa affronta problemi che riguardano i requisiti e i vincoli che gli oggetti devono soddisfare perché il sistema funzioni. L'ampia interdisciplinarietà dell'ingegneria dei sistemi si caratterizza inoltre per la considerazione di categorie radicalmente diverse di sistemi, che possono essere: a) formali (per esempio matematici); b) naturali (i processi fisici non vincolati artificialmente: un albero che cresce, un fiocco di neve che si forma, ecc.); c) umani (un sistema sociale); d) formali-naturali (un processo tecnologico, ossia un fenomeno fisico vincolato da un progetto realizzato: il motore a scoppio, la televisione, ecc.); e) formali-umani (una società integrata da strutture politico-istituzionali come un'università, una nazione); f) formali-naturali-umani (un'impresa con uno stabilimento che presiede a un processo tecnologico che è progettato e diretto da uomini). I progressi dell'ingegneria dei sistemi si collocano prevalentemente nell'area formale-naturale e sono essenzialmente derivati dall'elettronica che, per esempio, ha reso necessari progressi decisivi nella branca dell'affidabilità dei sistemi, senza i quali non sarebbero stati possibili microcircuiti funzionanti con milioni di componenti; un altro esempio è dato dalle telecomunicazioni in rapporto alla teoria delle code, insostituibile per la comprensione delle reti telematiche a commutazione di pacchetto. I progressi nell'intelligenza artificiale sono di dominio pubblico grazie al calcolatore nel suo ruolo di giocatore di scacchi di media-alta abilità. Meno noto è il fatto che il calcolatore svolge compiti con contenuti “intellettivi” nel campo del calcolo integrale. I circuiti neuronali hanno aperto, con la rètina al silicio, prospettive concrete nella visione artificiale. Infine i sistemi esperti impiegano meccanismi inferenziali, ossia basati su schemi induttivi oltre che deduttivi, capaci, per esempio, di diagnosi delle malattie infettive, delle malattie polmonari e di medicina interna.

Informatica: teoria degli automi

Un automa cellulare è un modello matematico costituito da un grande numero di elementi identici tra loro, ciascuno dei quali si evolve nel tempo secondo un insieme di regole semplici. L'automa cellulare, considerato come l'insieme completo dei suoi elementi, può essere usato per simulare fenomeni fisici e può dare luogo a comportamenti caratterizzati da un alto grado di complessità. L'automa cellulare è quindi un modello matematico adatto allo studio dei sistemi complessi. Il concetto di automa cellulare, introdotto originariamente dal matematico Stanislaw Ulam, è stato formalizzato, nel 1947, dal fisico John von Neumann, il pioniere del calcolo numerico. Nell'ambito dello studio dei meccanismi di autoriproduzione di esseri viventi e, in generale, della complessità dei fenomeni biologici, von Neumann focalizzò la sua attenzione sui principi logici che governano la capacità del sistema di autoriprodursi, tralasciando il dettaglio chimico-fisico del processo stesso. Egli decise di descrivere il sistema "essere vivente" come costituito da molte entità elementari (automi) definite su un dominio spaziale regolare (per esempio, in una dimensione, su punti equidistanti disposti su una retta, oppure, in due dimensioni, sulle celle di un reticolo regolare di quadrati o di esagoni, da cui il nome di automa cellulare). In questo contesto, la definizione di elementare si riferisce alla possibilità di descrivere l'entità con una quantità di informazione molto ridotta, al limite con una variabile che possa assumere solamente due valori, cioè con un singolo bit (per esempio, acceso/spento oppure 1/0). Il requisito fondamentale perché l'insieme di entità elementari possa sviluppare un comportamento complesso è che le entità stesse interagiscano tra di loro in maniera opportuna, cioè che la loro evoluzione temporale (definita per intervalli temporali discreti) dipenda dallo stato delle altre entità costituenti il sistema. Lo stato globale del sistema a un certo istante t può essere descritto da una matrice A i cui elementi A(i,t) rappresentano lo stato dell'automa che si trova nella cella i-esima. La regola di evoluzione temporale del singolo automa può essere rappresentata nella seguente maniera:

A(i,t+1)=F(A(i-d,t),...A(i+d,t))

dove F rappresenta la regola di evoluzione temporale, e dove è stato indicato esplicitamente che lo stato dell'automa che si trova nella cella i-esima al tempo t+1 dipende dallo stato degli automi che si trovano nelle celle vicine (a una distanza ±d) i-d, i-d+1,..., i+d-1, i+d, al tempo t. È stato dimostrato che molti tipi di automi cellulari possono essere qualificati come macchine universali di Turing, cioè macchine che possono risolvere i cosiddetti problemi computabili, quei problemi la cui soluzione può essere ottenuta in un tempo finito e impiegando una serie di regole logiche ben precise. Un esempio di automa cellulare di questo tipo divenuto molto conosciuto è "Il gioco della vita" (Life), proposto dal matematico inglese John Horton Conway nel 1970. Il dominio su cui sono definite le entità elementari è composto da celle quadrate, ognuna delle quali può essere piena o vuota (viva o morta). A ogni avanzamento discreto del tempo, la nuova generazione è ottenuta applicando le seguenti regole: a) se una cella è vuota, essa diventa piena se tre dei suoi vicini sono pieni; b) se una cella è piena essa continua a vivere solo se ha due o tre vicini pieni (se ha meno di due vicini vivi, possiamo pensare che muoia di "solitudine", viceversa se ha più di tre vicini vivi, possiamo pensare che muoia per sovraffollamento). Nell'applicare queste regole, vanno considerate come vicine anche le celle sulle diagonali. Il dominio, inoltre, va considerato periodico, cioè il bordo destro va considerato unito con quello sinistro e il bordo superiore con quello inferiore. A seconda di come il sistema venga inizializzato, utilizzando queste regole evolutive si possono ottenere figure periodiche oppure, dopo un certo numero di passi temporali, figure statiche. Life è al confine tra ordine e caos, nel senso che ogni variazione delle regole o della configurazione iniziale può condurre a un dominio statico oppure a uno caotico, dove non si riesce a riconoscere alcuna struttura o figura regolare. È interessante notare che le regole di evoluzione temporale sono regole non lineari, e che coinvolgono solo le celle immediatamente adiacenti all'automa considerato: l'interazione tra automi viene in questo caso definita locale. È stato dimostrato da Conway che, usando sequenze di particolari figure per rappresentare i bit, Life può riprodurre l'equivalente di operatori logici AND, OR e NOT, e anche l'analogo di una memoria interna di computer (dimostrando, quindi, che Life è una macchina universale). È utile notare che un'altra caratteristica degli automi cellulari è quella di essere un modello matematico particolarmente adatto a essere implementato su elaboratori elettronici. Infatti, mentre l'implementazione di un algoritmo per la risoluzione di equazioni differenziali su calcolatore utilizza necessariamente numeri reali, la cui rappresentazione è per loro natura necessariamente approssimata da un numero di bit finito (e, quindi, il calcolo con essi effettuato è, inevitabilmente, esso stesso approssimato), un algoritmo basato su automi cellulari, lavorando su variabili rappresentabili da pochi (o al limite da un solo) bit, può effettuare un calcolo esatto. È bene però notare che l'informazione contenuta in una variabile rappresentata da un numero reale è, in senso lato, assai maggiore di quella contenuta in una variabile rappresentata da pochi bit. Ci si può, quindi, aspettare che un problema fisico rappresentato da un automa cellulare richiederà, tipicamente, per la sua risoluzione un grande numero di operazioni semplici, a differenza delle (relativamente) poche operazioni complicate necessarie a risolvere lo stesso problema descritto da equazioni differenziali. Tali peculiarità rendono gli automi cellulari particolarmente adatti alla implementazione su calcolatori paralleli, cioè su calcolatori costituiti da un grande numero di unità di elaborazione (anche semplici, capaci, cioè, di fare efficientemente solo poche operazioni). Sono state, anzi, progettate e costruite macchine calcolatrici specializzate nel calcolo automico, in cui ogni unità di elaborazione rappresenta la singola entità costituente l'automa cellulare, e connessa (cioè capace di scambiare informazione) solo con le altre celle da cui l'evoluzione dipende (le celle vicine). Gli automi cellulari possono essere utilizzati come modelli espliciti per un'ampia categoria di fenomeni fisici, tradizionalmente descritti da equazioni differenziali. Tra questi vi sono la chimica e la biologia, ma il campo in cui hanno avuto indubbiamente più successo è quello della turbolenza nei fluidi. La dinamica dei fluidi è tradizionalmente descritta dalle equazioni di Navier-Stokes. Esse sono delle equazioni differenziali alle derivate parziali che discendono dalla conservazione della massa e dell'impulso del fluido, in cui vengono tenuti in conto anche gli effetti dissipativi (viscosità) caratteristici di un fluido reale. Il rapporto tra i termini (non lineari) di convezione e i termini (lineari) di dissipazione viscosa che compaiono nelle equazioni di Navier-Stokes è noto come numero di ReynoldsRe (Re=VL/ν, con L e V la scala di lunghezza e la velocità caratteristiche, e ν il coefficiente di viscosità): un fluido caratterizzato da un basso valore del numero di Reynolds esibisce un moto ordinato (regime laminare), mentre un fluido caratterizzato da un alto valore del numero di Reynolds esibisce un moto turbolento. Le equazioni di Navier-Stokes richiedono in genere una soluzione numerica, anche perché spesso la geometria del sistema fisico che si vuole studiare può essere assai complicata (si pensi, per esempio, al flusso di aria intorno alle ali di un aereo). Ma la soluzione diretta delle equazioni di Navier-Stokes, in particolare per alti numeri di Reynolds, è uno dei problemi più difficili del calcolo numerico. Sono stati di recente ideati degli automi cellulari in grado di riprodurre la fenomenologia di fluidi turbolenti. Il nome dato a questa classe di automi cellulari è quello di gas reticolari. Il primo esempio di automa cellulare per lo studio della fluidodinamica è l'automa HPP, dalle iniziali dei nomi dei tre ricercatori che lo hanno ideato (Hardy, Pomeau e de Pazzis). Su una griglia quadrata, in cui ogni nodo è collegato ai quattro suoi vicini, si distribuisce da un minimo di zero fino a un massimo di quattro particelle automiche, ognuna delle quali è vincolata a muoversi lungo una delle direzioni del reticolo. Le particelle si possono considerare come appartenenti a quattro famiglie, identificate dalla direzione in cui si possono muovere (nord, sud, est, ovest). Tutte le particelle hanno massa e velocità unitaria, ovvero nell'unità di tempo discreta possono raggiungere solo uno dei siti adiacenti. Lo stato del sistema di particelle su ciascun nodo è descritto da un singolo bit (presenza/assenza (1/0) della particella). Dato che ciascun nodo può avere fino a quattro particelle, il numero totale di combinazioni possibili su ciascun nodo è 24=16. L'automa cellulare nel suo complesso viene caratterizzato da un insieme di 4N² bit, con N² il numero di nodi del reticolo. Le regole di evoluzione del fluido automico possono essere divise in due fasi: quella di propagazione libera, in cui le particelle si spostano liberamente nella direzione che a ognuna di loro compete, e quella di collisione, in cui, raggiunto il nuovo sito, le particelle devono simulare lo scambio di impulso e di energia di un fluido reale. Le regole relative alla fase di collisione sono scelte imponendo, per ogni sito, la conservazione del numero di particelle e della corrente (definita come il prodotto della velocità per la densità di particelle) nelle direzioni congiungenti i siti. Le uniche collisioni che rispettano tutti questi vincoli sono quelle tra particelle che si muovono in direzione nord-sud e che, a causa dell'urto, si trasformano in particelle che si muovono in direzione est-ovest, e viceversa. Tutte le fasi di evoluzione delle particelle automiche possono essere rappresentate da operatori logici. Per completare la simulazione di un fluido reale per mezzo di un automa cellulare (e quindi ottenere informazioni su quantità macroscopiche quali, per esempio, temperatura e pressione), si richiede che siano effettuate medie sui valori di un grande numero di cellule, in maniera da rendere trascurabili le fluttuazioni statistiche. L'automa HPP ha dimostrato di poter simulare diversi comportamenti di un fluido reale, quali, per esempio, la propagazione di onde sonore, ma fallisce nel rappresentare fenomenologie più complicate, tipiche della transizione a regimi turbolenti. La ragione di tale fallimento è stata individuata nella insufficiente simmetria del dominio considerato (celle quadrate), e quindi nella impossibilità di soddisfare la conservazione di alcune quantità fisiche (in particolare, la ridotta simmetria del dominio rispetto a rotazioni impedisce la conservazione dell'impulso angolare). Oltre a non conservare correttamente alcune quantità fisiche, il reticolo HPP introduce un numero elevato (2N, essendo N il numero di righe o colonne del reticolo) di quantità conservate che non hanno una controparte in un fluido reale, e che sono chiamate "invarianti spurie". Esse sono la quantità di moto orizzontale su ciascuna riga, e quella verticale su ciascuna colonna. La descrizione del moto del fluido risulta così troppo "vincolata", e quindi è comprensibile l'incapacità di descrivere moti vorticosi in cui la quantità di moto si deve invece distribuire in modo efficiente. La scelta di un reticolo a simmetria esagonale (invece che quadrata), e il conseguente aumento dell'isotropia spaziale, si è dimostrato sufficiente a rappresentare la fenomenologia assai più complessa dei fluidi turbolenti. L'automa cellulare su reticolo esagonale prende il nome di automa FHP (dal nome dei loro proponenti Frisch, Hasslacher e Pomeau). Le regole di evoluzione delle particelle automiche sono analoghe a quelle dell'automa HPP, con ora 26=64 configurazioni possibili per nodo, e un numero di collisioni assai più elevato rispetto al caso HPP. Questa semplice estensione del modello ha permesso di ottenere dei risultati notevoli, permettendo di studiare con successo la dinamica della turbolenza di fluidi in domini bidimensionali caratterizzati da numeri di Reynolds moderatamente elevati. Lo studio di fluidi in domini tridimensionali per mezzo di automi cellulari richiede il passaggio attraverso reticoli in quattro dimensioni, e presenta difficoltà computazionali notevoli: il numero di configurazioni possibili per nodo diventa in questo caso 224=16777216 (cioè oltre 16 milioni) e la quantità di calcolo da effettuare e la memoria richiesta per immagazzinare tali informazioni sono assai più elevate rispetto al caso bidimensionale. Uno sviluppo recente delle teorie del gas reticolare è quello noto sotto il nome di equazione di Boltzmann su reticolo, in cui il fluido automico viene utilizzato per simulare direttamente l'equazione di Boltzmann, che descrive l'evoluzione della funzione di distribuzione delle particelle costituenti il fluido stesso. La funzione di distribuzione rappresenta la probabilità che a un certo istante di tempo, su un certo nodo del reticolo, vi sia una particella con velocità diretta in una data direzione: è quindi una quantità che può assumere, per sua natura, valori continui, non rappresentabili quindi con quantità discrete, bensì da numeri reali. Gli automi di questo tipo sono dunque automi ibridi, i cui stati non sono più descritti da pochi bit, anche se le regole di collisione sono del tutto analoghe a quelle degli automi HPP e FHP. La rinuncia alla esattezza del calcolo, dovuta alla non rappresentabilità delle grandezze caratteristiche dell'automa con un singolo bit, è compensata dal vantaggio di simulare direttamente il valore della funzione di distribuzione, e quindi dalla possibilità di evitare medie statistiche sullo stato di molte cellule.

R. Ruyer, La Cybernétique et l'origine de l'information, Parigi, 1954; J. von Neumann, The Computer and the Brain, New Haven (Connecticut), 1958; W. R. von Ashby, Design for a Brain, New York, 1960; A. Gill, Introduction to the Theory of Finite-State Machines, New York, 1962; S. Jones, La Cybernétique des êtres vivants, Parigi, 1962; N. Wiener, J. Schade, Cybernetics in the Nervous System, Amsterdam, 1964; E. R. Caianiello (a cura di), Automata Theory, New York, 1966; J. Singh, Great Ideas in Information Theory, Language and Cybernetics, Londra, 1966; N. Wiener, Introduzione alla cibernetica, Torino, 1966; G. Célerier, S. Papert e G. Voyat, Cybernétique épistémologie, Parigi, 1968; F. J. Crosson e K. M. Sayre, Philosphy and Cybernetics, New York, 1968; W. R. Ashby, Introduzione alla cibernetica, Torino, 1971; A. De Luca, Introduzione alla cibernetica, Milano, 1986.