Shannon Claude

  • Testo
  • Bibliografia7
  • Video2
  • Links3
  • Voci correlate
Claude Shannon
Matematico americano, nato nel 1916 a Gaylord, Michigan, ha impresso con la teoria dell’informazione una svolta all’analisi scientifica della comunicazione, favorendo lo sviluppo delle nuove tecnologie. Diplomato in ingegneria elettrica all’Università del Michigan, nel 1940 si laurea in scienze e in matematica al Massachusetts Institute of Technology. Nello stesso anno ottiene una borsa di studio all’Università di Princeton. L’anno dopo entra come ricercatore nei Bell Telephone Laboratories, dove più tardi diventa esperto del Centro ricerche matematiche e statistiche. Dal 1956 è al MIT come docente di comunicazione e, di lì a due anni, assume la cattedra di scienze. Rimane nel frattempo consulente della Bell fino al 1972 e ottiene (1979) il titolo di professore emerito. Muore nel 2001 a Medform, Massachusetts.
Fin dalla tesi di master, A Symbolic analysis of relay and switching circuits (presentata a ventuno anni, pubblicata nel 1938 e da vari scienziati considerata la più importante del secolo), S. enuncia l’isomorfismo tra la logica booleana delle proposizioni e le reti di commutazione che s’iniziano a utilizzare nelle macchine elettroniche. Questo suggerisce che la programmazione del computer debba essere pensata come un problema non già aritmetico bensì logico-formale. Diretta conseguenza sono le applicazioni della ‘teoria degli automi’ in Automata Studies che S. cura in collaborazione con quel John McCarthy destinato a imporsi come figura primaria nel campo dell’intelligenza artificiale. Durante la seconda guerra mondiale, mentre nei laboratori Bell lavora alla modulazione dei codici generatori d’impulsi, S. si appassiona alla ‘crittografia’ fino a produrre lo studio Communication theory of secrecy systems (1945) che, dapprima a circolazione riservata, sarà poi pubblicato nel 1949; in esso sono affrontate le "trasformazioni variabili della codificazione" che, in quanto facili da eseguire e da annullare, fanno apparire casuale il testo cifrato. Il lavoro presenta in nuce alcune idee che diventeranno cardini della teoria dell’informazione, a partire dal problema fondamentale della "comunicazione" consistente nel "riprodurre in un punto, esattamente o approssimativamente, un messaggio selezionato in un altro punto". Nel sottolineare l’esigenza di una "caratterizzazione statistica" delle fonti, dei canali e dei messaggi – compresi gli errori di trasmissione o "rumore" – S. colloca i problemi della codificazione e l’information processing al centro di una vasta area di ricerca che spazia dall’ingegneria delle comunicazioni alla linguistica.
Il contributo fondamentale di S., The mathematical theory of communication (University of Illinois Press, Urbana 1949; trad. it.: La teoria matematica della comunicazione, Etas Kompass, Milano 1971), è frutto di una elaborazione che, avviata nel 1940, ha avuto una prima pubblicazione nel 1948 come monografia della Bell System (dal titolo A mathematical theory of communication) per trovare l’anno dopo (1949) quella edizione definitiva che comprende il saggio, insieme commento e interpretazione, di Warren Weaver (disponibile in Internet all’URL: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html). Tutti gli scritti di S. sono stati raccolti – a cura di N. J. A Sloan e di A. D. Wyner – nel volume Claude Elwood Shannon. Collected papers, New York, IEEE Press 1993.
La ‘teoria’ shannoniana s’innesta in una linea che annovera predecessori quali Boltzmann, Fisher, Hartley, Markov e Nyquist o contemporanei quali Kolmogoroff e Wiener. Una delle sue principali novità è l’aver descritto la comunicazione come "libertà di scelta del mittente nel selezionare un messaggio" a cui corrisponde una "costrizione imposta al ricettore"; tra loro s’instaura un "processo stocastico", marcato cioè dalla probabilità. Informazione è la "quantità di scelte alternative possibili alla fonte", tanto più elevata quanto maggiore è il grado d’incertezza del messaggio.
I teoremi espressi dalla teoria di S. – ha notato K. Krippendorff (1989) – dividono il mondo in due parti: il possibile (comunicabile, regolabile, conoscibile, ecc.) e l’immaginario condannato a restare tale. Come ogni misurazione scientifica, il calcolo dell’informazione non asserisce fatti ma abilita a confronti di quantità mediante un nuovo apparato concettuale.

Bibliografia

  • BAR-HILLEL J., Analisi della teoria dell'informazione in ROSSI P. A. (ed.), Cibernetica e teoria dell'informazione, La Scuola, Brescia 1978.
  • BARNOUW Erik - GERBNER George (eds.), International encyclopedia of communications, Oxford University Press - The Annenberg School of Communications, Oxford/New York 1989.
  • KRIPPENDORFF Klaus, Claude Shannon in BARNOUW E. - GERBNER G. (eds.), International encyclopedia of communications, Oxford University Press, New York 1989.
  • PIERCE John R., La teoria dell’informazione. Simboli, codici, messaggi, Mondadori, Milano 1971.
  • ROSSI Paolo Aldo (ed.), Cibernetica e teoria dell’informazione, La Scuola, Brescia 1978.
  • SHANNON Claude E. - WEAVER Warren, La teoria matematica della comunicazione, Etas Libri, Milano 1983, Ediz. originale disponibile in rete: http://www.magmamater.cl/MatheComm.pdf.
  • SLOAN Neil - WYNER Aaron D. (eds.), Claude Elwood Shannon. Collected papers, IEEE Press, New York 1993.

Documenti

Non ci sono documenti per questa voce

Note

Come citare questa voce
Gagliardi Carlo , Shannon Claude, in Franco LEVER - Pier Cesare RIVOLTELLA - Adriano ZANACCHI (edd.), La comunicazione. Dizionario di scienze e tecniche, www.lacomunicazione.it (19/03/2024).
CC-BY-NC-SA Il testo è disponibile secondo la licenza CC-BY-NC-SA
Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo
1140