Bit

  • Testo
  • Bibliografia6
  • Voci correlate
Autore: Franco Lever
Gottfried Wilhelm Leibniz, matemativo e filosofo, è considerato il padre del sistema binario
Sta per binary digit e indica ciascuno dei due simboli (0 e 1) usati dal sistema numerico a base 2, detto appunto sistema binario. Il termine venne proposto da J. W. Turkey nel rapporto scientifico dal titolo Trasmissione di informazione pubblicato sul Bell System Technical Journal nel luglio del 1928 (Shannon, 1949). Il linguaggio utilizzato dai computer – sia per i programmi sia per qualsiasi dato elaborato, immagini e suoni compresi – è interamente costituito da sequenze di b. (Binario, codice).

1. Il sistema decimale

I numeri a cui siamo abituati sono i numeri decimali. Ci sono così familiari che per molti sono l’unico modo per contare e fare operazioni matematiche. Ed è certo per questo che sembrano di immediata comprensione. In realtà sono strutturati secondo un sistema complesso, per nulla ovvio: il sistema decimale.
Si prenda, ad esempio, il numero 1563: esso è una abbreviazione, una forma convenzionale, con la quale vogliamo indicare una quantità fatta di: n. 1 migliaia + n. 5 centinaia + n. 6 decine + n. 3 unità. In pratica il nostro numero è stato espresso utilizzando come riferimento il numero 10 e le sue potenze: le unità (100 = 1), le decine (101 = 10), le centinaia (102 = 100), le migliaia (103 = 1000). Quando usiamo dei numeri decimali dunque facciamo uso di una tabella ‘invisibile’ a partire dalla quale prendono significato le posizioni assunte dalle cifre.
Indichiamo poi – con i numeri da 0 a 9 collocati nella casella opportuna – quante volte prendiamo le singole potenze di dieci.
... 104 = 10.000 103 = 1.000 102 = 100 101 = 10 100 = 1
    1 5 6 3

La tabella è aperta verso sinistra
perché il numero può crescere indefinitivamente


Così i numeri 2001 e 74.310 – per fare due ulteriori esempi – li otteniamo in questo modo:
... 104 = 10.000 103 = 1.000 102 = 100 101 = 10 100 = 1
    2 0 0 1
  7 4 3 1 0
Il sistema si rivela potentissimo: con soli dieci segni riusciamo a esprimere qualsiasi grandezza e facciamo ogni operazione.

2. Il sistema binario

Quello decimale, però, non è l’unico codice numerico possibile, né il migliore in assoluto. Alcuni secoli fa il filosofo e matematico G. W. Leibniz (1646-1716) propose un altro sistema, in grado di funzionare perfettamente con soli due simboli, 0 e 1. Ad esempio, il numero 31 (espresso in codice binario) diventa 11111, mentre il numero 17 è 10001.
Al primo impatto i due codici sembrano totalmente diversi, mentre invece sono organizzati secondo la stessa logica. Viene usata la stessa tabella ‘invisibile’, non con i numeri da 0 a 9, ma solo con 0 e 1; la potenza non è più a base 10, ma 2.
... 24
(= 16)
23
(= 8)
22
(= 4)
21
(= 2)
20
(= 1)
           
Per indicare le scelte, in ciascuna casella si dispone ora di una sola alternativa: 0 oppure 1; 1 significa che si prende il valore corrispondente; 0 equivale a ‘no, non lo si prende’. Nel caso del numero binario 11111 la logica sottostante è questa
... 24
(= 16)
23
(= 8)
22
(= 4)
21
(= 2)
20
(= 1)
  1 1 1 1 1
e il valore indicato – tradotto in termini decimali – è 31, la somma cioè di 24 + 23 + 22 + 21 + 20, vale a dire 16 + 8 + 4 + 2 + 1. Se il numero binario fosse 01001, dovremmo leggerlo alla stessa maniera: 0 + 8 + 0 + 0 + 1 = 9
... 24
(= 16)
23
(= 8)
22
(= 4)
21
(= 2)
20
(= 1)
0 1 0 0 1

3. Quali vantaggi offre il sistema binario?

Con solo due simboli 0 e 1 (sì/no, presenza/assenza di segnale elettrico o magnetico) il codice binario esprime qualsiasi numero e si presta a qualsiasi operazione matematica (decisivi a questo riguardo gli studi dell’inglese G. Boole). Il vantaggio del codice binario su quello decimale è apparso in tutta la sua evidenza con lo sviluppo dei computer: qualsiasi numero, comando, codice, lingua, immagine, suono... possono essere espressi con sequenze di due soli segnali e tutto questo con un controllo altissimo sugli errori. Oltretutto un dispositivo (hardware e software) a codice binario è realizzabile con una ‘economicità’ di gran lunga superiore rispetto a un dispositivo che utilizzi il codice decimale. Oggi tutti i linguaggi sono stati ricondotti a uno solo ‘codice macchina’, e di conseguenza tanti strumenti – ieri indispensabili nei vari settori – sono stati sostituiti da un’unica macchina, il computer (Convergenza).

4. Sistema binario e informazione

Perché si parla di b. a proposito dell’informazione di un determinato messaggio? La ragione sta nel fatto che la teoria dell’informazione non usa il termine informazione nel significato usuale; non lo riferisce al contenuto di un messaggio, ma alla probabilità che si verifichi un determinato evento e non altri. L’informazione diventa allora un numero: il numero di alternative necessarie per individuare – senza ambiguità – un dato evento tra tutti i possibili. Ad esempio una moneta, che ricade su una superficie liscia, può presentarsi in due soli modi – testa o croce – e uno solo di questi eventi si verificherà: la scelta possibile è una sola ed è esprimibile con una sola cifra binaria: 0 o 1. Un messaggio tra due equiprobabili è definito da una unità di informazione e ha solo un b. di informazione (in altre parole, per dire la sua probabilità basta una sola cifra binaria). Se invece la fonte diventa più complessa le alternative aumentano e, in corrispondenza, aumenteranno anche i b. di informazione dei suoi messaggi.

Bibliografia

  • LONG Larry E., Introduction to computers and information processing, Prentice Hall, Englewood Cliffs (NJ) 1991.
  • MORVAN Pierre, Dizionario di informatica, Gremese, Roma 1989.
  • PELLEREY Michele, Elementi di informatica, SEI, Torino 1998.
  • PIERCE John R., La teoria dell’informazione. Simboli, codici, messaggi, Mondadori, Milano 1971.
  • RAWLINS Gregory J., Le seduzioni del computer, Il Mulino, Bologna 1997.
  • SHANNON Claude E. - WEAVER Warren, La teoria matematica della comunicazione, Etas Libri, Milano 1983, Ediz. originale disponibile in rete: http://www.magmamater.cl/MatheComm.pdf.

Documenti

Non ci sono documenti per questa voce
Come citare questa voce
Lever Franco , Bit, in Franco LEVER - Pier Cesare RIVOLTELLA - Adriano ZANACCHI (edd.), La comunicazione. Dizionario di scienze e tecniche, www.lacomunicazione.it (28/03/2024).
CC-BY-NC-SA Il testo è disponibile secondo la licenza CC-BY-NC-SA
Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo
146