titolo


Cenni di storia dei sistemi
di informazione e comunicazione



Gli strumenti elettronici

Sappiamo che l’elettronica è presente in quasi ogni aspetto della nostra vita. Oggi funzionano con sistemi elettronici i telefoni, le automobili, molti elettrodomestici, un’infinità di oggetti e aggeggi apparentemente banali. Anche la stampa dei giornali e dei libri è prodotta in elettronica.

Ma qui si tratta di esaminare la storia e la situazione attuale di due strumenti “relativamente nuovi” che sono entrati nella nostra “dotazione” di informazione e comunicazione: il personal computer e l’internet.

(Per maggiori dettagli sulle origini del computer e delle reti elettroniche di comunicazione vedi la “cronologia” in appendice all’edizione online di L’umanità dell’internet).




Il computer

Le macchine da calcolo esistono da millenni. Come l’abaco, che in mani esperte non è un banale “pallottoliere”. Un tecnico o uno scienziato può fare, con un “regolo” manuale, calcoli di sorprendente complessità. E stiamo ancora cercando di capire come gli architetti antichi riuscissero a calcolare con raffinata precisione le strutture degli edifici.

Anche i calcolatori di oggi hanno origini meno recenti di quanto comunemente si immagina. È solo un’ipotesi che fra i disegni di Leonardo da Vinci ci fosse qualcosa che somigliava a un calcolatore. Ma è un fatto che l’utilità del sistema binario per le macchine da calcolo fu definita da Gottfried Leibnitz nel 1701. Leibniz aveva anche progettato un calcolatore meccanico il cui prototipo era stato realizzato nel 1671. Prima di lui Wilhelm Schickard aveva ideato un calcolatore a orologeria nel 1623 e Blaise Pascal una macchina da calcolo (ricordata come “la pascalina”) nel 1642.

Per un secolo questi sviluppi rimasero nella mente e nei laboratori di filosofi e scienziati. Una macchina basata sul prototipo di Leibnitz fu realizzata nel 1775. Ci furono altri sviluppi alla fine del Settecento. Ma la prima calcolatrice “messa in commercio” (in un numero limitato di esemplari) fu l’“aritmometro” di Charles de Colmar nel 1823.

Il “progenitore” dei computer di oggi fu la difference engine progettata da Charles Babbage a Cambridge nel 1823 – con diversi successivi sviluppi fra il 1834 e il 1847. Ma solo nel 1853 furono realizzate le prime applicazioni pratiche, che ebbero scarsissima diffusione.

 
Una di quelle macchine fu acquistata nel 1858 dall’osservatorio astronomico Dudley di Albany, New York – ma non usata seriamente (il direttore dell’osservatorio fu licenziato per quella spesa stravagante). Un’altra, comprata dal governo britannico, funzionò efficacemente e a lungo. Risultò altrettanto funzionante il modello sperimentale di una difference engine di Babbage costruito al British Museum nel 1989.
 

Nel 1848 George Boole definì i modelli algebrici che aprirono la strada alla realizzazione di elaboratori a calcolo binario novant’anni più tardi (si parla ancora oggi di “formule booleane”). Nel 1885 fu prodotta in serie una calcolatrice più compatta del precedente “aritmometro”. Nel 1889 fu inventata la prima calcolatrice stampante. Ma la produzione industriale di macchine da calcolo meccaniche cominciò nel 1892.

Un esempio curioso della discontinuità con cui si evolvono le tecnologie è il caso delle schede perforate. Erano usate nell’industria tessile, con i telai Jacquard, dal 1803 – e ce n’erano altri utilizzi, per esempio nella riproduzione meccanica della musica. Ma la prima applicazione alle macchine da calcolo avvenne nel 1890 quando, grazie a questa innovazione, il censimento americano, che nel 1880 aveva richiesto sette anni di elaborazione, fu completato in sei mesi.

Lee De Forest aveva realizzato la valvola elettronica nel 1906, ma il primo computer a valvole fu costruito nel 1939.

Nel 1935 nacque l’Ibm 601 – una macchina a schede perforate in grado di fare una moltiplicazione in un secondo. Nel 1937 Alan Turing a Cambridge sviluppò un progetto di computer, che fu realizzato negli Stati Uniti. La “macchina di Turing” è ancora oggi un punto di riferimento per valutare l’efficienza di un elaboratore.

Quello che è considerato “il primo calcolatore logico programmabile” pienamente funzionante fu una gigantesca macchina a valvole costruita in Inghilterra nel 1943 per motivi militari, chiamata “Colossus”. La sua funzione era decifrare i codici delle comunicazioni cifrate dell’apparato militare tedesco. Si dice che la risultante capacità di intelligence abbia accelerato di due anni la fine della guerra. L’esistenza di quella macchina fu tenuta segreta fino agli anni ’70.

Un altro “progenitore” dei computer elettronici era Emac, un’enorme macchina costruita nel 1946 (aveva 18.000 valvole e occupava uno spazio di 180 metri quadri). Poco più tardi, nel 1948, con l’invenzione del transistor si apriva la strada alla “miniaturizzazione”. Nel 1949 Edvac (electronic discrete variable computer) fu il primo a nastro magnetico. Il primo di produzione industriale fu l’Univac della Remington Rand nel 1951. Si stima che nel mondo, nel 1953, ci fossero cento computer.

Nel 1957 l’Ibm realizzò il sistema Ramac (random access method of accounting and control) che è considerato il progenitore dei hard disk. Era formato da 50 dischi di 60 cm di diametro e aveva una capacità di cinque megabyte. Costava, in leasing, 35.000 dollari all’anno. L’ipotesi di una larga diffusione del computer sembrava ancora molto lontana.

Nel 1971 nacque il primo “microchip”. Il processore 4004, lanciato nel novembre di quell’anno, è il “progenitore” dei microprocessori di oggi. Qualche anno più tardi la Intel ha riconosciuto che l’autore di quel progetto era un ingegnere italiano, Federico Faggin. Nel 1975 fu prodotto il Cray 1, il primo “super computer”, che divenne l’unità di misura per le successive generazioni di macchine (a metà degli anni ’90 si superarono i mille “cray”).

A San Francisco nel 1968 Douglas Englebert dello Stanford Research Institute aveva presentato un sistema con tastiera, mouse e interfaccia “a finestre” (il mouse era stato inventato da Englebert nel 1964). Era nato così il personal computer, che tuttavia cominciò a diffondersi solo alla fine degli anni ’70.

Ciò che gli studiosi avevano capito da molto tempo si è progressivamente tradotto in pratica, man mano che le applicazioni concrete dimostravano come il computer non sia solo una macchia da calcolo. Per esempio le tecniche di scrittura erano nate da un altro percorso. Le prime macchine dattilografiche esistevano nel 1874 (ma solo nel ventesimo secolo hanno avuto una larga diffusione). Si sono poi evolute fino al word processing, che è stato definito come funzione della dattilografia nel 1960 – mentre il primo word processor per computer commercialmente diffuso è nato nel 1979.

Per altri percorsi si sono sviluppati i sistemi di duplicazione, fino alle fotocopiatrici e alle stampanti. E così il telex, il telefax e la posta elettronica. In un personal computer di oggi le capacità di calcolo sono solo una delle tante funzioni.

Sembra che sia tutta una storia molto recente. E infatti è vero che il computer è entrato nella vita quotidiana delle persone da circa vent’anni – e solo alla fine del ventesimo secolo ha raggiunto una diffusione paragonabile a quella di altri “elettrodomestici”. Ma è il frutto di un processo durato tre secoli, con un’evoluzione discontinua, che ha quasi sempre smentito, in un senso o nell’altro, le previsioni. Con lunghi rallentamenti o con inaspettate accelerazioni.

Questa intrinseca turbolenza è forse la caratteristica più importante dell’evoluzione tecnologica. Per capirne il senso, e individuarne i possibili sviluppi, è molto più utile studiare le situazioni culturali e i comportamenti umani che basarsi sulle tecnologie.

Intorno al 1980, quando ancora non si immaginava una diffusione estesa di computer per uso personale, cominciò a svilupparsi la convinzione che stavamo entrando in una nuova era. Dopo il nomadismo delle origini, i millenni della cultura e dell’economia agricola, e poi la rivoluzione industriale, era venuta, si diceva, l’era dell’informazione. Il che, in gran parte, è vero. Ma non ha, finora, raggiunto quegli sviluppi, umani e culturali, che era ragionevole immaginare, ma che nella realtà delle cose faticano a realizzarsi.

Per esempio Jean-Jacques Servan-Schreiber in Le Défi Mondial (1980) scriveva: «Nell’età post-industriale la “finitezza” di sempre, che ci opprimeva e ci imponeva la sua legge, si infrange. A portata degli uomini si trova finalmente la risorsa infinita, l’unica: l’informazione, la conoscenza, l’intelligenza». Non era, e non è, un sogno o un’utopia. È una possibilità reale. Se finora non si è realizzata non dipende dalle macchine e dalle risorse di comunicazione, ma dal nostro modo di essere e di pensare.

La disponibilità e la diffusione delle risorse continuano a crescere. Ci sono discordanze nei dati di varie fonti sulle vendite di personal computer in Italia, ma è credibile che fossero più che raddoppiate nel 2000 rispetto al 1995 e quadruplicate dal 1991. Non è chiaro se fra il 2001 e il 2003 ci sia stata una diminuzione o un rallentamento della crescita. Questo fenomeno (che si è verificato anche nel resto del mondo) non è dovuto solo a un cedimento economico e alle ridotte intenzioni di investimento da parte delle imprese. Riflette anche la (tardiva) percezione del fatto che non è utile sostituire macchine ben funzionanti con altre più “moderne”, ma non per questo più efficienti.

 
La cosiddetta “orgia tecnologica”, cioè la rincorsa dell’innovazione tecnica senza adeguato processo né chiara definizione di utilità, ha prodotto non solo enormi sprechi, ma anche diminuzioni di efficienza.

(Vedi Il paradosso della tecnologia e La leggenda di Moore).
 

Comunque la diffusione e l’uso del computer continuano a crescere. C’è anche un notevole aumento del numero di persone che usano un personal computer in casa, come vediamo in questo grafico.


Personal computer in Italia
Persone che usano un PC in casa – numeri in migliaia – fonte: Federcomin

computer

Da altre fonti risulta che un andamento analogo è continuato nel 2003. La crescita è forte e non dà segni di rallentamento (né di accelerazione – ma spesso uno sviluppo “senza sbalzi” è più solido di quelli che mostrano brusche e instabili variazioni).

Per quanto riguarda un confronto internazionale, ci sono forti discordanze fra diverse fonti. Ma secondo le statistiche dell’Unione Europea sembra che l’Italia non sia più in una posizione molto “arretrata” da questo punto di vista. Nel prossimo grafico vediamo la diffusione di personal computer in 14 paesi dell’Unione più gli Stati Uniti.


Personal computer in 15 paesi
PC per 1000 abitanti – fonte: Eurostat

computer

La penetrazione, che continua a crescere anche nelle aree più avanzate (tipicamente, oltre agli Stati Uniti, la Scandinavia e il Benelux), conferma che c’è ancora un ampio spazio di sviluppo prima di arrivare a una fase di “maturità”. Ma quella parte dell’Italia che dispone di adeguate risorse culturali si è avvicinata ai più progrediti livelli europei.

Ci stiamo avviando verso la situazione in cui, almeno nelle famiglie più “ricche” dal punto di vista dell’informazione e della comunicazione, il computer diventa un “elettrodomestico” di “normale dotazione”. Il problema, che resta ancora largamente da approfondire, è come viene usato. La domanda, cui non è facile rispondere, è se serve a scoprire nuove possibilità espressive e ad allargare gli orizzonti culturali – o se è solo, come accade in molti casi, “un altro modo di fare le stesse cose”.




precedente indietro                       indice                       avanti successivo





indice
indice della sezione dati


Homepage Gandalf
home