Se stiamo lavorando su un computer e il nostro vicino di stanza ha un altro computer, normalmente non possiamo usare o accedere a quel computer attraverso il vostro, perché i due computer sono separati e sostanzialmente “chiusi” l’uno all’altro. Una rete è, al contrario, proprio un meccanismo tecnico che mette in collegamento computer fisicamente separati. Lo fa attraverso una linea di collegamento che deve essere riconosciuta (attraverso una porta di i/o) da entrambi i computer (è necessario anche un software che gestisca la porta e lo scambio dei dati, naturalmente).

In questo modo è possibile, se i computer sono adeguatamente programmati e abilitati, condividere risorse (dati, documenti, ma anche potenza di calcolo: memoria, processori) fra computer diversi. Inoltre in una rete possono essere connessi non solo computer, ma anche periferiche (stampanti, plotter, scanner) da condividere fra più computer.

Reti e mainframe

In effetti, le prime reti non nascono con l’obiettivo di condividere la potenza di più calcolatori, ma, al contrario, per suddividere la potenza di un calcolatore potente e costoso in modo che possa essere usata da più terminali. I terminali sono punti di accesso indipendenti ad un computer. Le strutture di questo tipo sono chiamate mainframe: potenti computer che dividevano le proprie risorse su più terminali (composti da monitor e tastiera) in un’area geografica limitata. I mainframe erano comuni nelle grandi aziende informatiche dalla fine degli anni ’50 agli anni ’70.

L’abbattimento dei costi di produzione dei computer ha fatto poi sì che si trovasse conveniente passare da una rete con un potente computer centrale con molti punti di accesso, a reti in cui molti computer relativamente potenti si collegavano fra loro per condividere risorse.

I mainframe hanno alcuni vantaggi e alcuni svantaggi rispetto alla reti di computer:

  1. Sono più intolleranti ai guasti
  2. Costano di più
  3. Sono meno scalabili di una rete di computer

I vantaggi invece sono almeno:

  1. Minori costi di assistenza quelli di assistenza (troppi computer da tenere in considerazione nelle reti con più di 50 elementi)
  2. Maggiore sicurezza rispetto alle reti di computer.

Estensione delle reti

Le reti di computer possono avere diverse estensioni e riguardare diversi ambiti. Esistono le reti di personali (PAN)
Le reti locali di computer (LAN). Spesso queste reti riguardano un edificio o alcuni edifici con estensione di qualche chilometro al massimo (es, Area di ricerca). I collegamenti sono creati con cavi dedicati e usano porte specifiche, come la porta ethernet, installata su quasi ogni computer. La porta è una specie di apertura di comunicazione verso un canale privilegiato nel quale passano dati da e verso altri computer.

Esistono reti basate su altre tecnologie, come le WLAN, che invece di usare i cavi usano collegamenti radio, senza fili.

Le reti possono via via estendersi oltre i confini limitati di un’area definita. Si dà vita così alle MAN o alle reti geografiche (WAN).

Cablaggio delle reti

Le reti si possono distinguere oltre che per estensione anche per il tipo di cablaggio (cioè di collegamento fisico fra i computer o le aree dove risiedono i computer).
Diversi tipi di collegamento fisico danno vita a reti di velocità e affidabilità differente. Spesso le reti fanno uso, in tratti differenti, di diversi tipi di cablaggio o di collegamento.

Instradamento dei messaggi: commutazione di circuito e commutazione di pacchetto

Sebbene spesso le reti a grande diffusione come la rete internet utilizzino in parte le linee telefoniche, vi è una grande differenza nel modo di funzionare della comunicazione all’interno delle reti telefoniche e nelle reti di computer. Le reti telefoniche infatti prevedono che un circuito di connessione fra due terminali (i due telefoni) sia permanentemente occupato e dedicato a quella comunicazione. La comunicazione è rara, ma quando accade è costante. In quel caso i due circuiti sono connessi e occupati uno con l’altro, nessuno può accedere a quel canale. Questo tipo di connessione si basa sulla cosiddetta commutazione di circuito, che significa che quel circuito è occupato permanentemente (è commutato) da una sola connessione (infatti se chiamate trovate occupato).

La commutazione di circuito è il primo tipo di rete (nasce con il telegrafo), ma non è adatta, come abbiamo già anticipato, alle reti di computer. Infatti, se tratti di connessione (pezzi di circuito) fossero permanentemente connessi fra di loro e non consentissero il passaggio di altri dati, avremmo ben presto una rete bloccata fra computer che magari scambiano fra loro pochi dati in maniera non continua, ma impulsiva. Per tutto il tempo, però, la linea rimarrebbe comunque occupata, sebbene senza trasmettere niente.

Questo problema ha fatto nascere la cosiddetta commutazione di pacchetto, in cui il circuito non è mai dedicato a due specifici punti della rete, ma, a turno, trasporta informazioni attraverso vari circuiti. Queste informazioni ottengono ciascuna solo poco tempo a disposizione, ma lo ottengono ciclicamente. Questo modo di instradare i messaggi comporta che le informazioni vengono divise in pacchetti in origine, prima di essere inviate, e i pacchetti ricomposti sul computer finale una volta giunte a destinazione, per riformare il messaggio originario. Ecco perché la comunicazione di questo tipo si chiama a commutazione di pacchetto: pacchetti di informazioni viaggiano per la rete attraverso circuiti differenti, avendo in comune solo la destinazione e portando con sé le istruzioni per ricombinarsi con gli altri pacchetti.

Tipo di instradamento del messaggio e forma delle reti (dei circuiti) sono strettamente collegati.

La commutazione di pacchetto deve infatti la sua origine ai primi lavori sulla topologia delle reti di comunicazione svolte alla Rand Corporation da Paul Baran, e alle ricerche di Donald Davies al National Physical Laboratory.

(rete centralizzata, rete decentralizzata, rete distribuita)

Larry Roberts (ARPANET) collegò fra loro questi due filoni di ricerca per utilizzarli nelle reti di calcolatori.

Internet

La rete internet non è altro che una rete che collega computer sparsi in tutto il mondo attraverso collegamenti che sfruttano sia tecnologie dedicate (alcune dorsali di comunicazione, che tecnologie non dedicate, come le reti telefoniche locali). In questo modo i confini della rete sono virtualmente infiniti.

L’origine della ricerca scientifica su Internet prende l’impulso da una serie di situazioni internazionali. Nel 1957 l’URSS manda in orbita il primo satellite, lo Sputnik. Questo crea uno shock nel mondo occidentale. Gli Stati Uniti reagiscono affidando nuovi fondi per la ricerca aerospaziale all’ARPA, sotto la guida del pentagono (1958). L’ARPA ebbe la missione di stimolare la ricerca; ridurre le tensioni fra le armi (settori della difesa), e fu perciò osteggiata dalle gerarchie militari. Ben presto infatti queste ricerche vennero trasferite alla NASA, e all’ARPA dovettero trovare un nuovo filone di ricerche, che fu individuato nella nascente scienza dei calcolatori.

All’interno dell’ARPA vennero chiamate molte persone che non avevano alcun ruolo nelle gerarchie militari, ma che provenivano dalla ricerca. Uno era lo psicologo J.C.R. Licklider, che al MIT si era interessato di interfacce uomo-macchina, e che scrisse “Man-Computer symbiosis” nel 1960. Predisse in anticipo la nascita di comunità intellettuali (non solo lavorative) nelle allora ancora inesistenti e future reti di computer.

Il fatto che i computer siano connessi in rete non significa che basti aprire il file-system e, assieme al vostro disco rigido, trovare i dischi rigidi di tutti gli altri computer. Ci sono limitazioni, per ragioni di privacy e di sicurezza, al tipo di accesso che si può fare degli altri computer e dei dati in essi contenuti.

Nel 1969, in seguito anche ai lavori di Baran e Davies sulla commutazione di pacchetto e sul tipo di rete, entra in azione ARPANET, primo progetto di rete di computer (con soli 4 nodi), a cui ne seguirono diversi altri.

Le reti di computer, fra cui Internet, sono regolate da un insieme di protocolli di comunicazione, ciascuno dei quali consente un tipo di accesso alla rete.

Cosa sono i protocolli

I protocolli sono regole condivise che consentono lo scambio di informazioni e la regolazione di questo scambio. Non descriveremo i protocolli tecnici, mi interessa che ne capiate il ruolo, piuttosto. Il fatto che esiste un collegamento fisico fra i computer non significa che sia sempre possibile fare tutto: cosa si può fare dipende dai protocolli usati.

Si possono usare diversi protocolli per comunicare fra computer. Dipende dai programmi che si usano. Sono i software infatti a gestire comunicazioni e protocolli.

Nel 1970 fu approvato il primo di questi protocolli, NCP, il primo di questi protocolli, in seguito (1983) sostituito da un insieme di due protocolli alternativi, TCP e IP (ora noti come TCP/IP e ancora in uso su Internet.

Nel 1973 era già in uso il protocollo che serviva a inviare email (SMTP, ideato da Jon Postel) a dispetto del fatto che ci fossero solo 15 nodi operativi in ARPANET.
Quando si usa l’e-mail, si sta in realtà usando un programma che gestisce un archivio di comunicazioni memorizzate da qualche parte su un disco rigido, e le spedisce e riceve usando un protocollo specifico.

E’ intuitivo che il protocollo usato per le mail non sia lo stesso che si usa quando si visitano le pagine web. Il programma che si usa per accedere alle pagine web usa un protocollo diverso, in maniera normalmente trasparente. Difficilmente capita di riflettere sui protocolli usati da Explorer e da Outlook (o da Firefox e Eudora, o altri programmi)!

Anche quando si fa file-sharing, si sta in realtà usando un protocollo diverso. Tutti questi protocolli convivono ed esistono grazie a questo ambiente più ampio che è la rete internet.

Quella parte che ne usiamo ogni giorno è solo una piccola parte di quello che è possibile fare.

All’inizio degli anni 80 i militari si appoggiano sempre più ad ARPANET per le loro esigenze di comunicazione, ma poiché ARPANET oltre a siti militari, collega istituti di ricerca e aziende (nel frattempo i nodi sono diventati 200), i militari desiderano una rete tutta per loro e ARPANET si divide in due, ARPANET (dedicata alla ricerca) e Milnet (dedicata a scopi militari).

Nel corso degli anni 80, seguendo programmi di ricerca in parte indipendenti, furono create nuove reti locali di computer. Progressivamente usarono tutte TCP/IP.

NFC si assunse l’onere di costruire un collegamento diretto fra i 5 maggiori centri di supercalcolo a 56 Kbps, chiamata NSFnet (1986). In seguito altre università costruirono altre dorsali e il numero di host decuplicò (10.000). Il backbone NSFnet dovette essere aggiornato a una rete T1 da 1,544 Mbps. Gli host (dispositivi collegati alla rete) divennero più di 100mila nel 1988, anche in Europa.

Tutte le reti ormai passavano per la più efficiente NSFnet. DARPA si rivolse ad altri interessi, e così nel 1989 si stacca la spina ad Arpanet. I siti vengono trasferiti su NSFnet o altre reti regionali

All’inizio degli anni 90 le reti erano molto diffuse in ambito universitario. Vi erano soprattuttto utenti esperti, programmi a linea di comando, con sigle e indirizzi numerici (prima del DNS, Domain Name System, inventato da Postel, Mockapetris e Partridge per semplificare il sistema di indirizzi numerici)
Con l’aumento esponenziale degli utenti, nacque l’esigenza di trovare un nuovo modo di interfacciarsi con le reti e reperire le risorse.
Nel 1989 nasce Archie, programma per il recupero di contenuti di archivi FTP.
Wide Area Information Server (WAIS), sistema di information retrieval basato su specifici programmi client. Nel 1991: Gopher, interfaccia universale alle risorse di rete orientato al contenuto e non alla localizzazione, architettura client-server.

E proprio nel 1991 (soffocando di fatto nella culla sia Archie che Gopher) si pubblicano le specifiche tecniche dei linguaggi e dei protocolli alla base del WWW, il World Wide Web.

Specifici protocolli usati su internet hanno anzianità diverse. Ogni protocollo viene associato a un qualche programma che lo gestisce e ve ne consente l’uso. Alcuni protocolli hanno avuto successo e altri no. Quasi tutti sono ancora in uso, anche se sono usati da pochissime persone.

Quello di cui ci occuperemo di più è senz’altro quell’invenzione nota come World Wide Web, o web, o WWW.

Il World Wide Web

Le caratteristiche del WWW sono state definite nel 1991 da Tim Berners Lee e Robert Cailleau, che sono due fisici che all’epoca lavoravano al CERN di Ginevra, e consistono di un insieme di tecnologie coordinate fra loro, con lo scopo almeno di chiarato di condividere i documenti presenti al CERN su diversi computer con OS diversi, che non potevano parlarsi fra di loro, e creare così un sistema di gestione documentale, all’epoca un grave problema al CERN.

Il WWW fu rifiutato più volte dai capi di Tim Berners-Lee, che, esasperato, nel 1990 ne pubblico il codice aperto su un newsgroup. Fu così che varie altre persone crearono dei server per altre piattaforme (portarono il server…) e il sistema acquistò subito grande interesse nella comunità dei fisici e dei ricercatori. I suo componenti, nel dettaglio, sono i seguenti:

Un protocollo di rete (tcp/ip)

Un protocollo di comunicazione che si appoggia su TCP/IP e serve allo scambio di un certo tipo di file, chiamato HTTP, HyperTextual Transfer Protocol
Un linguaggio per la creazione di un formato di documenti ipertestuali, HTML (Hypertextual Markyup Language)
Un programma che gestisce l’archiviazione e l’invio in rete dei documenti HTML, e che risiede sui computer remoti connessi in internet e che contengono i siti: server
Un programma client, cioè che risiede sui computer di coloro che vogliono accedere a questi documenti html. E’ il browser, programma sfogliatore.

Un insieme di regole che definiscono indirizzi univoci per ogni risorsa esistente in ogni server di tutti i computer del mondo: l’URL, Universal Resource Locator.
Tutte queste cose devono essere installate e funzionanti sui computer collegati in rete per consentire un corretto funzionamento.

La logica di funzionamento è dunque la seguente:

URL e DNS

Gli indirizzi che si digitano nella barra degli indirizzi del browser (URL) hanno forma alfanumerica. Ma in realtà sono scritti come stringhe di quattro numeri di massimo tre cifre separati da un punto (ad esempio: 128.12.12.1). Un server che ha un ruolo specifico (DNS) traduce il nostro indirizzo alfabetico in undirizzo numerico, e ci instrada verso il server, che potrebbe risiedere in Alabama o in India, per quel che ne sappiamo. Il server riceve la richiesta e restituisce i file.

Sulla carta è semplice. Naturalmente perché questa cosa si sia potuta realizzare sono state necessarie innovazioni tecniche di altissimo livello. Alcune hardware, alcune software.

Noi non entreremo nel dettaglio di questo meccanismo. Ma a questo semplice livello deve essere chiaro.

Entreremo semmai nello specifico della costruzione dei singoli documenti che affollano il web. Le pagine HTML, una delle componenti inventate da Berners-Lee.

In questo momento diciamo che l’html è un linguaggio, cioè un codice, che definisce un formato di documento.

Il formato è uno dei tanti possibili per archiviare informazioni, dati, e poi presentarli. Ma ha, come tutti i formati, caratteristiche uniche. In particolare, la caratteristica principale è che può contenere collegamenti ipertestuali. Cioè punti speciali che consentono di richiedere altri documenti presenti nel WWW, in maniera semplice e intuitiva. In questo modo, una pagina può contenere collegamenti a qualunque altra risorsa sul WWW, in maniera semplice, specificando l’URL di quella risorsa.

Prima dell’HTML questo non era possibile. Gli ipertesti già esistevano, ma i documenti potevano riferirsi solo ad altri documenti presenti sullo stesso computer. Mancava uno standard di riferimento che consentisse di riferirsi a qualunque altra risorsa presente online.

Con il WWW, gli url e l’html, invece, si possono collegare (linkare) risorse presenti ovunque (purché stiano dentro il WWW. Cioè su un qualche server, che ne definisca l’indirizzo). L’altra caratteristica interessante dell’HTML è che consente di riferirsi non solo ad altri documenti html, ma a qualunque tipo di documento archiviato sul server.

Perciò può linkare a file DOC, RTF; TXT, a immagini di vario tipo, a file audio e video.

Queste caratteristiche fanno del web un ambiente ideale per contenere qualsiasi tipo di cosa per consultazione e riferimento immediato. Ne fa insomma un ambiente di archiviazione; di consultazione. Ma Html consente anche una facile scrittura (è un linguaggio semplice). Inoltre è a codice aperto. Chiunque può costruire programmi che scrivano HTML (e chiunque può costruire browser, cioè programmi che li leggano). Le caratteristiche dei server, inoltre, fanno sì che chi consulta una pagina possa anche, se l’opportunità è prevista, intervenire, lasciare un commento, inviare una mail (e usare così altri protocolli)… Insomma, ciò che colpisce del web è che è un ambiente che unisce in un unico tessuto documenti e informazioni a livello mondiale, ne consente la consultazione, consente ai visitatori di partecipare (in modi diversi) e di lasciare tracce della loro visita.

E’ un ambiente di pubblicazione ma anche di scambio. Un nuovo medium di presentazione e un grande archivio. Qualcosa che non è obiettivamente possibile con nessun altro medium precedente.

  1. Attraverso il telefono è possibile interagire con un altro parlante, ma non si conserva traccia delle comunicazioni. Non è possibile inoltre scambiarsi documenti.
  2. Attraverso il fax è possibile scambiare copie di documenti solo cartacei, ma la comunicazione è ridotta, senza alcuna possibilità di interazione in tempo reale. L’archiviazione è possibile.
  3. Con la radio, è possibile solo ascoltare, quando lo decide l’emittente, e non è disponibile un archivio delle trasmissioni.
  4. Con la tv, allo stesso modo, si può fruire della comunicazione solo quando lo decide l’emittente. L’interazione è limitatissima (al cambiar canale e al telefonare in studio quando la trasmissione lo prevede). Il linguaggio è composto da un misto di audio e immagini in movimento. Nessuna archiviazione. Le videocassette hanno trovato applicazione proprio come surrogati della funzione di archiviazione di contenuti interessanti, ma si tratta di una soluzione non ideale (bisogna decidere prima che il programma interessa, acquistare la videocassetta, la qualità si deteriora con l’uso, eccetera).
  5. Con il cinema, lo spettatore è vincolato rispetto al come e al quando della fruizione, che viene deciso dall’esercente e dal produttore. Non c’è un archivio cui attingere quando se ne ha bisogno (non a caso sono nate le cineteche e le videoteche). Non possiamo intervenire, commentare, modificare il testo. Ciò che caratterizza il cinema è comunque una maggiore qualità tecnica della fruizione, grazie a dispositivi di grande qualità e molto costosi, possibili fino a poco tempo fa solo con economie di scala.
  6. Con la stampa (quotidiani, riviste e libri) si ha a disposizione un’archiviazione infinita, ma nessuna possibilità di interazione (per quanto sia possibile annotare il testo, ma solo la propria versione del testo), e solo materiali cartecei. La multimedialità si limita alla combinazione di testo e immagini.

Il web offre contemporaneamente:

  1. un archivio eternamente disponibile;
  2. materiali/codici/linguaggi di ogni tipo;
  3. interazione da parte dell’utente;
  4. possibilità di accesso alla pubblicazione/produzione autonoma da parte di chiunque, cosa che con tutti gli altri media è particolarmente onerosa (i vincoli d’accesso sono molto più alti).
  5. oltre alla produzione autonoma, è anche possibile commentare e persino modificare alcuni testi prodotti da altri.

Questo porta inevitabilmente ad una rivoluzione nel modo di intendere le comunicazioni mediate. Non tutte positive o negative: è semplicemente un nuovo modo, una nuova possibilità che viene offerta dalla nuova tecnologia. Il modo in cui la usiamo influenza, com’è logico, anche il modo in cui usiamo gli altri media.