Evolutiva: la tassonomia fissista, ai tempi di Linneo, classificava le tigri e le margherite, ma non i dinosauri. Anche se arriva a stento ai trent' anni, sull' Internet i dinosauri sono tanti, e qualcuno vive ancora. Bisogna conoscerli.
Applicazioni: siete arrivati qui navigando? State usando un' applicazione dell' Internet: più precisamente, un browser (paginatore) del World Wide Web. Quando la Rete ha cominciato a destare l' attenzione dei giornali, nei primi anni '90, molti pensavano in buona fede Internet = Web: qualcuno addirittura pensava Internet = Netscape, che è solo uno dei tanti browser Web. Sono equazioni sbagliate:
Ma l' Internet viveva anche prima, ed utilizzava strumenti - forse più elementari, meno accattivanti, d' uso meno intuitivo - che sono ancora utili.
Il tentativo è ancora in atto: si va oggi affermando la tecnologia DSL, che, per superare i limiti degli attuali modem, codifica i bit inviati sulla linea telefonica non con due soli livelli di segnale (0 ed 1) ma fino a 1024 (2 elevato alla 10), moltiplicando cosi' per 10 l' informazione inviabile nell' unita' di tempo. Dato che queste velocita' trasmissive sono ancora insufficienti, ecco che l' unica tecnologia DSL che viene commercializzata e' quella Asimmetrica, ADSL, che assegna velocità maggiori in ricezione che in trasmissione, perchè, si sa, l' utente riceve molte più informazioni di quante ne trasmetta.
Non è che i browser Web vadano rigettati: sono ancora lo strumento principale per navigare in rete.
Navigare non è fare surf: chi naviga si orienta con bussola e sestante, ha una meta precisa e torna dal viaggio con un Milione di notizie utili e di carte geografiche, che gli serviranno a casa e, casomai, per tornare attrezzato al meglio nei luoghi visitati. Il surfer va, si diverte e torna in costume da bagno com' era andato.
Ma navigare significa solo cercare informazioni già predisposte. Per esprimere le proprie idee, mettersi in contatto con chi le condivide o le avversa, chiedere o dare un consiglio che non si trova già pronto, per creare insieme, per collaborare, per telelavorare, saper navigare non basta. Gli strumenti di navigazione in questi casi son necessari ma non sufficienti: è necessario conoscerne altri, magari un po' più difficili da usare, che richiedono qualche piccolo sforzo, ma che consentono di raggiungere in tempi brevi risultati di partecipazione.
Vediamoli. Lo schema tassonomico adottato qui è il seguente:
Beh, negli anni '70 non si chiamavano così, ma le loro funzioni sono state le prime di cui gli utenti di computer hanno sentito il bisogno.
"fare un telnet" significa oggi aprire sulla propria macchina un terminale stupido virtuale ed aprire con esso una sessione con un calcolatore distante: in pratica, potergli inviare dei comandi e ricevere risposte.
Negli anni '70 i terminali stupidi erano l' ultimo grido della tecnica: evitavano di dover portare comandi e dati, perforati su scheda, nella sala macchine, ed attendere il risultato che sarebbe comparso sulla stampante centrale anche dopo parecchie ore. I comandi potevano venir dati uno alla volta, ed il risultato esaminato immediatamente, prima di dare il comando successivo: praticamente, come lavorare con un PC.
Per ottenere questo risultato, i terminali stupidi erano collegati con gli elaboratori centrali con dei cavi: i primi abbozzi di rete.
Le prime reti - che collegavano calcolatori con calcolatori e non solo con terminali - nacquero proprio per permettere a un terminale, collegato ad un sistema, di lavorare anche con un altro sistema - più potente, o dotato di programmi non disponibili localmente - anche a chilometri di distanza.
Uno dei problemi più difficili che un utente incontrava allora era di trasferire un file (dati o programmi) da una macchina remota a quella locale, o viceversa.
Molte volte, l' unica soluzione possibile era di far stampare il file remoto sul proprio terminale e di dirottare l' output su un dischetto del terminale stupido, o su un file della macchina locale.
Ftp significa proprio "File Transfer Protocol", e fu un protocollo inventato per permettere a macchine diverse di trasferire fra loro i files: bastava che ognuna di esse fosse dotata di un programma di comunicazione che seguiva lo stesso protocollo.
Non fu facile. Oggi, la stragrande maggioranza dei calcolatori immagazzina i dati in bytes da 8 bit l' uno: nei '70, c' erano bytes da 6 bit, da 9, ed alcuni calcolatori funzionavano a parole, da 16, 32, 36, 64, 72 bit ... Una babele.
Perfino trasferire dati o programmi in file contenente puro testo era difficile: anche se la lunghezza del byte era la stessa, qualche sistema usava per terminare ogni riga un carattere "a capo", altri un "ritorno carrello", altri ancora entrambi.
I programmi di oggi che permettono l' ftp chiedono ancora se si vuole il trasferimento bit per bit o riga per riga. Un piccolo residuo dell' evoluzione, come lo spezzone di coda che termina il nostro osso sacro.
Per soddisfare i bisogni di telnet ed ftp era necessario che una macchina fosse in grado di comunicare con altre macchine. I sistemi che si volevano collegare fra loro non potevano avere, tutti, una connessione diretta con ognuno dei sistemi rimanenti: il numero delle connessioni necessarie sale presto a valori astronomici. Fra due sistemi collegati può esserci, ma può anche non esserci, una connessione diretta. Nel secondo caso, almeno un sistema intermedio deve far da tramite fra mittente e destinatario.
Due scelte topologiche erano possibili: un' unico sistema di smistamento che funzionasse da centro stella, cui tutti gli altri venivano collegati direttamente; ed una vera e propria rete da pesca, i cui nodi fossero, tutti, capaci tanto di trasmettere e ricevere messaggi, quanto di inoltrarli sulla rete un passo più vicino alla loro destinazione.
La seconda scelta era più economica, e sopratutto, molto più sicura: si era ai tempi della guerra fredda, e negli Stati Uniti i calcolatori delle Università erano utilizzati anche dal Governo, dai militari e dall' industria bellica. Un attacco atomico avrebbe potuto distruggere parecchi nodi e parecchi tratti di connessione, ma i nodi rimasti attivi avrebbero potuto continuare reinstradando i loro messaggi lungo le connessioni rimaste integre. La nascente Internet scelse la topologia a rete.
Per distinguere fra una macchina e l' altra, ad ogni nodo dell' Internet, grosso calcolatore o PC che sia, e' assegnato un indirizzo numerico unico al mondo: si tratta di un numero compreso fra 0 e 4294967295 (quattro miliardi e rotti), che per comodità gli essseri umani scrivono come quattro numeri, ognuno compreso fra 0 e 255, separati da un punto: per esempio, "204.74.103.37". Questo è l' indirizzo numerico, o indirizzo IP, di una ed una sola macchina collegata all' Internet.
Per comodità ancora maggiore, e facilitare gli esseri umani nel ricordare l' indirizzo della macchina, alla stessa viene assegnato anche un indirizzo simbolico a dominii, o nome. Il nome della macchina di cui sopra è "altavista.digital.com", e significa" il sistema di nome altavista che sta nel sottodominio digital del dominio com".
Se un sistema deve inviare un messaggio ad un altro sistema di cui conosce l' indirizzo numerico, si limita ad inviarlo ad un sistema instradatore (router) cui è collegato direttamente, e gli lascia il compito di determinare la strada da percorrere. Non è semplice, ma il router lo sa fare.
Se l' indirizzo noto è solo quello simbolico, occorre un passo in più: tradurre il nome nell' indirizzo numerico. Per questo, il sistema mittente si rivolge al più vicino di una rete di sistemi traduttori, o name server. Anche questo non è semplice, ma i name server lo sanno fare.
Chi usa la rete normalmente non si accorge neppure di tutti questi scambi di messaggi sottostanti, ma se qualcosa non funziona o funziona male può verificarli con semplici
Li usano normalmente gli addetti ai lavori, ma può usarli chiunque.
Se il comando ping 204.74.103.37 ha successo, il risultato vi dice molte cose:
Se siete collegati alla rete via modem, prendete nota del primo router dell' elenco: è il più "vicino" al vostro PC. Quando avrete il sospetto di non essere collegati correttamente alla rete, potrete inviargli un ping. Se risponde, il collegamento funziona.
La scoperta più eclatante che fecero i primi utenti dei sistemi centrali con i terminali stupidi fu che erano in grado di comunicare non soltanto con il calcolatore centrale, ma anche fra di loro.
Ogni utente, per accedere al sistema centrale, doveva farsi riconoscere con un identificativo d' utente, userid, e certificare la sua autorizzazione con una parola d' ordine segreta, o password. I sistemi operativi prevedevano sempre un comando per ottenere un elenco delle userid attive: per sapere, cioè, chi altri stesse, in quello stesso momento, lavorando col sistema. I programmatori del tempo potevano verificare così agevolmente se un collega fosse presente in ufficio.
Il bisogno successivo era poter comunicare con lui senza ricorrere al telefono. Furono scritti allora dei piccoli programmi in grado di inoltrare un breve messaggio ad un altro userid: un utente scriveva sul proprio terminale il comando, l' userid del collega ed una breve riga, per esempio "ti andrebbe un caffè?". Il collega vedeva comparire il messaggio sul suo schermo e poteva rispondere allo stesso modo.
L' evoluzione di questo sistema fu l' applicazione talk, rimasta sostenzialmente invariata fino ad oggi. Il comando talk userid invia al collega un vero e proprio squillo telefonico: se il collega risponde, lo schermo di entrambi viene diviso in due: nella meta' superiore compare, su entrambi gli schermi, ciò che scrive il chiamante, nella metà inferiore ciò che scrive l' altro.
I limiti di talk sono due: richiede, come il telefono, la presenza contemporanea di entrambi i corrispondenti, e permette solo lo scambio di messaggi brevi e volatili - non testi su cui riflettere con calma, nè programmi, nè dati.
Entrambi questi limiti vengono superati dalla posta elettronica.
Il concetto alla base della prima posta elettronica era molto semplice: ogni utente di un calcolatore centrale dispone per suo uso di una porzione dei dischi del sistema, che usa come fosse un disco suo. Basta definire, all' interno di questo suo disco, un' ulteriore porzione su cui altri utenti possano scrivere files, ma non leggerli nè cancellarli, per ottenere una vera e propria cassetta della posta, o mailbox. Per "guardare la posta", il destinatario non deve far altro che esaminare i files più recenti nella sua mailbox.
Per scrivere un file nella mailbox di un altro utente furono creati dei programmi che chiedevano in input il testo di un messaggio e l' userid del destinatario. L' userid divenne così un vero e proprio indirizzo di posta elettronica.
Quando più sistemi centrali vennero collegati in rete, fu possibile, per gli utenti di uno di essi, inviare posta anche agli utenti di altri. Per distinguere fra userid eguali ma su macchine diverse l' indirizzo di posta elettronica venne esteso con il nome del sistema, ed assunse così, per le macchine dell' Internet, la forma odierna: utente@macchina.sottodominio1.sottodominio2...dominio.
E la posta elettronica fu usata spesso come un' alternativa all' ftp, impropria ma valida, per trasferire files da un sistema ad un altro.
Fino all' avvento del Web, la posta elettronica costituiva l' 80% delle comunicazioni in Internet, ed ancora oggi ne costituisce una gran parte. E' lo strumento principale con cui gli utenti dell' Internet comunicano, collaborano e litigano fra di loro. Nata per consentire a programmatori e scienziati un accesso agevole a calcolo distante, l' Internet, grazie alla posta elettronica, divenne un potentissimo strumento di comunicazione interpersonale.
La posta non richiede la disponibilità immediata del destinatario: è quindi comunicazione asincrona
Gli strumenti che consentono una comunicazione sincrona, come talk, sono sopravissuti in una nicchia ecologia per molti anni, e sembra si apra per loro una stagione di rinascita. La possibilità di dialogare via tastiera è stata recentemente ampliata: alcuni strumenti consentono oggi (1998) di dialogare a voce (basta una scheda audio ed un microfono), ed anche con il video (basta una piccola telecamera), ma la novità più importante è la possibilità di collaborare a distanza in due su uno stesso programma (per esempio un word processor, un database, un foglio elettronico) come se si lavorasse in due sullo stesso PC, guardando lo stesso schermo, e passandosi di volta in volta tastiera e mouse.
Con questi strumenti si apre il campo, ancora tutto da esplorare, del Collaborative Working e Collaborative Learning via Internet: telelavoro in collaborazione e insegnamento a distanza.
Come è possibile inviare un messaggio ad un indirizzo di posta elettronica, è possibile inviarlo a molti indirizzi contemporaneamente. Se chi riceve la posta invia sistematicamente le sue risposte non solo al mittente, ma anche a tutto il gruppo dei destinatari, si crea un circuito di comunicazione all' interno di tutto un gruppo chiuso: una mailing list.
Oggi, una mailing list è piuttosto un indirizzo di posta elettronica a cui corrisponde un programma che reinvia i messaggi in arrivo a tutti gli indirizzi di posta elettronica contenuti in un elenco di sottoscrittori: l' uso è più semplice, si ha sempre la certezza che tutti ricevano i messaggi, ed i sottoscrittori possono essere noti solamente al gestore della lista e non a tutti i membri del gruppo.
Quante mailing list esistono al mondo? Impossibile contarle: esistono moltissime mailing lists private, strumento di lavoro per gruppi di persone che collaborano ad uno stesso progetto; esistono però anche moltissime mailing lists pubbliche, a cui chiunque può iscriversi per essere sempre in contatto con altre persone che condividono un suo particolare interesse (dal rock metallico alla cura del cancro), ricevere notizie, leggere le opinioni degli altri e sopratutto dire le sue.
Anche se aperte al pubblico, le mailing list rimangono comunque uno strumento di comunicazione per gruppi chiusi: chi non è iscritto non ne riceve i messaggi, e può anche non sospettarne nemmeno l' esistenza.
Se vogliamo che un messaggio raggiunga il maggior numero possibile di lettori potenzialmente interessati, dobbiamo renderlo pubblico. Possiamo pubblicare annunci sulla stampa, tappezzare i muri della città di manifesti, distribuire volantini, affiggerli ad albi aziendali o sulle porte dei bar: dove pensiamo sia più probabile che le persone forse interessate avranno occasione di guardare.
Per questa funzione, la comunità di sviluppatori dei protocolli Internet ha inventato i newsgroups, in italiano gruppi d' interesse: sono in pratica bacheche virtuali dove chiunque può usare una puntina virtuale affiggere (post) un messaggio, sapendo che resterà lì un certo tempo e che chiunque potrà leggere.
Per massimizzare la possibilità che chi legge un messaggio sia interessato al suo contenuto, tutte le bacheche hanno un nome, che cerca di individuare con la maggior precisione possibile l' argomento d' interesse per i suoi frequentatori. Alcuni esempi:
sci.materials.ceramics
comp.cad.autocad
alt.books.isaac-asimov
soc.culture.south-africa.afrikaans
it.economia.aziendale
it.economia.fisco
it.politica.ulivo
it.politica.polo
Ciò che si può trovare su queste bacheche elettroniche è facile da indovinare. Come è facile capire che, se alcuni di questi gruppi possono ospitare discussioni senza fine fra sostenitori di opinioni diverse, altri trattano temi molto più seri, tanto culturali e scientifici quanto pratici: ad esempio, it.economia.fisco può essere usato per affigervi una richiesta di chiarimento sul modello 740.
Il bello dell' Internet è che qualcuno - e spesso molto qualificato - risponderà. Almeno, questo è quello che succede nella stragrande maggioranza dei casi. Anche se può capitare, le prime volte, di ricevere una risposta di questo tenore: "la tua è una domanda molto frequente - leggi la risposta sulle FAQ".
Cosa sono le FAQ?
FAQ sta per "Frequently Asked Questions" (per qualcuno, "Frequently Answered Questions"): sono raccolte, curate su base volontaria, delle domande più frequenti poste ad un gruppo d' interesse, ovviamente con le rispettive risposte stilate dagli "esperti" del gruppo (che possono esere più d' una, e in disaccordo, se l' argomento è controverso). Si possono trovare abbastanza facilmente in quei gruppi il cui nome termina in .answers o .faq (per esempio, it.faq). Le FAQ costituiscono veri e propri manuali di primo ingresso ad una problematica, e, venendo aggiornate periodicamente, il suo stato dell' arte.
I gruppi d' interesse sono stati la culla di uno dei fenomeni più interessanti dell' internet: quello del free software.
Di minor interesse per l' utente "serio", ma frequentatissima dai ragazzini, è l' applicazione nota come Internet Relay Chat. Il nome dice tutto: scambio di chiacchere sull' Internet.
Si tratta, in pratica, dell' estensione del talk a più utenti. Collegandosi ad un "chat server", chiunque può aprire un canale, o chat line, assegnandoli il nome che più gli aggrada: per esempio, "Ascolta la voce della Bibbia", o "Contro la pena di morte". Chiunque altro può unirsi (join) al canale, e da quel momento in poi riceverà sul suo schermo tutto quanto viene battuto sulla tastiera dagli altri che partecipano alla stessa chiaccherata.
Molto usate dalle sette religiose a caccia di proseliti, e da gruppi interessati a fenomeni attualissimi e volatili, come ad esempio un concerto rock, le chat lines sono state il soggetto preferito della stampa a caccia di notizie scandalistiche sull' Internet: "chiede sull' Internet di essere violentata ed uccisa e l' ottiene", "fuggono da casa per raggiungere un pedofilo conosciuto sull' Internet", e via cianciando.
Non mancano però canali seri, in cui si discutono argomenti d' attualità di interesse generale: un canale frequentatissimo dai ragazzini è il newbies, dove studenti e docenti universitari di informatica rispondono immediatamente a tutti i dubbi e le difficoltà poste ai teen-ager dall' uso di un PC e della rete. A causa però della volatilità delle informazioni che scorrono sui canali, e della difficoltà di seguire una conversazione su un canale molto affollato, gli adulti vi trovano pochi motivi d' interesse.
Anche le chat lines, comunque, un merito ce l' hanno: sono servite per sperimentare tecniche di comunicazione molti a molti sincrona, evidenziandone i pregi ed i limiti, ed i loro futuri sviluppi (con qualche controllo in più) sono molto interessanti per le applicazioni produttive. Televideoconferenza, collaborative working a più di quattro mani, l' aula didattica virtuale saranno tutte estensioni di tecniche di comunicazione sperimentate e vissute sulle chat lines.
Le mailing list pubbliche, i newsgroups ed le chat lines sono l' esempio più evidente dell' assenza di controllo centrale che caratterizza le comunicazioni sull' Internet. Il germe di questa anarchia era già presente nel progetto topologico della rete, disegnato come una rete e non come una stella per renderla meno vulnerabile ad un attacco militare. Ma una rete, sopratutto se copre una sfera come il nostro pianeta, non può avere un centro, nè topologico, nè gerarchico: ogni nodo può essere gestito da un proprietario diverso, che sostiene i costi del nodo e dei suoi collegamenti immediati: ed ognuno può fare un po' quello che gli pare, basta che segua le regole minime necessarie per continuare a colloquiare con gli altri.
Molti dei nodi e delle linee dati che costituiscono l' ossatura dell' Internet vengono pagati dai Governi, come contributo all' attività didattica e di ricerca delle Università: e proprio le Università hanno iniziato a mettere a disposizione quei servizi d' interscambio - mailing lists e news - dai quali, pur non potendo controllarli, si aspettavano - ed hanno ottenuto - grandi ritorni in termini di circolazione d' idee, collaborazioni e risultati della ricerca.
La comunità degli utenti Internet, però, non è totalmente priva di regole: essa si autoregola. La quasi totalità degli utenti di mailing lists e newsgroups si uniforma alle norme di comportamento - sia interpersonale che tecnico - universalmente riconosciute come "netiquette". Per chi non si adegua, la sanzione è una sola, ma molto efficace: l' esclusione dalla comunità. Potrà ancora navigare in Internet, potrà disturbarne le attività, ma nessuno comunicherà più con lui. E nessuno persevera.
Esistono inoltre anche forme elementari di democrazia. Per esempio, per aprire un nuovo newsgroup che si occupi di un argomento non trattato da altri, e vederlo propagato in tutto il mondo dalla rete di server che li ospitano, viene indetta una specie di votazione, secondo il principio "un indirizzo di mail = un voto". Se il numero di voti contrari supera quello dei favorevoli, il gruppo non viene aperto. Questo meccanismo è stato usato per impedire la creazione di newsgroups tecnici di contenuto molto simile ad altri, per evitare dispersività e duplicazione di sforzi, ma anche per impedire ad un gruppo neonazista l' apertura di un gruppo di argomento dichiaratamente antisemita.
Prima dell' avvento del Web, nella comunità scientifica era molto sentita la necessità di pubblicare sulla rete informazioni che un utente potesse raggiungere da solo, senza disturbare chi le deteneva: orario dei corsi, locazione delle infrastrutture, disponibilità di attrezzature informatiche nei campus; manuali, pubblicazioni, dispense, software in una cerchia più ampia di ricercatori; cataloghi e disponibilità nelle biblioteche.
Il Web ebbe il successo che ha avuto perchè forniva a queste esigenze uno standard flessibile in grado di soddisfarle tutte. Ma, prima del suo affermarsi, furono ideati ed utilizzati molti strumenti più elementari, ed in alcuni casi d' uso meno semplice, che ancora sopravvivono, nel Web o al di fuori di esso.
Molti degli strumenti più primitivi si basavano su programmi scritti ad hoc o su funzioni di aiuto disponibili nel software standard, come ad esempio HELP nell' ambiente Digital VMS o man in ambienti Unix (che svolgevano per i terminali stupidi funzioni analoghe a quelle dell' attuale Help Microsoft); alcuni, dovendo accedere a vere e proprie banche dati strutturate per parole chiave, come i cataloghi delle biblioteche, erano esattamente gli strumenti standard di interrogazione delle banche dati.
Il limite di tali strumenti era di essere accessibili solo a coloro che avevano aperto una sessione sul sistema di calcolo centrale sul quale le informazioni risiedevano.
Per ammettere un pubblico più vasto a fruire di tali informazioni, fu inventato il "telnet pubblico".
In sostanza, si ammette che chiunque, anche senza farsi riconoscere e senza conoscere particolari password, possa aprire una sessione su un dato sistema di calcolo: ma in questa sessione non potrà dare al sistema qualsiasi genere di comando (e sopratutto quelli che scrivono o cancellano la memoria permanente del sistema), ma solo quelli previsti dal programma d' interrogazione, nel quale si troverà confinato.
Telnet pubblici sono disponibili ancora oggi: ad esempio, per consultare il catalogo della Biblioteca Marciana, o le banche dati documentali dell' Unione Europea.
Lo stesso concetto - "lascia leggere ma non scrivere, né cancellare" - si applica alla maggior parte dei siti di "ftp pubblico", o anonymous ftp.
Per accedervi, basta aprire una sessione ftp su un sito che lo permette, scrivendo anonymous come userid e il proprio indirizzo di posta elettronica come password (viene richiesto a fini statistici, ma non controllato: darlo esatto è, comunque, norma di buona netiquette.
Ci si trova così a poter esaminare il contenuto di alcune cartelle del sito ftp, con comandi molto simili a quelli dei più diffusi sistemi operativi: dir, cd, cd ... In tali cartelle è spesso presente un file dal nome esplicativo, readme o leggimi, che spega in sintesi il contenuto degli altri files. I files d' interesse si possono poi scaricare sul proprio sito con un comando get.
Attenzione: l' esecuzione di un comando get può richiedere anche ore, dipendendo dalla dimensione del file e dalla capacità del più lento fra i tratti di linea che collegano il sito ftp ed il proprio sistema: e non è detto che il collegamento più lento sia la linea con il modem, tratti di grande capacità possono risultare molto più lenti, se usati da molti contemporaneamente. È consigliabile scaricare da un sito qualche file di piccola dimensione prima di avventurarsi a scaricarne di giganteschi.
Cosa si trova nei siti ftp pubblici? Molto software scaricabile ed utilizzabile, in primo luogo; raccolte di dati statistici e sperimentali d' uso comune in gruppi di ricerca; documenti e manuali; raccolte di preprints.
Alcuni siti ftp pubblici permettono, oltre che al download di files (dal sito al sistema dell' utente), anche l' upload. Ciò permette ad un gruppo di scambiarsi files senza intasare la posta elettronica, e di renderli disponibili anche ad altri. Dato che è una tecnica che si presta molto ad abusi, non sono molti.
Una prima rivoluzione nel campo delle comunicazioni Internet molti a molti fu, alla fine degli anni '80, l' avvento del gopher.
Il funzionamento del gopher è molto simile a quello del Web, tant' è che i lettori di gopher sono oggi incorporati nei lettori Web. La differenza sta essenzialmente nel fatto che ogni pagina gopher può contenere o testo o grafica o audio o puntatori ad altre pagine - non tutte le cose insieme, come le pagine Web.
I siti gopher sono quindi strutturati con una pagina iniziale che contiene un menù, ogni linea del quale punta ad un' altra pagina, che può a sua volta contenere un menù, oppure un testo (assolutamente privo di formattazione tipografica), oppure un' immagine, oppure un file di altro tipo - sonoro, programma eseguibile, filmato, documento eccetera. Per "seguire un puntatore" era necessario dare al sistema un comando, che di norma consisteva nell' inserire da tastiera il numero della riga che lo conteneva. Il gopher era stato pensato per l' uso con terminali stupidi, privi di grafica e di mouse.
Sin qui, la differenza con i precedenti programmi di HELP non era poi enorme. Quello che costituì la rivoluzione del gopher fu che ogni puntatore poteva puntare ad un file residente sullo stesso sistema su cui si trovava il menù, ma anche a files residenti su altri sistemi ospitanti un sito gopher. Le conseguenze di questa scelta felice furono due:
Anche la differenza fra Web e gopher, tutto sommato, tecnicamente, si riduce a ben poco: ma le conseguenze di questo poco furono enormi.
Con il Web, l' Internet non appariva più sotto la veste di strumenti di comunicazione elementari, di interfaccia utente povera e d' uso non semplice, che facevano pensare di essere accessibili solo agli addetti ai lavori o a ricercatori fortemente motivati ad apprenderne l' uso.
E questo suscitò l' interesse delle imprese commerciali, che fino a quel momento avevano guardato all' Internet come ad un interessante giocattolo della comunità scientifica e dei ragazzini fanatici dell' hi tech, da non prendere troppo sul serio.
Quest' interesse si focalizzò su due obbiettivi complementari:
Un tentativo notevole in questo campo fu quello dell' imprenditore Nichi Grauso, già editore de "la Nuova Sardegna", con la sua offerta di connettività e servizi Internet Video On Line (VOL). Grauso tentò sull' Internet lo stesso progetto di Mediaset sulla TV via etere: quella di vendere l' audience agli inserzionisti. Lo strumento tecnico, fin troppo smaccato, fu quello di distribuire un programma di connettività ai suoi punti di presenza Internet che attivava automaticamente un visore Web puntato sul suo sito, che includeva servizi non-Web come mail e news, zeppo di pubblicità, e dal quale l' utente non smaliziato trovava difficoltà ad uscire. VOL non riuscì ad autofinanziarsi e venne rilevata, con tutti i suoi utenti, da Telecom Italia Network (TIN): qualcosa della filosofia di VOL passò anch' essa in TIN, che si ostinò per parecchio tempo ad offrire ai suoi utenti "le news di TIN" (che suona un po' come "il Colosseo di Alitalia").
Il linguaggio utilizzato per creare le pagine Web, Hyper
Text Markup Language o HTML, ha la particolarità di permettere
di frammischiare, nello stesso file, il contenuto testuale da metadirettive
che ne governeranno la resa. Queste direttive sono di due tipi: logico/strutturali
e fisiche.
Le direttive logico/strutturali definiscono la struttura
dell' ipertesto (p. es "qui inizia un capitolo" "qui inizia un sottocapitolo",
"questo ne è il titolo", "qui inizia una lista numerata", "questa
frase punta alla pagina X" eccetera) ed alcune particolarità logiche
del testo ("questa frase va evidenziata", "quest' altra va enfatizzata"
eccetera). I particolari sul modo con cui verrà resa questa struttura
vengono lasciati al browser, che potrà decidere, ad esempio, di
rendere le frasi evidenziate in grassetto e quelle enfatizzate in corsivo,
ma anche, se si tratta di un sintetizzatore vocale usato da non vedenti,
di rendere le frasi evidenziate scandendole e quelle enfatizzate accentuando
le pause e gli accenti.
Le direttive fisiche presuppongono invece che l' ipertesto
verrà reso su un particolare dispositivo (per esempio uno schermo
video anzichè un sintetizzatore vocale), e danno indicazioni valide
solo per quel dispositivo: l' uso del corsivo o del grassetto, ma anche
il tipo di carattere da usare, la sua dimensione, il colore, lo sfondo,
l' allineamento a destra o sinistra o centrato, la posizione relativa delle
immagini nel testo, e talvolta l' intera struttura grafica della pagina
presentata.
La maggior parte dei siti web "pubblicitari" utilizza
pesantemente le direttive fisiche e l' oculato accostamento fra colori
ed immagini allo scopo di controllare esattamente l' aspetto che avrà
la pagina sullo schermo del lettore.
Si tratta di un obbiettivo irraggiungibile: le dimensioni
degli schermi dei PC sono variabilissime, e le finestre dei browser possono
essere a tutto schermo o ridotte fino a pochi centimetri per lato; l' utente
può scegliere sempre quale sarà la grandezza base dei caratteri
che vuole leggere (ipovedenti e presbiti la sceglieranno sempre piuttosto
grande), e se caricare o meno le immagini inserite nella pagina: un risultato
che appare ottimo per una data situazione, quindi, apparirà totalmente
confuso in un' altra, colori che appaiono esteticamente belli e densi di
significato simbolico al redattore possono risultare praticamente illeggibili
per un discromatopatico (volgarmente, ma inesattamente, "daltonico": 9%
della popolazione!) , ed informazioni testuali contenute nelle immagini
spesso non raggiungeranno nemmeno il destinatario. Un vero e proprio autogoal.
Ciò nonostante, la voglia di utilizzare gli strumenti
di pubblicazione sul Web come strumenti di composizione tipografica What
You See Is What You Get (WYSIWYG) fu tale da portare i maggiori produttori
di browser, Microsoft e Netscape, alla "guerra dei browser", che paradossalmente
iniziò con l' offerta di Microsoft di non far pagare la licenza
per il proprio browser Explorer, e terminò nel gennaio 1998 con
l' offerta gratuita tanto di Explorer quanto di Netscape Navigator.
Se tutti i browser si fossero adeguati ad uno stesso
standard, la guerra dei browser non avrebbbe avuto senso. Ma l' ultima
versione del linguaggio HTML riconosciuta come standard, la versione 2.0,
offriva poche possibilità di controllo sull' impaginazione grafica:
quindi sia Netscape che Microsoft iniziarono a proporne estensioni che
i browser di loro produzione riconoscevano, e gli altri non necessariamente.
Come risultato, è difficile oggi dire se sia veramente definita
una versione 3 di HTML, che appare piuttosto come un compromesso fra varii
dialetti. Si tornerà probabilmente ad uno standard universale con
la versione 4.
Nel proliferare dei dialetti, chi avesse visto prevalere
il proprio browser come standard universalmente utilizzato, avrebbe conquistato
il mercato molto più appetibile dei server Web, perchè i
suoi prodotti per la pubblicazione sarebbero risultati automaticamente
"più compatibili" degli altri con il browser più diffuso.
Microsoft non si limitò quindi ad offrire gratuitamente Explorer,
ma lo incorporò nel sistema operativo Windows 95 come componente
essenziale e quindi ineliminabile.
Netscape reagì nell' estate 1997 con una denuncia
alla Commissione Antitrust statunitense, che ne accolse le ragioni e condannò
Microsoft ad una multa miliardaria (un milione di dollari al giorno)
finchè non avesse ripristinato una situazione di libera concorrenza.
Microsoft cedette dopo sei mesi: il giorno dopo, Netscape
annunciava che anche Netscape Navigator poteva essere utilizzato liberamente
da chiunque, non solo, come in precedenza, da Università ed altri
Enti no-profit.
Un' altra applicazione, interessante per molti versi, contemporanea del Web ma che non incontrò altrettanta fortuna, fu il WAIS (Wide Area Information System or Servers).
L' idea alla base del WAIS è di permettere l' interrogazione contemporanea, con un linguaggio formale, di parecchie basi di dati contenenti informazioni omogenee indicizzate per parole chiave.
In sostanza, chi usa un programma d' interrogazione WAIS effettua una ricerca per parole chiave su un indice contenuto in un server: il risultato non riguarda solo i documenti contenuti nel server interrogato, ma tutti quelli presenti in altri server ad esso collegati.
Se, ad esempio, tutte le biblioteche universitarie mantenessero i loro cataloghi su server WAIS interconnessi, chi va alla ricerca di un libro di un certo autore o su un certo argomento potrebbe scegliere di visonare le schede bibliografiche della sua città, o delle due/tre città più vicine, o, non trovando risultati soddisfacenti, quelle di tutta Italia.
WAIS si conquistò sull' Internet un mercato di nicchia, utilizzato da chi mette a disposizione banche dati, od è interessato a ricerche particolari, su oggetti facilmente classificabili secondo parole chiave. Il grande pubblico lo usa poco: un po' perchè il contenuto dei WAIS è molto specialistico, un po' perchè utilizzarlo non è banalissimo e richiede l' atto volontario di procurarsi del software particolare (anche se il Web offre oggi dei "gateways", caselli autostradali fra Web e WAIS, che rendono possibile interrogare banche date WAIS da browser Web).
In assenza del Web, il WAIS avrebbe potuto evolvere verso banche dati ipertestuali interrogabili a testo libero, e diventare lui il protagonista della Rete. Il Web lo surclassò per intuitività d' uso e facilità di realizzazione dei siti. Ma un punto non secondario del mancato successo del WAIS fu che esso incorporava, fin dalla fase progettuale, quelle capacità di selezione delle informazioni cercate, indipendentemente dalla loro localizzazione, che minava il potere degli editori di far leggere ai propri lettori tutto il giornale, anche la pubblicità indesiderata, nella ricerca dell' articolo interessante.
Comunicazione molti a uno non significa raccolta da parte di uno di informazioni pubblicate da molti. Questo si chiama information overload, sovraccarico. L' informazione molti a uno estrae dal mare informativo, per l' interesse di uno solo, solamente l' informazione pertinente, affidabile e rilevante ai suoi scopi.
Storicamente, l' informazione molti a uno è stata appannaggio dei soli potenti, politici od economici: re, imperatori, governatori, industriali, consigli d' amministrazione potevano disporre di staff di esperti che centellinassero per loro, all' occorrenza, le informazioni necessarie a prendere decisioni con cognizione di causa. Isabella di Castiglia, prima di decidere sulla proposta di Cristoforo Colombo, lo mise a confronto con i suoi consulenti, ed in base alle loro opinioni decise di non fornire a Colombo tutte le risorse che chiedeva, ma solo tre caravelle ed una ciurma di galeotti. Oggi, i servizi di rassegna stampa e di sintesi degli scenari economici sono un esempio di un simile servizio, efficace, costoso e riservato a pochi.
La caratteristica dell' informazione molti a uno è quindi la possibilità di selezione. Oggi, per la prima volta nella storia dell' uomo, la selezione può venir effettuata non più solo tramite staff di esperti, ma anche tramite strumenti di calcolo automatico che non a caso vengono detti di sintesi o di informatica decisionale. Tali strumenti hanno raggiunto sull' Internet uno sviluppo superiore che altrove, perchè è sull' Internet che si corrono i maggiori rischi di sovraccarico informativo. E forse è proprio questa caratteristica che ci dà la misura della rivoluzione che l' Internet apporterà nelle nostre vite negli anni futuri.
Il meccanismo tecnico degli strumenti di selezione disponibili sull' Internet è concettualmente semplice. Un "motore di ricerca" si collega periodicamente a un insieme di server che mettono a disposizione informazioni pubbliche e ne indicizza il contenuto. L' indicizzazione o il suo aggiornamento può aver luogo ogni notte, anche puù spesso se l' insieme considerato è piccolo, o richiedere anche un mese se l' insieme si estende a tutto il pianeta. I motori di ricerca difficilmente perciò contengono indici aggiornatissim.
Chi interroga un motore di ricerca ne consulta l' indice ed ottiene in risposta un elenco di files o documenti, residenti su più server, che soddisfano ai criteri di selezione utilizzati per l' interrogazione. Se l' elenco è troppo abbondante, la ricerca può venir ristretta con criteri più stringenti.
Il primo motore di ricerca fu archie, che indicizza il contenuto di server ftp pubblici. L' indicizzazione di archie considera solo i nomi dei files disponibili, non il loro contenuto: la ricerca è possibile per nome completo o per sua sottostringa di caratteri. Nonostante queste limitazioni, dato che spesso accade di cercare sull' Internet un file di cui il nome è noto, e comunque spesso il nome di un file ha qualcosa a che vedere con il suo contenuto, archie risultava molto utile ai cacciatori di software e preprints, ed è ancora oggi abbastanza utilizzato.
Un notevole perfezionamento fu quello del motore di ricerca sui server gopher, veronica, che non si limitava ai titoli reperibili sui menù ma esaminava anche tutte le parole contenute nel testo, eliminando dall' indicizzazione solo le più comuni (articoli, preposizioni, verbi ausiliari). Veronica risultava uno strumento utilissimo, anche se la massa di informazioni reperibile sui server gopher era, al tempo, ancora limitata.
Veronica fu completamente superato dai motori di ricerca sul Web, che utilizzano criteri analoghi per indicizzare non solo i documenti Web, ma anche i documenti gopher ed i messaggi dei newsgroups, e che permettono la ricerca con criteri molto più raffinati, utilizzando gli operatori logici AND, NOT, OR e NEAR, e permettendo, se i documenti trovari con una ricerca sono troppi per l' indagine diretta, il clustering (raggruppamento) dei documenti trovati per affinità di contenuto, in modo da orientare rapidamente la restrizione della ricerca, e, talvolta, anche la traduzione automatica fra lingue diverse.
Esempi di motori di ricerca Web (tratti dal sito del quotidiano "La Repubblica"):
Yahoo!, WebCrawler, TradeWave Galaxy, OpenText, Tile.net, Altavista, Savvy Search, All-in One Search page, Infoseek, CUSI, World Wide Web Worm, Excite.
A complemento delle funzionalità dei motori di ricerca, lo sviluppo forse più interessante per il futuro sono i cosiddetti user agents o "aiutanti", primi embrioni di quello che potrà diventare in futuro un vero e proprio sistema esperto, in grado di accettare istruzioni ed anche correzioni dall' utente, e svolgere così per esso le stesse funzioni di raccolta, selezione, validazione e misura della rilevanza delle informazioni svolte finora dagli staff di esperti a disposizione dei potenti.
I primi esemplari di simili "aiutanti" furono, già una decina d' anni fa, i mail filters, vere e proprie segretarie elettroniche che esaminano la posta elettronica in arrivo, danno priorità alla più importante e cestinano (ma senza distruggerle) la pubblicità e le missive importune.
I primi mail filters furono pensati per esaminare solo l' indirizzo del mittente; esemplari più perfezionati esaminano anche il contenuto delle missive, per parole chiave che ne deducano l' importanza o l' inopportunità.
Altri agenti basati sulle stesse capacità di discriminare il contenuto furono ideati come filtri Web, per impedire ai bambini di accedere a pagine scabrose o pericolose. Le capacità di discernimento di tali agenti non sono ancora soddisfacenti, e non possono sostituirsi al controllo dei genitori: qualche anno fa fece sorridere la notizia che uno di tali agenti impediva l' accesso al sito Web della casa Bianca, perchè vi veniva citata la "coppia presidenziale".
Uno dei tentativi attuali più interessanti di user agent è il programma autonomy, basato sulla ricerca sulle reti neurali e sul riconoscimento di strutture semantiche svolta da anni all' Università di Cambridge.
Si tratta di un programma che, a partire da una descrizione in linguaggio naturale degli interesse dell' utente, esamina pagine Web a partire da un determinato sito, selezionando le pagine che appaiono rilevanti all' interesse dell' utente e seguendone poi a cascata i collegamenti.
Dopo una prima sessione di ricerca, le pagine trovate vengono presentate una ad una all' utente, che esaminandole approva o disapprova la pertinenza della pagina con i suoi interessi. L' approvazione o disapprovazione vengono utilizzate dal programma per ricalibrare le sue conoscenze sugli effettivi interessi che l' utente non aveva espresso a parole, e la conoscenza così modificata viene utilizzata per la ricerca successiva.
Dopo parecchie sessioni di ricerca e di riaddestramento, l' agente diviene abbastanza esperto da selezionare, fra quelle che trova, pagine effettivamente interessanti per l' utente in un certo settore. L' utente, se ne ha tempo e voglia, può addestrare altre copie del programma per trovare pagine rilevanti ad altri settori di suo interesse: ricerca sui materiali ferrosi o basket, musica classica o notizie di attualità sull' Inghilterra.
Anche se il processo di addestramento è piuttosto lento e spesso non giustifica i risultati che alla fine si ottengono, l' interesse di questo approccio è che un agente già addestrato può essere copiato, e quindi reso immediatamente disponibile ad altri con interessi simili a quelli dell' istruttore.
Qualche anno piu' tardi i sistemi di crittografia a chiave pubblica verranno utilizzati per lo sviluppo di strumenti in grado di garantire sicurezza e riservatezza alle comunicazioni elettroniche in rete. La crittografia a chiave pubblica, altrimenti detta a "doppia chiave", e' una tecnica semplice e sofisticata al tempo stesso: ogni utente e' in possesso di due chiavi, una privata, strettamente personale, da custodire gelosamente, e una pubblica, che puo' essere liberamente divulgata e trasmessa anche attraverso canali di comunicazione non sicuri. La chiave pubblica viene impiegata per la codifica dei messaggi, per trasformare un testo in chiaro in un testo crittografato, impossibile da leggere e decifrare. Per mandare un messaggio riservato si dovra' semplicemente utilizzare la chiave pubblica del destinatario per la codifica (detta anche criptazione del messaggio).
Per il passaggio inverso la chiave pubblica e' inutile: il testo puo' essere decodificato (decriptato) unicamente utilizzando la chiave privata, rimasta al sicuro nelle mani del destinatario all'interno del proprio computer o su un dischetto ben custodito sotto chiave. E' come se si utilizzasse una cassetta postale molto profonda, con una serratura in cima, che puo' essere aperta con la chiave pubblica, e una sul fondo, che solo la chiave privata puo' sbloccare. Chiunque puo' farmi arrivare un messaggio inserendolo nella cassetta con la chiave pubblica, che posso distribuire tranquillamente, ma solo io con la mia chiave privata posso aprire il fondo della cassetta per far cadere i messaggi nelle mie mani. Il metodo matematico alla base della crittografia a chiave pubblica si basa sui numeri primi e su funzioni matematiche che e' quasi impossibile invertire. Dati due numeri primi, e' molto facile stabilire il loro prodotto, mentre e' molto piu' difficile determinare, a partire da un determinato numero, quali numeri primi hanno prodotto quel risultato dopo essere stati moltiplicati tra loro. Invertire il prodotto di due numeri primi e' ancora piu' difficile quando si tratta di un numero composto da molte cifre. E' per questo che si parla di chiavi private "a 256 bit" o a "512 bit", utilizzando la lunghezza della chiave crittografica come una misura della sua robustezza. Grazie alla crittografia a doppia chiave, i messaggi di posta elettronica e qualunque altro documento in grado di transitare su di una rete di computer possono soddisfare tre fondamentali caratteristiche della sicurezza.
In primo luogo e' possibile spedire messaggi "in busta chiusa", cioe' leggibili dal solo destinatario.
E' inoltre possibile autenticare i messaggi, avere la certezza che un testo elettronico ci viene spedito da una certa persona, oppure certificare la paternita' di un messaggio utilizzando una "firma digitale", un insieme di caratteri che puo' essere generato solo da e' in possesso della chiave privata. L'autenticita' della firma e' verificabile utilizzando la chiave pubblica del "firmatario".
La terza caratteristica dei sistemi a doppia chiave e' quella di garantire l'integrita' dei messaggi. Possiamo avere la certezza che un messaggio non e' stato in alcun modo manipolato durante il suo transito in rete.
La nascita della crittografia a chiave pubblica, lungi dall'essere una semplice speculazione matematica, ha come primo effetto quello di minare l'egemonia che la National Security Agency, NSA, aveva esercitato negli Stati Uniti fino alla pubblicazione dell'articolo di Hellman e Diffie. Nsa aveva controllato per decenni lo sviluppo delle tecnologie di crittografia, rendendo impossibile il lavoro dei programmatori con delle intricate procedure per i brevetti ed equiparando gli strumenti crittografici alle armi pesanti, la cui esportazione e' impossibile senza una esplicita approvazione governativa. Gli strumenti per il controllo della privacy non potevano essere gestiti dai singoli cittadini, ma era il governo degli Stati Uniti a reclamare per se', in maniera paternalistica, il controllo su strumenti che avrebbero potuto garantire la sicurezza delle comunicazioni e l'anonimato di soggetti particolarmente a rischio, come perseguitati politici o attivisti per i diritti umani che operano in zone di guerra. Hellman e Diffie danno il primo colpo di piccone per la conquista della "privacy per le masse". I due sviluppano le loro teorie alla Stanford University, all'interno del laboratorio di intelligenza artificiale guidato da John McCarty.
Nel corso degli anni l'algoritmo RSA ha piu' volte dimostrato la sua robustezza: in un esperimento del 1994, coordinato da Arjen Lenstra dei laboratori Bellcore, per "rompere" una chiave RSA di 129 cifre, svelando il meccanismo con cui quella chiave generava messaggi crittografati, sono stati necessari 8 mesi di lavoro coordinato effettuato da 600 gruppi di ricerca sparsi in 25 paesi, che hanno messo a disposizione 1600 macchine da calcolo, facendole lavorare in parallelo nei loro "tempi morti", collegate tra loro attraverso l'Internet.
Data la mole delle risorse necessarie per rompere la barriera di sicurezza dell'algoritmo RSA, e' chiaro come un attacco alla privacy di un sistema a doppia chiave non sia praticamente realizzabile. Inoltre, poiche' i programmi di crittografia attualmente a disposizione prevedono chiavi private con una "robustezza" che raggiunge e supera i 2048 bit, questi sistemi crittografici risultano praticamente inattaccabili, e l'ordine di grandezza dei tempi necessari alla rottura di chiavi di questo tipo cresce rapidamente, passando in fretta dai mesi alle decine di anni.
Il governo americano mette i bastoni tra le ruote all'algoritmo RSA: viene deciso che i programmi basati su questo algoritmo si possono utilizzare liberamente negli Stati Uniti, ma la loro esportazione costituisce reato, dal momento che gli strumenti crittografici sono equiparati alle armi pesanti. Da qui le proteste dei vari produttori di software per la crittografia. Un altro ostacolo allo sviluppo di strumenti crittografici e' dovuto al fatto che i tre inventori del sistema RSA decidono nel 1982 di brevettare il loro algoritmo, cioe' un insieme di regole matematiche, costituendo un precedente unico nella storia della scienza. Viene spontaneo chiedersi cosa sarebbe successo se qualcuno avesse deciso di brevettare le regole necessarie per le quattro operazioni.
In seguito al brevetto, Rivest, Shamir e Adleman fondano la RSA Data Security Inc, una compagnia nata per lo sfruttamento commerciale del loro sistema di crittografia. Nonostante le restrizioni statunitensi all'utilizzo dell'algoritmo RSA, al di fuori degli USA, dove il governo americano non ha potere e gli algoritmi non sono coperti da brevetto, iniziano a diffondersi numerosi programmi ispirati alla tecnica RSA.
PGP permette di mantenere la privacy e la sicurezza dei propri dati personali in formato elettronico. I messaggi di posta elettronica sono come delle cartoline, che possono essere lette da tutti, come in realta' avviene in molti Paesi in cui vige un controllo repressivo delle informazioni. Grazie al PGP e' possibile scambiarsi via email anche l'equivalente di una lettera in busta chiusa.
Per la realizzazione di PGP, Zimmermann viene citato in tribunale dalla RSA Data Security Inc. per violazione del brevetto sull'algoritmo RSA, e accusato dal governo degli Stati Uniti di esportazione illegale di strumenti crittografici. Entrambe le cause finiscono nel nulla. L'accusa di esportazione illegale viene ritirata nel 1996, mentre la controversia con RSA verra' mediata da James Bruce del Massachussets Institute of Technology, che spingera' le due parti in causa alla collaborazione per la realizzazione delle nuove versioni di PGP a partire dalla 2.5.
Zimmermann verra' insignito nel 1995 da uno degli "awards" della Electronic Frontier Foundation, i riconoscimenti assegnati dalla prestigiosa fondazione a tutti coloro che ogni anno danno un contributo determinante alla liberta' della frontiera elettronica. L'importanza della crittografia verra' affermata nell' autunno '92 da Timothy May, che nel manifesto del movimento Crypto-anarchico afferma che "Proprio come un'invenzione apparentemente minore come il filo spinato ha reso possibile il recintare vasti ranch e fattorie, alterando cosi' per sempre il concetto di terra e i diritti di proprieta', cosi' anche la scoperta apparentemente minore di una branca arcana della matematica diventera' come le cesoie da metallo che smantelleranno il filo spinato attorno alla proprieta' intellettuale". E' interessante leggere l'introduzione fatta da Zimmermann al manuale d'uso che viene distribuito assieme al PGP:
"Che accadrebbe se tutti pensassero che i cittadini onesti usano solo cartoline per la loro posta ? Se qualche persona per bene volesse usare una busta chiusa per proteggere la sua privacy, desterebbe dei grossi sospetti. Forse le autorita' aprirebbero la sua posta per controllare cosa nasconde. Fortunatamente non viviamo in un mondo fatto cosi', perche' tutti proteggono la maggior parte della loro posta chiudendola in una busta. In questo modo nessuno da' adito a sospetti facendo rispettare la sua privacy con una busta, perche' e' una pratica molto diffusa. I grandi numeri danno sicurezza. Analogamente, sarebbe bello se tutti usassero abitualmente la crittografia per la loro posta elettronica, indipendentemente dal contenuto piu' o meno riservato. In tal modo nessuno desterebbe sospetti affermando la privacy della propria posta elettronica con la crittografia, il cui uso e' una forma di solidarieta' (...) andiamo verso un futuro in cui il nostro paese sara' attraversato da reti in fibra ottica ad alta velocita' che collegheranno tutti noi ai nostri computer, sempre piu' mobili. La posta elettronica sara' una cosa normale per tutti, non la novita' che e' oggi. Il Governo proteggera' la nostra posta elettronica con dei metodi crittografici progettati dal Governo stesso. Probabilmente a molta gente andra' bene. Ma forse delle persone preferiranno delle misure protettive personali. La proposta di legge al senato 266 (la proposta per l'introduzione del Clipper Chip, NdR), una proposta anti-crimine, aveva nascosta al suo interno una misura preoccupante. Se questa risoluzione non vincolante fosse divenuta legge, avrebbe obbligato i produttori di attrezzature per le comunicazioni riservate ad inserire delle speciali backdoor nei loro prodotti, permettendo al governo di leggere i messaggi cifrati di chiunque. Nel testo della proposta si legge: '' ... e' idea del Congresso che i fornitori di servizi di comunicazione elettronica e i produttori di attrezzature asicurino che i sistemi di comunicazione permettano al governo di ottenere il contenuto in testo leggibile di voce, dati e altre comunicazioni quando autorizzati dalla legge''. Questa misura e' stata sconfitta dopo rigorose proteste di gruppi industriali e di difesa delle liberta' civili. Ma il governo da allora ha introdotto altre leggi preoccupanti per arrivare ad obiettivi simili. Se la privacy viene messa fuori legge, solo i fuorilegge avranno privacy. I servizi segreti hanno accesso a della buona tecnologia crittografica. Anche i grossi trafficanti di armi e di droga. E anche i titolari di appalti della difesa, le compagnie petrolifere e i giganti corporativi. Ma la gente normale e le organizzazioni politiche spontanee per lo piu' non hanno mai avuto accesso, finora, ad una tecnologia di crittografia a chiave pubblica di "livello militare" che fosse economicamente accessibile. Il PGP permette alla gente di prendere la privacy nelle sue mani. C'e' una crescente necessita' sociale per questo. Ecco perche' l'ho scritto."
Per dimostrare i gravi rischi di sicurezza a cui si sottopone chi utilizza il DES, la EFF costruisce il primo apparecchio Hardware non coperto dal segreto di stato per decodificare i messaggi crittografati utilizzando il Data Encryption Standard. I risultati di questo sforzo, costato 250.000 dollari e quasi un anno di lavoro, sono documentati in un libro realizzato dalla EFF ed edito dalla O'Reilly, dal titolo "Cracking DES: Secrets of Encryption Research, Wiretap Politics, and Chip Design."
Il libro contiene tutta la documentazione necessaria a riprodurre il "DES Cracker", realizzabile a partire da un normale personal computer domestico. Il testo e' disponibile unicamente in versione cartacea perche' secondo le leggi USA in materia di esportazioni e' reato pubblicare questo tipo di informazioni sull'Internet.
Fino al 17 luglio, gli esponenti del governo statunitense affermavano con convinzione che sarebbero stati necessari diversi mesi di calcoli effettuati su sistemi informatici multimiliardari per decifrare i messaggi protetti dal DES. Nel comunicato stampa della Electronic Frontier Foundation, Barry Steinhardt, il direttore esecutivo della fondazione, afferma che "la pretesa inviolabilita' del DES e' stato un argomento utilizzato per giustificare politiche di crittografia debole e di "key recovery". E' tempo di avviare un dibattito serio e ben informato, che porti a una inversione di queste tendenza."
A Steinhardt si aggiunge la voce di John Gilmore, cofondatore della Eff e direttore del progetto DES: "La EFF ha dimostrato cio' che gli scienziati avevano intuito gia' da vent'anni, e cioe' che il DES puo' essere violato in maniera rapida ed economica. Ora che i cittadini lo sanno, non potranno piu' essere raggirati con l'acquisto di prodotti che promettono di assicurare la privacy con l'utilizzo del DES."
Il Data Encryption Standard, che fa uso di "chiavi" a 56 bit, era stato progettato da IBM e modificato dalla National Security Agency per essere adottato come standard federale nel 1977.
Carlo Gubitosa
La Crittografia a doppia chiave: una tecnologia scomoda Copyright (c) 1998 Carlo Gubitosa <c.gubitosa@peacelink.it>
- I diritti di proprieta' intellettuale di questo libro appartengono al suo autore, e in nessun caso quest'opera e' da intendersi di pubblico dominio.
- Questo testo e' libero, cosi' come le informazioni in esso contenute: e' data facolta' a chiunque di distribuirlo, di commercializzarlo, di riprodurlo con qualsiasi mezzo meccanico e/o elettronico, di realizzare, riprodurre e distribuire versioni tradotte o derivate ponendo come unica clausola il rispetto dei termini contenuti in questa licenza di utilizzo.
- Il testo e' stato realizzato cosi' come lo si legge, e non si risponde di qualsiasi uso improprio o illecito delle informazioni e dei testi in esso contenuti.
- Qualsiasi riproduzione integrale del testo deve avvenire senza modifiche o aggiunte, e deve riportare integralmente, senza modifiche o aggiunte, la presente licenza di utilizzo.
- Qualsiasi riproduzione parziale di testi del libro deve avvenire senza modifiche, ed e' possibile omettere la presente licenza di utilizzo nella riproduzione parziale solo a condizione che venga opportunamente citato l'autore e le fonti dei testi riprodotti.
- Tutte le traduzioni o i lavori derivati da questo testo devono essere resi liberi nei termini specificati da questa licenza di utilizzo, devono contenere al loro interno la presente licenza di utilizzo, in versione integrale e senza modifiche, e devono essere approvati dall'autore con comunicazione scritta prima della loro distribuzione, cosi' come devono essere approvate dall'autore eventuali traduzioni della presente licenza di utilizzo.
- E' data facolta' di commercializzare delle riproduzioni di questo testo, di sue traduzioni o di sue versioni derivate a condizione che vengano rispettati i termini della presente licenza di utilizzo e vengano riconosciuti agli autori diritti intellettuali ed economici in modo proporzionale ai vantaggi intellettuali ed economici conseguiti dalla distribuzione e commercializzazione del libro, di sue traduzioni, o di sue versioni derivate.
- Si vieta espressamente qualsiasi tipo di modifica che non sia stato precedentemente concordato con autorizzazione scritta dell'autore del testo. Tutte le modifiche non autorizzate verranno considerate una violazione dei termini della presente licenza e quindi una violazione del diritto d'autore.
- Si diffidano dall'utilizzo a scopo di lucro di queste informazioni tutti i media asserviti alla logica del profitto, che vivono di cio' che pagano i loro inserzionisti o che fanno parte di grandi gruppi editoriali che di fatto limitano la liberta' di stampa soffocando la piccola editoria.
Baggianate. "Milione" è il libro delle miglia: un diario su cui ogni viaggiatore del tempo appuntava i nomi delle città visitate, le distanze percorse e le difficoltà del viaggio, per poter valutare i tempi di ritorno. Marco Polo lo usò anche per annotare le caratteristiche salienti, gli usi e i costumi dei Paesi che visitava: e questo lo rese unico.
un protocollo è un insieme di norme, accettate da entrambe le parti, che consentono a due entità di comunicare. Le norme riguardano sia la codifica dei messaggi (che contengono l' oggetto della comunicazione) sia i metamessaggi (messaggi di servizio che assicurano che il canale rimanga aperto e che i messaggi arrivino correttamente all' altra parte. Esempi di metamessaggi durante una comunicazione telefonica: "Uhhm...", "Sì, sì...", "Puoi ripetere per favore?", "C'è ancora qualcuno in linea?")
IP sta per "Internet Protocol", protocollo in uso sull' Internet: in realtà, non si tratta di un solo protocollo, ma di un intero insieme, o suite di protocolli, ognuno destinato a gestire una specifica forma di comunicazione.
Un preprint è la copia di un articolo distribuito prima delle pubblicazione. Quando un autore invia un articolo ad una rivista scientifica, esso viene sottoposto ad un collegio di arbitri o referees che decidono se è pubblicabile, non pubblicabile o pubblicabile con modifiche. Dopo che un articolo è stato accettato, per la sua stampa può occorrere un tempo tecnico di mesi: nel frattempo, per velocizzare la circolazione delle idee, l' autore è autorizzato a distribuirne copie con la dicitura "apparirà su ..." nella cerchia dei ricercatori interessati all' argomento: i preprint, appunto.
Con la possibilità di rendere disponibili i preprint sull' Internet, molti autori hanno acquisito l' abitudine di rendere disponibili i propri preprint prima ancora dell' accettazione, o addirittura sotto forma di bozza, prima della sottomissione. L' Internet è diventata così il principale veicolo di diffusione delle nuove idee scientifiche e dei risultati di esperimenti dell' ultim' ora, assegnando alla carta stampata la pura funzione di archivio storico per la consultazione successiva.
Gopher è il nome di un piccolo roditore, simile agli scoiattoli americani ma che vive nel sottosuolo, molto diffuso nel Minnesota. La parola è usata anche per indicare scherzosamente un abitante del Minnesota, o un fattorino tuttofare. L' applicazione gopher fu ideata, com' è facile intuire, all' Università del Minnesota.
La resa o rendering di un' informazione è l' insieme di regole che ne determina la presentazione all' utente: p.es., la resa grafica determina il carattere da usare e la sua dimensione, che le frasi evidenziate vadano rese in grassetto e quelle enfatizzate in corsivo, che le immagini vengano inserite nel testo a destra, sinistra o in basso, e così via. Esiste però anche la possibilità di definire una resa vocale, per esempio che le frasi evidenziate vadano rese scandendole e quelle enfatizzate accentuando le pause e gli accenti. Sintetizzatori vocali con una resa simile vengono utilizzati da non vedenti per accedere alle informazioni sul Web.
Un' altra leggenda metropolitana di circolazione corrente racconta che Cristoforo Colombo affermasse che la terra fosse tonda, e che quindi fosse possibile raggiungere le Indie navigando verso ponente, mentre i saggi di Saragozza affermavano invece fosse piatta. Altra baggianata. Ai tempi di Colombo tutti i colti dell' epoca conoscevano esattamente la forma della terra ed anche le sue esatte dimensioni. I consulenti di Isabella calcolavano esattamente anche la distanza, via terra, fra la Spagna e le Indie, e ne deducevano quindi che per raggiungerle via Atlantico non sarebbero bastati tre mesi di navigazione - un' impresa al di fuori della portata di qualsiasi nave del tempo, per l' impossibilità di immagazzinarvi e conservarvi scorte di viveri sufficienti. Colombo, basandosi su calcoli erronei di Tolomeo, stimava la distanza via terra molto superiore, e quindi quella via mare molto inferiore, copribile in un mese. Se Colombo non avesse trovato altra terra lungo il percorso, sarebbero morti tutti di fame, sete e scorbuto. Come spesso accade in casi simili, i consulenti imperali avevano ragione.
Questo testo è free software. Esso è soggetto al diritto di copyright e dato in licenza d' uso al mondo intero tramite la GNU Public License, versione 2, della Free Software Foundation, che in sintesi prescrive:
Chiunque può copiare e ridistribuire liberamente questo testo, purchè ne preservi la dichiarazione di copyright e di assoggettamento alla GNU Public License. Questa limitazione ha l' unico scopo di non sottrarre ad altri lo stesso diritto di copia. Chi usa come vere senza verificarle affermazioni contenute in questo testo lo fa a proprio rischio e pericolo. Il detentore del copyright non risponde della veridicità delle affermazioni contenute nel testo. L' autore risponde solo con la propria reputazione.