Pubblicato il

Apparecchiature di diffusione di massa: Internet

Rete di accesso pubblico per la comunicazione.

Internet è una rete ad accesso pubblico che connette vari dispositivi o terminali in tutto il mondo. Dalla sua nascita rappresenta il principale mezzo di comunicazione di massa, che offre all’utente una vasta serie di contenuti potenzialmente informativi e di servizi

Origine

L’origine di Internet risale agli anni sessanta, su iniziativa degli Stati Uniti d’America, che misero a punto durante la guerra fredda un nuovo sistema di difesa e di controspionaggio.

La prima pubblicazione scientifica in cui si teorizza una rete di computer mondiale ad accesso pubblico è On-line man computer communication dell’agosto 1962, pubblicazione scientifica degli statunitensi Joseph C.R. Licklider e Welden E. Clark. Nella pubblicazione Licklider e Clark, ricercatori del Massachusetts Institute of Technology, danno anche un nome alla rete da loro teorizzata: “Intergalactic Computer Network”.

Prima che tutto ciò cominci a diventare una realtà pubblica occorrerà attendere il 1991 quando il governo degli Stati Uniti d’America emana la High performance computing act, la legge con cui per la prima volta viene prevista la possibilità di ampliare, per opera dell’iniziativa privata e con finalità di sfruttamento commerciale, una rete Internet fino a quel momento rete di computer mondiale di proprietà statale e destinata al mondo scientifico. Questo sfruttamento commerciale viene subito messo in atto anche dagli altri Paesi

Prime reti tra computer

Nel 1969 il Dipartimento della Difesa americano decise di creare una rete che collegasse tutti i computer operanti nelle varie installazioni militari dislocate su tutto il territorio. Nel 1969 fu ideato il progetto DARPA (Defense Advanced Research Projects Agency) cominciò quindi il suo sviluppo e si decise di connettere, come prova sperimentale, 4 diverse postazioni in USA. La connessione ebbe successo, anche se dopo la trasmissione del primo carattere la macchina andò in crash. L’importante fu che la connessione riuscì. L’idea era quella di creare una struttura che consentisse ai vari computer di continuare a comunicare tra loro anche nel caso che una parte di essi venisse resa inutilizzabile da malfunzionamenti casuali o da attacchi nemici.
I fattori chiave per raggiungere questo risultato erano il decentramento e l’indipendenza dei computer facenti parte la rete: nessun computer avrebbe dovuto rivestire un ruolo fondamentale nello smistamento dei dati. Ciascuno di essi doveva essere in grado di instradare correttamente le informazioni in arrivo e, inoltre, i dati in transito dovevano contenere tutti le informazioni necessarie al loro corretto recapito. In parole povere, se anche uno o più segmenti della rete fossero stati distrutti improvvisamente, i dati avrebbero raggiunto automaticamente altri computer e da lì trasmessi al destinatario senza perdersi nel nulla. In seguito a vari esperimenti e correzioni, quindi, si arrivò alla creazione di una rete militare chiamata ARPANET (Advanced Research Projects Agency Network), che raggiunse lo scopo prefissato con l’invenzione e l’applicazione di uno standard di comunicazione dati chiamato TCP/IP (Transmission Control Protocol / Internet Protocol).

TCP definisce il formato nel quale i dati da trasmettere devono essere convertiti, mentre IP si occupa di stabilire in quale modo devono essere trasmessi. TCP/IP é basato su un metodo molto semplice, paragonabile a quello utilizzato da un ufficio postale per il recapito della corrispondenza: ad ogni computer della rete viene assegnato un codice ed i dati in transito vengono riuniti in pacchetti accompagnati dai codici necessari al loro recapito, esattamente come se fossero stati inseriti in una busta sulla quale erano specificati l’indirizzo del mittente e quello del destinatario.
In questo modo ogni “busta” poteva essere fatta passare attraverso vie alternative senza che andasse perduta, perché l’indirizzo del destinatario impresso su di essa garantiva che ogni sistema sapesse a chi doveva tentare di recapitarla
. L’adozione di un protocollo unico garantiva, inoltre, che tutti i computer della rete potessero essere in grado di comunicare tra loro senza problemi. Questo sistema si rivelò efficace, al punto che lo standard TCP/IP cominciò ad essere adottato in tutto il mondo, anche per applicazioni diverse da quelle militari; contemporaneamente incominciarono a diffondersi sistemi operativi (UNIX) che implementavano vari metodi di gestione di piccole reti locali di computer. 

Nascita del World Wide Web (1991)

Nel 1991 presso il CERN di Ginevra il ricercatore Tim Berners-Lee definì il protocollo HTTP (HyperText Transfer Protocol), un sistema che permette una lettura ipertestuale, non-sequenziale dei documenti, saltando da un punto all’altro mediante l’utilizzo di rimandi (link o, più propriamente, hyperlink). Inoltre, il 6 agosto Berners-Lee pubblicò il primo sito web della storia, presso il CERN, all’indirizzo http://info.cern.ch/hypertext/WWW/TheProject.html. Nel World Wide Web (WWW), le risorse disponibili sono organizzate secondo un sistema di librerie, o pagine, a cui si può accedere utilizzando appositi programmi detti web browser con cui è possibile navigare visualizzando file, testi, ipertesti, suoni, immagini, animazioni e filmati. Il primo browser con caratteristiche simili a quelle attuali, il Mosaic, venne realizzato nel 1993.

Il 30 aprile 1993 il CERN decide di rendere pubblica la tecnologia alla base del World Wide Web in modo che sia liberamente implementabile da chiunque. A questa decisione fa seguito un immediato e ampio successo del World Wide Web in ragione delle funzionalità offerte, della sua efficienza e della sua facilità di utilizzo. Internet crebbe in modo esponenziale, in pochi anni riuscì a cambiare la società, trasformando il modo di lavorare e relazionarsi. Nel 1998 venne introdotto il concetto di eEconomy.

La facilità d’utilizzo connessa con l’HTTP e i browser, in coincidenza con una vasta diffusione di computer per uso anche personale, hanno aperto l’uso di Internet a una massa di milioni di persone, anche al di fuori dell’ambito strettamente informatico, con una crescita in progressione esponenziale.

Diffusione

Se prima del 1995 Internet era dunque relegata a essere una rete dedicata alle comunicazioni all’interno della comunità scientifica e tra le associazioni governative e amministrative, dopo tale anno si assiste alla diffusione costante di accessi alla rete da parte di computer di utenti privati fino al boom degli anni 2000 con centinaia di milioni di computer connessi in rete in parallelo alla diffusione sempre più spinta di PC al mondo, all’aumento dei contenuti e servizi offerti dal Web e a modalità di navigazione sempre più usabili, accessibili e user-friendly. 

Internet oggi

Internet, oggi, è sinonimo di globalizzazione. Avere un sito internet significa possedere una vetrina sul mondo, farsi conoscere dappertutto. Dicendo: “Vado su internet!” la gente afferma che intende visitare i siti del World Wide Web. È quindi più simile all’insieme delle entità che lo popolano, piuttosto che all’insieme delle reti di cui è costituito. È più simile alla definizione di insieme degli iperoggetti di Tim Berners Lee: il WWW; cioè qualcosa di staccato dall’infrastruttura fisica che, invece, potrebbe subire modificazioni. Importantissima è la capacità dei browser di vedere internet dando la possibilità di interpretare il maggior numero di entità possibili.

Internet, Web, World Wide Web, WWW sono oggi trattati come sinonimi. Tanto è vero che i browser più diffusi permettono il raggiungimento del sito destinazione anche senza la digitazione del protocollo (http://) e del prefisso (www.).

Evoluzione

Media e comunicazioni, indicano inoltre la sempre più probabile piena integrazione nel prossimo futuro della rete Internet.

Se infatti da una parte i primordi della rete sono stati caratterizzati dallo scambio di dati come i contenuti testuali e immagini statiche l’evoluzione futura della rete va verso la sempre maggiore diffusione di contenuti multimediali come ad esempio i contenuti audio-video(es. streaming, Web Tv, IPTV, Web radio) che ne aumentano enormemente il traffico complessivo e il relativo carico sui nodi o sistemi interni di commutazione (router) e sui server, vuoi anche per l’aumento del numero di utenti connessi in rete al mondo. La soluzione più praticata a questo problema è la decentralizzazione delle risorse ovvero sistemi di rete distribuiti (es. Content Delivery Network) in grado di gestire l’aumento di traffico, mentre per far fronte all’aumento di banda necessaria sui collegamenti sono da menzionare nuove e più efficienti tecniche di compressione dati che hanno reso possibile il diffondersi di servizi sempre più evoluti e pesanti.

Sotto questo punto di vista l’evoluzione della rete dal punto di vista dei servizi richiede anche lo sviluppo di un’infrastruttura di rete di accesso a banda sempre più larga con la realizzazione delle cosiddette Next Generation Network per sopperire all’aumento di traffico previsto e la fruizione dei servizi stessi dall’utente finale. Gli stessi operatori che dovrebbero investire sulla realizzazione di tali infrastrutture richiedono però un ritorno certo dell’investimento ovvero una convenienza economica che risulterebbe invece molto più a favore dei grandi network o fornitori di servizi e contenuti di rete (Google, YouTube, Facebook, Twitter, LinkedIn, ecc.) sollevando così il problema della cosiddetta neutralità della rete o meno.

La natura globale con la quale è stata concepita Internet ha fatto sì che oggi, un’enorme varietà di processori, non solo apparati di calcolo in senso stretto, ma a volte anche incorporati in maniera invisibile (embedded) in elettrodomestici e in apparecchi dei più svariati generi, abbiano tra le proprie funzionalità quella di connettersi a Internet e, attraverso questo, a qualche servizio di aggiornamento, di distribuzione di informazione e dati; dal frigorifero, al televisore, all’impianto di allarme, al forno, alla macchina fotografica: ogni processore oramai è abilitato a comunicare via Internet. In tal senso dunque un’ulteriore evoluzione della Rete, propugnata da alcuni, potrebbe essere l’estensione della connettività agli oggetti taggati del mondo reale dando vita alla cosiddetta Internet delle cose.

Pubblicato il

Dispositivi di scansione dei documenti: lo scanner

Trasformare documenti fisici in file

Lo scanner, in italiano lettore ottico di immagini, è una periferica in grado di acquisire in modalità ottica una superficie analogica (fogli stampati, pagine, fotografie, diapositive), di interpretarla come un insieme di pixel, e quindi di ricostruirne la copia fotografica sotto forma di immagine digitale.

Storia

Negli anni Cinquanta Russell Kirsch, un ingegnere informatico statunitense, lavorava al National Bureau of Standards, un’agenzia governativa che si occupa dello sviluppo e della gestione delle tecnologie. Nel 1957, in pratica, Kirsch era una delle poche persone negli Stati Uniti a poter lavorare con l’unico computer programmabile esistente, e in primavera fu il primo a digitalizzare una fotografia con uno scanner: prese una foto di sé stesso mentre reggeva in braccio suo figlio di tre mesi, Walden, e la ritagliò in modo da tenere soltanto il volto del figlio. All’epoca in cui la foto fu scattata e poi digitalizzata, Kirsch e i suoi colleghi avevano sviluppato solo da qualche anno il primo computer, lo Standards Eastern Automatic Computer(SEAC). In un’intervista del 2007, Kirsch spiegò che il computer serviva per operazioni molto più importanti e complesse, come quelle relative ai calcoli riguardo le armi termonucleari, e in genere per calcoli numerici, algebrici e geometrici. Disse anche che la storia dei computer è piena di persone che, avendo accesso alle macchine, a volte le utilizzavano per interessanti esperimenti che delle organizzazioni non avrebbero probabilmente approvato, poiché consapevoli dei costi.

Per acquisire l’immagine di suo figlio Walden, Kirsch utilizzò un primo rudimentale scanner a tamburo, che scomponeva idealmente l’immagine in piccoli quadrati e trasmetteva e traduceva in forma binaria – 1 o 0 – l’informazione contenuta in ciascuno di quei piccoli quadrati (pixel).

Funzionamento

Lo scanner svolge una funzione esattamente opposta a quella della stampante e, allo stesso tempo, analoga a quella di una fotocopiatrice con la differenza che la copia, in questo caso, non è su carta ma digitale.

Tale immagine può poi essere modificata mediante appositi programmi di fotoritocco o, nel caso di una scansione di un testo, convertita in un documento di testo mediante riconoscimento ottico dei caratteri.

Per digitalizzare un oggetto, gli scanner utilizzano un sensore ottico (un occhio, in senso figurativo) sensibile alla luce. Generalmente, vengono adottati due tipi di sensori:

  • CCD (charged-coupled devices), costituito da una matrice lineare o quadrata di fotodiodi;

  • PMT (photomultiplier tubes), costituito da tre fotomoltiplicatori sensibili alle luci rossa, verde e blu (RGB).

Inoltre, il sensore è sempre accoppiato ad un convertitore analogico-digitale dedicato a trasformare l’informazione acquisita in dato digitale.

Scanner di tipo CCD

Il sensore ottico di tipo CCD è adottato principalmente dagli scanner a letto piano, da quelli alimentati a foglio, dai modelli manuali e da quelli per le diapositive.

Un CCD è un elemento elettronico composto da minuscoli sensori che genera una differenza elettrica analogica proporzionale all’intensità di luce che lo colpisce. Negli scansionatori a letto piano, i sensori sono disposti su una matrice lineare (che richiede tre passaggi di rilevazione, uno per ciascuno dei tre colori RGB della luce) o su tre matrici lineari su un chip (che permettono la scansione a un solo passaggio).

Durante la scansione dell’immagine, una luce bianca viene proiettata verso l’oggetto da digitalizzare e la matrice:

  • riceve il riflesso della luce;

  • campiona l’intera larghezza dell’oggetto;

  • la registra come una linea completa;

  • rileva le differenze di tensione (rappresentate dai vari livelli di luce analogici);

  • le invia ai convertitori A/D, che le trasformano in dati binari.

Questo processo richiede solo una frazione di secondo e viene eseguito per tutta la lunghezza dell’oggetto (per questo motivo, il sensore ottico viene spostato da un meccanismo di trascinamento interno allo scansionatore).

Scanner di tipo PMT

Il sistema di scansione con tubi fotomoltiplicatori PMT (photomultipliers tubes) è adottato dagli scanner a tamburo.

Nonostante la tecnologia sia più datata rispetto a quella dei CCD e abbia costi di manutenzione più elevati, i fotomoltiplicatori hanno ottime caratteristiche di qualità e affidabilità e, spesso, la qualità dell’immagine acquisita è superiore a quella fornita dagli altri tipi di scanner.

Generalmente, negli scanner a tamburo sono presenti tre fotomoltiplicatori: uno per il rosso, uno per il verde e uno per il blu. La sorgente luminosa emessa è una luce alogena al tungsteno, il cui fascio viene concentrato con lenti e fibre ottiche in modo da illuminare una porzione molto piccola dell’oggetto.

La luce riflessa dall’oggetto viene raccolta da piccoli specchi semitrasparenti, inclinati, che rimandano una piccola quantità di luce ad altri specchi. Quindi, la luce passa attraverso un appropriato filtro colorato e diretto al corrispondente fotomoltiplicatore, dove avviene il processo di amplificazione ottica.

L’anodo del fotomoltiplicatore misura le variazioni di questi segnali, che vanno ai convertitori A/D per essere registrati in segnali digitali.

Rispetto a un sistema CCD di medio livello, la tecnologia dei fotomoltiplicatori consente di catturare tonalità ad alta definizione più fedeli e precise. Infatti, gli scansionatori CCD più diffusi in commercio sono, generalmente, inferiori agli scanner a tamburo in termini di qualità dell’immagine. Tuttavia, alcuni esperti assicurano che, grazie ai continui miglioramenti della tecnologia CCD e dei convertitori A/D, gli scansionatori di fascia alta possono riprodurre le immagini con una fedeltà molto simile a quelli a tamburo.

Tipologie

SCANNER A RULLO

Simili a delle piccole stampanti, sono in grado di scansionare velocemente grandi quantità di fogli singoli prelevati, come nelle stampanti, da un cassetto di alimentazione. Il software allegato alla macchina provvede a convertire il testo stampato o dattiloscritto sui fogli in file di testo (formati TXT, RTF, DOC, ecc.) o in formati testo + immagini del tipo PDF.
Altro esempio di questi scanner sono le macchine Fax a rullo.

Dal momento che il sensore di cattura immagine è statico – si muove il foglio -, questo tipo di scanner non è in grado di scansionare libri, riviste e simili, né fogli o pellicole di dimensioni superiori all’A4 (21 cm di larghezza).

Questa tipologia di scanner è di uso prettamente aziendale, ed è un elemento essenziale di molti sistemi di gestione dei documenti (Document Management Systems).

 

SCANNER PIANI

Sono composti da un piano in vetro sul quale appoggiare la superficie da scansionare (posta verso il vetro), e da un sensore più lampada di illuminazione che scorre sotto il vetro per ‘leggere’ il foglio. E’ presente un coperchio che, nel caso di fogli singoli o documenti di piccolo spessore, aiuta un fermo posizionamento del documento. Quando si debbano scansionare per trasparenza delle pellicole, diapositive e simili, questo coperchio include una seconda lampada.

Con questo tipo di scanner è possibile quindi scansionare sia documenti di dimensioni maggiori dell’A4 – eseguendo più scansioni separate della stessa superficie, scansioni che poi il software in dotazione provvederà a riunire – che documenti di rilevante spessore, quali i libri, semplicemente rimuovendo il coperchio.

Queste caratteristiche costruttive rendono lo scanner piano il più versatile e adatto ad un uso sia professionale che amatoriale, soprattutto per la scansione di materiale diverso dai fogli singoli in formato A4.

Un privato potrà quindi, tramite uno scanner piano del costo massimo di 200 €, estrarre da riviste e libri del testo editabile al computer, convertire in immagini digitali il suo archivio fotografico, eseguire delle copie di documenti, spedire via Fax dei documenti, ecc.

Sono in commercio anche scanner particolari per usi professionali, quali gli scanner dedicati per la scansione di diapositive, pellicole e microfilm, oppure gli scanner per documenti in formato A3 (42 x 60 cm), usati particolarmente dagli archivi di documentazione storica (e sovente dotati di dispositivi per girare automaticamente le pagine di un libro).

 

SCANNER MANUALI

Tipo a rullo, di larghezza sui 12 cm.
Utili per scansionare superfici molto grandi e/o non “spostabili”, essendo per esempio possibile far scorrere manualmente lo scanner su un manifesto a muro o appoggiato su un tavolo.

Tipo a penna, in grado di scansionare strisce di documento di larghezza fino a 1-2 cm.
Servono per digitalizzare velocemente poche righe di testo, ad esempio quando si vogliano estrarre delle citazioni da un libro o dalle pagine di una rivista, oppure archiviare digitalmente dei biglietti da visita, ecc.