Pubblicato il

DECODIFICA E CODIFICA DEI DATI

DEFINIZIONI

  • CODIFICARE: tradurre informazioni in un codice convenzionale
  • DECODIFICARE: Interpretare un testo scritto in codice, traducendolo in un linguaggio chiaro

Leggere un’informazione significa inevitabilmente decodificare tale informazione, farla passare dalla forma concreta che gli è stata data a quella astratta che gli è stata data alla nostra mente. Ad esempio leggere il numero 10 significa interpretare la forma decimale in cui è scritto per ottenere l’idea del 10.

Una codifica è un procedimento per mezzo del quale i dati che compongono un’informazione vengono materializzati e possono diventare un messaggio. Occorre tradurre ciò che si vuole comunicare nei termini di un codice adatto alla trasmissione delle informazioni che vogliamo condividere. Il codice usato per la trasmissione deve possedere le tessere adatte a rappresentare gli elementi dell’informazione e i rapporti tra tali tessere devono riprodurre i rapporti logici dell’oggetto che si vuole descrivere. Una codifica è, dunque, un insieme di regole che servono per tradurre i segnali informativi in altri segnali in modo efficiente e unitario, così da ritradurre il messaggio all’arrivo svolgendo l’operazione inversa della decodifica e ottenendo le informazioni di partenza. Ogni strumento di codifica comporta un’interpretazione dell’informazione e una sua alterazione. L’attività di codifica testuale pone di fronte al problema della scelta degli elementi da codificare. La codifica implica una serie di operazioni di selezione e classificazione degli elementi rilevanti in funzione di un determinato punto di vista, e la loro mappatura biunivoca sugli elementi del linguaggio prescelto. Codificare significa, infatti, effettuare un’analisi del testo, individuarne le caratteristiche e formulare un’interpretazione della fonte, sulla base delle proprietà individuali o della classe di appartenenza del documento rispetto a un modello generale di riferimento. La rappresentazione digitale avviene attraverso una codifica discreta dell’informazione.

L’uomo ha sempre cercato di migliorare la sua capacità di comunicazione.

  1. ES. Codice morse: ll codice Morse, detto anche alfabeto Morse, è un sistema per trasmettere lettere, numeri e segni di punteggiatura per mezzo di un segnale in codice ad intermittenza e fu uno dei primi metodi di comunicazione a distanza.

Fu oggetto di studio di Samuel Morse dal 1835, ma venne realizzato dal tecnico Alfred Vail, suo collaboratore dal settembre 1837. Fu da entrambi sperimentato per la prima volta l’8 gennaio del 1848 allorché, in presenza di una Commissione del Franklin Institute di Philadelphia, venne impiegato il telegrafo scrivente register

Esempio di codice Morse

Il codice Morse è una forma ante litteram di comunicazione digitale. Tuttavia, a differenza dei moderni codici binari che usano solo due stati (comunemente rappresentati con 0 e 1), il Morse ne usa cinque: punto (•), linea (—), intervallo breve (tra punti e linee all’interno di una lettera), intervallo medio (tra lettere) e intervallo lungo (tra parole).

Il primo tentativo ad opera dell’uomo di codifica di informazioni è rappresentato dalle pitture rupestri.

Un altro esempio di codifica di informazioni è il codice binario. In informatica il sistema binario è utilizzato per la rappresentazione interna dell’informazione dalla quasi totalità degli elaboratori elettronici, in quanto le caratteristiche fisiche dei circuiti digitali rendono molto conveniente la gestione di due soli valori, rappresentati fisicamente da due diversi livelli di tensione elettrica. Tali valori assumono convenzionalmente il significato numerico di 0 e 1 o quelli di vero e falso della logica booleana.

 

Pubblicato il

TECNOLOGIE DEL MEDIOEVO: I MULINI A VENTO

I primi ad essere reinventati furono quelli che sfruttavano l’energia idraulica come, ad esempio, i mulini natanti di Tolosa o quelli mossi dalla marea di Dover. Più in generale, possiamo affermare che l’introduzione del mulino fu, probabilmente, il progresso tecnologico più importante realizzato tra il X ed il XIII secolo. Infatti, i mulini venivano utilizzati in qualunque ciclo produttivo, dalla battitura del metallo alla conciatura delle pelli, dalla produzione della birra alla lavorazione della canapa. Insomma, non vi era settore dove il mulino non venisse adoperato. I più diffusi ed utilizzati comunque, erano quelli per la macinatura del grano.


Questi mulini però, avevano dei grossi limiti in termini di efficienza del lavoro svolto. Infatti, il movimento circolare ottenuto, dapprima mediante l’utilizzo di ruote orizzontali o verticali, costituiva solo un progresso quantitativo rispetto a quello garantito dai rudimentali mulini adoperatiNell’ XI secolo, fece la sua prima apparizione (nella regione di Toledo) il mulino che utilizzava il vento come energia motrice. Furono poi i Normanni, grandi conoscitori dei venti marini e delle strutture marittime, a perfezionarlo nel XII secolo ed a garantirgli un grande avvenire. Infatti, il mulino a vento fu largamente utilizzato nei polder olandesi per prosciugare l’acqua, ed in tutti i paesi ventosi per la macinatura del grano.

nelle epoche precedenti o persino dalle primitive mole azionate dalle braccia dell’uomo. Dunque, si cercò di ovviare a questo problema, giungendo alla piena utilizzazione dell’energia idraulica ed eolica, reinventando e diffondendo l’albero a camme che permise di trasformare il movimento circolare in alternato. Questa importante miglioria fu introdotta tra l’XI ed il XIII secolo.

Esempio di mulino ad acqua

 

Prima ancora della rivoluzione industriale, però, l’uomo riuscì a infrangere le restrizioni imposte dalla disponibilità di sola energia animata (soprattutto animali) utilizzando quella eolica, attraverso i mulini a vento, e quella idraulica. Per quanto riguarda i mulini a vento, questi dovevano essere edificati in aree per natura molto ventose. Inoltre, le pale ruotavano solo quando il vento soffiava nella direzione giusta e di conseguenza il loro uso non era continuativo.

Per questo motivo, verso la fine del Medioevo, fu inventato il mulino in pietra, avente sulla sommità una camera rotante, che seguiva il vento senza ridurre il funzionamento dei macchinari collegati nella parte inferiore della struttura. Svantaggi del mulino

Il mulino, tuttavia, come ogni strumento di innovazione tecnologica, presentava anche alcuni svantaggi:

  • il limite principale, che è anche il più evidente, era di carattere geografico: il mulino, a seconda del tipo di energia che sfruttava, doveva essere costruito o in una zona ventosa o lungo un fiume o corso d’acqua idoneo. Ciò rendeva il mulino adatto solo alle regioni che presentavano tali requisiti;
  • il mulino si basava su forze naturali che non dipendevano direttamente dall’uomo: nel caso del mulino ad acqua, perciò, le piene, le secche e le gelate dei fiumi potevano creare problemi, così come le condizioni atmosferiche avverse;
  • i costi di costruzione e di manutenzione erano piuttosto elevati. Poiché il mulino implicava un grande investimento di denaro, solo i signori ricchi e potenti (laici o ecclesiastici) potevano permetterselo. Conseguenza delle spese onerose fu anche l’obbligo di molitura, per il quale le comunità sottoposte venivano costrette a macinare il grano nel mulino del signore, il quale imponeva un pagamento per il suo utilizzo;
  • i problemi e le controversie legate agli impianti aggiuntivi, che venivano costruiti al fine di controllare l’approvvigionamento dell’acqua. Spesso, infatti, venivano realizzati sistemi di canali e strutture di sbarramento che non di rado provocavano scontri tra i proprietari: la presenza di dighe determinava danni alla navigazione sui grandi fiumi e talvolta disastri in caso di piena.
Pubblicato il

La quarta rivoluzione industriale

 

Industria 4.0: la quarta rivoluzione industriale

Legame tra uomo e macchine connesse ad Internet nell’industria

 

 

Definizione

La quarta rivoluzione industriale indica una tendenza dell’automazione industriale che integ

 

ra alcune delle nuove tecnologie produttive per migliorare le condizioni di lavoro, creare nuovi modelli di business e aumentare la produttività e la qualità produttiva degli impianti.

A questa è strettamente legata lo Smart Manufacturing, ossia l’innovazione digitale nei processi dell’industria.

 

l significato (e le origini del termine)

Con “Industria 4.0” si intende un modello di produzione e gestione aziendale. Secondo una definizione che ne dà il Mise (Ministero dello Sviluppo Economico), gli elementi che caratterizzano il fenomeno sono «connessione tra sistemi fisici e digitali, analisi complesse attraverso Big Data e adattamenti real-time».

In altre parole: utilizzo di macchinari connessi al Web, analisi delle informazioni ricavate della Rete e possibilità di una gestione più flessibile del ciclo produttivo. Le tecnologie abilitanti, citate sempre dal Mise, spaziano dalle stampanti 3D ai robot programmati per determinate funzioni, passando per la gestione di dati in cloud e l’analisi dei dati per rilevare debolezze e punti di forza della produzione.

 

Come si è arrivati all’industria 4.0?

Il processo di industrializzazione del mondo si è diviso fino ad oggi in tre grandi tappe:

  1. la prima, nel 1784, è segnata dalla nascita della macchina a vapore e dalla conseguente introduzione della potenza di acqua e vapore per meccanizzare la produzione;
  2. la seconda rivoluzione industriale viene cronologicamente ricondotta al 1870, quando l’utilizzo di nuove fonti energetiche come il petrolio e l’avvento del motore a scoppio diedero il via alla produzione di massa;
  3. la terza rivoluzione industriale è segnata invece dalla forte spinta all’innovazione tecnologica determinata dalla nascita dell’informatica nel 1970. L’ascesa della tecnologia informatica ha dato il via allo sviluppo dell’era digitale e all’automazione di molti processi avvalendosi di sistemi dell’IT (Information Technology).

La naturale evoluzione di questo processo ha condotto alla quarta rivoluzione industriale, madre dell’Industria 4.0, tuttora in corso e di cui solo a posteriori sarà possibile indicarne il momento di inizio.

 

Crescita a livello esponenziale delle tecnologie

Caratteristiche principali

  • Gestione e archiviazione: possibilità di gestire grandi quantità di dati disponibili in rete (big data), permettendo a chiunque di accedervi liberamente e fruirne senza problemi (carattere “open” dei dati). Vengono quindi acquisiti da macchine capaci di interagire tra di loro attraverso una rete Internet, “Internet of things”;
  • Analytics: insieme delle tecniche e degli algoritmi necessari per estrarre dai dati informazioni utili e ricavarne un valore. Lo sviluppo di tecniche di intelligenza artificiale può giocare un ruolo fondamentale: il “machine learning”, l’apprendimento automatico delle macchine, attualmente poco diffuso a livello industriale, dovrebbe subire un “boom” nei prossimi anni;
  • Potenziamento della interazione: miglioramento del legame tra esseri umani e macchine, a seguito del consolidamento delle interfacce avanzate come “touch screen” e comandi vocali. Può portare allo sviluppo di sistemi di realtà aumentata per l’ottimizzazione degli spazi di lavoro e dei processi produttivi;
  • Additive manufacturing: processo di unione dei materiali per fabbricare oggetti da modelli 3D computerizzati. Fondamentali sono la stampa 3D, utilizzo di robotica avanzata, e interazioni tra automi

In che modo l’industria 4.0 cambierà il mondo del lavoro?

Secondo la ricerca “The Future of the Jobs” presentata al World Economic Forum, fattori tecnologici e demografici come il cloud, l’IoT e la flessibilità del lavoro stanno già influenzando le dinamiche economiche e lavorative e ciò aumenterà nei prossimi 2-3 anni. Il principale effetto sarà la creazione di nuovi posti di lavoro che andranno a ricoprire ruoli prima sconosciuti (si parla di circa 2 milioni di nuovi posti), a cui corrisponderà, nel contempo, la perdita di circa 7 milioni, generando un saldo netto negativo di oltre 5 milioni di posti di lavoro.

 

 

Lavori che scompaiono, professionalità che si creano

 

Un grosso quesito che pende sull’industria 4.0 riguarda l’occupazione. I timori sulla «robotizzazione» dei lavori hanno dato vita a indagini con risultati diversi, dall’ormai celebre stima del World Economic Forum sui «5 milioni di posti cancellati» dalla digitalizzazione a proiezioni più positive, ad esempio sulle carriere che possono essere generate dal cosiddetto internet of things : la connessione e interconessione di dispositivi e macchinari. Il rapporto appena pubblicato sul tema dalla Commissione lavoro del Senato («Impatto sul mercato del lavoro della quarta rivoluzione industriale») evidenzia una quota del 10% di lavoratori che rischiano di essere sostituiti da robot, mentre il 44% dovrà modificare le sue competenze.

 

Da non confondere la cosiddetta «automatizzazione» con l’industria 4.0 in blocco, soprattutto quando si tocca un tasto delicato come il lavoro. «Lavorare nell’industria 4.0 non equivale a essere sostituiti. Quello succede con la robotica, e solo in parte – dice – Si tratta di aggiornare le competenze: domani ci sarà bisogno di interagire con la macchina, ad esempio con la capacità di leggere i dati raccolti». 

 

L’impatto sul lavoro 

 

Il problema è capire quanti e quali lavori saranno generati. Cisco, multinazionale americana degli apparati di networking, fa notare che la domanda di lavoro sarà in parte commisurata all’esplosione di dispositivi connessi alla Rete e capaci di raccogliere dati (circa 5o miliardi di unità entro il 2020). Un’indagine di The European House-Ambrosetti per Adp Italia, costola nazionale dell’omonimo gruppo Usa delle risorse umane, prevede 135mila posti vacanti nell’Ict entro il 2020 (oltre il 300% in più rispetto ai 33mila del 2015, anche se non è detto che rientrino tutti nel perimetro della impresa 4.0).

Quanto alle professionalità in sé, sono già emersi alcuni lavori creati o rinnovati radicalmente dall’industria tecnologica. Solo per restare sui profili più manageriali, un’analisi del portale Usa TechCrunch cita figure come Chief internet of things officer (un manager con supervisione sull

 

L’impiego dell’Iot in azienda) e Iot Business designer (responsabili dello sviluppo di strategie che includono i dispositivi connessi). La domanda attuale, però, si concentra su ruoli già codificati e con una richiesta in ascesa su scala internazionale: analisti del busieness digitale, esperti di cybersicurezza, hardware engineer e soprattutto sviluppatori, capitale prezioso quando si tratta di riconvertire aziende esistenti secondo i canoni del digitale e dell’industria connessa.

 

Il nostro Paese riuscirà a contenere le perdite con un pareggio fra 200 mila posti creati e altrettanti persi. Le aree di maggiore perdita, quelle amministrative e produttive, saranno bilanciate parzialmente da una crescita nell’area finanziaria, di management, informatica e ingegneria. A novembre 2015 il MiSE (Ministero per lo Sviluppo Economico) ha presentato un documento intitolato “Industry 4.0, la via italiana per la competitività del manifatturiero” nel quale ha indicato 8 aree di intervento per promuovere lo sviluppo dell’Industria 4.0 e trasformarlo in opportunità di lavoro e crescita:

  • rilanciare gli investimenti industriali con particolare attenzione a quelli in ricerca e sviluppo, conoscenza e innovazione;
  • favorire la crescita dimensionale delle imprese e le reti d’impresa;
  • favorire la nuova imprenditorialità innovativa per accelerare la trasformazione digitale dell’industria;
  • definire protocolli, standard e criteri di interoperabilità condivisi a livello europeo;
  • garantire la sicurezza delle reti (cybersecurity) e la tutela della privacy;
  • assicurare adeguate infrastrutture di rete;
  • diffondere le competenze per Industry 4.0;
  • canalizzare le risorse finanziarie, convogliando nuove risorse finanziarie alle imprese.

 

In realtà, nonostante l’impegno dimostrato dal governo, l’Italia appare ancora molto in ritardo sull’Industria 4.0. Alla crescente consapevolezza di imprenditori e manager dell’importanza di evolvere nell’ottica di un’Industria 4.0 non corrisponde un’adeguata riorganizzazione delle aziende, dei processi, della formazione.

La sfida è ormai in corso, sta alle PMI italiane sapere cogliere i benefici dell’Industria 4.0, attuando iniziative per la formazione dei lavoratori e per lo sviluppo dell’innovazione digitale nei processi dell’industria manifatturiera, in modo da ridurre il gap nei confronti di altre PMI come quelle tedesche.

 

https://www.insidemarketing.it/industria-4-0-cambiamenti-in-italia

 

https://www.considi.it/la-iv-rivoluzione-industriale

 

https://www.ilsole24ore.com/art/impresa-e-territori/2017-10-12/perche-si-parla-tanto-industria-40-che-cos-e-e-quanti-lavori-puo-creare-150850.shtml?uuid=AEZYmnlC&refresh_ce=1

 

Pubblicato il

La rivoluzione delle macchine elettriche nel ‘900

La rivoluzione delle macchine elettriche nel ‘900

Le macchine elettriche e lo sviluppo in tutti gli ambiti della produzione: la chiave della crascita fu il transistor.

Il ‘900 è stato un secolo di grandi e prodigiose scoperte, grazie alla produzione di macchine alimentate a energia elettrica e realizzate con elementi elettronici, si ha un progresso tecnologico esponenziale che coinvolge tutti i settori della produzione. Guardiamo la televisione, usiamo i cellulari e il web, lavoriamo al computer, ci curiamo con gli antibiotici, usiamo energia ricavata dall’atomo, guardiamo gli astronauti compiere viaggi nello spazio.

L’era moderna dell’elettronica inizia nel 1948, con un’invenzione veramente rivoluzionaria, il transistor, creato da tre scienziati americani: William Shockley, Walter Brattain e John Bardeen.

 Fino ad  allora, radio e televisioni erano apparecchi molto ingombranti che funzionavano per mezzo di valvole di grandi dimensioni, capaci di amplificare i segnali. Il transistor, invece, era piccolissimo, ma molto più potente delle valvole.

 

I transistors,  e poi i circuiti integrati (1959), e infine i microprocessori (1971), che in pochi millimetri quadrati possono contenere addirittura milioni di transistor hanno permesso di miniaturizzare, cioè di ridurre a dimensioni minime radio, televisori, radar, altoparlanti, ed ogni altro strumento basato sull’elettronica

A partire dagli anni Sessanta appaiono i primi dispositivi elettronici capaci di concentrare enormi quantità di energia su spazi microscopici. Sono i laser che trovano applicazione in medicina per compiere operazioni chirurgiche raffinatissime, nella meccanica di precisione, in campo militare, nella tecnica della registrazione e della riproduzione dei suoni.

Il compact disc (o CD), ad esempio, è un disco in materia plastica che viene «letto» da un laser.

Basati sullo sviluppo della tecnologia elettronica sono anche tanti degli oggetti che ci sembra naturale avere nelle nostre case e nelle auto: televisori a colori, impianti HI-FI, telefonini, I-pod, navigatori satellitari e, naturalmente, il computer.

Il primo calcolatore elettronico, costruito negli Stati Uniti nel 1946, funzionava per mezzo di 19 mila valvole collegate fra loro da mezzo milione di contatti saldati a mano. L’uso di circuiti integrati e poi di microprocessori ha permesso di ridurre le dimensioni, di aumentare la potenza, la velocità di calcolo e il numero di funzioni di queste macchine. Nel 1977 vengono messi in commercio i primi personal computer, apparecchi di piccole dimensioni, economici, per uso privato, che hanno subito una vasta diffusione. Insieme con il computer si sviluppano le due nuove tecnologie dell’informazione: quella informatica (per l’elaborazione elettronica dei dati) e quella telematica (per la loro trasmissione a distanza).

Se il transistor e i suoi derivati hanno aperto le porte alla microelettronica, c’è però da dire che senza il versante software la Silicon Valley non sarebbe mai diventata ciò che è ora; e che la scoperta che ci sta letteralmente cambiando la vita negli ultimi anni è l’informatica.

La scienza, cioè, che si occupa del trattamento delle informazioni tramite procedure automatizzabili. È ovvio che, se questa è la definizione, il computer è solo una delle molte applicazioni della scienza informatica. E che l’idea di una scienza che procede per algoritmi è di molto antecedente all’introduzione dei PC. È però ben difficile individuare una precisa data e un autore di questa invenzione. L’informatica, per come la conosciamo oggi, è il frutto di aggiunte successive, di nuove definizioni e di riformulazioni. In ogni modo, è possibile individuarne alcuni “padri putativi”.

I tre più importanti sono stati probabilmente l’americano Vannevar Bush, il britannico Alan Turing e l’ungherese John von Neumann. Al primo si deve l’invenzione di calcolatori analogici per le equazioni differenziali, un importante analizzatore differenziale e il concetto di ipertesto, anticipato già nel 1945.

Turing è famoso per la sua vita e la sua opera di crittografo, ma anche per aver inventato la cosiddetta Macchina di Turing. A lui si deve, infatti, la formalizzazione del concetto di algoritmo e l’idea dell’intelligenza artificiale. Infine von Neumann sviluppò le intuizioni di Turing collaborando alla creazione del primo software.

Pubblicato il

STORIA DEI VIDEOGIOCHI

Il videogioco è un dispositivo elettronico che ci riesce a far giocare attraverso l’interazione con uno schermo. Oggi esistono diverse categorie di videogioco a seconda dei propri interessi o della propria età. Il primo videogame della storia fu probabilmente Tennis for two,  inventato da William Higinbothan nel 1958 per intrattenere i visitatori del  Brookhaven National Laboratory e per dimostrare che la tecnologia poteva essere utilizzata anche a scopo di intrattenere e non solo per costruire bombe atomiche. Tuttavia non si ha ancora la certezza che sia il primo videogioco mai inventato essendoci testimonianze più vecchie come la macchina “Bertie the brain” del 1950 con cui si poteva giocare a tris con un computer o il “cathode-ray tube amusement device” del 1947 che simulava il lancio di un missile nello spazio. Sono però andati tutti distrutti poco dopo il loro utilizzo.

Dopo queste prime apparizioni i videogiochi rimangono nascosti fino agli anni 70 con il debutto di Pong, un cabinato che simulava il gioco del ping-pong visto dall’alto. Il gioco è un successo e ne vengono creati di nuovi aggiungendo alla fine del 1979 una grafica a colori come in Pac-Man o Space Invaders. Questi primi videogame arcade vengono definiti di prima generazione, mentre durante gli anni ottanta si passerà alla seconda generazione. Nascono infatti aziende di videogiochi che producono i primi modelli di console casalinghe come Atari o il Commodore 64 assieme a nuove varianti di giochi: oltre agli arcade nascono i platform, i giochi di ruolo o i rompicapi come tetris. Il vero passo avanti si ha però negli anni novanta con la quarta e quinta generazione di videogiochi, dove l’attenzione viene portata sulle console portatili come il Game Boy o la Play Station che lavorano attraverso una cartuccia contenente tutti i dati di gioco.

 

Con il nuovo millennio arriva la rete, grazie alla quale le connessioni casalinghe permettono di sviluppare mondi virtuali come The Sims che simulano la nostra vita quotidiana e ci permettono di interagire con chi si trova dall’altra parte del mondo. La voglia di evasione culmina però in World of Warcraft, del 2004, in cui masse di giocatori vivono avventure fantasy. La rete permette anche di organizzarsi e così nascono i tornei online, e i videogiocatori di tutto il mondo si possono sfidare contemporaneamente. Oggi i videogiochi hanno preso sempre più piede arrivando pure sui nostri telefoni e cercando di creare un risultato sempre più simile alla realtà, sia per la grafica sia per l’interazione con il videogiocatore arrivando così alla realtà virtuale.

Pubblicato il

La digitalizzazione degli archivi

DALL’ARCHIVIO CARTACEO ALL’ARCHIVIO INFORMATICO
La digitalizzazione è un processo di conversione delle informazioni da analogiche a digitali che rende tali informazioni adatte all’utilizzo su strumenti elettronici come computer, smartphone, e-book reader.
Negli archivi e nelle biblioteche, è utile per creare copie permanenti di documenti originali, che rischiano di deteriorarsi, oppure per ridurre il volume dei libri o lo spreco di fogli di carta.
Per creare copie digitali di libri stampati e manoscritti si può usare uno scanner, per salvare il risultato su supporti materiali o nel cloud.
Spesso si fa una copia digitale in modo che chi ha bisogno di consultare il documento possa usare quella, e non l’originale su carta affinché questo possa essere conservato.
Tuttavia, neanche le memorie digitali sono eterne. Il problema dell’individuazione di uno spazio di archiviazione sicuro risale alla nascita dei primi computer.

Prima degli anni 50, i dati e i programmi da utilizzare al computer venivano scritti su fogli di carta. Si iniziò allora a usare dei nastri magnetici, che però si deterioravano molto facilmente, sia quando venivano conservati sia nella fase di lettura. Quindi, già da metà del decennio, si passò progressivamente a dei dischi ottici il cui sensore di lettura non era a contatto con la superficie. Nei primi anni servivano comunque supporti di grande volume per salvare piccole quantità di dati, ma un successivo sviluppo ha permesso di ridurre via via gli spazi, fino ad arrivare agli hard disks, che sono costituiti da dei dischi che è possibile magnetizzare senza danneggiarli. I primi veri hard disks, risalenti agli anni 60, erano direttamente collegati ai computer, mentre i sistemi più evoluti interpongono unità di controllo tra il calcolatore e la memoria.
I nuovi dispositivi di archiviazione digitali sono molto resistenti, ma rischiano di incorrere nell’obsolescenza degli hardware o dei software.

Organizzazione degli archivi
Gli archivi, in base al modo in cui i dati vengono organizzati, si possono classificare in sequenziali, ad accesso diretto e a indice. Ogni tipologia ha diverse caratteristiche ed è adatto a diversi scopi. Negli archivi sequenziali, i record (le singole informazioni) sono registrati uno dopo l’altro, nell’ordine in cui vengono inseriti. Questo tipo di organizzazione è adatto quando si deve effettuare lo stesso tipo di elaborazione su tutti i record del file, ma viene ora utilizzato solo per gli archivi storici perché per accedere ad un determinato record si devono scorrere tutti quelli che lo precedono. Questa organizzazione è l’unica possibile per i file memorizzati su nastro.
Negli archivi ad accesso diretto (o casuale) ogni informazione è individuata da un numero che ne esprime la posizione all’interno del file. Se i record vengono inseriti uno di seguito all’altro, il numero di un record viene assegnato aggiungendo una unità al numero del record precedente. Se si vuole invece accedere modo diretto a un determinato record occorre specificare il numero prima di un’operazione di lettura.

Per gli archivi ad indice, nel file deve essere individuato un campo, detto chiave, che identifica il record in modo univoco. Con questo tipo di organizzazione, accanto alla zona dove sono registrati record dell’ordine di immissione, viene gestita una tabella delle chiavi: la ricerca del record avviene leggendo la tabella delle chiavi e non i record come succede nei file sequenziali. In questo modo l’utente può accedere direttamente al record specificandone solo la chiave, senza dover scorrere tutti quelli che lo precedono, anche se è possibile accedere a tutti i record del file leggendo in modo sequenziale. Si utilizza questa organizzazione quando si deve elaborare un solo record alla volta, cioè quando si devono effettuare operazioni locali.

Pubblicato il

L’Inteligenza artificiale: da Alan Turing ai tempi nostri

L’intelligenza artificiale (abbreviato in italiano IA o in inglese AI) è la disciplina informatica che studia i metodi e le tecniche che permettono di progettare sistemi e programmi capaci di fornire ad un computer abilità che potrebbero sembrare esclusive dell’intelligenza umana. Più specificamente si possono dare definizioni diverse sulla base dell’efficacia del sistema e della somiglianza con l intelligenza umana:

  1. Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano.
  2. Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato allescienze cognitive.
  3. Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.
  4. Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.

La disciplina nasce grazie al contributo di molti scienziati che fin dal ‘600 iniziarono a costruire macchine in grado di compiere calcoli matematici, anche se non in maniera autonoma, un ulteriore passo importante fu l’articolo di Alan Touring redatto nel 1936, On Computable Numbers, With An Application To The Entscheidungsproble, che pone le basi per concetti quali calcolabilità, computabilità, macchina di Turing, definizioni cardine per i calcolatori sino ai giorni nostri. In seguito, nel 1943 McCulloch e Pitts crearono ciò che viene ritenuto il primo lavoro inerente all’intelligenza artificiale. Tale sistema impiega un modello di neuroni artificiali nel quale lo status di tali neuroni può essere “on” o “off,” con uno passaggio a “on” in presenza di stimoli causati da un numero sufficiente di neuroni circostanti.

La nascita effettiva però si avrà nel 1956 quando nel New Hampshire si tenne un convegno al quale presero parte diverse figure importanti del nascente campo della computazione dedicata allo sviluppo di sistemi intelligenti, su iniziativa di uno di questi un team di dieci persone avrebbe dovuto creare in due mesi una macchina in grado di simulare ogni aspetto dell’apprendimento e dell’intelligenza umana.

Nel 1969, grazie a Ed Feigenbaum (studente di Herbert Simon), Bruce Buchanam e Joshua Lederberg, venne creato il programma DENDRAL. Tale programma era in grado, a partire dalle informazioni sulla massa molecolare ricavate da uno spettrometro, di ricostruire la struttura di una molecola. Questo programma fu quindi il primo dei sistemi basati su un uso intensivo della conoscenza, che arrivarono più tardi ad inglobare tutti i concetti teorizzati da McCarthy per l’Advice Taker. Successivamente, Feigenbaum cominciò insieme ad altri ricercatori di Stanford l’Heuristic Program Project (HPP), al fine di estendere gli scenari applicativi di questi sistemi, cominciando con il sistema MYCIN nell’ambito delle diagnosi delle infezioni sanguigne. Si cominciò quindi a teorizzare dei sistemi conosciuti come sistemi esperti, ovvero in grado di possedere una conoscenza esperta in un determinato scenario di applicazione.

In ambito commerciale il primo sistema di IA  utilizzato fu R1, utilizzato dalla Digital Equipment nel 1982. Lo scopo del programma era quello di aiutare a configurare gli ordini per nuovi computer. Nel 1986, fu in grado di far risparmiare alla compagnia 40 milioni di dollari all’anno. Anche la DuPont utilizzò sistemi simili, risparmiando circa dieci milioni di dollari all’anno. Negli anni ’80 dello scorso secolo, quasi ogni grande azienda americana aveva un proprio sistema esperto in operazione e stava studiando sistemi più avanzati. Nel 1981 in Giappone venne annunciato il progetto Fifth Generation, un piano di dieci anni con l’intento di costruire sistemi intelligenti basati su Prolog. In risposta, gli Stati Uniti d’America crearono la Microelectronics and Computer Technology Corporation (MCC), come consorzio di ricerca al fine di garantire la competitività a livello nazionale. In Inghilterra, il rapporto Alvey recuperò i fondi tagliati dal rapporto Lighthill, che nel 1973 portò il governo britannico alla decisione di interrompere il supporto verso la ricerca nell’ambito dell’intelligenza artificiale. Questi progetti però non raggiunsero gli scopi previsti. L’industria dell’intelligenza artificiale raggiunse nel 1988 una cifra dell’ordine di miliardi di dollari, includendo centinaia di aziende che stavano creando sistemi esperti, robot e software e hardware specializzati in questi settori. Al giorno d’oggi i sistemi intelligenti sono presenti in ogni campo, anche nelle attività quotidiane e primeggiano nei giochi, come teorizzato anni prima dagli esponenti dell’intelligenza artificiale. Vi sono programmi che sono stati in grado di confrontarsi con campioni di scacchi, quali Deep Blue; altri che sono stati impiegati nelle missioni spaziali, come nel 1998 quando la NASA utilizzò un programma chiamato Remote Agent in grado di gestire le attività relative a un sistema spaziale; alcune auto sono oggi dotate di un sistema in grado di guidarle senza l’uso di un conducente umano, quindi in maniera del tutto autonoma. Nell’ambito di scenari più quotidiani si pensi, invece, ai termostati per il riscaldamento e l’aria condizionata in grado di anticipare il cambio di temperatura, gestire i bisogni degli inquilini e di interagire con altri dispositivi.

 

 

Pubblicato il

Apparecchiature di diffusione di massa: Internet

Rete di accesso pubblico per la comunicazione.

Internet è una rete ad accesso pubblico che connette vari dispositivi o terminali in tutto il mondo. Dalla sua nascita rappresenta il principale mezzo di comunicazione di massa, che offre all’utente una vasta serie di contenuti potenzialmente informativi e di servizi

Origine

L’origine di Internet risale agli anni sessanta, su iniziativa degli Stati Uniti d’America, che misero a punto durante la guerra fredda un nuovo sistema di difesa e di controspionaggio.

La prima pubblicazione scientifica in cui si teorizza una rete di computer mondiale ad accesso pubblico è On-line man computer communication dell’agosto 1962, pubblicazione scientifica degli statunitensi Joseph C.R. Licklider e Welden E. Clark. Nella pubblicazione Licklider e Clark, ricercatori del Massachusetts Institute of Technology, danno anche un nome alla rete da loro teorizzata: “Intergalactic Computer Network”.

Prima che tutto ciò cominci a diventare una realtà pubblica occorrerà attendere il 1991 quando il governo degli Stati Uniti d’America emana la High performance computing act, la legge con cui per la prima volta viene prevista la possibilità di ampliare, per opera dell’iniziativa privata e con finalità di sfruttamento commerciale, una rete Internet fino a quel momento rete di computer mondiale di proprietà statale e destinata al mondo scientifico. Questo sfruttamento commerciale viene subito messo in atto anche dagli altri Paesi

Prime reti tra computer

Nel 1969 il Dipartimento della Difesa americano decise di creare una rete che collegasse tutti i computer operanti nelle varie installazioni militari dislocate su tutto il territorio. Nel 1969 fu ideato il progetto DARPA (Defense Advanced Research Projects Agency) cominciò quindi il suo sviluppo e si decise di connettere, come prova sperimentale, 4 diverse postazioni in USA. La connessione ebbe successo, anche se dopo la trasmissione del primo carattere la macchina andò in crash. L’importante fu che la connessione riuscì. L’idea era quella di creare una struttura che consentisse ai vari computer di continuare a comunicare tra loro anche nel caso che una parte di essi venisse resa inutilizzabile da malfunzionamenti casuali o da attacchi nemici.
I fattori chiave per raggiungere questo risultato erano il decentramento e l’indipendenza dei computer facenti parte la rete: nessun computer avrebbe dovuto rivestire un ruolo fondamentale nello smistamento dei dati. Ciascuno di essi doveva essere in grado di instradare correttamente le informazioni in arrivo e, inoltre, i dati in transito dovevano contenere tutti le informazioni necessarie al loro corretto recapito. In parole povere, se anche uno o più segmenti della rete fossero stati distrutti improvvisamente, i dati avrebbero raggiunto automaticamente altri computer e da lì trasmessi al destinatario senza perdersi nel nulla. In seguito a vari esperimenti e correzioni, quindi, si arrivò alla creazione di una rete militare chiamata ARPANET (Advanced Research Projects Agency Network), che raggiunse lo scopo prefissato con l’invenzione e l’applicazione di uno standard di comunicazione dati chiamato TCP/IP (Transmission Control Protocol / Internet Protocol).

TCP definisce il formato nel quale i dati da trasmettere devono essere convertiti, mentre IP si occupa di stabilire in quale modo devono essere trasmessi. TCP/IP é basato su un metodo molto semplice, paragonabile a quello utilizzato da un ufficio postale per il recapito della corrispondenza: ad ogni computer della rete viene assegnato un codice ed i dati in transito vengono riuniti in pacchetti accompagnati dai codici necessari al loro recapito, esattamente come se fossero stati inseriti in una busta sulla quale erano specificati l’indirizzo del mittente e quello del destinatario.
In questo modo ogni “busta” poteva essere fatta passare attraverso vie alternative senza che andasse perduta, perché l’indirizzo del destinatario impresso su di essa garantiva che ogni sistema sapesse a chi doveva tentare di recapitarla
. L’adozione di un protocollo unico garantiva, inoltre, che tutti i computer della rete potessero essere in grado di comunicare tra loro senza problemi. Questo sistema si rivelò efficace, al punto che lo standard TCP/IP cominciò ad essere adottato in tutto il mondo, anche per applicazioni diverse da quelle militari; contemporaneamente incominciarono a diffondersi sistemi operativi (UNIX) che implementavano vari metodi di gestione di piccole reti locali di computer. 

Nascita del World Wide Web (1991)

Nel 1991 presso il CERN di Ginevra il ricercatore Tim Berners-Lee definì il protocollo HTTP (HyperText Transfer Protocol), un sistema che permette una lettura ipertestuale, non-sequenziale dei documenti, saltando da un punto all’altro mediante l’utilizzo di rimandi (link o, più propriamente, hyperlink). Inoltre, il 6 agosto Berners-Lee pubblicò il primo sito web della storia, presso il CERN, all’indirizzo http://info.cern.ch/hypertext/WWW/TheProject.html. Nel World Wide Web (WWW), le risorse disponibili sono organizzate secondo un sistema di librerie, o pagine, a cui si può accedere utilizzando appositi programmi detti web browser con cui è possibile navigare visualizzando file, testi, ipertesti, suoni, immagini, animazioni e filmati. Il primo browser con caratteristiche simili a quelle attuali, il Mosaic, venne realizzato nel 1993.

Il 30 aprile 1993 il CERN decide di rendere pubblica la tecnologia alla base del World Wide Web in modo che sia liberamente implementabile da chiunque. A questa decisione fa seguito un immediato e ampio successo del World Wide Web in ragione delle funzionalità offerte, della sua efficienza e della sua facilità di utilizzo. Internet crebbe in modo esponenziale, in pochi anni riuscì a cambiare la società, trasformando il modo di lavorare e relazionarsi. Nel 1998 venne introdotto il concetto di eEconomy.

La facilità d’utilizzo connessa con l’HTTP e i browser, in coincidenza con una vasta diffusione di computer per uso anche personale, hanno aperto l’uso di Internet a una massa di milioni di persone, anche al di fuori dell’ambito strettamente informatico, con una crescita in progressione esponenziale.

Diffusione

Se prima del 1995 Internet era dunque relegata a essere una rete dedicata alle comunicazioni all’interno della comunità scientifica e tra le associazioni governative e amministrative, dopo tale anno si assiste alla diffusione costante di accessi alla rete da parte di computer di utenti privati fino al boom degli anni 2000 con centinaia di milioni di computer connessi in rete in parallelo alla diffusione sempre più spinta di PC al mondo, all’aumento dei contenuti e servizi offerti dal Web e a modalità di navigazione sempre più usabili, accessibili e user-friendly. 

Internet oggi

Internet, oggi, è sinonimo di globalizzazione. Avere un sito internet significa possedere una vetrina sul mondo, farsi conoscere dappertutto. Dicendo: “Vado su internet!” la gente afferma che intende visitare i siti del World Wide Web. È quindi più simile all’insieme delle entità che lo popolano, piuttosto che all’insieme delle reti di cui è costituito. È più simile alla definizione di insieme degli iperoggetti di Tim Berners Lee: il WWW; cioè qualcosa di staccato dall’infrastruttura fisica che, invece, potrebbe subire modificazioni. Importantissima è la capacità dei browser di vedere internet dando la possibilità di interpretare il maggior numero di entità possibili.

Internet, Web, World Wide Web, WWW sono oggi trattati come sinonimi. Tanto è vero che i browser più diffusi permettono il raggiungimento del sito destinazione anche senza la digitazione del protocollo (http://) e del prefisso (www.).

Evoluzione

Media e comunicazioni, indicano inoltre la sempre più probabile piena integrazione nel prossimo futuro della rete Internet.

Se infatti da una parte i primordi della rete sono stati caratterizzati dallo scambio di dati come i contenuti testuali e immagini statiche l’evoluzione futura della rete va verso la sempre maggiore diffusione di contenuti multimediali come ad esempio i contenuti audio-video(es. streaming, Web Tv, IPTV, Web radio) che ne aumentano enormemente il traffico complessivo e il relativo carico sui nodi o sistemi interni di commutazione (router) e sui server, vuoi anche per l’aumento del numero di utenti connessi in rete al mondo. La soluzione più praticata a questo problema è la decentralizzazione delle risorse ovvero sistemi di rete distribuiti (es. Content Delivery Network) in grado di gestire l’aumento di traffico, mentre per far fronte all’aumento di banda necessaria sui collegamenti sono da menzionare nuove e più efficienti tecniche di compressione dati che hanno reso possibile il diffondersi di servizi sempre più evoluti e pesanti.

Sotto questo punto di vista l’evoluzione della rete dal punto di vista dei servizi richiede anche lo sviluppo di un’infrastruttura di rete di accesso a banda sempre più larga con la realizzazione delle cosiddette Next Generation Network per sopperire all’aumento di traffico previsto e la fruizione dei servizi stessi dall’utente finale. Gli stessi operatori che dovrebbero investire sulla realizzazione di tali infrastrutture richiedono però un ritorno certo dell’investimento ovvero una convenienza economica che risulterebbe invece molto più a favore dei grandi network o fornitori di servizi e contenuti di rete (Google, YouTube, Facebook, Twitter, LinkedIn, ecc.) sollevando così il problema della cosiddetta neutralità della rete o meno.

La natura globale con la quale è stata concepita Internet ha fatto sì che oggi, un’enorme varietà di processori, non solo apparati di calcolo in senso stretto, ma a volte anche incorporati in maniera invisibile (embedded) in elettrodomestici e in apparecchi dei più svariati generi, abbiano tra le proprie funzionalità quella di connettersi a Internet e, attraverso questo, a qualche servizio di aggiornamento, di distribuzione di informazione e dati; dal frigorifero, al televisore, all’impianto di allarme, al forno, alla macchina fotografica: ogni processore oramai è abilitato a comunicare via Internet. In tal senso dunque un’ulteriore evoluzione della Rete, propugnata da alcuni, potrebbe essere l’estensione della connettività agli oggetti taggati del mondo reale dando vita alla cosiddetta Internet delle cose.

Pubblicato il

L’evoluzione della televisione

L’evoluzione della televisione

L’evoluzione tecnologica di un oggetto di comunicazione di massa come il televisore è stata, si può dire, incredibile. Negli anni ’50 questo nuovo elettrodomestico fa la sua apparizione nelle case italiane (negli USA era già di uso domestico da una decina di anni): veri è propri armadi, di peso considerevole e molto ingombranti.

I primi erano in bianco e nero, a tubo catodico e, per lo più monocanale, ma portavano per la prima volta le immagini in movimento all’interno delle nostre case.

Da allora è stato un susseguirsi di piccole rivoluzioni, nel design, nella tecnologia e nel consumo di massa.

Si cerca di renderli più piccoli, per meglio adattarli al contesto famigliare. Si allarga la banda dei canali ricevibili, ma la vera rivoluzione si ha con la nascita delle prime TV a colori, che in

Italia arrivano alla fine degli anni ’70.

Quindi ci fu l’introduzione degli schermi Trinitron, brevettati dalla Sony, che,

grazie alla loro superficie cilindrica e non più sferica, miglioravano l’immagine presentata, evitando le bruttissime linee curve presenti verso il bordo dello schermo. Con questa tecnologia si dà il via ad una lenta trasformazione che sfocia, decenni dopo, nei primi televisori a schermo piatto.

Per apprezzare maggiormente il lato “cinematografico” del televisore, oltre ai classici TV in formato 4:3, a metà degli anni ’90 iniziano a comparire i primi TV a 16:9.

Dal 1997, invece, si può dire che comincia l’era dei televisori piatti, in sostituzione dei vecchi TV a tubo catodico, grazie a due nuove tecnologie: prima il plasma e poco dopo l’LCD.

Questa è l’ultima grande rivoluzione che permette di raggiungere dimensioni impensabili con il tubo catodico: addirittura 150

pollici. Si aprono così le porte ad un vero e proprio “cinema casalingo”, e ad una nuova era dell’Home Video Theater.

Pellegatta Mattia

Pubblicato il

L’evoluzione della stampa

La stampa con blocchi di legno su carta, dove i singoli fogli vengono impressi per mezzo di matrici di legno sulle quali erano intagliati testi o illustrazioni, risale all’epoca della Dinastia Tang, in Cina. Alcuni esempi testimoniano che questo metodo di stampa di fantasie su tessuto risale a prima del 220, ed in Egitto al VI o VII secolo a. C. All’epoca della Dinastia Tang uno scrittore cinese, Fenzhi, per primo fornì una testimonianza al riguardo. Egli descrisse come dei blocchi di legno venissero usati per stampare un’iscrizione buddhista durante gli anni di potere dell’imperatore Zhengyuan ( 627-649 d.C.). In un memoriale del 1023 viene riportato che il governo centrale dell’epoca utilizzava lastre di rame per stampare banconote, e blocchi di rame per stampare i numeri ed i caratteri su di esse. In seguito venne usata la medesima tecnica, già più sviluppata, per stampare banconote e documenti ufficiali o formali. Un esempio è una sorta di assegno stampato durante la Dinastia Jin, nell’anno 1215.

Nelle grotte di Mogao Aurel Stein ritrovò nel 1907 una copia del Sūtra del Diamante in una delle molte traduzioni cinesi. La copia xilografata, integra, presenta un frontespizio riccamente illustrato dalla scena in cui si svolge il dialogo del sūtra stesso. La copia riporta il nome del committente, Wang Jie, e la data della stampa: il 15esimo giorno del Quarto mese del Nono anno del periodo Xiantong del sovrano Tang Yìzōng, corrispondente all’11 maggio 868. L’esemplare, unico, è posseduto dalla British Library. Esempi di testi stampati antecedenti ad essa esistono solo sotto forma di frammenti: una dharani pubblicata tra il 650 e il 670, e scoperta a Xi’an nel 1974; e parti di un Sūtra databile verso il 690. Altro precedente potrebbe essere una dharani, chiamata Sutra della Dharani della Pura Luce, rinvenuta nel tempio Pulguk in Corea, forse del 751. Il Sutra del Diamante di Dunhuang risulta quindi il testo completo a stampa più antico certamente datato. Di esso esistono innumeri versioni dal 334 in avanti, dal sanscrito al cinese, e poi al giapponese, al coreano, al vietnamita, al tibetano, al mancese.

Il termine sūtra (सूत्र, pāli sutta), in sanscrito filo (dalla radice indoeuropea *syū-, la stessa del latino suere, cucire), metaforicamente traducibile come “breve frase” o “aforisma”, viene usato nella cultura indiana per indicare un insieme di concetti filosofici espressi in modo breve e sintetico. Nell’ambito del buddhismo il termine è tradotto in cinese con jīng (经), in lingua giapponese con kyō (経, kyō) e in tibetano con mdo (). Nell’induismo i sūtra sono elaborazioni filosofiche successive alle Upanisad ( IX-VIII secolo a.C., fino al IV secolo a.C. le quattordici Upaniṣad vediche) le quali descrivono in versi succinti e talvolta criptici la metafisica e la cosmogonia, la condizione umana, come ottenere una vita beata e come purificare il proprio karma per reincarnarsi in un’esistenza migliore. Nel buddhismo il termine si riferisce esclusivamente ai testi inclusi nel Canone della scuola buddhista di riferimento. Questi testi non sono elaborazioni posteriori ma vere trascrizioni, o supposte tali, dei discorsi tenuti da Siddharta Gautama (566 a.C. – 486 a.C. circa) nel corso della sua predicazione. Una dharani è una forma di vocalizzazione rituale, o tradotta dal sanscrito, da una radice in sanscrito dal significato di “sostegno”. Viene spesso comparata al mantra, dal quale si distingue per essere composta spesso di frasi più lunghe ed intellegibili; e con il quale condivide il fine di indurre, attraverso la ripetizione del canto, la meditazione. La sua recitazione cantata è condotta anche per ottenere salute e protezione.

Johann Gutenberg, nato a Magonza, in Germania, rivoluzionò le tecniche di stampa verso la metà del XV secolo. Johann Fust e Peter Schöffer sperimentarono con Gutenberg questa nuova tecnica nella sua stessa città. La stampa a caratteri mobili utilizzata in Asia, basata essenzialmente sul lavoro manuale, ha praticamente cessato di esistere dopo l’introduzione della tecnica di Gutenberg nella Cina nel XIX secolo. La Bibbia di Gutenberg è stata inserita dall’UNESCO nell’elenco delle memorie del mondo. Essa è il più antico incunabolo al mondo.

Con il termine incunabolo, o incunabulo, si definisce convenzionalmente un documento stampato con la tecnologia dei caratteri mobili e realizzato tra la metà del XV secolo e l’anno 1500 incluso. A volte è detto anche quattrocentina. Il termine deriva dal latino, in culla. Solo successivamente le opere a stampa vengono dette cinquecentine, anche se secondo alcuni studiosi soprattutto di area anglosassone, la definizione di incunabolo può essere estesa anche a edizioni realizzate nei primi vent’anni del Cinquecento, in quanto fino a quel limite cronologico i libri presentano delle caratteristiche comuni con quelli stampati nel XV secolo. Generalmente gli incunaboli non presentano un frontespizio, ma solo una indicazione, spesso approssimativa, che riporta il nome dell’autore dell’opera ed un titolo nell’incipit. Le note tipografiche, cioè le indicazioni sulle responsabilità dello stampatore, quando presenti, sono riportate nel colophon o versus. Questo perché i primi libri realizzati con i caratteri mobili tendevano a imitare l’aspetto dei libri manoscritti, nei quali spesso, viste le modalità di produzione, tali indicazioni erano del tutto superflue. Gli incunaboli sono quindi i primi libri moderni, cioè realizzati in serie con modalità proto-industriali. Circa 10.000 dei 40.000 testi noti sono costituiti da fogli sciolti, in quanto la nuova tecnologia permetteva di realizzare anche bandi, proclami, lettere di indulgenza, modulistica, ed altre tipologie di documento. Al mondo vi sono circa 450.000 incunaboli. Di molti testi esistono svariate copie. Di questi circa 110.000 si trovano in Italia, in musei e biblioteche specialistiche. Realizzata a Magonza tra il 1452 e il 1455, la Bibbia di Gutenberg si compone di due volumi in folio di 322 e 319 fogli. Riproduce il testo della Vulgata, la bibbia in latino tradotta da San Gerolamo nel V secolo. L’Antico Testamento occupa il primo volume e una parte del secondo, il quale contiene anche tutto il Nuovo Testamento. Una parte degli esemplari fu stampata su pergamena, un’altra su carta di canapa importata dall’Italia. Su una tiratura di circa 180 esemplari, 48 si sono conservati. Alcune pagine sciolte si trovano in alcune biblioteche, come quella del Museo Correr di Venezia o la biblioteca municipale di Colmar. La maggioranza degli esemplari si trova in Germania. In Francia, la Bibliothèque Nationale de France ne possiede tre copie su pergamena, e la Bibliothèque Mazarine una copia su carta. In Svizzera, la fondazione Martin Bodmar, presso Ginevra, espone permanentemente il suo esemplare. Gutenberg cominciò ad utilizzare inchiostri con base oleosa, con effetto più duraturo rispetto agli inchiostri precedenti con base acquosa. Avendo lavorato come orefice professionista, egli possedeva già delle conoscenze riguardo alla lavorazione e l’uso dei metalli. Gutenberg fu il primo ad impiegare una lega di piombo, stagno ed antimonio, essenziale per produrre caratteri duraturi per stampe di alta qualità. Per arrivare a questa lega, Gutenberg creò una speciale matrice con dettagli molto precisi. Essa si dimostrò di gran lunga migliore rispetto alle argille, ai legni od al bronzo già usati in Asia. Ispirandosi ad un torchio per l’uva, inventò anche una pressa per la stampa che rivoluzionò la produzione e la diffusione dei libri. La stampa a caratteri mobili si diffuse rapidamente grazie a tipografi che emigravano dalla Germania o ritornavano ai paesi d’origine. La prima tipografia impiantata fuori della Germania fu opera di Johannes Numeister, concittadino ed allievo di Gutenberg, che aprì a Foligno una bottega tipografica nel 1463. Il primo libro stampato fuori di Germania fu opera di Konrad Sweynheym e Arnold Pannartz praghese, il primo della diocesi di Magonza e il secondo di quella di Colonia. Chiamati a Roma presumibilmente dal cardinale Nicola Cusano, insigne filosofo ed umanista, furono ospitati nel monastero di Santa Scolastica di Subiaco. Nel 1464-65 pubblicarono un Donato minore, Donatus pro puerolis, una grammatica latina per i bambini, ora disperso; il De oratore di Cicerone; il De Civitate Dei di Sant’Agostino; ed un’antologia di opere di Lattanzio, tutti in una tiratura di 275 copie.

Il Cardinale Nicolò Cusano, dalle Cronache di Norimberga. Fu cardinale, teologo, filosofo, umanista, giurista, matematico ed astronomo. ( Kues, 1401 – Todi, 11 agosto 1464). Noto anche come Niccolò Cusano o Niccolò da Cusa. In latino Nicolaus Cusanus o Nicolaus de Cusa; in tedesco Nikolaus Krebs von Kues o Nikolaus Chrypffs. Una pressa come quella di Gutenberg venne costruita a Venezia nel 1469; nel 1500 la Serenissima contava ben 417 editori. A Roma, durante gli anni 1467-1500 furono stampati 1.825 titoli. Nel 1470 Jean Heynlin costruì una pressa a Parigi. Il 5 e 6 aprile 1472 a Foligno venne stampato da Johannes Numeister e dal folignate Evangelista Mei il primo libro in lingua italiana: la Divina Commedia. La ricca storia editoriale della Commedia inizia precocemente, con l’impressione di un paio di terzine dell’Inferno aggiunte tra un passo delle Metamorfosi ovidiane e dei distici del Carmen de Pascha di Venanzio Fortunato in coda all’edizione del Lactantii Firmiani de divinis institutionibus, stampata a Roma nel 1468 da Konrad Sweynheym ed Arnold Pannartz da Praga. L’editio princeps vera e propria si deve però considerare quella di Foligno, seguita pochi mesi dopo nello stesso anno da un’edizione veneziana e da una mantovana. Nel 1473 Kasper Straube pubblicò l’Almanach cracoviense ad annum 1474 a Cracovia. Nel 1476 una pressa fu montata in Inghilterra da William Caxton. L’italiano Giovanni Paoli assemblò nel 1537 una pressa importata a Città del Messico. Stephen Day fu il primo a costruire una pressa nel Nord America nel 1637, nei pressi della Massachussets Bay. Nel 1814 il motore a vapore fu introdotto poi.