Pubblicato il

L’Inteligenza artificiale: da Alan Turing ai tempi nostri

L’intelligenza artificiale (abbreviato in italiano IA o in inglese AI) è la disciplina informatica che studia i metodi e le tecniche che permettono di progettare sistemi e programmi capaci di fornire ad un computer abilità che potrebbero sembrare esclusive dell’intelligenza umana. Più specificamente si possono dare definizioni diverse sulla base dell’efficacia del sistema e della somiglianza con l intelligenza umana:

  1. Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano.
  2. Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato allescienze cognitive.
  3. Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.
  4. Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.

La disciplina nasce grazie al contributo di molti scienziati che fin dal ‘600 iniziarono a costruire macchine in grado di compiere calcoli matematici, anche se non in maniera autonoma, un ulteriore passo importante fu l’articolo di Alan Touring redatto nel 1936, On Computable Numbers, With An Application To The Entscheidungsproble, che pone le basi per concetti quali calcolabilità, computabilità, macchina di Turing, definizioni cardine per i calcolatori sino ai giorni nostri. In seguito, nel 1943 McCulloch e Pitts crearono ciò che viene ritenuto il primo lavoro inerente all’intelligenza artificiale. Tale sistema impiega un modello di neuroni artificiali nel quale lo status di tali neuroni può essere “on” o “off,” con uno passaggio a “on” in presenza di stimoli causati da un numero sufficiente di neuroni circostanti.

La nascita effettiva però si avrà nel 1956 quando nel New Hampshire si tenne un convegno al quale presero parte diverse figure importanti del nascente campo della computazione dedicata allo sviluppo di sistemi intelligenti, su iniziativa di uno di questi un team di dieci persone avrebbe dovuto creare in due mesi una macchina in grado di simulare ogni aspetto dell’apprendimento e dell’intelligenza umana.

Nel 1969, grazie a Ed Feigenbaum (studente di Herbert Simon), Bruce Buchanam e Joshua Lederberg, venne creato il programma DENDRAL. Tale programma era in grado, a partire dalle informazioni sulla massa molecolare ricavate da uno spettrometro, di ricostruire la struttura di una molecola. Questo programma fu quindi il primo dei sistemi basati su un uso intensivo della conoscenza, che arrivarono più tardi ad inglobare tutti i concetti teorizzati da McCarthy per l’Advice Taker. Successivamente, Feigenbaum cominciò insieme ad altri ricercatori di Stanford l’Heuristic Program Project (HPP), al fine di estendere gli scenari applicativi di questi sistemi, cominciando con il sistema MYCIN nell’ambito delle diagnosi delle infezioni sanguigne. Si cominciò quindi a teorizzare dei sistemi conosciuti come sistemi esperti, ovvero in grado di possedere una conoscenza esperta in un determinato scenario di applicazione.

In ambito commerciale il primo sistema di IA  utilizzato fu R1, utilizzato dalla Digital Equipment nel 1982. Lo scopo del programma era quello di aiutare a configurare gli ordini per nuovi computer. Nel 1986, fu in grado di far risparmiare alla compagnia 40 milioni di dollari all’anno. Anche la DuPont utilizzò sistemi simili, risparmiando circa dieci milioni di dollari all’anno. Negli anni ’80 dello scorso secolo, quasi ogni grande azienda americana aveva un proprio sistema esperto in operazione e stava studiando sistemi più avanzati. Nel 1981 in Giappone venne annunciato il progetto Fifth Generation, un piano di dieci anni con l’intento di costruire sistemi intelligenti basati su Prolog. In risposta, gli Stati Uniti d’America crearono la Microelectronics and Computer Technology Corporation (MCC), come consorzio di ricerca al fine di garantire la competitività a livello nazionale. In Inghilterra, il rapporto Alvey recuperò i fondi tagliati dal rapporto Lighthill, che nel 1973 portò il governo britannico alla decisione di interrompere il supporto verso la ricerca nell’ambito dell’intelligenza artificiale. Questi progetti però non raggiunsero gli scopi previsti. L’industria dell’intelligenza artificiale raggiunse nel 1988 una cifra dell’ordine di miliardi di dollari, includendo centinaia di aziende che stavano creando sistemi esperti, robot e software e hardware specializzati in questi settori. Al giorno d’oggi i sistemi intelligenti sono presenti in ogni campo, anche nelle attività quotidiane e primeggiano nei giochi, come teorizzato anni prima dagli esponenti dell’intelligenza artificiale. Vi sono programmi che sono stati in grado di confrontarsi con campioni di scacchi, quali Deep Blue; altri che sono stati impiegati nelle missioni spaziali, come nel 1998 quando la NASA utilizzò un programma chiamato Remote Agent in grado di gestire le attività relative a un sistema spaziale; alcune auto sono oggi dotate di un sistema in grado di guidarle senza l’uso di un conducente umano, quindi in maniera del tutto autonoma. Nell’ambito di scenari più quotidiani si pensi, invece, ai termostati per il riscaldamento e l’aria condizionata in grado di anticipare il cambio di temperatura, gestire i bisogni degli inquilini e di interagire con altri dispositivi.