Questo libro riassume sinteticamente l'evoluzione di pensiero avvenuta attorno a quel gruppo di discipline che oggi vengono solitamente riconosciute con il nome di "Intelligenza Artificiale".
Il punto di riferimento storico iniziale e' il discorso tenuto da Hilbert al Congresso internazionale di matematica di Parigi nell'agosto del 1900 , nel quale il matematico tedesco propose i suoi "23 problemi" che furono poi considerati simbolicamente l'atto di fondazione della matematica del Novecento.
Ispirandosi, tra l'altro, al filosofo Immanuel Kant, che nella "Critica della ragion pura" aveva sottolineato l'importanza della capacita' della mente umana di ragionare in astratto, la posizione di Hilbert era quella di una fedelta' al razionalismo scientifico, in opposizione alle istanze irrazionalistiche e soggettivistiche che venivano in quegli anni da Nietsche e da Freud.
L'epitaffio presente sulla sua lapide sintetizza il suo credo: "Dobbiamo sapere. E sapremo."
Tra i suoi problemi, oltre a quello di dare un'assiomatizzazione rigorosa delle teorie fisiche, quello forse piu' importante era dimostrare la coerenza e la completezza della matematica, cioe' che la matematica non contenesse proposizioni contraddittorie, e che in linea di principio tutte le proposizioni vere potessero essere dimostrate.
Il Principio di indeterminazione di Heisenberg del 1927, il Teorema di Godel del 1931, e gli articoli di Turing sulla calcolabilita' furono dei tremendi colpi assestati a questo programma di ricerca.
Tuttavia in particolare gli ultimi due furono cruciali perche' diedero origine al dibattito sulla possibilita' teorica di costruire una macchina pensante.
Kurt Godel dimostro' che un sistema formale coerente contiene proposizioni "vere" ma indimostrabili.
Questo risultato sanciva chiaramente che uno dei punti fondamentali del programma di Hilbert non poteva essere soddisfatto, ma il suo significato profondo non fu capito subito.
Anzi, il Teorema di Godel risulto' cosi' sibillino che ispiro' sia i detrattori che i sostenitori della causa dell' Intelligenza Artificiale.
Il filosofo J.R.Lucas nel suo celebre articolo del 1960 "Menti, macchine e Godel" sosteneva che il teorema di Godel conteneva un tranello che una macchina non e' in grado di superare, a differenza della mente umana, che riesce ad afferrare i paradossi e l'autoreferenza.
Nel 1979 Douglas Hofstadter pubblico' il libro "Godel, Escher, Bach", che prendeva spunto dal teorema di Godel per sostenere la tesi che nell'autoreferenza un sistema logico acquista una sorta di consapevolezza di se'. In particolare quest'ultimo libro venne considerato il punto di riferimento per quella corrente di pensiero che va sotto il nome di Intelligenza Artificiale Forte, che considera la coscienza umana emergente dal calcolo e implementabile interamente in un computer.
Ma forse il primo a chiedersi con cognizione di causa se l'intelligenza umana sia un fatto di calcolo fu Alan Turing.
Nel 1936 egli aveva gia' introdotto il concetto di calcolabilita', con l'articolo "On computable numbers with an application to the Entscheidungsproblem", e anche di macchina di Turing, che fu in germe l'idea del computer moderno (poi realizzata per la prima volta nel 1945 negli Stati Uniti da un gruppo di scienziati di cui faceva parte anche il matematico John Von Neumann, gia' allievo di Hilbert).
Ma nel suo articolo del 1950 "Computing Machinery and Intelligence", Turing proponeva un test (che porta il suo nome anche se originariamente era chiamato "Imitation game") che era una sorta di criterio per assegnare una qualita' "umana" al ragionamento della macchina: una macchina passa il test di Turing se riesce a simulare il ragionamento a tal punto che una persona non riesce a distinguere se dall'altra parte del terminale ci sia un uomo od una macchina semplicemente "conversando" con essa. L'idea e' che l'intelligenza vera e quella simulata siano un po' la stessa cosa.
A questo approccio, e in particolare contro l'Intelligenza Artificiale Forte di Hofstadter si opporra' in seguito John Searle nel suo libro "Minds, brains and programs". Con il suo argomento della "stanza cinese" sosteneva che anche se una macchina fosse riuscita a passare il test di Turing, questo non sarebbe stato necessariamente un segno di intelligenza, perche' cio' sarebbe potuto avvenire senza la comprensione, che e' secondo Searle essenziale per la coscienza.
Il termine Intelligenza Artificiale fu introdotto ufficialmente nel vocabolario della comunita' scientifica durante una conferenza a Dartmouth nel 1956 organizzata da John McCarthy, pioniere e ideologo dell'IA.
Anni prima, mentre si teorizzavano e si realizzavano i primi computer della Storia, McCarthy ne stava gia' progettando l'uso per simulare l'intelligenza.
Ne parlo' a Von Neumann, che rimase impressionato e lo invito' a Princeton, dove collaboro' con Claude Shannon (il padre della Teoria dell'informazione, colui che aveva coniato il termine "bit") e Marvin Minsky nell'ambizioso progetto di simulare la mente umana.
Al Carnegie Institute, Herbert Simon e altri crearono il Logic Theorist, un programma in grado di produrre dimostrazioni matematiche, una volta impostati i teoremi di base. Il Logic Theorist si basava sulle idee di George Polya sulla matematica "euristica", pubblicate nel suo libro "How to solve it" del 1945, ovvero una sorta di decision making in ambito logico, ovvero una maniera algoritmica per selezionare tra un gran numero di opzioni le decisioni migliori.
Nel frattempo McCarthy sviluppo' il LISP, il linguaggio dell'Intelligenza Artificiale, i risultati ottenuti si moltiplicarono, e prese forma la disciplina dei Sistemi Esperti, ovvero di programmi che "imparavano" a svolgere mansioni complesse, di cui il Logic Theorist puo' essere considerato il capostipite, e che forse rimangono tuttora il risultato piu' concreto e duraturo dell'IA.
In seguito al dibattito seguito alle critiche all'IA da parte di Lucas, gli scienziati incominciarono a focalizzarsi sulla problematica del "senso comune", ovvero la capacita' umana di risolvere facilmente alcuni tipi di problemi privi di senso per una macchina.
Nel 1983 Doug Lenat lancia il progetto Cyc, la costruzione di un'enorme banca dati imperniata sul senso comune, dotata pero' di una logica interna.
Alcune critiche vengono fatte dal fisico Roger Penrose con il suo libro "La mente nuova dell'imperatore", del 1989. Seguendo le intuizioni di Lucas (di cui peraltro Penrose critica la correttezza del ragionamento) Penrose cita una variante del teorema di Godel come la prova che il pensiero umano sia intrinsecamente non computabile, e "spiega" la coscienza come fenomeno derivante dal comportamento quantistico (non localita') nei microtubuli presenti nei neuroni del cervello.
Piu' che criticare l'IA, l'intento titanico (e non del tutto riuscito) di Penrose e' quello di inserire il dibattito sulla mente nel quadro della Gravita' Quantistica: seguendo Von Neumann, egli cerca di collegare il problema della coscienza a un altro grande problema irrisolto della Fisica Teorica, il problema della misurazione.
Nel 1997 il supercomputer Deep Blue della IBM batte il campione di scacchi Garry Kasparov.
Gran parte del fascino dell'Intelligenza Artificiale viene dalle speculazioni filosofiche e dalle previsioni fantascientifiche che di volta in volta vengono fatte dai guru di turno, piu' o meno noti, a cui e' dedicata la seconda (e meno interessante) del libro.
Ray Kurtzweil e' un brillante imprenditore statunitense, direttore esecutivo della Kurtzweil Technologies, un' azienda che si occupa di sistemi esperti e anche di sintetizzatori musicali, ma e' anche un futurologo dell'IA, una sorta di controparte americana ottimista di Roberto Vacca.
Nel suo primo libro "The age of intelligent machines" racconta passato e futuro dell'IA. Come Vacca, gli strumenti teorici di cui si serve per fare le sue previsioni sono le analisi statistiche, che Kurtzweil usa con una certa spregiudicatezza, e in particolare la legge di Moore, che sostanzialmente prevede la crescita di potenza dei processori negli anni.
Ma dopo aver azzeccato (sbagliando solo di un anno, e per giunta di ritardo!) che nel 1998 un computer avrebbe battuto a scacchi un campione in carne ed ossa, il suo ottimismo e la sua fiducia sembrano aver preso il volo.
Con il suo successivo "The age of spiritual machines", pieno del suo entusiasmo tecnocratico per le macchine pensanti, Kurtzweil prevede che i supercomputer raggiungeranno nel 2010 una capacita' di calcolo paragonabile a quella del cervello umano, mentre i personal computer lo faranno dieci anni piu' tardi.
Questo e' tutto quello di cui ha bisogno l'IA: le macchine pensanti saranno la prossima tappa dell'evoluzione umana, in senso darwinistico.
Ma Kurtzweil inoltre prevede pensieri scaricabili come file nel 2029, macchine simili all'uomo nel 2030, esseri incorporei nel 2099. Il successivo libro di Kurtzweil sara' intitolato "The singularity is near"...
Jaron Lanier e' invece una figura anomala di scienziato-artista dai capelli rasta, il controverso inventore della "realta' virtuale", cioe' di quel dispositivo con guanti ed occhiali che permette a chi li indossa di interagire con mondo virtuale interamente creato al computer.
Lanier critica il darwinismo tecnocratico di Kurtzweil (che definisce un totalitarista cibernetico), e in generale  l'atteggiamento dei ricercatori nel campo dell'IA: "l'intelligenza artificiale e' piu' un sistema di credenza che tecnologia".
Lanier si definisce un "umanista", in contrapposizione alla scuola neo-darwinista che fa capo a  R.Dawkins e D.Dennett, un biologo e un filosofo rispettivamente, autori di importanti libri sull'argomento.
Il nuovo umanesimo (vagamente new age) che Lanier auspica e' un po' quello di usare la tecnologia come supporto per migliorare la qualita' delle nostre vite e incremento delle possibilita' espressive e creative dell'uomo.
Nonostante questo, Lanier, che e' anche attivo come musicista d'avangaurdia (ha all'attivo alcuni dischi e collaborazioni con Philip Glass), predilige strumenti acustici per le sue composizioni in stile world music.
Ma forse proprio a causa delle sue contraddizioni Lanier e' un po' isolato nel dibattito: la critica che gli si fa maggiormente e' una generale carenza nelle sue argomentazioni.
Lanier si limita a dire che "senza un punto di riferimento estetico-filosofico, le cose vanno subito in pezzi".
Bill Joy e' uno sviluppatore software, lo scienziato capo della Sun Microsystem.
Nel suo articolo "Why the future doesn't need us", apparso sulla rivista Wired nel 2000, esprime un punto di vista scettico, e a tratti pessimista, non tanto su l'IA ma sulla robotica, l'ingegneria genetica e le nanotecnologie. Le preoccupazioni di Joy sono rivolte verso la capacita' umana di controllare le nuove tecnologie.
Cibi modificati geneticamente, robot autoreplicanti, si sublimano fino all'estrema paranoia del gray goo: Joy ipotizza la costruzione di dispositivi molecolari, mediante la nanotecnologia, in grado di autoriprodursi, ma che sfuggono al controllo dell'uomo, e che in breve tempo ricoprono l'intera superficie terrestre di un blob appiccicoso (il gray goo, appunto).
Chiude il libro una riflessione sui rapporti tra i risultati e le prospettive dell'IA, e l'immaginario creato da film come "2001, odissea nello spazio", "Terminator", "Artifical lntelligence".