Se la comprensione del testo diventa programmabile

Con l’esame di maturità ormai alle porte, si moltiplicano di giorno in
giorno i Nostradamus delle tracce che si propongono di predire gli
autori che il Ministero sceglierà per la fatidica prima prova.

Chissà come reagirebbero gli studenti se scoprissero che, nel lontano 1973, un gruppo di informatici del MIT aveva tentato di realizzare un programma per computer che avrebbe svolto il compito al posto loro.
Quegli scienziati avevano programmato SHRDLU, il primo tentativo di replicare artificialmente la comprensione del linguaggio naturale. La potenza del progetto era che SHRDLU era in grado di rispondere a domande usando la lingua inglese, invece che il linguaggio matematico dei computer, e sapeva rispondere a quesiti riguardanti aspetti sottointesi del racconto. Un’analisi del testo in piena regola!

La possibilità per un programma di comprendere un testo è uno dei problemi classici della cosiddetta Intelligenza Artificiale forte, di cui i programmatori di SHRDLU erano fautori. Secondo l’AI-forte, il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, la mente può essere ridotta ad un programma di un computer. Per tale corrente di pensiero, infatti, la macchina capisce letteralmente la storia e il senso dei quesiti. Di conseguenza, il programma spiega il funzionamento del cervello umano, poichè è un cervello esso stesso.

In dissenso rispetto a questa corrente si posero i promotori della AI-debole, per i quali l’importanza è che la macchina agisca come se fosse in grado di pensare come un umano, simulando, senza però fare alcuna inferenza sulla reale capacità di pensare della macchina. Molti scienziati e filosofi appartenenti a questa corrente di pensiero, si dedicarono a smontare le assunzioni degli informatici del MIT, concentrandosi soprattutto sul concetto di intenzionalità, la quale è una componente fondamentale del pensiero umano, che però non emerge in programmi come SHRDLU.

Fra i detrattori dell’AI-forte spicca fra tutti il filosofo e linguista John Searle secondo il quale “comprendere implica sia il possesso degli stati mentali (intenzionali) che la validità (verità) di questi stati”; per questo motivo, aggiungeva, “la comprensione del computer non è affatto parziale o incompleta: è zero”.

Il dibattito sulla possibilità di replicare l’intenzionalità della mente umana attraverso un programma di un computer non si è però esaurito negli anni ’80, dopo le numerose critiche pervenute da filosofi e informatici, anzi, prosegue ancora oggi. Nonostante l’avvento di nuove forme d’intelligenza artificiale quali il machine learning, che nulla hanno a che fare con lo studio della mente, tentativi di instillare
in un programma una coscienza sono ancora in corso. In particolare, le ricerche sono concentrate sulla possibilità di trasmettere il senso comune, cioè quello che permette ad ogni uomo sulla Terra di conversare in modo naturale, dando per scontato alcune informazioni basilari.

Fra tutti, il progetto più longevo è certamente Cyc. Ideato da Doug Lenat, l’AI ha passato gli ultimi 31 anni a memorizzare una serie incredibile di dati legati all’interpretazione comune delle cose: l’acqua
è bagnata, il fuoco è caldo e via discorrendo. La speranza è che, acquisite queste nozioni, Cyc sia in grado di ragionare come un cervello umano, purché questo sia interpretato come una collezione di
informazioni acquisite e messe in relazione in modo opportunamente complesso.

In attesa di scoprire se Cyc avrà successo, è innegabile che la comprensione dei testi scritti, con la loro complessità semantica, le figure retoriche e i numerosi livelli di comprensione resta ancora al di là dell’odierno sviluppo tecnologico e pone anche molti dubbi di tipo filosofico.

Agli studenti in attesa di affrontare l’esame di maturità non resta che studiare e, al massimo, affidarsi ai guru del totonomi, perché, al momento, nessuna scorciatoia tecnologica li può aiutare.
Quest’anno pare sia il turno di Saba.

Ancora nessun commento.

Lascia una risposta