skip to Main Content
LETTURE LENTE - rubrica mensile di approfondimento
L’articolo suggerisce, dal punto di vista di un filologo classico, che le lingue antiche, come il greco e il latino, potrebbero incrementare le competenze dell'IA al fine di ampliarne il bagaglio cognitivo
© Foto di Kenny Eliason su Unsplash

Introduzione di Michele Mezza

Un tuffo nel vocabolario dell’intelligenza artificiale: i percorsi della parola antica all’epoca della sua riproducibilità. Modelli e linguaggi di un possibile addestramento critico dell’intelligenza artificiale

Non è certo agevole né facile usare metafore belliche in tempi come questi in cui i conflitti non sono più ideologici ma si consumano sul campo bruciando migliaia di vite umane, ma non pensiamo siano adeguati altri termini per denunciare quella che sta divampando da qualche tempo come una vera guerra delle parole. Meglio, una guerra della parola.

Ad essere conteso e conquistato era proprio il legame fra la sequenza di lettere che dà forma alla parola come oggetto concettuale e il suo uso che mirava proprio a prescindere da quel legame, dal vincolo fra parola e senso. I modelli linguistici che da qualche mese abbiamo sotto i nostri occhi e nei nostri computer sono proprio il risultato di questa battaglia fondante e la dimostrazione che la guerra è stata vinta dai produttori di automatismi combinatori, di quei sistemi stocastici che chiamiamo appunto intelligenza artificiale.

Come ci dice Xiaochang Li, uno dei più brillanti e lucidi studiosi dei media nella loro ultima versione digitale, “siamo dinanzi ad una riduzione radicale della parola a semplice dato, suscettibile di essere modellato e interpretato in assenza di conoscenze e comprensioni linguistiche. La parola in quanto tale cessa di avere importanza”.

Il mediologo di origine cinese si riferisce a quel processo di organizzazione delle procedure di addestramento dei primi sistemi di riconoscimento vocale degli anni ‘80, gestiti dall’IBM. Ma oggi siamo in un’ulteriore enfatizzazione di questa conquista della parola da parte dei proprietari degli agenti intelligenti.

Come immaginare forme e modelli che rovescino quest’assunto, ridando centralità alla densità di significato del linguaggio con cui sono organizzati quei contenuti che vengono accumulati per addestrare i nuovi automatismi intelligenti? E in questa direzione quale funzione può avere quel poderoso e straordinario archivio di narrazioni che le civiltà antiche ci hanno consegnato? Domande che hanno preso forma seguendo inizialmente un semplice gioco tecnologico: che potrebbe dire ChatGPT di un enigma archeologico come il famoso ed enigmatico Tuffatore di Paestum? La capacità di analisi e calcolo espressa da uno di quegli apparati di intelligenza artificiale, potrebbe integrare in un unico percorso di ricerca ed analisi l’insieme di quanto è stato scritto e ricavato dall’analisi di quell’affresco funebre che venne trovato nel 1968 all’interno di un sarcofago?

E seguendo questa pista, fornendo al meccanismo tecnologico testi e documenti nelle lingue originarie, greco e latino, che effetti potremmo registrare sui riflessi neurali che la struttura di questi linguaggi comporta?

Se, come ci spiegano gli esperti, i sistemi di intelligenza artificiale devono lo schematismo dei loro “ragionamenti” proprio al fatto di essere stati coltivati, potremmo dire, in un ambiente semantico di matrice anglosassone, che ha impresso un imprinting profondo sul modo di pensare e di elaborare di questi sistemi, allora potremmo misurare una differenza nella complessità e articolazione di questi stessi ragionamenti se ad alimentare la macchina fosse un ceppo linguistico e filosofico diverso, quale appunto le matrici delle culture mediterranee?

Sono quesiti che abbiamo posto ad una gamma di studiosi di cui raccogliamo ora il primo contributo.

LINGUE CLASSICHE E AI

Ho idea che sull’IA ognuno dovrebbe contribuire con le proprie competenze, partendo da una base comune: si tratta di nuove risorse umane che tocca all’intelligenza umana sperimentare, perfezionare, utilizzare, rendere disponibili.

Da filologo classico ormai in pensione, ma ancora attento al mondo contemporaneo e ‘graficamente’ attivo, potrei, come hanno già fatto in molti/e, affrontare il tema delle nuove tecnologie e delle reazioni a esse comparandole con momenti anche molto antichi della storia delle scienze. Classico il riferimento, un po’ di secoli fa, al Socrate del Fedro platonico: in discussione l’invenzione della scrittura col bilancio dei guadagni e delle perdite, e così via.

Ma forse, visto che si tende spesso ad affidare ancora agli studi classici (meglio: allo studio delle lingue classiche, greca e romana, e almeno in Italia) una sorta di monopolio della logica, soprattutto della logica applicata nella pratica traduttiva e, di conseguenza, del pensiero critico, quale migliore occasione per cercare di mettere alla prova di questa nuova risorsa tale presunto monopolio, cercando di intuire e proporre, con uno sguardo, certo, parziale, una contaminazione di antico e moderno, di metodi settoriali e visioni globali?

Una sorta di prova di maturità, ma con una grande differenza da quella cui siamo abituati e che abbiamo sicuramente sperimentato in prima persona (almeno una volta!): non rivolta al passato, al consuntivo delle conoscenze e delle acquisizioni, ma come delineazione di un futuro inedito, in cui le stesse conoscenze cambieranno forma e statuto.

IL PAPIRO DI ERCOLANO

Un esempio, un paradigma da analizzare subito per compararlo con questa proposta riguarda la recente notizia circa la possibilità di leggere le tracce di scrittura, senza necessariamente svolgerlo, in un papiro carbonizzato della collezione ercolanese conservata presso la Biblioteca Nazionale di Napoli.

Per fatto personale, posso ricordare che la mia carriera universitaria è cominciata, oltre 50 anni fa, con una ricerca su uno di questi papiri, con gli strumenti allora disponibili: luce del giorno e vista acuta, nonché conoscenza del greco. Finché non venne a visitarci, su invito del mio Maestro, il grecista Francesco Sbordone, il curatore della collezione viennese di papiri, Anton Fackelmann, che sperimentò lo svolgimento di alcuni papiri ancora chiusi e ‘accartocciati’ con una speciale colla che interagiva col calore di una lampada da tavolo.

Oggi, invece, grazie alle immagini tridimensionali di tomografia computerizzata e ad algoritmi di intelligenza artificiale, come leggiamo nei vari resoconti sulla stampa, è stato possibile individuare lettere, forse una parola, senza che il papiro corra il pericolo di essere distrutto durante lo svolgimento.

Rimangono, dunque, impregiudicate le competenze umane per decifrare e inserire nell’archivio della cultura mondiale queste nuove scoperte, ma, allo stesso tempo, l’archivio si arricchisce mentre diventa più facile consultarlo.

IL FUNZIONAMENTO DELLA LINGUA

Cosa accadrebbe, allora, se quella stessa lingua (o lingue) divenisse la base per arricchire il bagaglio cognitivo del sistema intelligente, moltiplicando le opportunità di ricerca, proprio per le sue caratteristiche linguistiche strutturali?

Si tenga conto che questo stesso meccanismo è iniziato, con i mezzi di allora (un allora che si perde nei secoli), quando i cosiddetti grammatici, prima greci e poi latini, hanno iniziato a cercare di descrivere il funzionamento della propria lingua, individuandone la parti, gli elementi base, ancor prima che il meccanismo sintattico.

Partendo, a differenza che nella linguistica moderna, dal più piccolo per arrivare al più complesso: dal singolo elemento o suono alla sillaba, alla parola, alla frase, al logos, il discorso. Si individuarono così le parti del discorso, inizialmente solo quelle che indicavano (significavano) elementi della realtà percepibile, come “Socrate dorme”, nome e verbo. Il secondo era capace di indicare anche la collocazione di quel Socrate dormiente nel tempo; ma poi, con l’introduzione di un elemento di collegamento (il sýndesmos), la realtà rimase in secondo piano, perché venne osservata la ‘realtà’ linguistica.

Il ‘collegamento’ non esiste nella realtà, esiste solo in una frase, per necessità comunicativa ed esplicativa.

Il modello di classificazione che riusciva a descrivere quelle lingue fu talmente forte e convincente che lo utilizzarono, per le prime grammatiche, anche lingue che avevano tutt’altre caratteristiche. Ecco, oggi forse si potrebbe sfruttare questa malleabilità e disponibilità per un’operazione di restyling della stessa IA.

Per cercare di farmi capire (e forse, soprattutto, di capire) introduco una delle descrizioni più convincenti del funzionamento di una lingua antica, ispirata agli studi di un linguista francese, Lucien Tesnière (Elementi di sintassi strutturale, 1959), poi portata avanti in Italia da Germano Proverbio (del 2001 la traduzione del volume di Tesnière) e applicata alle tecniche traduttive, per la costituzione di un originale dizionario, da Ezio Mancino, docente nei licei torinesi, scomparso troppo presto.

La ricchezza delle marche casuali – il caso corrisponde alla ptosis, la caduta greca, cioè al modo come una parola si presenta modificata a seconda della funzione che svolge in una frase – necessita di un elemento centrale, che viene riconosciuto nel verbo, intorno al quale si dispongono un certo numero di complementi in ordine decrescente di ‘necessità’, capaci di ‘saturare’ la ‘valenza’ di quel verbo.

Esisteranno così verbi a valenza zero, gli impersonali (piove), verbi monovalenti (io dormo), bivalenti (io scrivo un libro) ecc. ecc. Riconoscere prioritariamente un verbo con le sue potenziali valenze codificate dall’uso significa in qualche modo dipanare più facilmente gli elementi di una frase con una solida chiave interpretativa, avendo in anticipo le domande giuste per costruirne il significato. Nello stesso tempo, la valenza diventa un sistema intelligente di ingestione e restituzione di dati, immagino da profano.

IL RESTYLING DELL’IA

Se questo metodo di analisi (la verbodipendenza o grammatica valenziale) è stato utile per dipanare il flusso degli elementi di una frase in vista di una traduzione in un’altra lingua, si può, forse, chiedere alla IA di farne un perno per entrare con altra ‘voce’, diversa, anche nei meccanismi traduttivi (e non solo), sui quali già si presenta con le carte (quasi tutte) in regola.

Ne ha scritto ultimamente, sul numero de L’indice dei libri del mese di marzo 2024, Norman Gobetti: «Quando traduce, una persona cerca prima di capire il senso – contenutistico e formale (in letteratura le due cose sono ovviamente inseparabili) – del testo che ha davanti, poi cerca il modo per trasferire meglio che può quel senso in un’altra lingua. Una traduzione automatica è invece il frutto non di una comprensione del testo originale ma di un tirare a indovinare. Attingendo a uno sterminato bacino di dati e in base all’addestramento ricevuto, la macchina calcola quale parola o serie di parole nella lingua d’arrivo sia il corrispettivo più probabile di una parola o serie di parole nella lingua di partenza». Non so se questa descrizione sia del tutto plausibile, soprattutto visti i continui aggiornamenti dell’IA. So solo che l’idea di una traduzione di parole non rende al meglio il processo traduttivo, che si rivolge a parole dentro strutture, a costrutti che si basano su equilibri complessi.

E soprattutto – e con questo vorrei concludere – la traduzione non dovrebbe limitarsi a realizzare un prodotto, sempre modificabile e differenziato a seconda delle finalità: scolastica, laboratoriale, letteraria, comunicativa ecc. ecc.

Dovrebbe, e potrebbe, prioritariamente, dar conto di un processo, che è la vera traduzione, il vero trasporto, il vero contatto fra culture: la ricerca di equivalenti o comparabili, i diversi tentativi e i successivi affinamenti. Se si perde la sostanza di questo processo, la traduzione perde molto della formazione.

Accumulando, come elementi preparati per una utile ‘ingestione’, strutture linguistiche e procedure di trasferimento di senso, penso che l’IA possa davvero servire a realizzare un nuovo rapporto, altrimenti difficile e forse impensabile, con una nuova idea di testualità, mettendo a disposizione, anche per una rinnovata educazione linguistica, gli elementi base di un pensiero critico di tipo nuovo.

Nuovo, l’ho ripetuto già tre volte. Perché, per quanta fortuna abbia avuto il latinizzato nihil sub sole novi dell’Ecclesiaste (1,9 s.), che in realtà negava all’uomo di poter cogliere l’intervento di Dio nel mondo e nella storia (si veda R. Tosi, Dizionario delle sentenze latine e greche, Milano 2017, nm. 988, pp. 699-700), direi che a livello umano – quello che ci compete – potremmo aspirare a sempre nuove novità (e siamo a cinque!).

 

 

ABSTRACT

The aim of this article is to suggest, from the point of view of a classical philologist, that the ancient languages, first of all the ancient Greek, could increase the skills of the AI in order to enlarge its cognitive baggage. The structure of this language and its ancient descriptions could be added to the basic knowledges of the AI, thanks to the so called Dependency or Valency Grammar, a way of describing and analysing modern and ancient languages, not only Greek and Latin, which assigns to the verb the main function in the structure of a phrase. This new skill of the AI could help to answer to the questions that concern the translation, considered not only as a result, a product, but, mainly, as a process, a sequence of steps to reach a new kind of critical thought.   

 

Clicca qui e leggi gli altri articoli della sezione “ERA DIGITALE” di LETTURE LENTE

Avatar

Luigi (Gigi) Spina

Luigi Spina (Salerno 1946) ha insegnato Filologia classica presso l’Università Federico II, Napoli; è stato Chaire Gutenberg 2009 nell’Università di Strasburgo. È stato docente di numerosi corsi di formazione e aggiornamento per docenti di liceo e della summer school dell’Università di Siena. Collabora a corsi e laboratori di Eloquenza presso lo IED di Milano. È stato segretario della Associazione Antropologia del Mondo Antico e Associate Editor della rivista Rhetorica. Per la casa editrice il Mulino ha curato, nel 2019 e 2020, i Dialoghi Filosofici Nella mente del mito, presso l’Auditorium della Musica di Roma. Ha co-curato la mostra Da Omero al Pontelungo. Quante Sirene ci sono a Bologna?, Archiginnasio, Bologna, maggio-luglio 2023. Sul sito www.luigigigispina.altervista.org l’elenco dell’intera bibliografia, oltre trecento pubblicazioni, in gran parte scaricabili.

© AgenziaCULT - Riproduzione riservata

Back To Top