Capre, cavoli e ChatGPT. Analizzare testi complessi con l’intelligenza artificiale

Abbiamo chiesto a ChatGPT di analizzare il testo di una canzone che fa un uso spinto di figure retoriche: il risultato suggerisce di considerare l’intelligenza artificiale più come una partner con cui fare una partita, che come un distributore di soluzioni pronte all'uso.

Lettura: 4 minuti

Indice

Un test per ChatGPT

Tutto è cominciato con una canzone, La rappresentante di lista, del gruppo omonimo. Dalla quale sono rimasto catturato al primo ascolto. Si tratta di un brano sofisticatissimo giocato sul filo del nonsense, che ricorda Rino Gaetano, Jannacci, Battiato; ma anche Palazzeschi, Toti Scialoja, Zanzotto. Qui il testo della canzone.

Dopo aver canticchiato per giorni questa canzone, ho deciso di sottoporla a ChatGPT (3.5). Mi interessava esplorare le possibili letture, e in particolare la relazione tra alcune parole chiave. Un brano del genere è un bel test per i large language model. Ecco quindi il resoconto sintetico di questa partita, a colpi di capre, cavoli, acque dolci e velenose.

ChatGPT afferma che la canzone ha un tono poetico e ironico tipico del gruppo, e che affronta temi come l’amore, la morte, le elezioni. Riguardo all’apparente nonsense del testo, GPT risponde che possono esserci più chiavi di lettura, e cita in particolare la satira sociale e politica, il surrealismo e la metafora. Non male.

A questo punto cerco di spostare il dialogo nella direzione che mi interessa maggiormente, cioè quella delle relazioni fra le parole. Domando se parole come cavolo, testa, e figlio possono rimandare a espressioni o credenze popolari, come ad esempio i bambini che nascono sotto i cavoli.

Sì, le parole "cavolo", "testa" e "figlio" possono essere associate ad espressioni o credenze popolari: Nascere sotto i cavoli, Avere il cavolo in testa.

Chiedo quindi a ChatGPT di individuare altri nessi. Dopo alcuni deragliamenti, ChatGPT estrae sì dei collegamenti, ma solo quelli appartenenti all’uso proprio, letterale della lingua, come gennaio e neve; capre e lana. Queste relazioni però hanno poco a che fare col “gioco” della canzone. GPT non riesce a cogliere la dimensione figurata, retorica, non riesce a individuare nessi come quello fra capra e cavolo, col e cavolo (che ti ho lasciato), e così via.

ChatGPT, classificazione e contesto

In fin dei conti, quello che abbiamo chiesto a ChatGPT è di fare una classificazione. Associare parole secondo un certo uso, punto di vista o chiave di lettura non è altro che un’opera di classificazione. Ma la classificazione è possibile soltanto all’interno di una cornice: il contesto socioculturale che l’ha prodotta. Ogni classificazione riflette una visione del mondo, più o meno estesa. Senza tale cornice non solo non è possibile produrre una classificazione utile, ma neppure comprenderne una già esistente.

L’intelligenza artificiale ci riporta così a un tema ancestrale non solo dell’architettura dell’informazione ma anche della filosofia e della sociologia: il tema della classificazione e il ruolo del contesto. Contesto che nel caso della Rappresentante di lista è (potrebbe essere) formato dagli altri brani del gruppo, da recensioni e interviste, dalle canzoni di altri cantautori a cui il gruppo si ispira, ma anche da opere letterarie, fumetti e tutto ciò che può contribuire a illuminare il nostro brano. La Chat ha difficoltà a stabilire relazioni fra questi ambiti in modo autonomo. Forse un GPT tematico sulla musica potrebbe portare a passi avanti: un campo di analisi circoscritto e specializzato facilita correlazioni più mirate.

Tiriamo le fila

Il caso della Rappresentante di lista può sembrare estremo, eppure quanti documenti, servizi, prodotti si comportano in questo modo? Quante volte abbiamo difficoltà a collocare un item all’interno di una tassonomia? Quando lavoriamo con ChatGPT o altri strumenti di intelligenza artificiale dobbiamo tenere conto che la mancanza di un contesto di riferimento può generare risultati fuorvianti anche in casi meno ambigui.

Il limite del contesto può essere corretto, parzialmente, considerando l’intelligenza artificiale come una partner con cui allenarsi. Con cui avere cioè un’interazione dinamica, protratta e regolare. Il palleggio fra la persona e la macchina crea una sinergia: ciascuno riceve il passaggio dell’altro e spinge avanti il gioco (anche in caso di errori). Il fuoco si sposta quindi dall’immagine del distributore automatico (da usare one spot) a quella della partner con cui giocare una partita (con cui interagire in modo continuato).

Questo, a sua volta, ci proietta verso un altro concetto cruciale, quello del continuous improvement. Un’idea di design non circoscritto a fasi specifiche (design ex novo o redesign), ma distribuito lungo tutto il ciclo di vita di un servizio, e fatto di ricerca, test e miglioramenti continui. È in questo quadro che l’intelligenza artificiale trova la sua collocazione migliore.

PS. I “significati” della canzone La rappresentante di lista

Alla fine, la lettura più raffinata della canzone è emersa durante un workshop tutto al femminile. Nella canzone si sovrappongono più temi: quello del rapporto uomo-donna e del maschilismo, quello della politica, quello della musica come riscatto. Qualche esempio. “L’acqua dolce del tuo pozzo per me è veleno che mi dà la morte” (rapporto uomo-donna); “per far passare il mio singhiozzo sento le note del tuo pianoforte” (rapporto uomo-donna, musica); “Quando passo in via degli uomini mi sento sempre la protagonista, alle prossime elezioni sarò io la rappresentante di lista” (politica, maschilismo); “potremmo fare un figlio al pianoforte” (musica, rapporto uomo-donna).

L’articolo riprende una parte dell’intervento che Andrea Resmini e io abbiamo presentato al Summit di architettura dell’informazione 2023.