Cassandra Crossing/ IA: Allucinazioni, Essere o Sembrare

Marco A. L. Calamari
3 min readOct 18, 2023

--

(556) — Quanto è sfaccettato il problema delle capacità delle false IA e delle loro “allucinazioni” quando viene discusso nei salotti? E nella filosofia? E nel marketing?

17 ottobre 2023— Cassandra, i 24 inscalfibili lettori lo sanno bene, ha scritto in maniera … beh, diciamo in maniera molto critica sui problemi legati all’intelligenza artificiale (che ha battezzato, non a caso, “falsa Intelligenza Artificiale”).

E’ stata particolarmente attenta al linguaggio che viene usato oggi per parlare delle false Intelligenze Artificiali, sottolineandone l’uso distorto quando non volutamente ingannevole.

E’ necessario fare questa operazione anche per il termine usato quando una falsa Intelligenza Artificiale commette errori così marchiani da rivelarne la sostanziale inutilità come “oracolo”.

Il termine è “Allucinazioni, che è perfetto per sostenere la campagna di marketing con cui si tenta di vendere le attuali false Intelligenze Artificiali come strumenti per risolvere problemi.

E’ appena il caso di ricordare che si tratta di sistemi generativi pre-addestrati su grandi quantità di dati, ed in particolare di LLM, cioè di grandi modelli linguistici.

Si tratta di software che, per la loro struttura interna, decompongono l’informazione con cui sono addestrati in “coefficienti statistici” complessi, su cui qui non è possibile addentrarsi.

Una tale architettura però rende tali sistemi capaci unicamente di completare domande, fornite come input, anzi come “prompt” (altro termine coniato ad arte), calcolando risposte concepite come “prosecuzione” della domanda, e generate semplicemente per essere credibili, ma senza nessuna possibilità di fornire risposte esatte.

Questa verifica è alla portata di qualunque utente curioso che fornisca qualche prompt a ChatGPT.

E torniamo alla questione delle Allucinazioni.

Perché questo termine è volutamente errato ed ingannatore? Perché l’avere allucinazioni implica un funzionamento razionale ed una percezione corretta del mondo o del dominio di conoscenza del sistema, in tutti gli altri casi.

E dove manca non solo intelligenza, ma anche il semplice determinismo, non è possibile, anzi è totalmente disonesto parlare di “allucinazioni”, quando invece si tratta manifestazioni particolarmente forti della normale assenza di significato di tutte le risposte, anche quelle “esatte”.

Ma si sa, il marketing è un mestiere senza scrupoli, e la quantità di soldi che viene spesa non solo per costruire ed allenare le false Intelligenze Artificiali, ma anche per promuoverle e venderle, è illimitata.

Non c’è quindi da stupirsi se il linguaggio usato per la comunicazione su questo tema è così estremamente ben fatto e curato da risultare assolutamente ingannevole. Non si tratta quindi di errori di comunicazione, ma di “cortine fumogene” volute.

E’ semplicemente espressione di un cinico marketing portato ai massimi livelli, baby!

E, detto questo, non rimane che da evidenziare nuovamente il problema di fondo che sta creando, queste sì, “Allucinazioni” nel mondo reale; allucinazioni a cui sono soggetti la maggior parte degli attuali utenti delle false Intelligenze Artificiali.

La base di questo processo allucinatorio consiste nel non distinguere l’”Essere” dal “Sembrare”.

E sia chiaro, questo non ad un livello riservato a filosofi ed epistemologi, ma semplicemente a quello di banali utenti del software.

Stai usando un sistema che “è” in grado di risolvere problemi o che “sembra” in grado di risolvere problemi?

Se si perde la distinzione tra queste due categorie, ci si addentra in un ginepraio rispetto a cui la “Selva Oscura” del padre Dante sembra un giardino all’inglese.

L’unica cosa per cui gli attuali modelli linguistici sono adatti è l’unica cosa che sono progettati per fare fare; generare testi accurati e “credibili”. Se si devono riempire pagine su un sito acchiappaclick vanno benissimo, ed infatti vengono già oggi usati estesamente per questo.

Se vengono quindi utilizzati per manipolare testi, per esempio per tradurli o farne un riassunto, funzionano bene.

Ma se doveste volare su un aereo, farvi trasportare da un’auto a guida autonoma, o combattere una battaglia usando robot assassini beh, date retta a Cassandra, meglio evitare quelli progettati e programmati non da uomini ma da modelli linguistici.

Scrivere a CassandraTwitterMastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero

Licenza d’utilizzo: i contenuti di questo articolo, dove non diversamente indicato, sono sotto licenza Creative Commons Attribuzione — Condividi allo stesso modo 4.0 Internazionale (CC BY-SA 4.0), tutte le informazioni di utilizzo del materiale sono disponibili a questo link.

--

--

Marco A. L. Calamari
Marco A. L. Calamari

Written by Marco A. L. Calamari

Free Software Foundation member, Progetto Winston Smith, convegno e-privacy, Cassandra Crossing, ONIF, MEP mancato del PP-IT, Nabaztag @calamarim@mastodon.uno