Due parole sull'Intelligenza Artificiale
Della serie: le invenzioni che cambieranno il mondo (in peggio)

Questo documento non vuole essere una critica asfittica ma un mero spunto di riflessione...
In questo periodo, le tecnologie di «Intelligenza Artificiale» sono un pochino il «genio» della lampada informatica... Il prezzemolo di ogni minestra di bit... il sale con cui rendere più sapidi i processori.
Tuttavia, al netto del generale ottimismo nei confronti di questa tecnologia che rasenta quasi lo spot pubblicitario, recentemente ci sono state due interviste: una a Richard Stallman, ideatore (ed ideologo) di quello che è il «free software» ed una a Linus Torvalds, creatore del Kernel di Linux. In entrambi i casi, alcune domande sono ricadute sul tema dell'intelligenza artificiale e, in entrami i casi, le risposte sono state coerenti.
Intervista a Richard Stallman
Disponibile a questo link su Youtube.
Gli LLM non hanno la capacità di comprendere la semantica del testo con cui lavorano; si limitano a prevedere la parola successiva. Sarebbe opportuno utilizzare il termine «modelli linguistici di grandi dimensioni» invece di «intelligenza artificiale» quando ci si riferisce a questi sistemi [cfr. il minuto 02:32].
Molti anni fa, era il 1975, realizzammo un programma di intelligenza artificiale che poteva capire il comportamento dei circuiti elettrici applicando regole e deduzioni, in modo simile ad un ingegnere umano [cfr min. 03:01].
Mi preoccupa il fatto che le persone credano che gli LLM comprendano il testo che generano, portando a errori e disinformazione: le leggi dovrebbero richiedere che qualsiasi testo generato da un LLM sia identificato come tale [cfr. minuto 07:50]
Intervista a Linux Torvalds
Disponibile a questo link su Youtube
Anche Linus Torvalds, in una sua recente intervista, cita il clamore intorno all'IA e il suo potenziale impatto su vari lavori, sottolineando gli effetti positivi della rivoluzione dell'IA, come -ad esempio- il maggiore coinvolgimento di aziende come Nvidia nella comunità Linux [cfr minuto 01:38].
Tuttavia, anche se ci sono cambimenti positivi apportati dagli strumenti di IA, suggerisce di aspettare 10 anni per vedere il vero impatto dell'Intelligenza Artificiale [cfr. minuto 02:28].
In sostanza, riepilogando il pensiero di questi due grandi dell'informatica, l'idea è che è ancora troppo presto per parlare di «vera» IA e che, oltre ad aspettare una decina di altri anni almeno, al massimo si può parlare di un «modello» in grado di «interpretare» con una discreta verosimiglianza, il contenuto della domanda che, alla sedicente IA viene posta... Inutile dire che il loro pensiero mi trova perfettamente d'accordo.
Tra le altre cose, non sono certo pochi coloro che, in rete, parlano di IA e della possibile bolla speculativa che potrebbe scoppiare... un po` come già successo, a cavallo del cambio di secolo, per le famigerate «dot-com»... la data che molti ricorderanno, è certamente quel tristemente famoso 10 marzo del 2000, un vero «venerdì nero», anzi «nerissimo»
Volendo andare sul tecnico, potremmo dire che l'attuale sistema non è capace di «capire» il senso di un discorso ma è solo in grado di calcolare, matematicamente parlando, la distanza vettoriale tra due parole e agevolare la ricerca di una interpretazione più vicina possibile alle intenzioni di colui che la fa.
È evidente che non è «intelligenza» ma resta solo un «modello interpretativo»... avanzato, certamente, ma pur sempre un modello interpretativo cioè, tornando su quanto riferito da Stallman, un «modello linguistico di grandi dimensioni».
Ma tutto questo crea nuovi problemi!
In tutto questo i problemi ci sono... eccome se ci sono!
Pensiamo, a puro titolo di esempio, al traffico che viene fatto per «scandire» pagine e pagine di testi fatte dagli uomini ed interpretarlo: le centinaia di pagine scandite giornalmente sul mio sito da anonimi motori di ricerca lo confermano.
La sedicente «Intelligenza Artificiale» ha bisogno di centinaia di gigabytes per essere adeguatamente istruita, consumando risorse e traffico.
Una volta istruita, potrebbe essere in grado di «interpretare» in modo verosimile una domanda, cioè fornire una risposta tanto più adeguata quanto più precisa sarà la domanda posta e tanto maggiore la base dati usata per l'istruizione.
Ma la domanda che mi pongo adesso è: «cara intelligenza artificiale, hai scandito in profondità siti internet fatti con lo studio ed il sudore della fronte di tante persone ed ora darai risposta come se fosse farina del tuo sacco?»
La risposta è, ovviamente, sì... e no, a me (e, probabilmente, non solo a me) questo potrebbe non andare a genio!
Pertanto, hai usato il mio lavoro (e quello di tanti altri come me...), hai generato traffico di centinaia di pagine per «capire» ciò che c'era scritto... ed ora se uno ti fa una domanda che fai? rispondi e non citi la fonte?
Vediamo la cosa dalla parte di un «motore di ricerca»
Applichiamo la IA ad un motore di ricerca e facciamo una ricerca.
La risposta potrebbe essere generata automaticamente in base alla «istruzione» ricevuta mediante le tante scansioni e potrebbe estrinsecarsi in uno «snipplet» (la citazione da uno dei siti più attinenti alla domanda posta) o come una frase «autogenerata» senza riferimento alcuno alla fonte.
In ogni caso, l'utente potrebbe ritenersi soddisfatto e non proseguire con la navigazione sul sito: ed il sito perderebbe un potenziale (diciamolo pure) «cliente»... specie se, quel sito, «campa» dalle visite dei navigatori.
A questo punto, c'è da chiedersi: che senso ha «scrivere»?
Sì, che senso ha scrivere, creare un sito, fare esperimenti, narrarli se, con una scansione, la sedicente IA ti ruba tutto e lo spaccia per proprio?
Eh no, non ha più senso ed i contenuti, quelli di qualità, potrebbero, a breve, mancare...
E, giunti a questo punto, cosa potrebbe succedere? Che chi ha inventato la IA potrebbe farla istruire da contenuti generati da essa stessa creando, in questo modo, la «morte» della stessa Internet come oggi la conosciamo, un vero e proprio «corto circuito». Un caso eclatante è quello di una testata gratuita italiana che, qualche tempo fa, ha annunciato di far creare i propri contenuti esclusivamente alla IA, lasciando a casa i propri redattori.
Quindi articoli generati dalla IA che finirebbero per alimentare le ricerche della stessa IA... Una specie di «cane informatico che si morde la coda software»
In altri termini, avremo una IA estremamente invasiva e senza alcuna garanzia, che -probabilmente- fornirebbe risposte a «pene di segugio» a domande, anche molto importanti, poste dagli utenti.
Ma forse è proprio questo che «là dove si puote quel che si vuole» si desidera: meglio dare risposte addomesticate a domande selvagge che alimentare le stesse ed il pensiero critico con un mai addomesticato pensiero umano...