L’IA non mente. Noi sì
Antropomorfizzare una percezione: Borges e le istruzioni per non capire
Quello che ultimamente si può osservare sulla comunicazione social relativa alla tecnologia è quanto di più bipolare ci possa essere. Si tratta comunque di un eco, solamente la punta dell’iceberg della comunicazione contemporanea, una reazione a catena. Infatti, da un lato si legge una narrazione euforica su startup e aziende innovative, dall’altro invece una paura catastrofica dell’intelligenza artificiale. Quindi, parlare male dell’azienda non si può fare - per ovvi motivi - parlare male del prodotto, sì…
Temi e questioni complicate dibattute da persone non qualificate - grazie social networks! Allora, un giorno ci svegliamo come se stessimo vivendo in una puntata di Ai confini della realtà o in un sequel di Transcendence, un altro invece in una cosmicomica calviniana dove uno scienziato fa una scoperta rivoluzionaria e al contempo inquietante.
E così ad occidente vediamo “un paternalismo in SiliconValley, una tendenza a giocare a fare Dio”, ovvero il desiderio dei CEO di fare del bene alle persone, che lo vogliano o no, e ad Oriente continuiamo a pensare che tali tecnologie possano rispondere a domande e desideri profondi. La convinzione è così scavata nel vuoto dei nostri stomaci che ci mettiamo un secondo ad attribuire coscienza e intenzionalità all’intelligenza artificiale, antropomorfizzando, non la tecnologia, ma la sua percezione. E poi? finiamo per temerla!
Ed è quanto è accaduto con i test di sicurezza di Claude 4. Dopo la pubblicazione del recente paper di Anthropic, dove i ricercatori descrivevano una serie di test in cui Claude 4, posto in ambienti simulati, produceva risposte che potevano sembrare “strategiche” o “manipolative” - quindi era esplicitamente condizionato da prompt che lo istruivano a comportarsi come un agente - la reazione di alcuni dei più importanti media è stata immediata, con testate che hanno titolato “Il sistema di AI ricorre al ricatto se gli viene detto che sarà rimosso”. Quanto di più lontano dalla verità: come se l’azione fosse stata di sua sponte, dettata da una propria volontà, mentre ha semplicemente eseguito le richieste dei suoi interlocutori, di chi gli scriveva il prompt, in un contesto in cui gli si chiedeva esplicitamente di simulare un agente con scopi propri.



Eppure, proprio dietro l’angolo, anzi, davanti agli occhi, abbiamo un esempio concreto, e stavolta umano, di manipolazione, anzi, ricatto. Dal New Yorker si leggono infatti quelli che potrebbero essere gli effetti dei licenziamenti voluti da Elon Musk nel periodo in cui era a capo del DOGE:
“Numerose agenzie e dipartimenti da lui attaccati stanno ora intentando causa per bloccare l'ondata di licenziamenti e tagli che ha messo in moto. Alla fine, il suo approccio sconsiderato ai tagli, con poca o nessuna considerazione per le conseguenze, potrebbe costare al governo fino a centotrentacinque miliardi di dollari solo in questo anno fiscale, secondo recenti stime della Partnership for Public Service. A quanto pare, non è economico mettere decine di migliaia di lavoratori in congedo retribuito e riassumere dipendenti licenziati per errore, per non parlare della perdita di produttività di una forza lavoro traumatizzata e incerta”.
Non solo, ma il giornale offre la testimonianza di Mary Boyle, commissaria della Consumer Product Safety Commission che sarebbe stata oggetto di un vero e proprio ricatto. Boyle ha raccontato come gli uomini di Musk avessero di fatto posto fine al suo lavoro d'ufficio nel giro di poche ore. Dopo aver ricevuto un'e-mail dal presidente repubblicano facente funzioni della commissione, che la informava dell'intenzione di far entrare in servizio i due DOGE che, "senza spese per la Commissione", avrebbero aiutato l'agenzia nei processi e procedure amministrative, Boule avrebbe avuto solo due ore per fargli sapere "se ho il suo appoggio". Boyle inviava così la sua risposta, un'e-mail contenente una sola parola: "No". Nemmeno un'ora dopo, ferma in un'area di sosta, ricevava la risposta dal vice capo dell'ufficio del personale della Casa Bianca: "Mary, a nome del presidente Donald J. Trump, le scrivo per informarla che il suo incarico presso la Consumer Product Safety Commission termina con effetto immediato. Grazie per il suo servizio".
Le paure ci sono, ma non sono dovute al potenziale di queste tecnologie e di chi le idealizza, ma sempre al loro utilizzo e agli scopi che ci sono dietro. Prendiamo ad esempio l’ultima notizia, quella di HeyGen, una startup nel settore dell’intelligenza artificiale fondata nel 2020 e che sviluppa tecnologie per la generazione di video realizzati con avatar AI molto realistici a partire da testo (prompt) oppure da immagini o video brevi. Ha appena lanciato il suo Ai Studio che ci permetterà di mettere online un proprio clone, con la propria voce, gesti, esitazioni. Basta una semplice foto e una frazione di secondi di registrazione vocale: il sistema replica così timbro, inflessioni, ritmo e movimenti delle labbra in sinc con le immagini, simulando perfino le pause tra una frase e l’altra. Sembra tutto super euforico, peccato che, durante il primo keynote, HeyGen ha mescolato avatar e persone reali, sfidando il pubblico a distinguere gli uni dagli altri: è stato impossibile, nessuno ci è riuscito. La riflessione che ne scaturisce è quindi sull’uso di questa tecnologia: chi può vietare a un criminale di preparare un video con l'avatar del nipote della vittima che chiede soldi alla propria nonna o la replica del CEO di un'azienda che ordina a un suo dipendente di pagare in bitcoin uno sconosciuto?
E sempre nello stesso periodo, il caso di un’altra startup, Builder. ai, che di AI non ha nulla: dopo aver raccolto quasi mezzo miliardo di dollari da investitori importanti quali Microsoft, SoftBank e il fondo sovrano del Qatar, crolla in borsa alla scoperta che erano gli stessi sviluppatori, esterni, a scrivere manualmente il codice in India.
Tutte queste notizie mi hanno fatto pensare ad un libro che ho letto recentemente, Yellowface di R.F. Kuang. Parla di una giovane autrice che, presente alla morte della sua amica - anche lei scrittrice ma famosa -, le ruba il suo ultimo capolavoro e lo pubblica a suo nome. Al di là di tutte le denunce cui l’opera mira, quello che traspare dalla narrazione è sempre una angoscia di fondo, una paura di non sapere più chi si è realmente, una perdita della realtà, nel voler esser sempre qualcun altro pur di raggiungere un medesimo scopo. E i social stanno infondendo tutto ciò. Così, davanti ai nostri occhi c’è Musk che si ritrova con un incarico governativo senza avere alcuna competenza; una intelligenza artificiale che replica noi stessi; una startup che finge di essere verticale sull’IA ma usa manovalanza a basso costo pur di sbarcare il lunario nel settore. Ne emerge solo tanta tristezza e un senso di vuoto.
Un vuoto che ricorda la vita infernale nella Biblioteca di Babele di Borges, una biblioteca dove, grazie alla sua infinitezza, si possono trovare libri in grado di rispondere a qualsiasi domanda e fornire la verità. Peccato che nel suo disordine è impossibile trovarli. E ala fine il bibliotecario arriva ad una constatazione:
“La certezza che tutto sia scritto ci annulla e ci rende dei fantasmi. Io conosco dei distretti nei quali i giovani si prosternano davanti ai libri e baciano selvaggiamente le pagine, ma non sanno decifrare una sola lettera […] Sospetto che la specie umana - l’unica - stia per estinguersi e che la Biblioteca sia destinata a permanere: illuminata, solitaria, infinita, perfettamente immobile, armata di volumi preziosi, inutile…”.
Borges sembra quasi anticipare l’esistenza dei database che alimentano l’intelligenza artificiale - se solo scambiassimo la parola “libro” con “smartphone”, eppure il suo messaggio va oltre: possedere il sapere non basta, è fondamentale esserne padroni di comprenderlo per utilizzarlo consapevolmente.