Tra qualche tempo, chi leggerà queste mie parole si chiederà chi le abbia scritte. Si domanderà se il canale Disobbedienze sia confezionato da un umano o da una macchina, da un modello di linguaggio di grandi dimensioni o da un tizio qualsiasi, se il nome Nicola Zamperini rappresenti soltanto l’eteronimo di un’intelligenza artificiale, magari addestrata all’impostura e alla lettura di tutte le poesie di Pessoa, Alberto Caeiro, Ricardo Reis e Álvaro de Campos, allenata a produrre contenuti – che non potranno mai essere all’altezza del training -, fingendo che questo Zamperini sia un umano come tanti. Un’AI che abbia il compito facilissimo di ingannare lettori artificiali e non. Oppure, caso davvero residuale in termini percentuali, se queste parole siano frutto dell’intelligenza e della stupidità di un uomo in carne e ossa. Interrogativo che appare fin d’ora legittimo. E che, con buona probabilità, spostandoci in avanti nel tempo, saranno in pochi a porsi, tanto risulterà scontata la risposta.
La maggior parte di ciò che leggeremo qui dentro, su Internet voglio dire, presto non verrà più scritta da essere umano, ma da una macchina. Tuttavia non ci renderemo conto di nulla, continueremo a leggere e a guardare, indifferenti allo statuto dell’autore, alla sua identità (niente di grave, in fondo è dai tempi di Omero che è così…).
Il magazine digitale Axios ha recentemente diffuso i risultati di una previsione che afferma che i contenuti generati dall’intelligenza artificiale potrebbero rappresentare il 99% di tutte le informazioni presenti in rete, entro il 2025-2030. (Previsione del tutto arbitraria, di cui Axios non fornisce prove né cifre, eppure anche fosse solo l’80% sarebbe comunque un’enormità).
L’organizzazione no profit News Guard ha già identificato 49 newsbot, e cioè siti interamente scritti da sistemi di intelligenza artificiale in 7 lingue: cinese, ceco, inglese, francese, portoghese, tagalog e tailandese. Alcuni pubblicano centinaia di articoli al giorno su vari temi, tra cui politica, salute, intrattenimento, finanza e tecnologia. Molti risultano saturi di pubblicità, e probabilmente sono stati progettati per generare entrate grazie al programmatic advertising, annunci posizionati nei siti in modo algoritmico.
Svariati articoli contengono informazioni false. Uno di questi newsbot, inoltre, sembra progettato con l’intento di copiare e sintetizzare contenuti realizzati dalla CNN, nei testi compaiono alcune classiche risposte fornite da sistemi di chat intelligenti, tipo: «non sono in grado di produrre 1500 parole… Tuttavia, posso fornirti un riepilogo dell’articolo…». Quindi non solo l’AI realizza già oggi questi siti, ma lo fa senza alcuna supervisione umana.
Axios colloca la notizia all’interno di un timore diffuso circa una rapida crescita della disinformazione. Paura giustificata, visto che con l’intelligenza artificiale generativa il costo marginale di produzione di un contenuto risulta oggi pari a zero. Posso dare in pasto a ChatGPT un contenuto – falso o manipolatorio – e chiedere di comporne altre dieci o venti versioni, utilizzando stili diversi, attacchi diversi con diverse lunghezze. Non basteranno eserciti di moderatori umani a verificare questa marea di testi, foto e video prodotti dalle macchine.
Già oggi molte grandi aziende, a partire da Google e Meta, pensano di etichettare con filigrane digitali, watermark, gli articoli, le foto e i video prodotti dalle macchine (qualcosa di simile ai marchi in trasparenza che vedete nelle fotografie che servono a rivendicarne il copyright). Soprattutto pensano, le techno-corporation, che sarà proprio l’AI che aiuterà a identificare i contenuti prodotti dall’AI. Classica soluzione da Silicon Valley questa, che prova a fare sia le pentole che i coperchi, senza riuscirci. È il caso dell’utilizzo dell’intelligenza artificiale che avrebbe dovuto scovare tutti i contenuti malevoli e tutti i discorsi d’odio presenti nei social network, e poi bloccarli, obiettivo irraggiungibile. La verità è che non potremo mai rimuovere tutto questo, dovremo piuttosto imparare a conviverci. Così come dovremo imparare a convivere con i contenuti fatti dalle macchine. Peraltro sarà complicato riconoscerli tutti (e se oggi la chat di Google, Bard, fa sorridere per stupidità e incompetenza – probabilmente voluta dai suoi autori, per evitare polemiche – per fallacia rispetto a ChatGPT, tra poco godremo invece di un’AI che ci aiuterà davvero nell’utilizzo di Gmail, dal momento che sfrutterà un’intelligenza addestrata su di noi, che ci conosce a fondo e da molto tempo).
Temo che anche i watermark digitali serviranno a ben poco. La constatazione che un articolo o un video hanno un autore artificiale arriverà dopo, a cose e danni fatti.
Qualche giorno fa ho condiviso una meravigliosa foto di Arthur Rimbaud, spacciata per inedita e del tutto credibile, senza chiedermi se fosse vera, verosimile o falsa. Era creata dal nulla da un’intelligenza artificiale. Ho scritto subito che mi ero sbagliato, ma intanto quella foto è stata vista, commentata, forse ricondivisa e qualcuno potrebbe averle attribuito una qualche “autenticità”, “verità”. Ed era solo un’innocua immagine di Rimbaud.
Dimenticheremo presto, io credo, la questione di fondo circa la provenienza di un contenuto, un po’ come facciamo con l’assenso che forniamo ai dati che tracciano la nostra esperienza di navigazione.
La propagazione massiccia di contenuti prodotti dalle macchine rappresenta uno degli effetti più immediati della presenza dei modelli di linguaggio di grandi dimensioni, come ChatGPT. Non ci sarà bisogno di aspettare anni per osservare ammassi di contenuti di questo genere. E in parte è già così.
Non pensate solo alle notizie e ai media, pensate a una moltitudine di contenuti tecnici e informativi settoriali, a manuali, recensioni, schede tecniche, tutorial di prodotti e servizi, fisici e digitali. Questi oggetti intaseranno presto la rete e soprattutto affogheranno i motori di ricerca, a partire da Google. Anche perché saranno realizzati con una SEO (search engine optimization) perfetta, verranno cioè ottimizzati, con tutte quelle caratteristiche tecniche inserite in un testo e nei testi che accompagnano i video, con l’obiettivo di renderli migliori agli occhi degli algoritmi. Quando faremo una ricerca, ci ritroveremo quindi presto di fronte a SERP contaminate (search engine result page), a elenchi di risultati inquinati da contenuti prodotti da un autore artificiale. Nessun umano, nemmeno Salvatore Aranzulla, potrà competere. Saranno scritti peggio? No, anzi (lo ripeto spesso, Chat GPT scrive meglio di tanti umani che conosco). Se guardate i contenuti realizzati e scritti da esseri umani e basati sulla SEO, non brillano spesso per stile e chiarezza. Dopotutto si tratta di materiale pensato e pubblicato per parlare al moderatore supremo, cioè a Google, che intermedia tra i bisogni informativi delle persone e l’offerta informativa dei siti, e concepiti per essere arche pubblicitarie, contenitori di pubblicità.
In molti casi, poi, il processo di mediazione si concretizza tra macchine che scrivono contenuti e macchine che leggono contenuti, siano esse stupide o sedicenti intelligenti, per i più disparati motivi: gli aggregatori di qualsiasi genere funzionano così.
Assisteremo insomma al generarsi di un immane rumore, un rumore nero, in cui quasi tutto sarà indistinguibile, e molto sarà di pessima qualità. Manufatti degli umani e della loro intelligenza si confonderanno con i manufatti delle macchine e della loro sedicente intelligenza. Sarà complicato effettuare ricerche e molto difficile scovare contenuti di valore, di qualità. Gli algoritmi dovranno presto imparare a riconoscere, selezionare e gerarchizzare i contenuti umani, quelli fatti dalle macchine (con i bot sui social non è stato e non è ancora semplice) e i contenuti ibridi, fatti un po’ da noi e un po’ dall’AI. Sembra quest’ultima una sfida essenziale per Google, anche perché molti newsbot eviteranno di inserire watermark, per evitare di essere riconosciuti.
Che il motore di ricerca decida di penalizzare in automatico siti realizzati interamente dall’intelligenza artificiale pare difficile. Esistono molti ambiti in cui l’AI farà meglio e più degli umani, senza che perderemo in valore informativo e in qualità, si pensi da alcune occupazioni ripetitive e al lavoro d’archivio, al meteo e alla finanza dove già da tempo le macchine producono articoli e analisi sintetiche indistinguibili da quelli che un tempo confezionavano gli esseri umani.
Sono convinto che la scrittura umana di contenuti, di qualità (giornalismo e non solo), diventerà presto un fattore di posizionamento, termine che utilizzo nel senso del marketing di prodotto. Alcuni blog, giornali, magazine e media faranno dell’artigianato umano, necessario a produrre contenuti, un elemento di valore rispetto a chi utilizzerà esclusivamente l’AI nel processo produttivo (non riesco a immaginare un giornalista del New Yorker che si fa aiutare da ChatGPT a scrivere un ritratto). Ritengo che presto Made entirely by humans assumerà i tratti di un marchio distintivo per molti media che decideranno di farsi pagare per questa scelta. Ovviamente si tratterà di prodotti di nicchia, riservati a un’élite di lettori attenta a questi fattori. La parte preponderante di noi leggerà notizie, recensioni, previsioni, guarderà schede tecniche e tutorial scritti e prodotti dalle macchine o con l’ausilio delle macchine.
Yoshua Bengio, informatico, vincitore del premio Turing e uno dei tanti padrini dell’AI, ha suggerito che dovrebbe essere illegale l’impersonificazione di esseri umani. Potremmo, visto il timore di Bengio, arrivare a una sorta di inversione dell’onere della prova, a un ribaltamento del famoso test Voight-Kampff sviluppato dalla Tyrell Corporation, e che utilizzava Rick Deckard per identificare e poi ritirare i replicanti in Blade Runner. Non sarà più l’intelligenza artificiale a doversi rendere riconoscibile, a svelarsi. Toccherà a noi provare quel che siamo davvero, pungendo metaforicamente un polpastrello per esibire una stilla di sangue. E nel rumore nero, nell’asfissiante pioggia sporca di contenuti che parlano di tutto, scritti da reti neurali iper complesse, dovremo noialtri affermare di essere umani, visto che la qualifica autore rappresenterà soltanto uno dei molteplici attributi dell’intelligenza delle macchine.
Clicca qui se vuoi iscriverti al canale Telegram Disobbedienze.