Qualcuno a Facebook avrà mai visto Le vite degli altri, Nemico pubblico, oppure uno splendido vecchio film di Francisc Ford Coppola come La conversazione? Pellicole in cui ci sono uomini oscuri e potenti che ascoltano ogni nostra conversazione, trascrivono, compongono dossier, ricattano, seguono ogni nostra mossa da remoto. Forse a Menlo Park avranno visto solo Nemico Pubblico. Le vite degli altri è troppo europeo e La conversazione è troppo vecchio per un’azienda così giovane, fatta da giovani.
Sono film che lasciano addosso un senso di inquietudine, quell’angoscia sottile di chi si sente spiato senza aver commesso alcun reato. Tuttavia dalle parti di Facebook, anche se dovessero averli visti tutti e tre, poco hanno imparato.
Il social network infatti è stata beccato ancora una volta con le mani nella marmellata. Stavolta un’inchiesta di Bloomberg ha svelato che alcuni esseri umani, di una società pagata da Facebook, ascoltano – ascoltavano dovremmo dire – e trascrivono – trascrivevano – le nostre conversazioni e i nostri messaggi vocali su Messenger.
L’obiettivo dell’ascolto e della trascrizione è quello di aiutare l’intelligenza artificiale a capire meglio quel che noi diciamo, come lo diciamo; nel senso di come ci mangiamo le parole e non riusciamo a essere lineari quando parliamo, di come siamo pieni di incertezze nell’esprimerci e ci perdiamo nel corso di un discorso. Di come non siamo in grado di esprimere un concetto partendo dal soggetto passando per il predicato, e concludendo con un complemento oggetto.
L’essere umano è imprevedibile quando pensa e quando parla. E dunque per aiutare l’intelligenza artificiale a decrittare pensieri e parole servono altri uomini.
L’ennesima conferma (si pensi alla storia del Re-Captcha) che la tecnologia, per quanti grandi numeri possa macinare, non è in grado di replicare la nostra mente e la complessità disordinata dell’universo. L’ennesima conferma, quindi, che servono gli umani ad aiutare le macchine, almeno per un altro po’ di tempo.
Lo stesso ha dovuto fare Google con i Quality rater, specie di recensori che aiutano il motore di ricerca a capire se una pagina è affidabile oppure no. Perché non esiste altro modo di scoprire se un contenuto sia scritto da qualcuno di serio, che non consegnare questo giudizio a un uomo, anzi a 30mila uomini che fanno questo mestiere, tanti sono i Quality rater. E lo stesso fa Amazon, quando ha bisogno di capire cosa dicono gli umani quando si rivolgono milioni di volte al giorno in tutto il mondo ad Alexa.
Serve dunque una persona in carne e ossa che ascolta, interpreta e capisce, trascrive, e solo a quel punto insegna alla macchina; e la macchina può apprendere solo dopo che noi abbiamo fatto un pezzo di lavoro per lei. In un certo senso il più grande fallimento del potere algoritmico, la più grande ammissione di impotenza di chi gestisce un potere immenso in questo momento storico. La consapevolezza che non tutto è prevedibile con enormi masse di dati raccolti e processati.
La seconda considerazione che si può trarre da questa notizia è che per quante promesse possano fare quelli della Silicon Valley non sono in grado di mantenerle. Non sono in grado di starsene fermi, e proseguire nel guadagnare pacchi di denari commerciando i nostri gusti e la nostra attenzione. È un effetto naturale, potremmo così definirlo, del loro modello di business che richiede di scalare sempre di più, di crescere, di diventare più efficiente, di allargarsi a nuovi e più complessi ambiti, di realizzare nella macchina qualcosa che si avvicini sempre di più a Essere un uomo, parafrasando il titolo di un libro di successo. Sì, non è soltanto il nostro desiderio di trasformarci ed Essere una macchina, quanto la pervicacia di chi sviluppa le macchine digitali nell’imitare noi, e quindi nel capire noi. Vasto programma, si sarebbe detto un tempo.
Le techno-corporation nella loro smania prometeica sono costrette in continuazione a scontrarsi con cose sempre più complicate, nel senso di imprevedibili, per le quali l’algoritmo ha bisogno di noi, dell’uomo. Ripetiamo: ha bisogno di noi, almeno per adesso.
Rimangono sul terreno tante domande: che fine hanno fatto quelle conversazioni? Dove sono le trascrizioni? Cosa ha imparato Edge rank e cioè l’algoritmo di Facebook da tutte le parole che gli umani hanno ascoltato? Non avremo risposta almeno per un po’. Finché un’altra inchiesta svelerà un altro comportamento poco ortodosso del social network o del motore di ricerca, i quali si cospargeranno il capo di cenere, diranno “non lo facciamo più!”, effettivamente smetteranno di farlo, perché impegnati in un altro, non ancora svelato, comportamento poco ortodosso. Ci sono molti eufemismi in questa frase, ma ci siamo capiti. Anche l’eufemismo, ne siamo certi, è qualcosa di difficile comprensione per un algoritmo, almeno per un altro po’ di tempo.