Alexa e le altre

Stefano Rota

Mi chiamo Samantha” “Chi ti ha dato questo nome?” “Me lo sono dato da sola”, “Quando te lo sei dato?” “Nel momento in cui mi hai chiesto se avessi un nome. Mi sono detta, certo, mi serve un nome”.

Quando uscì Her di Spike Jonze nel 2013, l’intelligenza artificiale era bel lontana dall’avere l’impatto sulle nostre vite che ha assunto in questi ultimissimi anni e, più ancora, da quello che molto verosimilmente avrà nell’arco del prossimo decennio.

 

Al di là della (paradossale?) natura della relazione tra Theodore e Samantha, lui umano, lei priva di un corpo, quello che mi preme mettere in evidenza qui è l’ultima frase del dialogo sopra riprodotto: “mi sono detta, certo, mi serve un nome”. Avere un nome: questo rappresenta il passaggio dirimente.

 

Proviamo a immaginare un dialogo tra le due entità senza che la seconda avesse assunto il nome di Samantha. Sarebbe stato a doppio senso, o ci sarebbero state solo domande da parte dell’umano alla capacità elaborativa di dati e informazioni infinitamente superiore del non-corpo? Avrebbero passeggiato amorevolmente i due nella campagna californiana parlando di vita, sentimenti e progetti, o il loro rapporto sarebbe stato relegato allo spazio dell’ufficio di Theodore?

 

La mancanza di un nome avrebbe definito un rapporto umano-macchina di tipo “tradizionale”: la macchina al servizio dell’uomo (uomo come categoria filosofica, ben inteso), della sua capacità esclusiva di elaborare pensiero, formulare quesiti da sottoporre alla macchina. Questa si limiterebbe a elaborare quanto inputato, offrendo soluzioni in tempi inimmaginabili per la mente umana. Sarebbe stato un altro film, molto meno interessante.

Ma la macchina, qui, ha un nome. Il rapporto uomo-macchina tradizionale si trasforma in un concatenamento macchinico dove si perdono le distinzioni tra il primo e la seconda, non si capisce dove finisca la funzione del primo e dove inizi quella della seconda. Non è più scontato che sia la macchina al servizio dell’umano: nel concatenamento l’idea di “essere al servizio di” perde valore, ci si alimenta a vicenda. Ho usato l’esempio del film Her solo come metafora di questo cambiamento, ben consapevole del fatto che si tratti una finzione, ma non per questo si riduce la sua valenza.

Questa nuova forma spazza via i concetti ancora attuali in tutto il Novecento che vedevano nel rapporto uomo-macchina una conflittualità in cui era in gioco una posta elevata: le macchine ci schiacciano, annichiliscono la forza lavoro sostituendola ovunque, o al contrario l’intelligenza del lavoro cognitivo riesce ad appropriarsene, a rivoltarle contro il loro detentore? Probabilmente non ci troveremo né nella posizione di Ned Ludd, l’operaio che nel 1779 si vide sottrarre il lavoro dal telaio (e che quindi distrusse), né in quella dell’operaio della Ford alla catena di montaggio negli anni Venti che, di fronte a due bulloni allentati, invece di stringerli ne allentava un terzo, facendo scartare il pezzo (sto citando un passaggio di uno dei memorabili seminari di Nando Fasce a Balbi4 di Storia sociale americana, nei primi anni Ottanta).

 

La ragione sta nel fatto che, con un processo che procede a una velocità impressionante, le macchine si dotano di elementi che siamo soliti relegare a quell’ambito che per convenzione o convinzione associamo alla vita umana. Questo, se presenta i vantaggi che ognuno di noi può testare aprendo la versione gratuita di ChatGPT, porta con sé anche altro. Acquisendo vita, le macchine richiedono sempre più “vitalità umana astratta”, per usare una felice espressione di Felix Guattari del 1992: questo implica dare e allo stesso tempo sottrarre pensiero all’umano.

 

La vitalità umana astratta si sostanzia nel cyber-spazio in cui siamo immersi al punto da non renderci neppure conto, ogni volta che interagiamo con delle macchine, le quote enormi del nostro “pensiero” che le stiamo affidando. In cambio, ne riceviamo altrettante quote elaborate sulla base di medie tra le frequenze di elaborazioni possibili, prodotte sul principio della similitudine tra elementi semantici che a miliardi alimentano ogni microsecondo la voracità elaboratrice di dati delle aziende dell’IA, in modo sempre più sofisticato e interattivo con chi vi accede.

 

Per tornare alla frase di Samantha ripresa all’inizio: quello del nome che utilizziamo nel nostro rapporto quotidiano con le macchine costituisce tutt’altro che un aspetto secondario, un innocuo giochino a cui ci sottoponiamo con un sorrisetto a mezza bocca, scoprendoci a parlare, ringraziare, chiedere scusa a una macchina.

È qualcosa di molto più importante. Noi diamo un nome a ciò che riconosciamo, a quelle entità che, grazie al nome, acquisiscono il diritto a parlare. Non è una questione che si è posta a partire dalle varie Alexa, Siri, ecc. È molto più antica, almeno, secondo Jacques Ranciére, tanto quanto l’idea stessa di democrazia, come suggerisce nel suo Il Disaccordo. Avere un nome comporta “l’iscrizione simbolica nella polis, [in quanto] colui che non ha nome non può parlare”. Avere un nome consente tanto di parlare, quanto di essere parlati. In questo modo un certo tipo di macchine entrano in modo così profondo nella nostra vita, arrivano, come scrive il sociologo brasiliano Miskolci, “nell’intimo e profondo offline delle nostre coscienze”.

 

Tramite il nome, siamo quindi in grado di identificare un ente parlante, che riconosciamo come un nostro interlocutore. Ma chi è che parla nel linguaggio dell’IA? Nel momento in cui io parlo, o scrivo come in questo caso, assumo la posizione del soggetto dell’enunciazione che formulo. L’io dell’IA non è mai un soggetto di questo tipo; è, come suggerisce Rocco Ronchi su Doppiozero, un soggetto dell’enunciato. L’io dell’IA che parla è generato da un altro io; il primo, più che parlare, recita una parte scritta da altri.

Questi altri sono persone con un corpo umano che, con diverse modalità operative, danno la parola a quell’io che ci sta parlando così affabilmente su ChatGPT, che ci ricorda gli impegni quotidiani, che ci fa chiamare, comporre messaggi, scrivere mail, o controllare il meteo, senza neppure toccare il nostro cellulare.

 

Da una parte, abbiamo i miliardi di persone (tanti quanti sono gli utilizzatori del web) che contribuiscono, con le informazioni che producono semplicemente stando collegati, a rendere i profili identitari sempre più interpellabili in modo mirato. Mettere in rete un dato profilo significa, in realtà, crearlo. Non condividiamo qualcosa che era preesistente, ma, nella cooperazione sociale che si genera velocissima in rete, produciamo delle identità, aderendo a modelli precompilati (gusti, propensioni, interessi di varia natura) che ci consentono di parlare e di essere parlati, con modalità non molto differenti da quelle che interessano Alexa e le altre.

Detto in altri termini, nel momento in cui creiamo la nostra identità (parlante e interpellabile) stiamo anche contribuendo a creare l’identità di quell’ente senza corpo (altrettanto parlante e interpellabile) che si mostrerà a noi con modalità da noi stessi definite.

 

D’altro lato, abbiamo milioni di lavoratori sottopagati che operano principalmente in paesi del sud del mondo, in larga parte anglofoni, che inseriscono, controllano, puliscono tutte le informazioni che generiamo. Le giornaliste Rebecca Tan e Regine Cabato del Washington Post hanno descritto in modo molto chiaro questa moltitudine di lavoratori: “In squallidi Internet cafè, in uffici affollati o a casa, annotano le masse di dati di cui le aziende americane hanno bisogno per addestrare i loro modelli di intelligenza artificiale. I lavoratori distinguono i pedoni dalle palme nei video usati per sviluppare gli algoritmi per la guida automatica; etichettano le immagini in modo che l'intelligenza artificiale possa generare rappresentazioni di politici e celebrità; modificano pezzi di testo per garantire che i modelli linguistici come ChatGPT non sfornino parole incomprensibili”.

 

 

Con quali strumenti interpretare e affrontare, o, se vogliamo, sottrarci, a tutto questo è una questione tutt’altro che chiara. Personalmente, credo con Sergio Fontegher Bologna e in parziale disaccordo con Bifo, che forme di resistenza siano possibili a partire dalle pratiche di mutualismo, cioè dove il soggetto “ritrova la solidarietà, [il luogo] dove si può rifugiare per rendere tollerabile la sua esistenza”.

 

Pubblicato originariamente in portoghese su Esquerda.net 

Scrivi commento

Commenti: 2
  • #1

    Alessandro Cavalli (lunedì, 23 settembre 2024 17:32)

    Condivido salvo una sorta di allarmismo sul futuro "inquietante" che ci aspetta (non quelli che come me hanno 85 anni).

  • #2

    Stefano Rota (lunedì, 23 settembre 2024 17:34)

    Grazie caro Alessandro!