Piccola storia artigianale dell’Intelligenza Artificiale

1. Una genealogia impura

Il report di minoranza

L’estensione dell’intelligenza artificiale all’insieme delle attività quotidiane è l’indice che il presente ha fatto storia, ed è la storia dei nostri giorni sulla scena della vita mondiale. É una storia raccontata varie volte, ma che, per quanto si cerchi di cogliere l’impercettibile, non coincide con ciò che c’è.
Sembra piuttosto che questa storia si sia consumata nel giro dei primi due decenni e mezzo di questo secolo. Che perfino l’epoca contemporanea sia trascorsa dopo aver raccolto l’archivio delle polemiche sulla modernità, il post-moderno e l’ipermoderno, e che una storia “storica”, già scarica alla metà degli anni Sessanta del secolo scorso, continui a risolversi nelle tronfie asserzioni sulla tecnica distruttiva e il ripristino di una realtà umana. D’altra parte l’informatica ha una storia raccontata come progresso, secondo il credo storicista che la critica denunciava dalla fine degli scorsi anni Cinquanta.
In questo doppio vincolo – il racconto di una continuità nello sviluppo lineare dei secoli dell’occidente, e l’invocazione ad un sapere dell’uomo che lo riporti al centro del mondo tecnologico – uno sguardo archeologico sembra poter discernere il momento in cui il passato emerge nella differenza con il presente.
Un’archeologia del sapere, dopo che il volto di sabbia è stato cancellato dall’orlo del mare, potrà riferirsi a questo secolo avendo alle spalle la genealogia dei dispositivi di sapere-potere e l’insieme dei rapporti tra soggetti e verità di cui sono intessute parole, cose e azioni.
Per altro, l’archivio delle tecniche e degli usi, dei discorsi e delle pratiche, è già visibile nel sorvolo del mondo: il perimetro delle tecnologie digitali non vi coincide, le applicazioni informatiche producono un’eternità di frammenti di tempo, il calcolo e la previsione suppongono un agente distante dalla macchina e interno ad un ambiente.
L’archeologia dell’informatica consegna questo rilievo. In questa sequenza c’è una ragione. La raccolta di ingenti quantità di dati e l’aumento esponenziale della capacità di calcolo generano strategie per l’aumento continuo dei profitti con il massimo numero possibile di variabili nel gioco della previsione.
Il filosofo Reiner Schürmann avrebbe detto che funzionari dell’umanità e difensori della citta, ovvero mercanti di futuro, avrebbero lanciato lo slogan per far ripartire il moderno, il nuovo, il normale senza eccezioni. L’utopia neo-tecnologica, l’accesso eguale e la condivisione, tutte le formazioni discorsive con cui ottimisti e critici indicavano la ristrutturazione capitalistica e la smaterializzazione del mondo si riferivano ad una macchina mondiale astratta che era ed è una macchina da guerra.
La visione informatica del mondo analoga al funzionamento del cervello si costituisce nell’identità di vita e pensiero. La neurobiologia e la biologia molecolare comprendono il cervello come un hardware su cui gira un software. Il circolo chiuso dell’informatica produce dispositivi autoriferiti che riducono la realtà a numeri e il linguaggio alla funzione comunicativa. Con l’equivalenza dell’individuo e della società si stabilisce il sistema dell’informazione che si autoregola nella miriade degli scambi. Come scrivevano Deleuze e Guattari «il rapporto dell’uomo e della macchina si fa in termini di reciproca comunicazione interna, e non più d’uso o d’azione».
C’è da notare che la macchina intelligente, che in una tradizione storico-filosofica di lunga durata proviene dal Golem e dal cosmo greco e che ha conosciuto le trasformazioni dell’automa lungo la storia della metafisica, arriva ad essere indagata e proposta come tema etico e politico-economico nel momento in cui di quella storia si può fare la sintesi.
L’orrore di Cartesio per la possibilità anatomica di indistinzione dell’animale dall’uomo e dall’automa, che comportava l’errore della scienza al maschile, decontaminata e razionalmente religiosa, si converte via Hobbes nel mostro magnifico dello stato, la macchina organica del corpo del sovrano fatto alla lettera dei corpi dei sudditi.
La cibernetica, cioè l’azione di pilotare, guidare, dirigere, è quel dispositivo che le successive crisi della modernità non riducono a epifenomeno via via più integrato alla vita quotidiana e che non cessa di costituirsi come tekné: un’arte, un insieme di pratiche, riferito a nozioni, concetti e programmi automatici. Da un’archeologia della cibernetica emergono: le concrezioni di sapere-potere inerenti ai rapporti tra umani e macchine e tra organismi e ambienti artificiali. Un’analitica dei dispositivi di governo della vita.
La storia dei modi di soggettivazione che la macchina implica nel suo progresso e nelle regressioni che produce, nelle direzioni che prende dalla ricerca informatica e nei blocchi che l’arrestano.
Ma l’elemento che emerge più chiaro dalla genealogia dell’automazione è la differenza tra mitologia e uso della macchina. Diversamente da altre mitologie, il mito della macchina, destinato al successo nella storia della letteratura, non ha prodotto una realtà alternativa mentre ha generato una serie di trasformazioni che si riferiscono agli effetti dei dispositivi informatici sulle persone.
Il racconto prevede l’esame iniziale delle differenze tra il generico tempo informatico e delle reti, segnato dall’ipotesi informatica; le differenze di materia tra informatica digitale e algoritmica; gli effetti di soggettivazione dei suoi impieghi; i modi e le retoriche con cui l’IA viene raccontata e l’ordine del discorso con cui ricorre; gli agenti produttori e di gestione e il tipo di sapere sprigionato da una tecnologia di accumulo, estrazione e produzione di informazione selezionata; gli spazi di potere che l’IA apre e i limiti di questi poteri che segnano i confini a partire dai quali una tecnologia incontra delle resistenze.
Nella sterminata letteratura sull’IA è difficile seguire una linea di interpretazione univoca e soprattutto circoscrivere l’oggetto. Anche convertendo la domanda “che cos’è?” in “come funziona?”, il campo di senso occupato dall’insieme di ricerche, pratiche e applicazioni, pur essendo nettamente identificato sfugge all’analisi.
Ad oggi, testi e documenti sull’IA sono in prevalenza manuali tecnici per aziende, imprese e servizi pubblici finalizzati all’organizzazione di impresa, alla gestione del capitale umano, all’ottimizzazione delle risorse; oppure sono testi divulgativi che forniscono sintetiche spiegazioni sul modo e sulle procedure di funzionamento dell’IA; oppure, sono testi apologetici e di produzione di senso comune, o, più rari, saggi di taglio “problematico” su aspetti positivi e negativi dell’IA. Per tentare una sintetica ricostruzione del tema è bene orientare lo sguardo su questa rarità in cui forse consiste il profilo storico-evolutivo dell’IA. Che tutto derivi dall’idea della guerra è ormai noto: Robert Wiener ottiene l’incarico di sviluppare una macchina per prevedere e controllare le posizioni degli arei nemici in caso di attacco nucleare. Nel 1943 Wiener incontra von Neumann, incaricato di costruire potenti macchine di calcolo per sviluppare il “progetto Manhattan”, cioè la bomba atomica. L’utopia della comunicazione è il mito complementare al nucleare.

Memoria a 256K

Arpanet, nata nel 1969 e chiusa nel 1983, era una rete a commutazione di pacchetto che collegava i centri di calcolo affiliati all’Advanced Research Project Agency del Dipartimento di Difesa statunitense. L’informatica applicata si orienta verso la costruzione di linguaggi artificiali in analogia con la lingua naturale, dei supercomputer di stazza enorme e dei sistemi di crittazione. Nasce l’ipertesto, un insieme di documenti in relazione con parole chiave che funzionano come collegamenti.
Negli anni Settanta il protocollo TCP/IP permette la comunicazione tra diverse reti e non solo tra PC.
Con la produzione di massa di PC desktop e l’invenzione nei garage californiani dei sistemi operativi e delle prime applicazioni, la tecnologia delle reti si estende e l’uso delle macchine diviene sempre più intuitivo. Giovani maschi bianchi che usano pseudonimi sviluppano software open source e un’etica della condivisione in cui si costiuiscono comunità hacker.
Nel 1991 l’informatico inglese Tim Berners Lee pubblica il primo sito web. Nasce il world wide web (www) e nasce insieme al primo browser, Nexus, non commercializzato perché ad esclusivo uso dimostrativo. Nel 1993 il CERN di Ginevra decide di rendere pubblico il codice sorgente, cioè il testo di un algoritmo di un programma che definisce il flusso di esecuzione del software.
Insieme al software Lee e Robert Cailliau definiscono standard e protocolli per lo scambio di documenti: il linguaggio HTML e il protocollo di rete http. Nel 1994 Netscape, primo browser commerciale, sviluppa il cookie (biscottino), bit di codice che consente il passaggio di informazioni tra server e client. Nel 1998 Berners Lee definisce lo standard XML, un metalinguaggio che consente di aggiungere informazioni sui contenuti web attraverso tag (targhette), cioè parole chiave o termini associati al contenuto.
Alla fine dello scorso secolo le tecnologie digitali accelerano. Silicon Valley diventa l’ombelico del mondo. Gerarchie informali, il lavoro come gioco di relazioni e di passioni, sperimentazione di programmi e invenzioni, erano gli aspetti più nuovi delle start-up che fino al 1999 circa ottennero finanziamenti e rimasero indipendenti.
All’epoca il sociologo Carlo Formenti ricostruiva origini e sviluppo delle start-up di Silicon Valley e della controcultura californiana alle spalle dell’idea di software libero, condivisione e uso “democratico” della rete. E lo faceva in due saggi storico-sociali, Incantati dalla rete e Mercanti di futuro, mostrando l’intreccio tra neoliberismo e net-ecnomy, cioè quella piega originale della storia alla svolta neoliberale dei primi Ottanta in cui esperimenti e desideri degli anni Settanta diventano spinte di contrasto al “vecchio” capitalismo industriale e alla macchina statale.
Esemplare è la vicenda di Lee Felsenstein, pioniere della rivoluzione digitale e della cultura hacker, leader del mitico Homebrew Computer Club, ove dal 1975 al 1986 si incontrano, tra gli altri, Steve Wozniak e Steve Jobs. Scopo del club era la compravendita di componenti e di circuiti e lo scambio di informazioni e di schede per costruire il primo PC accessibile a tutti. Nel 1977 Wozniak e Jobs lanciano il primo PC desktop. Bill Joy co-fondatore della Sun Mycrosistem nel 1982 inventa la prima versione del linguaggio Java. Tutti costoro, come anche Ted Nelson che teorizzò l’ipertesto, e come Douglas Engelbart, inventore del mouse e delle interfacce “a finestra”, condividevano il principio della libera ricerca non subordinata al denaro.
Alcuni di loro come Bill Gates invece avevano idee diverse. Con una lettera accusò gli “hobbisti” dei computer di aver rubato copia dell’Altair 8800 realizzato dall’Homebrew. Secondo il patron di Microsoft le invenzioni informatiche realizzate da singoli e gruppi erano proprietarie e non cedibili ad altri. Nel 1975 Gates e Paul Allen propongono al MITS, società che aveva sviluppato l’Altair, il linguaggio BASIC. Nel 1976 contemporaneamente alla nascita di Apple, Gates e Allen fondano “Micro-soft” con la finalità di vendere BASIC ad altri distributori. Dopo un’aspra battaglia legale con MITS, Gates ottiene di vendere il prodotto ad altre aziende.
Fino alla metà circa degli anni Novanta l’ambiente delle tecnologie informatiche è intriso di creatività e ideologia del mercato, comunitarismo e innovazione, condivisione e individualismo. L’utopia tecnologica doveva essere accessibile a tutti, studenti, comunità, tecnici hacker. Da questo assunto proviene lo sviluppo dei software “user friendly” e del PC che diventa una macchina per comunicare, giocare, lavorare. Da questo ambiente di contrasto nascono la Free Software Foundation, promossa da Richard Stallmann, e il software open source Linux creato dal programmatore Linus Torvalds che avrebbe conosciuto un’estensione imprevista generando decine di distribuzioni come Ubuntu, Fedora, OpenSuse. L’idea di Felsenstein e altri era di strappare le conoscenze tecnologiche alla grande industria informatica, anzitutto all’IBM. Da questa situazione l’incontro con il mercato genererà modelli di business e stili di vita. Ma, al contrario delle comunità informatiche, Bill Gates non vuole abbattere il monopolio di IBM bensì sostituirlo con Microsoft.
Passano circa venti anni prima che Micorsoft “colonizzi” internet; nel 2000 viene accusata di aver sfruttato la sua posizione dominante integrando il browser Explorer nel sistema operativo Windows e danneggiando la concorrenza, soprattutto il browser Netscape, liberamente scaricabile. Nel novembre 2000 Microsoft e governo federale rendono pubblici i termini di un accordo che vanifica il processo. L’accordo prevede la rinuncia di Microsoft a politiche commerciali discriminatorie. I produttori di hardware devono poter installare il software che ritengono più opportuno e devono poter conoscere le informazioni tecniche per rendere più compatibili i loro prodotti con Windows. Ma Bill Gates ha vinto e il sistema operativo XP è ancor più “chiuso” mentre Micorsoft estende ancor più il monopolio. Contro Linux, Gates afferma che il softare libero «ha le caratteristiche del comunismo…cioè è gratuito» e questo proprio nel momento in cui l’open source comincia ad avere successo sul mercato delle app commerciali.
Tuttavia la guerra informatica continua. L’industria high tech si scontra con l’industria culturale. Napster, il software di condivisione di file musicali MP3, le reti “peer to peer”, Gnutella, network libero di condivisione, sono i bersagli delle case discografiche e del Digital Millenium Copyright Act (1998) che criminalizza programmi e reti di condivisione.
Tra la fine del 2000 e il 2001 non esisterà innovazione senza brevetto, la proprietà intellettuale sarà rafforzata e il copyright garantito; le corporations assumeranno un crescente controllo sui tempi e gli obiettivi della ricerca nei laboratori delle università, mentre le università si comporteranno come imprese private. La privatizzazione della rete sarà uno dei momenti originari della globalizzazione dei mercati.
Ma, scriveva Formenti, quella delle case discorgrafiche si era rivelata una vittoria di Pirro: anzitutto, perchè l’innovazione della musica digitale aveva prodotto un cataclisma epocale sull’intera filiera della produzione e del consumo di suoni; in secondo luogo perchè l’elevata concentrazione oligopolistica del settore alimentava cause antitrust; in terzo luogo perchè Napster era stata sostituita da altri network di condivisione; infine, perchè il rafforzamento del copyright alimentava lo scontro dell’industria dell’entertainment con le vecchie case discografiche che sfruttano artisti e tecnici.
Questi motivi saranno rappresentati da Lawrence Lessig in un saggio storico del 2001, The future of Ideas, che ha circolato nelle communities, ha prodotto l’idea di un nuovo diritto che supera il copyright e ancora oggi restituisce alcune possibilità alla produzione di un non-diritto vòlto all’accesso personale a oggetti e prodotti in rete.
Con la deflagrante crisi finanziaria del 2001 Silicon Valley precipita e inizia una nuova fase di privatizzazione di internet con l’impiego di ingenti capitali e l’istituzione del web 2.0, cioè di quelle imprese che, ricorda la teorica e attivista Tiziana Terranova in Dopo Internet, erano sopravvvissute al crollo del NASDAQ.
Con la nascita dell’e-commerce e la chiusura proprietaria della rete, il produttore-consumatore incensato e oltraggiato negli scorsi anni Novanta, diviene il soggetto della macchina informatica. La produzione di merci è produzione di soggettività, ma non al modo della subordinazione totale del lavoro al capitale, bensì della cattura microfisica di spazi, tempi, desideri e attività che opera sui corpi e produce macchine corporee intelligenti.
Questa grande trasformazione, che la teoria critica fino a quando è esistita non ha letto, è stata intuita e narrata dalla fantascienza e dalla letteratura cyberpunk, da Bruce Sterling a William Gibson, e dal cinema, che sono stati importanti agenti di proficua contaminazione dell’immaginario e sono i veri indicatori storici dei processi di astrazione e di estrazione della macchina cibernetica.
L’hacker è diventato influencer, scrive Tiziana Terranova, ma, – aggiungiamo, deve esser passato per la cybersecurity al servizio di governi e multinazionali; il “libero” produttore di contenuti digitali è diventato promotore di eventi e forme di vita alternative del tutto integrate in una spontanea normalità; il semplice “utente critico”, una volta prosumer, è diventato il demente digitale invece che aver intensificato la vita della mente; l’eventuale diritto generato dalla ricchezza informatica, come sosteneva Yochai Benkler, è scomparso ed è riprodotto dai meganetwork negli slogan sulla libertà.
Tra la crisi del 2001 e quella del 2008 il capitalismo delle piattaforme assume la forma del network di servizi ed entertainment. Il lavoro libero e gratuito degli utenti viene riconvertito in risorse accumulate in archivi di dati. Si costituiscono network globali e i mercati dell’elettronica si unificano. La rete mondiale viene implementata e crescono la grafica digitale e la produzione smaterializzata. Internet diviene veicolo e infrastruttura della globalizzazione. La rete muta in superfice di sorveglianza ed espropriazione dei dati personali. Nel 2001 lo “scandalo Enron”, multinazionale statunitense dell’energia che aveva prosperato nella new-economy, che aveva gonfiato i bilanci, evaso il fisco e operato illeciti, dimostra che l’intera architettura specualtiva dell’economia finanziaria è al collasso.
Dopo l’11 settembre e la guerra permanente al terrorismo in Afghanistan e in Iraq, internet diviene anche rete di spionaggio e di controllo individuale. Metodi di analisi specifica, con finalità di profilazione degli utenti saranno adottati da Google che nel 2002 fece in modo che Google Search fosse il primo servizio ristrutturato come fonte di informazioni. Gli introiti arrivarono a 347 milioni di dollari, quindi a un miliardo e mezzo e a 3,2 miliardi nel 2004 quando fu quotata in borsa.
Con lo sviluppo dell’informatica tascabile, smartphone e lettori, le tecnologie digitali divengono sempre più interattive ma richiedono lo sviluppo di tecnologie di sicurezza. La cybersecurity diverrà il settore più lucroso in ragione della protezione privata di big data e della speculazione finanziaria.
I telefoni cellulari diventano le protesi più comuni, la rete diviene l’infrastruttura del governo degli scambi, mentre si moltiplicano i conflitti per il software libero e le pratiche di resistenza all’informazione globale. Nel 2006 WikiLeaks inizia a pubblicare documenti coperti da segreto di stato, militare, industriale, bancario, dando vita al più importante e giusto network di informazione indipendente. Le menzogne della guerra al terrorismo con l’invasione dell’Afghanistan e dell’Iraq e le torture a Guantanamo, gli oligarchi russi, le banche svizzere sedi di riciclaggio ed evasione fiscale, rivelano la verità del mondo globale.
Google, Amazon e Facebook (ora Meta), Netflix, Prime, Disneyplus, dopo la crisi del 2008 sono divenuti agenti di soggettivazione dell’e-commerce, dello streaming e del cloud computing, controllano microimprese e mercati secondari, sono agenti governativi e contribuiscono allo sviluppo di tecnologie belliche.
In un ponderoso testo del 2018, Il capitalismo della sorveglianza, Shoshana Zuboff, docente alla Harward Business School, rileva il senso delle tecnologie come dispositivi di governo della vita. Eric Schmidt, ex-ceo di Google, evidenziava qualche anno fà che «le tecnologie più profonde sono quelle che scompaiono. Si legano al tessuto della vita quotidiana fino a diventare indistinguibili da esso». Le invenzioni di Google, scrive Zuboff, hanno rivoluzionato l’estrazione, imponendola come primitivo imperativo economico del capitalismo della sorveglianza. L’estrazione di risorse, dati, informazioni diviene la principale attività tecnologica che unita all’enorme capacità di calcolo trasforma l’intera infrastruttura digitale.
L’estrazione va intesa in due sensi, come estrazione di valore dagli archivi di dati di proprietà di Google, Amazon, Facebook, attraverso un’analisi computazionale; e come estrazione di relazioni sociali e infrastrutture materiali con le quali le piattaforme impongono la propria autorità su tali “materie prime” in un’economia di scala.
Parole cose, azioni, persone, processi e merci sono reinventati dall’informazione. I dati sensibili rivelati da miliardi di utenti sono messi al servizio di un advertising mirato. L’esperienza personale viene catturata, anzitutto l’esperienza sensibile, e costretta a diventare materia prima da accumulare e analizzare. L’intelligenza delle macchine, dovuta in massima parte alle infrastrutture, consente operazioni in hyperscale, con data center che richiedono milioni di server virtuali in grado di crescere esponenzialmente senza aver bisogno di spazio fisico. Il dominio di Google è dovuto per l’80% alle infrastrutture, «con un sistema che comprende data center customizzati grandi come magazzini distribuiti in quindici luoghi diversi, con 2,5 milioni di server in quattro continenti, secondo le stime del 2016».
Un panopticon diffuso, anonimo, capillare, interno ai dispositivi di sorveglianza si genera dallo stato di connessione multimediale permanente. Questo stato psico-sociale, tra la fine del primo e l’inizio del secondo decennio di questo secolo, ha iniziato a circoscrivere la libertà individuale.
Nel 2013, William Snowden, collaboratore della NSA statunitense rivela i programmi di sorveglianza di massa su internet e di intercettazione telefonica, PRISM, Tempora e altri, in uso tra Stati Uniti e Gran Bretagna.
E’ in questa sequenza storica che l’IA diviene la tecnologia di punta con un rapidissimo sviluppo negli ultimi anni, anche a causa della pandemia, accompagnando una imperiosa guerra capitalistica per lo sfruttamento di dati, risorse e minerali rari. La crisi dell’economia globale, la distruzione ambientale, la condizione permanente di disuguaglianza e l’aumento della povertà, razzismi e discriminazioni dilaganti in regime di guerra, sono gli elementi di questa storia.
Il sociologo dei media Derrick de Kerchove nel corso degli anni ha tracciato il perimetro del campo di socialità in cui si affrontano connettività, controllo e libertà. L’intelligenza è condivisa da esseri umani, istituzioni e macchine che possono o meno assumere un’identità collettiva o sociale. Ma esiste un’intelligenza dell’ambiente, un intelletto della natura, un’intuizione del cosmo che nella crisi degli ecosistemi produce e consuma libertà; e lo fa non per mezzo di una razionalità dispiegata, piuttosto sul piano pre-discorsivo del senso comune, dell’ovvio, del medesimo e del simile. Questo evento che si consuma dagli inizi del nostro secolo, ha esaurito l’intelletto pubblico e ha introdotto la nozione di libertà separandola dallo spazio privato.
In uno scritto del 2013 sull’accelerazionismo Franco “Bifo” Berardi, rilevava come l’accelerazione, che è funzione della velocità del capitalismo sia nello sfruttamento di vita e di risorse che nell’aggiornamento continuo delle piattaforme tecnologiche in cui è inscritto, «distrugge le condizioni della socialità dal momento che questa si fonda sul ritmo del corpo desiderante che non può accelerarsi oltre un certo punto senza provocare lo spasmo». Intensificare l’accelerazione non libera, al contrario, rende inermi i corpi e vulnerabili forme di vita che vengono strappate a ritmi e movimenti e travolte dalla loro stessa esistenza. La strategia catastrofica si è rivelata falsa «perchè il processo di soggettivazione autonoma è devastato dall’accelerazione caotica».
Fino a quando c’erano dei media egemoni, fino all’epoca della Tv e dei giornali, c’è stato un intelletto collettivo in cui si riconoscevano sia i poteri che i contropoteri. Non a caso il movimento che è stato oggetto di una criminalizzazione che continua ancora oggi è stato il Settantasette. Il Settantasette è stato intollerabile perchè anticipava l’avvenire senza esaurirlo. Il desiderio, che è sempre transindividuale e che era desiderio di restituire, qui e ora, la vita alla sua origine tribale, comune, organica, contaminata, è stato catturato dalla microfisica sociale prima che dalle istituzioni molari e dai mercati. Quel tribalismo non era il tribalismo del pensiero di oggi, che è invece caos in cui consiste l’estrazione di vita e di risorse.
Le insurrezioni del secondo decennio dei Duemila, dalle prime rivolte delle bainlieues a Nuit debut, alle primavere arabe, a Occupy e 15-M, hanno usato smarthphone e social, ma l’intelligenza collettiva era da tempo archiviata, e No tav e blocchi della logistica rispondevano piuttosto all’urgenza di bloccare la corsa distruttiva, di smontare i cantieri fisici e concettuali dell’alta velocità che devasta ambienti, relazioni e saperi, più che attendere che il treno deragli.
Perchè se è vero che il “pubblico” del pianeta comprende tutte le forme di vita, piante, animali, rocce, è un’archeologia del pensiero non una produzione teorica, per quanto interessante, a poter forse restituire il senso, cioè la direzione, di parole, cose e azioni, a partire da ciò che siamo stati.

Storia dell’IA che l’AI non può raccontare

Il termine Intelligenza Artificiale fu coniato nel 1956 dallo scienziato informatico John McCarthy durante il leggendario Darthmouts Summer Research Project on Artificial Intelligence. Nei quarant’anni successivi le applicazioni pratiche evolsero lentamente. Nel 1996 il supercomputer DeepBlue sconfigge a scacchi Gerry Kasparov. Il momento di svolta è nel 2016 quando AlphaGo, una macchina costruita dagli ingegneri di Deep Mind, sconfigge in cinque round il campione di Go Lee Sedal.
Poker, Go e videogiochi sono stati “giocati” da macchine così potenti da imparare in quattro ore a giocare a scacchi. Ma, sostiene il filosofo e attivista Miguel Benasayag, la macchina non ha mai giocato, se il gioco è un gesto in base ad un significato. La macchina è incapace di distinguere le operazioni di un sistema dal significato dei gesti, benchè riesca a leggere le microespressioni facciali.
Kai-Fu Lee, già presidente di Google China e dirigente Microsoft, SGI e Apple e co-presidente del Consiglio per l’Intelligenza Artificiale del World Economic Forum, afferma che l’IA, a differenza delle tecnologie digitali di rete, è omniuso, innescando cambiamenti in tutti i settori e nelle facoltà fisiche e cognitive. La rapida evoluzione delle tecnologie digitali secondo Lee è il quarto stadio di un processo lungo circa 15 anni: da internet alle applicazioni finanziarie, ai servizi pubblici, alla logistica e alla sanità; quindi ai beni di consumo, all’educazione e al backoffice (2012); quindi all’energia, ai commerci, alla sicurezza e alla realizzazione di smart cities (2016); fino all’IA autonoma, alla robotica, ai trasporti e all’agricoltura (2018).
Fino a qualche anno fa Cina e Stati Uniti erano i paesi leader. Gli Stati Uniti implementavano la ricerca, la Cina creava applicazioni sfruttando i big data, ma questa differenza economico-politica oggi sfuma nelle feroci guerre per le risorse energetiche tra l’occidente al tramonto e i paesi ex-emergenti che rappresentano un’alternativa al sistema di dominio tecnologico statunitense.
Il giudizio comune sull’IA è che ha avuto e avrà un impatto più positivo che negativo sul “nostro” standard di vita. Che creerà una incredibile ricchezza, stimata al 2030 in 15,7 migliaia di miliardi; che aiuterà a ridurre fame e povertà; che farà guadagnare tempo; che sarà sempre più usata per analisi quantitative, aumento della produttività e potere di previsione per l’aumento dei profitti e per la creazione di una realtà di mercato in cui prosperano profitti non provenienti dallo scambio ma dalle promesse espresse dagli algoritmi. Da Apple, Google, Microsoft, alla Open AI di Eilon Musk, l’ordine del benessere è regolato sulle pratiche commerciali di Amazon, fino a quando potranno costituirsi colonie su Marte.
Rispetto a internet e all’informatica di massa l’IA è una infrastruttura di macchine a base di dati in continua implementazione. Big data e potenza computazionale ne sono gli elementi costitutivi. La ricerca si è sviluppata lungo due direttrici, la IA simbolica, impostata sulla soluzione di problemi (ad esempio l’enigma dei missionari e dei cannibali) e l’IA subsimbolica. Solo la seconda si è dimostrata promettente nelle forme del percettrone, che simula una rete di neuroni, e delle reti neurali che sono multistrato.
Melanie Mitchell, docente di Computer Science, che ha seguito l’evoluzione dell’IA dagli scorsi anni Ottanta, in un saggio divulgativo importante, L’Intelligenza Artificiale, ha tracciato la breve e intensa storia del machine learning, mostrando le direzioni di ricerca, le crisi e la scelta del modello neurale che connette una molteplicità pressochè infinita di nodi in strati sovrapposti e ha una capacità di calcolo altrettanto infinita.
L’IA è un’infrastruttura imput-output in cui un insieme di istruzioni di elaborazione dati addestra una macchina per ottenere risposte attese. Quanto maggiore è la capacità computazionale della macchina tanto più raffinata e profilata sarà la risposta. Un limitato insieme di istruzioni condensato in un algoritmo opera la grande massa di dati e seleziona, tra n risposte, quella più vicina alle attese. In pratica la risposta è preimpostata. L’IA viene “addestrata” e si auto-istruisce funzionando. Il processo si chiama deep learning e consiste nell’elaborazione delle istruzioni per una quantità crescente di dati. É un processo autoriferito
il cui linguaggio si limita alla esclusiva funzione comunicativa. Gli strati software di reti simil-neurali insieme all’istruzione data in imput sono creati dalla macchina in un ciclo autopoietico.
Le app di IA “apprendono” in maniera sempre più raffinata con migliaia di strati di dati. La rete è addestrata per una “funzione obiettivo” e quando ha “imparato” può operare secondo inferenze. La funzione obiettivo delle reti deep learning è il denaro. Immediata o quasi immediata, nella finanza, nelle economie di scambio e nei commerci; mediata nelle attività creative e di riproduzione o ricreazione o ampliamento di realtà – a partire dal consumo di immagini, eventi, informazione e spettacolo, – la funzione obiettivo è accumulare denaro.
Il deep learning singolarizzato in base ai pattern dell’utente e di altre simili evidenze, produce risposte personalizzate proponendo merci specifiche con lo scopo di massimizzare la spesa del consumatore. In questo modo social network e grandi network di e-commerce profilano il cliente con una accuratezza che mancava ai siti web statici. L’effetto è la pagina Amazon da cliccare per avere merci-Prime in 24 ore.
I social e le grandi piattaforme possiedono la gran parte dei big data. Le statistiche implementano il profilo all’infinito e tracciano ogni giorno il singolo cliente. Queste operazioni sono collegate a metriche aziendali in funzione dei profitti. Più la piattaforma è in grado di raccogliere dati, più soldi genererà.
Nel caso delle assicurazioni sulla vita, i big data affluenti con i dati sensibili sono elaborati dalla macchina che è “addestrata” a determinare le possibilità che, ad esempio, l’utente possa sviluppare gravi problemi di salute, o che possa investire quote della pensione integrativa in base alle previsioni di profitto dei mercati finanziari, o possa prevedere e negare richieste di risarcimento sanitario.
Ma come nel racconto di Chen Qiufan, coautore con Kai-Fu Lee di AI 2041, un testo tra i più interessanti pubblicati di recente, l’app della compagnia di assicurazioni Ganesha, – siamo a Mumbai – condiziona del tutto la vita di una famiglia povera, al punto da dettare in tempo reale gusti, affetti e comportamenti per far abbassare il premio.
Uno dei settori in cui l’IA si è rapidamente sviluppata è la computer vision, cioè la creazione, manipolazione e produzione di immagini indistinguibili dalla realtà. La procedura si chiama deep fake. Al computer viene “insegnato” a vedere in modo che possa catturare ed elaborare immagini, rilevare oggetti dividendo l’immagine in aree principali, riconoscere oggetti e apprendere le differenze, tracciare e riconoscere movimenti e gesti, comprendere scene. L’editing video divide in frame il flusso di immagini per secondo; l’immagine è composta di decine di milioni di pixel; l’IA legge i pixel e segmenta gli oggetti fino ai dettagli.
Il deep learning per il riconoscimento è ispirato alla fisiologia del cervello. I campi ricettivi della neocorteccia identificano forme, linee, colori, angoli che sono organizzati gerarchicamente. Allo stesso modo dei campi percettivi le reti neurali convoluzionali (Cnn) applicano alle immagini diversi filtri che dai livelli più bassi ai più alti individuano un insieme di caratteristiche sempre più complesse.
L’esempio riportato sia da Mitchell che da Lee è l’immagine del gatto. Una rete deep learning viene “addestrata” a “capire da sola” la differenza tra le foto di un gatto e tutte le altre che non sono un gatto. L’addestramento è un’elaborazione matematica che aggiusta i miliardi di parametri della rete al fine di massimizzare la possibilità che l’imput della foto del gatto abbia come risultato l’output “gatto”. Quando la rete ha “imparato” può operare secondo inferenze con immagini che non ha mai visto.
Le applicazioni sono svariate: assistenti alla guida, negozi autonomi, sicurezza aeroportuale, riconoscimento facciale e dei gesti, applicazioni militari, navigazione autonoma di droni e auto. L’enorme possibilità della computer vision allarga all’infinito la bio-sicurezza, cioè il tracciamento continuo di ogni singolo vivente e diversifica le operazioni sulle immagini abolendo la distinzione tra creazione, produzione, riproduzione e simulazione. La macchina crea falsi e rivelatori del falso. Non ha un codice leggibile in modo che vi si possano rilevare anomalie ma opera con equazioni complesse implementate in migliaia di strati di reti neurali.
Dunque, come per i precedenti sistemi informatici, l’operatività concreta dell’IA dipende dal livello di sicurezza del sistema. Ciò significa che non c’è un livello di sicurezza standard, sia perchè hackeraggio e produzione di virus sono vulnerabilità interne alla macchina, sia perchè gli attacchi sono più difficili da individuare. La verità riprodotta dissolve la differenza tra verità anagrafica, identità formale ed esperienza personale. L’identità rilevata dalla biometria produce il vero come risultato più accurato rispetto alla verità rilevata con “verifica umana”. Si tratta di un vero esclusivo che dalle caratteristiche corporee determina un riconoscimento a prova di falsificazione, perchè è un vero già prodotto come falso.
Il criterio di verità, che dall’omologia di parole e cose determinava la qualità dell’azione, l’evidenza e le manifestazioni di verità del potere, con la creazione di immagini digitali si risolve in una verifica dei fatti che non si distingue dalla falsa informazione (fake news).
Un’altra applicazione dell’IA operante da qualche tempo è la realtà estesa. La tecnologia di realtà estesa (XR) sviluppa tre modi di produzione e alterazione di spazi e ambienti. La realtà virtuale, la realtà aumentata e la realtà mista. La prima è attiva nelle esperienze immersive in ambienti virtuali interamente digitali. La realtà aumentata consiste nella sovrapposizione di oggetti 3D, testi e video agli spazi reali per fornire indicazioni su luoghi e percorsi. La realtà mista fonde in un ibrido mondo reale e mondi virtuali costruendo un ambiente complesso a partire dalla decomposizione e interpretazione degli spazi.
Ma il limite di tutte le forme di XR è di esaurire l’esperienza che viene aspirata nella sua riproduzione astratta. L’immersione in ambienti, spazi e e tempi trasformati e simulati genera dipendenza dall’unico mondo reale riprodotto dalla realtà virtuale. Del doppio vincolo non ci si libera: virtuale e reale costringono nell’unica superfice di esistenza corpi e cose. L’ibrido, il mutante, il molteplice non ne fanno parte e ogni estraneità vive al di fuori della sfera inscalfibile costruita dal soggetto munito di protesi.
Uno degli sviluppi più imponenti dell’IA è l’informatica quantistica con cui si giunge al cuore dell’estensione dell’IA nei territori più pericolosi e che generano più profitti. Scrive Kai-Fu Lee che a differenza dei bit binari 0/1, che è il linguaggio dell’architettura di PC e smarthphone, i bit quantistici sono elementi che consentono capacità di superelaborazione. I qubit che di solito sono particelle subatomiche come elettroni e fotoni seguono i principi della meccanica quantistica. Hanno proprietà di sovrapposizione, che è una specie di capacità in 3 dimensioni di elaborare più esiti in contemporanea, e hanno capacità di intreccio, cioè di connessione tra loro anche a grandi distanze, per cui l’aggiunta di 1 qubit aumenta esponenzialmente il potere computazionale. Per raddoppiare un calcolo quantistico basta aggiungere un altro qubit. I computer quantistici sono però sensibili alle minime perturbazioni: vibrazioni, interferenze elettriche, cambi di temperatura e onde magnetiche possono far svanire la sovrapposizione. Per ridurre il rischio di decoerenza, cioè di perdita di capacità, i computer devono essere costruiti con superconduttori ed essere chiusi in camere a vuoto con frigoriferi di super-raffreddamento. Nel 1998 i computer quantistici erano 2, nel 2020, 65.
Nel 2019 Google ha dimostrato la supremazia quantistica. Un computer quantistico da 54 qubit ha risolto un problema “insolubile” in pochi minuti. Benchè i costi, la capacità di costruzione e l’impiego di energia rendono ancora proibitiva l’impresa, le possibili applicazioni dell’informatica quantistica prospettano uno scenario che è già intimamente reale: armi autonome e guerre per i bitcoin.
Nel campo della medicina e della sanità, l’introduzione dell’IA mostra più che altrove l’ambivalenza insita nei dispositivi di gestione dei servizi sanitari, nel bio-lavoro, nella ricerca e nella produzione e commercio di protesi e cure. L’impiego dell’IA nella sanità genera preziosi dataset, digitalizza i registri dei pazienti, l’efficacia dei farmaci, gli strumenti medici, i dispositivi indossabili, i test clinici, la supervisione e l’efficacia delle cure, la diffusione delle malattie infettive e la fornitura di farmaci e vaccini. La personalizzazione dei trattamenti, i nuovi farmaci, il sequenziamento del DNA, la reazione digitale della polimerasi (dPCR), i nuovi marker cancerogeni e l’editing genetico (CRISPR) saranno implementati.
Ma il nuovo panorama della sanità e della ricerca medica prevede ingenti capitali. Uno studio del 2019 ha rilevato che nel 2025 il mercato della IA sanitaria crescerà del 41,7% arrivando nei soli Stati Uniti a 13 miliardi. Ciò significa che saranno le multinazionali del farmaco a organizzare, regolare e gestire sempre più nel mondo la sanità e la medicina in regime di mercato. Che le ragioni del profitto saranno relative all’aumento della longevità e che la commercializzazione da parte di big pharma scava un baratro tra chi può e chi non può curarsi, moltiplica i profitti dell’industria farmaceutica e rende inaccessibili i brevetti.
Jeremy Rifkin, economista e sociologo di successo, nell’ultimo saggio, L’età della resilienza, indica nell’efficienza l’a-priori storico dell’attualità. Predire, predeterminare, padroneggiare l’avvenire con l’intento di controllare e influenzare gli eventi sui mercati. Consumare suolo e risorse. Deforestare per coltivare olio di palma e soia. Rinchiudere il bestiame in allevamenti intensivi. Usare semi ingegnerizzati, defolianti e antiparassitari per aumentare la produzione agricola ed estendere le monoculture. Fare pesca a strascico d’altro mare e mappare il fondale marino. Privatizzare l’acqua dolce, le strade, le ferrovie, la posta, i porti e gli aeroporti, la TV, le reti elettriche, le carceri, le scuole e le università. L’insieme delle azioni di governo della vita promosse in direzione dell’efficienza e vòlte al profitto costituiscono un’identità soggettiva quasi indistinguibile dal mondo sociale e dai mondi naturali. Questa indistinzione, socializzazione e naturalizzazione della vita è iniziata con la mappatura del genoma la cui storia è stata ricostruita da Rifkin in Il secolo biotech.
Il montaggio genico del CRISPR (Clustered Regularly Interspaced Short Palindromic Repeat) è il più versatile strumento di ingegneria genetica nella storia della biologia molecolare. Si tratta di un paio di forbici genetiche che tagliano il DNA nelle linee germinali di piante, animali e umani per eliminare i “tratti dannosi”, cioè geni che potrebbero causare malattie croniche. Ma i benefici dell’editing genico sono pagati ad un prezzo oggi incalcolabile dal momento che ritagliare geni potrebbe avere effetti deleteri. Le forbici che tagliano simili tratti potrebbero aumentare la vulnerabilità, considerando che ciascuna specie si è evoluta e adattata nel corso dei millenni. I tratti recessivi continuano ad esistere nel genoma; eliminandoli, cioè praticando la monocultura, non si sa a quale tipo di squilibri le specie viventi saranno esposte.
Nel 2018 lo scienziato He Jiankui ha annunciato la nascita di 2 gemelle con geni modificati. Il gene modificato in un certo numero di embrioni avrebbe conferito resistenza all’HIV. Tra il 2015 e il 2016 il CRISPR aveva prodotto un aumento di cinque volte dell’investimento delle multinazionali biotech.
D’altra parte il limite delle procedure di bioingegneria non è di natura etica e riguarda il senso dell’attività medica. La nota app di Open AI, Chat GPT, introdotta anche in psichiatria per implementare il famigerato Manuale delle Malattie Mentali (DSM) dell’American Psychiatric Association, non sostituisce il sapere medico ma la stessa condizione medica – cioè, dicono Benasayag e Pennisi in Chat GPT non pensa – corporeità, saperi, affetti, intuizioni e percezioni, a vantaggio di una semplice informazione sulla sofferenza.
La macchina riproduce il “campo biologico” come insieme di informazioni più che colonizzarlo. L’insieme di positività artificiali che genera – nuove cure, nuove metodiche, nuove procedure ingegnerizzate – sviluppano un campo di tensione in cui le facoltà dei viventi sono indici di ibridazione. Nella realtà non c’è scontro tra esseri umani e macchine ma conflitti sull’identità, sulla razza e sul genere in ragione delle possibilità di accesso a diagnosi e cure.

Le leggi di Asimov + Matrix in un film già visto

La guerra sanitaria mondiale già in atto nella pandemia di Covid 19 è una delle ragioni della prosecuzione delle guerre che già si combattono con sistemi d’arma semi-autonomi. Il drone israeliano Harpy, programmato per volare su “aree particolari”, utilizza una testata altamente esplosiva. E’ un metodo chiamato “lancialo e dimentica”. Slaughterbots è il progetto di un drone delle dimensioni di un uccello. Si può assemblare facilmente al costo di 1000 dollari. Il drone cerca il bersaglio, lo trova e gli spara a bruciapelo una piccola quantità di dinamite nel cranio. Vola in autonomia ed è troppo piccolo per essere intercettato. Quando i prezzi dei componenti scenderanno i robot saranno in grado di costruirli. Non solo. Formeranno sciami rendendo le missioni inarrestabili. Lo racconta Chen Qiufan nel suo primo bel romanzo Marea Tossica, ripubblicato di recente. Vedere per credere il terrificante video di 7 minuti del portale di Sci-Fi, DUST (https://www.youtube.com/watch?v=O-2tpwW0kmU).
Nel 2021 la National Security Commission on AI, guidata dall’ex di Google Eric Schmidt ha raccomandato gli Stati Uniti di rifiutare le richieste di messa al bando delle armi autonome. La guerra da remoto è in corso almeno dall’invasione dell’Iraq. L’ultima edizione è il genocidio a Gaza compiuto con il concorso del sistema “Lavender” che calcola il numero di vittime civili a seconda del valore del capo militare di Hamas da uccidere. “Lavender” è tarato sulle maggiori possibilità di uccidere in edifici e ove ci sono addensamenti umani.
Con le armi autonome la minaccia nucleare agìta dalla deterrenza si sgancia dal vincolo della mutua distruzione, perché un primo attacco a sorpresa è difficilmente rintracciabile. La guerra Stranamore, che era il gioco degli scorsi anni Settanta, è diventata il grande gioco del diritto che ha creato questo scenario: le guerre saranno combattute soltanto con robot, oppure tra umani e robot, ma ai robot sarà permesso usare solo armi che disattivano i robot e sono innocue per gli umani.
Nel settore dell’istruzione l’IA è un mezzo di formazione di soggetti docili, che sgancia scuola e università dai sistemi pubblici in due modi: con l’introduzione di programmi di esercizi e schemi di lezioni (Chat GPT, Gemini) e con le app di insegnamento virtuale basate su autoapprendimento e autovalutazione.
L’IA applicata alla didattica, alla programmazione e all’organizzazione scolastica e accademica catturata nella logica dell’impresa e del profitto, si basa sulla riproduzione del linguaggio “naturale”, considerato come risorsa computazionale. Il maestro, l’insegnante, il professore, sono avatar creati dall’utente che gli fanno da mentore nella prospettiva di un ambiente tutto virtuale, come nel racconto di AI 2041, I passeri gemelli.
L’avatar “segue” lo studente, ne ottimizza facoltà e abilità, ma soprattutto ne individualizza il comportamento e costruisce l’identità soggettiva dell’utente con elementi e processi programmati e selezionati con i dati forniti dallo studente. Competizione, valutazione, merito, correzione di comportamenti anomali costituiscono il circuito di normalizzazione di bambini e bambine, ragazzi e ragazze preselezionati in base a test diagnostici che attestano deficit cognitivi e di socialità.
Nella sequenza storica dei dispositivi di disciplina, dalla caserma al carcere alla scuola alla fabbrica, è il soggetto del lavoro ad imporsi come subordinato e artefice della norma. Dal soggetto di conoscenza al soggetto di diritto, la parabola dell’homo oeconomicus è funzionale alla produzione di dispositivi sociali di controllo. Omnes et singulatim. Il governo del lavoro riproduce la norma soggettiva del governo della vita.
Agli inizi degli scorsi anni Ottanta, l’automazione delle tecnologie liberali di governo ha prodotto un individuo sociale che non risponde più alla norma disciplinare del lavoro. Il profilo dell’imprenditore di se stesso si sgancia dal regime della fabbrica e dal controllo diretto del lavoro. La società degli individui è la società degli investitori e dei portatori di interessi ed è la società del rischio.
Il capitale sociale assume la forma del capitale umano, dell’economia e della gestione di un capitale individuale che non è più subordinato al regime del lavoro ma a quello della produzione permanente di prestazioni, all’ottimizzazione delle facoltà e all’autovalutazione, mentre è esposto al rischio e alla precarietà. Tecnologie digitali di controllo e tecnologie di sicurezza entrano nella produzione, regolazione e normalizzazione delle attività quotidiane in una giornata lavorativa di 24 ore.
É la realtà a disdire le retoriche di liberazione dai lavori usuranti con l’introduzione dell’IA: è più remunerativo sfruttare il lavoro che fare investimenti in robotica e conversione ecologica. Posti di lavoro già da tempo rimpiazzati da robot, bracciali digitali, software di controllo del tempo di lavoro e delle pause, reperibilità immediata, assenza di diritti e di garanzie, ricatti, minacce, confinamento e licenziamento via wathsapp, sono i nuovi argomenti del governo del lavoro.
L’IA genera un nuovo sistema di caste con un’élite di superricchi, un sottoinsieme relativamente piccolo di lavoratori con mansioni di strategia e pianificazione e una massa enorme di creativi sottopagati e una popolazione mondiale impiegata in regime di schiavitù.
L’evoluzione dei mercati tecnologici ha alimentato una retorica che ha propagato il credo del continuo miglioramento della qualità della vita e dell’aumento della ricchezza per tutti, al punto che persino un vangelo della prosperità afferma oggi le virtù religiose del libero mercato, dello sfruttamento schiavistico, del razzismo e dello sviluppo ineguale di risorse a vantaggio dell’élite bianca statunitense.
Al contrario, l’economia digitale non crea abbondanza. Ogni bene e ogni tipo di consumo, pur sostenibile, è sottratto alla gratuità e la “rivoluzione” dell’IA instaura un regime di risorse sempre più scarse. Eilon Musk e simili impiegano tutto il potere computazionale non per trasformare le povertà in abbondanza, ma per ridurre ogni giorno l’accesso pubblico a beni sempre meno disponibili.
Se anche dovesse scomparire la scarsità legata al denaro e alla ricchezza privata, e vendere, comprare e scambiare non fossero più attività necessarie, le tecnologie algoritmiche non farebbero scomparire l’economia che produrrebbe comunque scarsità anche in un ipotetico regime di abbondanza.
Le criptovalute, alternative realistiche alla scarsità, nate all’interno della finanza digitalizzata alla fine del primo decennio Duemila, sostengono il conflitto contro l’accumulazione speculativa della finanza tradizionale, ma sono anche una potente leva di valorizzazione in mercati collaterali che sono riserve permanenti di ricchezza. Il rapido sviluppo dei bitcoins è emblematico.
Nel 2009 Satoshi Nakamoto crea Bitcoin, la prima criptovaluta. Il suo creatore è già nella leggenda. Satoshi è svanito nel nulla e il suo tesoro di circa 1 milione di bitcoins è introvabile.
Le criptovalute sono monete digitali decentralizzate. Non sono emesse da banche centrali o da enti che possano controllarle. Tutti possono coniare moneta. Il processo di emissione si chiama mining. I minatori (miners) sono tutti coloro che offrono potenza computazionale con il proprio PC. I miners vengono retribuiti in bitcoins e l’operazione attesta la convalida delle transazioni e determina l’emissione. La tecnologia delle valute digitali è la blockchain, una rete di computer che redige un registro digitale delle transazioni condiviso tra i nodi della rete. La funzione della blockchain è di ordinare le informazioni. La distribuzione di bitcoins è regolata da questa rete pubblica. Dato l’elevato numero di nodi è quasi impossibile un malfunzionamento. Trattandosi di un database decentrato, la blockchain è sicura e “immutabile”, nel senso che non può essere alterata perchè qualsiasi modifica dovrebbe essere approvata da tutti i nodi della rete.
Ogni transazione è registrata in blocchi digitali in cui sono inserite le informazioni delle operazioni: data, orario, somme scambiate, indirizzi dei portafogli digitali. Fino al 2017 la grandezza dei blocchi era di 1MB. Con l’introduzione di Bitcoin Cash è stata incrementata a 8MB. Un sistema crittografico a chiave protegge la privacy. L’algoritmo Rsa utilizzato per i bitcoins, per le firme digitali e per le transazioni su internet, scrive Kai-Fu Lee, usa due chiavi, una pubblica e una privata. Ogni nodo ha una chiave privata che è una stringa alfanumerica e una chiave pubblica che conferma l’identità dell’autore delle operazioni. La transazione viene completata firmandola con la chiave privata. La trasformazione da privata a pubblica è molto semplice mentre il contrario è quasi impossibile.
Nel 2010 le transazioni sono passate ad un nuovo formato che nasconde l’indirizzo di chi opera. Quando si verifica un furto non c’è modo di denunciare perchè gli autori non possono essere facilmente determinati, e comunque gli algoritmi resistenti ai PC quantistici sono molto costosi in termini computazionali.
I singoli portafogli digitali custodiscono gli assetts in due modi: cold e hot wallet. Il wallet freddo non è connesso a internet, mentre il caldo è custodito in rete su piattaforme software. A differenza che nella finanza tradizionale, il bitcoin va incontro ad halving, dimezzamento. Ogni 4 anni la remunerazione dei miners viene dimezzata; la valuta diminuisce sempre più di valore. Definito deflazionistico, il bitcoin, che è limitato a 21 milioni di monete, diviene una riserva di valore in regime di scarsità. Nel 2021 il suo valore totale superava i 1000 miliardi di dollari. Ma essendo molto volatile la finanza tradizionale ha ingaggiato una guerra speculativa contro bitcoin che nel corso degli anni secondo “Forbes” ha registrato numerosi ribassi superiori all’80% e al 99% con altre criptovalute. Sempre secondo “Forbes” a marzo 2024 bitcoin è stato scambiato sopra i 70.000 dollari.
Nicolò Cintoli e Valerio Diotallevi, giovani traders appassionati di informatica finanziaria, hanno pubblicato un interessante manuale, Crypto, in cui sono rubricate le prime 100 cryptocurrencies, divise per blocchi di interesse. Le più importanti, Bitcoin, Ethereum, Tether, Solana, Ripple, Avalanche, Shibaim, operano su blockchain altamente scalabili, cioè in grado di eseguire sempre più transazioni senza che la rete abbia cadute di performance.
Con l’ingresso dell’IA la capacità computazionale delle blockchain è aumentata e le molte criptovalute si sono specializzate estendendo le loro funzioni oltre a quella di essere mezzo di pagamento. Un aspetto interessante di molte valute digitali è la circolazione di Non-Fungible Token (NFT), cioè di asset digitali che rappresentano titoli di proprietà virtuale non scambiabili e relativi a beni unici irriproducibili: dipinti, spettacoli, romanzi, poesie, saggi filosofici, video, elaborazioni grafiche o inviti ad eventi, o l’acquisto di un personaggio su un videogioco. Il circuito, il cui controllo è nelle mani degli utenti, consente la scelta nell’utilizzo dei dati personali.
A differenza delle criptovalute, i token sono valute digitali che dispongono di una blockchain nativa e questo spiega perchè ormai la moneta digitale è impiegata in progetti e collaborazioni di multinazionali e grandi network. Per esempio, Ripple, nata nel 2012, è un sistema di trasferimento di denaro in tempo reale che “gira” su RippleNet, una piattaforma tramite cui banche e istituzioni finanziarie utilizzano i servizi di trasferimento ad alta velocità sostenendo costi irrisori.
Avalanche, nata nel 2020, offre la possibilità di sviluppare smart contracts, cioè accordi digitali senza il bisogno di “terzi”, e reti personalizzate.
Crypto.com, uno degli exchange più famosi, oggetto di feroci attacchi speculativi, creato nel 2016 e sbarcato on line nel 2020, si vale di una collaborazione con VISA e ha creato carte di debito per pagamenti in criptovalute. Attiva nel settore NFT e nel calcio, sponsorizza il team NBA dei Lakers.
Una delle piattaforme multiuso più estese è Decentraland. É un vero universo digitale con una moneta, il Mana, e un metaverso, cioè una realtà virtuale che utilizza la blockchain di Ethereum che implementa aspetti economici e videoludici. Al suo interno si comprano e vendono terreni virtuali. Gli avatar con cui spostarsi sono NFT. Su Decentraland, scrivono Cintoli e Diotallevi, ogni giorno sono organizzati festival, concerti, sfilate.
Hedera Hashgraph è un registro pubblico distribuito per tenere traccia delle transazioni che non hanno più niente delle operazioni di compravendita ma sono pure comunicazioni. «Quando viene eseguita un’operazione su Hashgraph, il computer la impacchetta in un evento e la comunica ad altri 2 computer scelti random sull rete». Questi ultimi comunicano la transazione a 2 altri, e così via. Hedera è l’azienda no-profit che supervisiona la piattaforma. Con Hashgraph collaborano Google, LG, IBM, Boeing. Swirld, l’azienda svizzera che ha creato una versione open source del sistema aveva per scopo di realizzare una rete nella quale si potessero far comunicare i propri PC per creare app e criptovaluta.
Uno dei più noti protocolli per lo scambio di file peer to peer è Bittorrent. Il progetto si è proposto per facilitare e velocizzare il download di file torrent che sono frammenti di dati che contengono informazioni per scaricare file di grandi dimensioni. Ideato nel 2001, viene acquisito nel 2018 dalla Tron Foundation.
Quant, Celo, Bat, Holochain, ecosistema open source su cui si possono progettare e realizzare software; Audius, piattaforma di streaming musicale in grado di “premiare” gli artisti sfruttati dai colossi dell’industria musicale; Decentralized Social, network che non tratta i dati personali che invece sono archiviati in storage decentralizzati senza fine di lucro: si tratta di progetti che si oppongono allo sfruttamento del lavoro vivo dei creatori di contenuti multimediali. I più seguiti possono lanciare una propria collezione di NFT la cui compravendita avviene con la moneta del social, DESO, sul profilo del creatore e creatrice.
Nel 2019 Bittorrent annuncia l’implementazione di un token crittografico standardizzato, TRC-10, per connettere il network alla blockchain. In questo modo «ha racimolato importanti capitali» e ha iniziato ad essere utilizzato come incentivo. Gli utenti che custodiscono e distribuiscono i file archiviati sui propri PC ricevono una ricompensa in token. Il network si sta espandendo nel live streaming con il sistema peer to peer per connettere i creatori di contenuti video al pubblico senza intermediari.

Protocollo di evasione

L’accesso all’IA, gestito e regolato dalle piattaforme in negoziazione permanente con gli stati, produce nuove facoltà di autocreazione e di trasformazione privata della forma di vita. Sottratta al grande controllo delle istituzioni, il cerchio della vita si rinchiude nell’uso perdendo la cura, nella lingua privata estratta dal linguaggio, nell’universalità astratta della connettività. La questione della privacy nasce da questo stato di cose.
Se ci si limita ad immaginare un presente post-fantascienza in cui regolamentazione dell’IA, protezione non istituzionale dei dati personali e archivi di big data presuppongano l’uso e la gestione non proprietaria, sarebbero un insieme di norme del tipo GDPR (General Data Protection Regulation) e l’esproprio dei clouds di dati dei colossi di Internet a riplasmare le reti e a conferire libero accesso ai contenuti.
Era questa la proposta generalista sventagliata qualche anno fa dai fautori dell’ “era dell’accesso” che avrebbe dovuto sostituire la proprietà con l’uso. Invece lo spionaggio informatico anglo-statunitense che ha scatenato la guerra commerciale mondiale, la securizzazione di internet per la guerra al terrorismo e le successive guerre informatiche permanenti ingaggiate dagli stati contro le persone e contro la controinformazione, hanno messo fuori gioco qualsiasi possibilità d’uso del diritto che non tuteli in esclusiva le società quotate in borsa.
Il regolamento sull’IA approvato dall’Unione Europea lo scorso marzo si basa sul principio di precauzione e vede ambiti di applicazione regolamentati secondo crescente pericolosità di profilazione, manipolazione dei dati e induzione a compiere azioni che mettono a rischio l’autonomia individuale.
Ma queste norme non sono vincolanti, consentono la più ampia libertà di manovra da parte dei licenziatari e dei gestori di app e software (stati e imprese) e rendono molto difficile per le persone rivendicare eventuali induzioni a comportamenti non voluti.
Il diritto molto liberale a tutela della proprietà e della gestione delle reti, delle app e della ricerca corporate,
affonda nell’imposizione di un unico modello giuridico. Per questo il diritto attuale continua ad avere un profilo di semplice orientamento legale anche nel caso in cui sanziona le multinazionali che evadono il fisco o sono giudicate monopoliste.
Kai-Fu Lee: «Cosa ne pensate di una comune digitale del Ventunesimo secolo dove persone che condividono valori comuni sono disposte ad offrire i loro dati per aiutare tutti i membri della comune, sulla base di una mutua comprensione di come i dati saranno utilizzati e protetti?».
Ma l’alternativa giuridica a questo diritto del più forte che è arrivato a dominare lo spazio cosmico non è un altro diritto più giusto, più “umano”, più al servizio delle persone.
Si tratterebbe invece di immaginare un’alternativa che non proviene e non produce diritto e che contrasta le leggi del profitto e della proprietà senza costituire forza di legge. Si tratterebbe di una revoca del diritto vigente, di una operazione locale e generale di esaurimento del diritto proprietario e di produzione di ambiti di condivisione. Si tratterebbe di un campo operativo di singolarità in cui accesso alle reti, conproprietà, gratuità e scambio siano garantite all’interno di spazi comuni. Questo non-diritto smonterebbe la Singolarità evocata da accelerazionisti e transumanisti, oscuro simbolo di dominio sui viventi in mutazione.
D’altra parte un non-diritto dovrebbe sottrarsi alla cattura e potrebbe esserlo con gli stessi mezzi dell’IA. Ma per far questo non c’è bisogno di macchine superintelligenti. Un non-diritto disposto al di là delle alternative tra produzione giuridica e diritto dei popoli potrebbe risarcire almeno in parte coloro che non hanno mai smesso di perdere?
Manuel Castells, sociologo dell’età dell’informazione, autore alla fine degli scorsi anni Novanta di un’ampia opera esplicativa della società dell’informazione, segnalava tra gli elementi di dissolvenza delle organizzazioni, delle istituzioni e delle espressioni culturali dominanti «l’opposizione bipolare tra la Rete e l’io». Invece, è sempre più l’“io nella rete” a combattere soggettività emergenti e ciò in ragione della reciproca appartenenza dell’identità, dell’intenzionalità e dell’azione all’universo della razionalità, del calcolo e della previsione.
L’universo dell’intelligenza, o meglio, l’insieme di possibilità di infiniti mondi in cui si gonfia una realtà chiusa, non è opera dell’algoritmo, ma degli effetti di sapere, della formazione individuale e delle soglie di esperienza perduta che il soggetto attraversa nella virtualizzazione quotidiana. Gli effetti della macchina intelligente non sono nella macchina e non appartengono all’algoritmo e alla logica del calcolo, ma sono effetti di sapere che inducono un’altra esperienza.
Questa esperienza senza corpo è indotta dal senso comune che il cervello pensa e il corpo non pensa, mentre sta accadendo che i corpi viventi di umani, animali, piante, rocce e le percezioni dello spazio, del tempo e della molteplicità si trasformano in aggregati misurabili. E si trasformano tramite procedure di inserzione di informazioni che generano percezioni, stati di di salute e di malattia, sogni, desideri e l’insieme delle dipendenze psico-sensoriali a cui si è esposti.
In questa situazione non c’è presa totale sulle persone, ma cattura di stati di identità che si costruiscono con il tempo passato sulla rete anche quando si è disconnessi. Al fondo della libertà c’è la scelta, la ragione calcolante, la volontà, l’intenzionalita e l’azione, cioè tutte le pretese dell’occidente mondializzato, ed è in base a questo éthos che l’IA funziona.
L’avatar è la vera identità individuale, e l’avatar non è la figurina dell’anonimo che allude ad una preferenza, ad un profilo o ad un genere, ma è l’insieme aggregato di dati trasmessi dall’utente alla piattaforma per il suo riconoscimento. L’intelletto, nel suo senso dinamico, non c’entra con tutto questo.
D’altra parte corpi mutanti e corpi post-umani, come da anni dimostra Rosi Braidotti, non percepiscono e non conoscono la macchina algoritmica, che in sè non esiste, ma l’insieme disperso dei dispositivi di sapere-potere che accerchiano l’individuo che li accerchia. Un movimento sempre più intenso, l’ottimizzazione di facoltà, performances, gesti e azioni, il tempo trascorso nel cyberspazio, la volontà di controllo, alimentano l’auto-governo di sè e decretano un’identità costruita all’interno di parametri rigidi e procedure ripetitive. Il sistema algoritmico non produce normalizzazione; è l’insieme dei rapporti tra i viventi, gli ambienti e l’immagine di sè proiettata in dati e statistiche che genera la norma e il senso comune.
In un saggio del 2020, Identità Cibernetiche, Renato Curcio ha scritto che gli algoritmi «si propongono di stanare le manifestazioni identitarie con cui gli utenti scelgono di agire in rete momento per momento, connessione dopo connessione». Una volontà di sapere-potere, estesa ai corpi, alla terra, a Marte, allo spazio profondo, anima la macchina intelligente.
La felicità è tarata sull’autorealizzazione: un’elaborazione affettiva di passioni tristi espresse in pratiche autoerotiche che misura la differenza tra bisogni e desideri eudaimonistici, piacere e godimento. É la deflazione psichica, cioè lo stato permanente di depressione cognitiva che, come ha scritto Franco Berardi, è il clima emotivo del mondo attuale. E allora «…Dovremo dimenticarci della facoltà cognitiva chiamata volontà. Dovremo affidarci alla sensibilità per poter entrare in relazione con l’universo indeterministico della proliferazione». Anche la felicità digitale va lottata. Ma questa lotta potrebbe essere accesa da una macchina rivoluzionaria intelligente al punto da prevenire le intenzioni nefaste dell’economia che uccide.

2. “Non ho niente da nascondere”

Ad un primo esame dell’Intelligenza Artificiale fatto un po’ a volo d’uccello in modo un po’ superficiale, è emerso un primo elemento: il carattere pervasivo dell’IA e la sua estensione a tutti campi dell’attività umana. Un altro elemento è che con l’introduzione dell’IA c’è un salto rispetto alle precedenti tecnologie digitali; un altro elemento ancora è che questa tecnologia ha dato e sta dando corso ad una trasformazione antropologica che rompe i modi in cui fino a poco tempo fà sono stati considerati gli esseri viventi, gli ambienti e le realtà non umane.
Con l’IA le azioni comportano una risposta della macchina che è articolata su più piani. C’è un primo piano che è quello delle procedure, quello dell’operatività di base che si è sviluppata con il PC e con i diversi devices ‘touch’, con gli smartphones: ad una serie di comandi sullo schermo il dispositivo risponde innescando un’unica sequenza di operazioni.
Con l’IA generativa (Chat GPT, Gemini ecc.) l’evoluzione della programmazione informatica ha fatto sì che un primo piano di connettività sia integrato ad un secondo, quello della connettività audiovisuale: la comunicazione tra due o più utenti in tempo reale. A questo piano se ne integra uno ulteriore, quello della “risposta” della macchina che proviene dall’elaborazione di una quantità di dati in continua crescita. La macchina estrae, seleziona e fornisce una risposta, ma profila l’utente secondo una certa procedura. Questa procedura è regolata dall’algoritmo che è il criterio operativo in base alle istruzioni date alla macchina; si tratta di una sequenza di operazioni che viene replicata ad ogni “interrogazione” dell’utente.
Le macchine-IA elaborano una enorme quantità di dati e informazioni raccolte in cloud di proprietà delle grandi corporation statunitensi, Google, Facebook, Meta, Amazon, Apple, X, e selezionano la risposta più pertinente o l’azione migliore in base alla richiesta. Big data e potenza di calcolo sono la materia e la forma della tecnologia di IA.
A differenza delle tecnologie precedenti in cui le macchine avevano comunque una limitata capacità di elaborazione, l’IA opera un accumulo continuo in una dinamica illimitata, ed è un accumulo basato sul tempo storico, sul tempo trascorso tra le prime forme di immagazzinamento di dati e informazioni e gli attuali cloud storage. Questo tempo è una potenza temporale che richiede una potenza di calcolo sempre maggiore per elaborare risposte “ottimali”.
Molti critici parlano dunque di un evento di rottura e questo salto del tempo storico delle tecnologie digitali rappresenta una soglia nell’evoluzione dell’informatica che apre un “altrove” che è concretamente presente.
Uno degli effetti rilevanti dell’attuale situazione storica riguarda la normalità quotidiana, o almeno, le abitudini e i modi di vivere in cui consistono le attività, il lavoro, le relazioni e gli ambienti, il linguaggio e l’uso del corpo in cui scorre il tempo quotidiano.
Questo cambiamento ha a che fare con la percezione della normalità: l’operatività della macchina innesca un processo di normalizzazione per lo più impercettibile che consiste fra l’altro nella perdita della capacità di percepire e di apprezzare le differenze tra ambienti ed esperienze reali e virtuali, dal momento che l’IA le riconduce ad un criterio univoco di realtà. La macchina sancisce un normale regime di verità dell’esistenza attraverso la replica dei gesti dell’utente. Il suo uso risulta un fatto ordinario al pari di altri gesti, attitudini, pratiche e preoccupazioni quotidiane, con una serie di impieghi e di necessità che attutiscono fino a farlo scomparire, l’altrove in cui sono proiettati spazi, tempi ed esperienza e dissolvono il contrasto tra l’uso e la posizione sociale soggettiva. Così diventa irrilevante la condizione materiale di esistenza. La norma diviene la sequenza in cui il giorno scompare nella notte.
In secondo luogo, accedendo direttamente ai corpi e al linguaggio, l’IA, sia nelle sue app generative che di uso bellico e di controllo o con funzionalità domotiche, mette in conflitto la razionalità tecnica e i corpi, ed è un conflitto che si risolve con l’adattamento dei corpi all’operatività della macchina.
Inoltre, le istruzioni impartite alla macchina per rispondere ai prompt (le domande degli utenti), sono elementi di un’educazione permanente. Non è la macchina ad essere addestrata ma i corpi e la lingua ad essere regolati secondo uno schema comportamentale basato sulla previsione. La vera istruzione viene impartita dalla macchina a chi la usa. L’educazione all’uso forgia un ambiente “naturale” in un’esperienza di normalità condizionata. La replica stabilisce un’abitudine di apprendimento secondo una legge implicita di induzione.
L’estensione mondiale e ormai cosmica delle piattaforme colloca questi ambienti in un altro spazio che è uno spazio indeterminato e obliquo, aperto nel taglio dei corpi, delle specie viventi e del consumo della terra. É uno spazio che attraversa i corpi, relega le specie viventi in ambienti inabitabili, estrae dalla terra risorse comuni rare, provvede la guerra di estinzione e attrezza la ricchezza all’immortalità.
Profilazione raffinata degli individui; estrazione e gestione di enormi quantità di dati personali con finalità di profitto; proprietà dei dati, delle informazioni, delle infrastrutture tecnologiche e delle risorse; produzione di ambienti interattivi che sostituiscono spazi, tempi e relazioni con esperienze immersive; costruzione di una soggettività di controllo e di induzione all’azione in base ad un criterio univoco di comunicazione.
In questo scenario quotidiano, la critica dell’IA si è articolata intorno ad alcuni temi che hanno come linea comune quella della colonizzazione dell’immaginario che segue la linea della critica della cibernetica come movimento di guida, di orientamento generale che spegne le istanze collettive e i desideri di progettazione comune.
Questo piano critico ha una storia: da ormai più di 30 anni la critica non considera le tecnologie digitali come il “grande fratello” che totalizza l’insieme delle relazioni sociali, ma ne osserva il movimento di infiltrazione, di contaminazione in una microfisica delle relazioni tra umani, non umani e macchine.
C’è un versante critico che si esercita dall’esterno della macchina-IA e da questa posizione di esteriorità rileva la differenza tra intelligenza naturale e artificiale riportandola alle facoltà del vivente. Si tratta di uno spazio critico che è terreno di conflitto tra l’organico e la macchina che assume l’analisi delle condizioni di funzionamento dell’IA.
Vedremo come in questa critica si trova la contestazione di pratiche diffuse come l’estrazione di dati sensibili, l’esproprio di identità e risorse e soprattutto l’impiego bellico dell’IA in sistemi d’arma da remoto. Il tema è quello del capitalismo della sorveglianza.
Abbiamo già indicato la recente ricerca di Shoshana Zuboff, Il capitalismo della sorveglianza che ha esplorato l’intero territorio delle tecnologie di controllo a fini di profitto delle grandi corporations.
Questo tema si accompagna ad un altro, posto in questi anni dal filosofo e psicoanalista Miguel Benasayag. In un bel dialogo con Ariel Pennisi, docente all’Universidad Nacional de José C. Paz e co-direttore di Red Editorial, Chat GPT non pensa (e il cervello neppure), Benasayag riprende la teoria di due grandi biologi, Maturana e Varela e rileva le differenze tra macchine ed esseri viventi nella qualità dell’intelligenza e nella facoltà di interpenetrazione degli organismi, facoltà che è del tutto assente in una macchina da calcolo.
Su questa linea si svolge la ricerca che Renato Curcio compie da anni sulle tecnologie digitali e il loro potere di captazione. Nell’ultimo lavoro del laboratorio di socioanalisi, Intelligenze artificiali e intelligenze sociali (2024), Curcio riprende il filo della precedente ricerca e indica nell’enorme potere dei network globali l’agente del cambiamento antropologico e di trasformazioni epocali che richiedono forme di contrasto adeguate alle pratiche che l’IA pone e impone.
Infine, c’è una sponda critica che da anni costituisce il campo di ricerca di Rosi Braidotti, ribadita e approfondita nell’ultimo suo testo, Femminismi (2024). A partire dell’attuale realtà biologica, zoologica e antropologica, Braidotti segnala come l’insieme delle trasformazioni che investono materia vivente, protesi e dispositivi, comporta un’esposizione costante dei corpi a mutazioni che revocano le norme di genere, sesso, razza, in favore di una produttiva contaminazione tecno-naturale. Si tratta della mutazione complessiva dell’ibrido corpo-macchina che dà luogo a soggettività resistenti in spazi sociali e di immaginario ancora per molti versi inesplorati.
Shoshana Zuboff sostiene che la nuova forma di cattura e di sfruttamento «non si ciba più di lavoro, ma di ogni aspetto della vita umana». Come già aveva affermato la prima critica del capitalismo delle piattaforme, l’automazione e la composizione della forza-lavoro nella crisi del capitalismo industriale ha prodotto la rapida, inarrestabile estensione del lavoro cognitivo iscritto nella precarietà e nell’appropriazione di affetti, gusti, mode e forme di vita.
Il machine learning che è alla base dell’IA, costituisce dunque l’evento singolare che è stato possibile per l’accumulo storico di dati e informazioni. In questo evento cade la distinzione storica tra tecnologia e modo di produzione, tra tecno-scienze ed economia, tra conoscenza e potere che, da Weber ad Habermas, era stata indicata come rapporto sociale generale delle società occidentali. La cattura di attenzione, relazioni, affetti ridotti a clic e like, costituisce la più imponente tecnologia di governo della vita.
La grande trasformazione che Karl Polany indicava nella riduzione delle prerogative dello stato, è consistita nell’insieme delle tecniche, delle procedure e delle forme in cui il capitale è divenuto capitale umano, il regime della fabbrica esteso alla società è divenuto regime della produzione di sé, della responsabilità individuale, dell’identità soggettiva, e in cui il regime di libero mercato ha prodotto l’individuo come imprenditore di sé stesso, come consumatore e come investitore; in cui infine l’homo oeconomicus è divenuto il soggetto della razionalità strumentale ed è l’agente sociale della produzione e del consumo di libertà.
Se consideriamo lo sviluppo tecnologico a partire dalla fine della seconda guerra mondiale vediamo che non esiste un sapere informatico, né esiste una scienza cibernetica che sia indipendente dal potere di stato e del mercato, – e oggi dal potere di sfruttamento da parte delle corporations high-tech.
La critica della neutralità della scienza e l’evidenza dei dispositivi di sapere-potere in cui si è articolato lo sviluppo tecnologico, derivano dalla storia dei rapporti tra tecno-scienze, libero mercato e modi dello sfruttamento di lavoro, risorse e relazioni. Ed è una storia in cui ad un certo momento, il “sistema automatico di macchine” che Marx considerava il nuovo modo di produzione, ha incorporato le tecno-scienze. Questo movimento ha generato una tecnologia disciplinare e di controllo, di induzione e di soggettivazione. Una “presa” sulla vita che ha investito corpi e popolazioni.
Incorporazione soggettiva delle tecno-scienze, tecnologia liberale di governo della vita, accumulo storico ed estrazione di dati e informazioni, di affetti, relazioni e abitudini che divengono risorse scarse, fonti di profitto, proprietà; valorizzazione finanziaria della merce-informazione, connettività in tempo reale; digitalizzazione e penetrazione capillare di devices che sono terminali di produzione e consumo di identità, bisogni, tempo, spazio, movimenti, di volontà e di desideri.
Queste realtà si raccolgono “qui e ora” nell’architettura cibernetica che è l’insieme di dispositivi, di pratiche, di linguaggi, di vincoli e di modi di appropriazione che operano sul presupposto delle libertà e articolano l’insieme degli scambi e della produzione di ricchezza.
Le piattaforme big-tech convertono parole, cose e azioni in profili individuali orientati al consumo. L’insieme delle relazioni e delle interazioni ridotte a quantità di bit trasformano dati “sensibili” in risorse “insensibili”, disponibili in tempo reale come oggetti di valorizzazione e di transazione. L’automazione intensa e quasi integrale dei processi di selezione, associazione e produzione di dati intensifica l’autonomia dei dispositivi personali.
Il passaggio dall’automazione all’autonomia della macchina, dalla connettività alla produzione autonoma di procedure, consiste nell’integrazione di processi che fa sì che si impieghi il termine “intelligenza” sia per l’operatività di dispositivi di cura, protesi e sostegno che per il monitoraggio degli effetti del cambiamento climatico; sia per i massacri, i genocidi e le operazioni di guerra “ibrida” che per la distruzione di comunità ed ecosistemi; sia per lo sfruttamento schiavile delle popolazioni che per il respingimento, la detenzione e l’uccisione di migranti in terra e in mare. La delega alla macchina di processi, operazioni, scelte e decisioni genera una ambivalenza etica in cui si consuma l’“altrove” dello spirito del capitalismo. Crudeltà e violenza quotidiane esercitate in nome della sicurezza sono gli effetti diffusi della razionalità strumentale acquisita da un soggetto “intelligente”.
L’IA genera dunque un’etica che è un insieme di pratiche riferito ad una norma indifferente all’uso. Rovesciando la famosa indicazione di Weber si può dire che la causa etica del capitalismo big-tech effettua un “protestantesimo”, una contaminazione di materia prima corporea, soggettivazione normalizzante e produzione di informazioni. Il dispositivo di cura e le protesi corporee; l’identificazione da remoto, il drone che osserva lo scioglimento accelerato dei ghiacci e che rade al suolo un edificio, un ospedale, una scuola. La spia sottocutanea che previene ictus e infarti e la spia all’interno degli smartphone che cattura dati “sensibili” e innesca esplosivi; programmi per la manipolazione delle immagini e per la profilazione dei soggetti “a rischio”; intelligenza generativa per la scuola, l’università e la pubblica amministrazione e per tracciare le insorgenze; algoritmi per generare profitti sui mercati finanziari e sistemi “intelligenti” per la guida autonoma.
Shoshana Zuboff scrive che «Google ha beneficiato della contingenza storica e di un apparato di sicurezza nazionale che sulla spinta dell’11 settembre è stato propenso a coltivare, celare, camuffare e copiare le doti emergenti del capitalismo della sorveglianza per inseguire la conoscenza totale e le certezze che questa prometteva». Tutta la normalità di cui abbiamo bisogno si esprime nella flebile, volontaria adesione al programma d’uso del digitale intelligente: “non ho niente da nascondere”.
La “privacy” scompare quando la sfera privata scompare. E scompare non perché viene violata, ma perché l’intrusione rivela la sua inesistenza. L’invenzione liberale che a partire dalla metà del XVIII secolo formerà il destino politico dell’occidente compare nella modernità in contrasto e in rapporto alla sfera pubblica che identifica la società civile. A partire dalla metà degli scorsi anni Settanta il libero mercato ha eroso progressivamente la cosiddetta sfera pubblica, cioè l’insieme delle prerogative di controllo e di amministrazione dello stato. Lo stato perde il diritto di interferire con il funzionamento dell’economia mentre cresce il diritto al capitale come legge naturale dello sviluppo.
Quando il primo utente si accorge che Gmail scansiona la corrispondenza per generare inserzioni pubblicitarie a saltare non è dunque la sfera privata ma la falsa distinzione tra sfera pubblica ed economia di mercato.
Quando nel 1998 nasce Google, delocalizzazione e deregolamentazione dei mercati finanziari sono già un fatto storico. L’esempio di Google è emblematico. Nato come motore di ricerca con finalità “accademiche” e universaliste, – “generare informazioni per gli utenti per migliorare l’umanità” – dopo la crisi della net-economy del 2000 comincia a trasformarsi in un’agenzia di raccolta di advertising che profila gli utenti sulla base delle domande sui motori di ricerca.
Google è un’architettura automatizzata basata su «un’asimmetria di conoscenza e potere». Dall’interesse per gli utenti all’accumulazione basata sulla sorveglianza dei comportamenti il passo è breve. Ciò che infatti per i singoli è ricerca, bisogno, desiderio, umore, che possono essere resi pubblici – la famosa sfera pubblica virtuale dei primi ottimisti digitali – per Google è l’insieme dei dati da scambiare e da vendere. «Era necessario disporre di un’enorme potenza informatica e di algoritmi all’avanguardia per poter prevedere in maniera efficace il comportamento degli utenti e stimare la rilevanza di un ads», scrive Zuboff.
Nel 2003 tre scienziati informatici dell’azienda registrano un brevetto per usarlo nell’adevertising mirato che inaugura la politica economica dei clic finalizzata al profitto. I dati estratti non servono più per migliorare il servizio ma per «per far combaciare gli ads ai loro interessi, dedotti dalle tracce collaterali lasciate dal loro comportamento on-line». Nel processo di matching, di traduzione istantanea della domanda in pubblicità, si compilano nuovi set di dati chiamati user profile informations che rendono sempre più accurata la previsione. Il modello Google di estrazione e analisi dei dati diventa il modello universale sul web. Questo advertising content targeted mirato al contenuto venne chiamato AdSense.
Nel 2004 AdSense arrivò a una performance di un milione di dollari al giorno e entro il 2010 a più di 10 miliardi di dollari l’anno. Si stabilisce così una nuova forma di mercato: la compravendita delle previsioni di comportamento degli utenti. Nel 2016 il 90% circa dei ricavi della società madre di Google, Alphabet, derivavano dai programmi di targeted advertising di Google.
Nel 2017 Google è la seconda azienda al mondo per capitalizzazione: 649 miliardi di dollari. Nel 2017 i ricercatori a Pechino del motore di ricerca di Microsoft, Bing, scoprono che la stima accurata del tasso di clic degli annunci aumenta i profitti in maniera considerevole. Uno 0,1% in più di accuratezza vale centinaia di milioni di dollari di maggiori entrate. Una app di network neurali avanzati promette un miglioramento di 0,9% di uno dei sistemi di identificazione. Accumulazione per mezzo di esproprio. L’esperienza viene estratta, trasformata in pattern di comportamento e prodotta come un bene da scambiare sul mercato. L’esperienza rinasce come comportamento. La sorveglianza deve essere continua nello spazio, nel tempo e sulla mobilità.
Nel 2010 Google acquisì Keyhole, azienda di mappatura satellitare finanziata dalla CIA. Keyhole sarebbe diventata l’“anima” di Google Hearth e il suo fondatore avrebbe guidato Google Maps.
Nel 2009, secondo la rivista Wired, era la prima volta che la CIA e Google finanziavano la stessa start-up, Recorded Future, «in grado di monitorare ogni aspetto del web in tempo reale per predire gli eventi futuri». Negli ultimi mesi della presidenza Obama fu formalizzato un nuovo “Defense Innovation Advisory Board” tra tecnici e Dipartimento della Difesa e la commessa fu affidata al Ceo di Google, Eric Schmidt. Ma l’atto di nascita del «nuovo modello globale di sicurezza» risale al 2001 quando Google entra in rapporto con il Pentagono e le agenzie di intelligence. Queste volevano la stessa deregolamentazione di cui fruiva la Sylicon Valley. La studiosa del diritto Stephanie A. DeVos definì “senza precedenti” la collaborazione tra Google e l’intelligence, soprattutto con l’NSA che «si sforzava di diventare più simile a Google».
Con l’ascesa dello smartphone, Google è stata costretta a trovare «nuovi modi per difendere ed espandere la sua principale fonte di approvvigionamento, data dalla ricerca». Nel 2008 un gruppo di aziende tecnologiche e di operatori wireless sviluppa una piattaforma aperta per dispositivi mobili: Android.
Google fornì la licenza gratuita di Android ai produttori di devices affinchè gli utenti utilizzassero Google Search e altri servizi. A differenza dell’iPhone di Apple, Android era open source e per gli sviluppatori era semplice rivolgersi agli utenti di Android. Google racchiuse le app nel Google Play Store, il negozio virtuale più fornito della galassia.
Nel 2017 una ricerca dell’organizzazione no-profit Exodus Private e dello Yale Privacy Lab registra la proliferazione dei software di tracciamento. In più di 300 app Android, prodotti anche per Apple, sono stati identificati 44 tracker. Anche le app più “innocenti”, ad esempio quelle per il meteo, sono infestate da tracker che raccolgono «enormi quantità di surplus comportamentale finalizzato alla creazione di pubblicità mirate».
Nel 2007 Google lanciava Google Hearts, un servizio di mappatura delle strade svolto con camera car, con la finalità di rendere strade, piazze, case, quartieri, villaggi, città, paesi, elementi di una griglia infinita di coordinate GPS e di inquadrature.
La giustificazione di Peter Fleischer, consulente per la privacy di Google, fu che a differenza della sfera privata in quella pubblica non c’è privacy. La finalità di Google Hearth non era facilitare l’accesso alla viabilità e alla mobilità globale, ma rendere il pianeta un archivio spettacolare di informazioni demografiche in tempo reale e un bersaglio per la sorveglianza.
Street View, Google Maps e Google Hearth, descrizione in 3D della terra con satelliti e fotografie aeree, hanno svuotato il mondo trasformandolo in un depliant turistico. Strade, piazze, quartieri non sono più luoghi ove camminare e incontrarsi, ma aree deserte da ispezionare ed espropriare a fini commerciali.
Nel 2009 i residenti del villaggio inglese di Broughton bloccarono un’auto di Street View che aveva provato a oltrepassare il perimetro urbano, considerandola un’invasione indesiderata. John Hanke, vicepresidente dei prodotti legati a Google Maps e fondatore di Keyhole, finanziata dalla CIA, disse al London Tmes che l’azienda rimaneva intenzionata a mappare l’intero Regno Unito.
Nel 2010 la commissione federale tedesca per la protezione dei dati annunciò che le operazioni di Street View celavano un furto di dati. «Le auto di Street View raccoglievano segretamente dati personali dalle reti wi-fi private». Google negò l’accusa ma dopo un’analisi indipendente di alcuni esperti di sicurezza tedeschi fu costretta ad ammettere di aver intercettato e archiviato “carichi utili” di dati e informazioni personali estrapolate da connessioni wi-fi non criptate.
Nel 2012 alcuni paesi europei, in Nord Atlantico e in Oceania, svolsero indagini. Negli Stati Uniti i procuratori di 38 stati lanciarono un’indagine sulle procedure di Street View e i cittadini lanciarono molte class-actions. Google affermò che le violazioni della privacy erano state un errore commesso da un misterioso ingegnere informatico. L’azienda rifiutò di diffondere l’identità del misterioso ingegnere e «ribadì che chi era alla guida del progetto era ignaro della cattura dei dati, e che comunque “non aveva intenzione” di usarli.».
Un’indagine della Federal Communication Commission nel 2012 definì il caso «una deliberata decisione su una questione di software design assunta da uno degli impiegati di Google mentre lavorava al progetto di Street View…le sue note indicavano che il traffico degli utenti e i dati sulla loro posizione sarebbero stati catalogati con “le informazioni su che cosa stanno facendo”, da “analizzare offline per essere usate in altri ambiti”. Queste note rilevavano “questioni di privacy”, ma non le prendevano in considerazione». Alla fine prevalsero gli avvocati di Google. La FCC comminò a Google una multa irrisoria, 25.000 dollari e si accordò con gli stati accettando una multa di 7 milioni di dollari. Anche l’indagine tedesca si chiuse con scarsi risultati.
Tra il 2008 e il 2010 furono raccolti nel mondo 600 miliardi di byte di informazioni personali. Nel 2011 Google fece terminare Street View in Germania. Nel 2016, in seguito alla severa regolamentazione imposta in Svizzera, il servizio venne limitato ai siti turistici all’aperto. Ma nel resto del mondo Google continua ad estrarre dati e informazioni personali in tempo reale. L’India ha bloccato Street View, come anche Grecia, Lituania, Austria, mentre è disponibile (nel 2018) in 65 dei 200 paesi di Google Maps.
Google è stata l’azienda apripista nell’imporre il principio della mappatura con finalità di sorveglianza. Sperimentando una serie di app e di protesi come Google Glass ha esteso indirettamente ai grandi operatori telefonici e alle aziende di telecomunicazioni il principio del profitto derivante dal furto di dati personali. «Il capitalismo della sorveglianza è nato digitale, ma non è più confinato nell’ambito delle multinazionali digitali». Zuboff elenca sei principi fatti propri dalle multinazionali della sorveglianza:
1) l’esperienza umana è la materia prima di cui impossessarsi
2) l’esperienza può essere trasformata in dati comportamentali
3) i dati estratti sono proprietari
4) la proprietà dei dati implica la loro conoscenza
5) la conoscenza dei dati implica il diritto al loro uso
6) il diritto all’uso implica il diritto di stabilire le condizioni che tutelano il diritto al possesso dei dati. Il tutto attraverso il modulo per dare il consenso.
L’integrazione di persone, processi e merci viene reinventata come informazione. Questa renderizzazione delle relazioni soggettive è la resa operativa di una intelligenza letale che disperde l’intelligenza collettiva possibile da reinventate in esperienze comuni.

3. Macchina filosofica e macchine letali

La grande trasformazione dei contesti e degli ambienti innescata dall’Intelligenza Artificiale, di cui abbiamo cercato di tracciare una genealogia, si appoggia, include ed è orientata da una resa operativa di alcuni principi che sono in circolazione almeno dalla metà degli anni Ottanta dello scorso Novecento.
Questi principi corrispondono all’ultima storia della modernità, a quella fase di modernizzazione in cui il capitalismo entrava in rapporto con le forme liberali della soggettività e con una microfisica dei poteri da cui erano investiti i contesti sociali, prima in Inghilterra e negli Stati Uniti e poi, dopo il 1989, nel mondo, considerato come un residuo dell’occidente.
In questa trasformazione abbiamo osservato come la questione dello sviluppo, dei nuovi modelli di industria, il “just in time”, l’attenzione al consumatore, la personalizzazione delle merci, è stata spinta da un’accelerazione dell’informatica, – il PC desktop, i portatili, la prima digitalizzazione e le reti telematiche.
Ma d’altra parte sono state le forme accelerate della nuova forma di industrializzazione, l’industria dei servizi, l’industria in forma privata, l’insieme delle velocità e delle disponibilità industriali in tutti i settori che per tradizione erano distinti, a spingere e a orientare le tecnologie informatiche.
Non c’è stato un processo a senso unico in cui le trasformazioni industriali hanno orientato le tecnologie, ma almeno uno scambio biunivoco, un insieme di rapporti che costituivano un soggetto cibernetico che non coincideva in toto con l’individuo, benchè l’individuo fosse al centro di tutte le forme di automazione, di individuazione tecnologica, di “customizzazione”, cioè delle scelte e delle possibilità di scelta con cui veniva promosso l’insieme delle libertà.
E se vogliamo ritrovare questi principi di base, che non erano e non sono dei principi, sono piuttosto dei criteri, non dobbiamo ritrovarli solo dal lato dell’individuo liberale, ma anche dall’altro lato, quello di una costituzione soggettiva che raffigurava un panorama con rotture, scivolamenti, frizioni.
E questo disegno, che non aveva un progetto, un contorno epocale, una linea secolare, né aveva una temporalità continua, un’attenzione prolungata verso l’innovazione, – era piuttosto e forse è tutt’ora un profilo vibrante, un’induzione prodotta dai mercati, una forza intensiva in cui si costituivano linee di capitale, disegni di capitale, zone come per esempio la Silicon Valley o la precedente esperienza dell’Olivetti in Italia, in cui questo soggetto in qualche modo sperimentava se stesso e sperimentava un senso diverso di libertà, che era risignificato rispetto alle esperienze alternative degli scorsi anni Sessanta e Settanta.
Questa soggettività che non coincideva completamente con l’individuo proprietario, con l’imprenditore di sé, e che produceva anche un resto, quello che sarebbe stato chiamato capitale umano, e che non era né del tutto umano e non era già più il capitale ottocentesco e primo novecentesco, – questo soggetto era un soggetto di volontà. L’evoluzione dell’informatica fino all’Intelligenza Artificiale, che è interessata all’evoluzione di questo capitale umano, come merce, come risorsa, come flusso, come rete e come algoritmo sarebbe un capitale animato da una volontà di volontà, da una specie di spinta volontaristica che opera a prescindere dai contesti, dalle situazioni e dai reali rapporti di potere e di sapere dei singoli contesti.
Volontà di volontà, teoria dell’individuo come soggetto e una certa teoria dell’inconscio, – queste volontà di attribuire un senso all’innovazione e all’aggiornamento che in qualche modo eccedono anche i risultati delle scienze e le loro applicazioni tecnologiche, hanno a che fare con l’esercizio su larga scala di una libera volontà di accumulazione, una volontà di potere illimitato e con una moltiplicazione delle direzioni possibili di costituire un soggetto della tecnologia, un’identità della tecnica.
La piega reazionaria di questa volontà, l’accumulo di risorse, ricchezza e potere tecnologico, economico e politico, ha ridotto le differenze e le diverse forme di soggettivazione ad una unicità. L’individuo è la nazione, individuale è la presa razzista dell’informazione delle grandi piattaforme, individuate sono le regioni del mondo e la regione estesa a tutta la terra da cui poter estrarre risorse e distruggere ambienti in vista dell’estensione di un dominio che non corrisponde più alle antiche o alle classiche forme di dominazione.
Questo insieme di volontà, di asserzioni, di enunciazioni del tutto presente, – l’individualità della sicurezza, l’individuazione permanente di uno stato d’emergenza ormai cosmico e la riattivazione di profili fascisti, del culto della nazione, del genocidio, dell’annientamento di tutto ciò che vive, – questo insieme di volontà di volontà che investe l’insieme delle relazioni di sapere-potere è stato chiamato dominio rapido.
In buona parte questa teoria del dominio rapido comincia ad affermarsi intorno alla metà degli scorsi anni Settanta con la comparsa dei primi venture capital che attirano una serie di sperimentazioni finanziarie nel settore tecnologico. Nel 1973 John McCarthy inventa l’espressione Intelligenza Artificiale «per far colpo sui finanziatori di progetti», scrive Renato Curcio.
La teoria liberale del contratto è stata l’innesco dell’individuo proprietario, dell’adesione di sé a sé nell’uso delle tecnologie portatili e dei devices che trova senso nel dominio rapido, nell’insieme delle tattiche militari, nell’impresa della guerra quotidiana. Questa volontà si estende oltre il teatro di guerra.
Il dominio rapido ha cominciato a circolare come teoria politica dopo l’11 settembre, con la teoria bellica dello “shock and awe” e come teoria economico-politica dello shock di cui ha argomentato Naomi Klein, questo profillo di avanguardia teorico-politica, di sperimentazione sulle popolazioni è basata su strategie di tipo bellico, cioè su una forma di induzione e su certi rapporti bellici tra tattiche e strategie, fenomeni locali di comunità chiuse e mondi periferici poveri e popolazioni dei rifiuti, come nel film di Neil Blomkamp District 9 e come nel romanzo di Che Qiufan Marea Tossica.
La teoria politica dello shock si alimenta di un’antropologia che risale agli scorsi anni Cinquanta. L’animatore di questa psico-antropologia e dell’annessa teoria del comportamento è stato Skinner, e la teoria è stata salutata come un nuovo inizio dell’antropologia.
L’idea era di fare della società un laboratorio, un ambiente di sperimentazione e di realizzare effetti di comportamento. E questi comportamenti realizzavano un’etica, rendevano concreta l’etica a partire da un esperimento che poteva essere esteso su larga scala.
La teoria del dominio rapido proviene dalla teoria del comportamento dello psicologo Burrhus Skinner. Si trattava di una specie di psico-tecnologia che era basata sui “programmi di rinforzo” sperimentati su cavie per generare schemi di comportamento che erano estranei agli animali. Dopo la seconda guerra mondiale questa teoria diviene una vera e propria scoperta scientifica con l’idea di trasformare gli animali in vettori di intelligenza, – ad esempio i piccioni “condizionati” potevano essere utili per i missili guidati. Il progetto missilistico aveva fatto nascere una tecnologia, il comportamentismo, che prima di essere una teoria sociale, era un insieme di tecniche che inducevano determinate risposte. Queste risposte erano comunque libere, non erano imposte, ed erano come istinti indotti.
Il cosiddetto behaviorismo che Skinner teorizzò alla metà degli anni Settanta in un saggio che ebbe molto successo, La scienza del comportamento, è dunque l’insieme dei pattern di comportamento utili per una risposta programmata. Le polemiche e le critiche a Skinner si appuntarono soprattutto sulle sue asserzioni teoriche, sulle trasformazioni reattive dei comportamenti, ma non intaccarono affatto il senso di quell’esperimento e di quelle pratiche.
Le polemiche scatenate dal suo testo più teorico, Oltre la libertà e la dignità, non scalfirono affatto la portata sperimentale di questa ingegneria del comportamento, tanto è vero che Skinner in quel saggio se la prese con il vero fondatore del comportamentismo, John B. Watson, che a suo parere non aveva offerto prove scientifiche del suo metodo che considerava oggettivo. Ciò che rimane delle polemiche e delle critiche successive al comportamentismo è qualcosa che già Watson aveva affermato, cioè che il fine delle tecnologie del comportamento era la previsione e il controllo. Controllo e previsione del comportamento furono però relegati in secondo ordine, mentre il principio si è conservato.
Previsione dei comportamenti e controllo delle risposte, comportamenti attesi e controllo dei risultati. Questa etica del comportamento, che non può fare differenza tra umani, non umani e macchine, circola ed è operante nelle innovazioni e non è più un intervento di tipo psicologico, né individuale né sulla cosiddetta psicologia di massa – che è qualcosa di aleatorio, un modo di dire che non corrisponde a niente di reale, – ma è un modo di considerare i rapporti tra soggettività e volontà e tra soggettività e istinti, tra soggetti, volontà e forme di conoscenza.
Questa “presa” psico-tecnica sulla vita ha di mira la singolarità del vivente, cioè la riduzione di ogni differenza ad un processo automatico in cui sono coinvolte la previsione, il controllo e le risposte attese in un circuito ricorsivo sempre più esteso di autoapprendimento, ottimizzazione e limiti di perfezione.
Tutto il processo, come indicano Benasayag e Pennisi, mentre esalta le differenze tra umano e macchina, ne revoca la possibilità di separazione e ne disfa, impedendone la distanza, la soluzione.
La singolarità del vivente, a differenza dell’evento singolare a cui pensavano gli accelerazionisti e a cui pensa il cosiddetto trans-umanesimo, differisce dal funzionamento digitale e algoritmico. La distanza tra vivente e macchina si ottiene e può permanere in virtù dell’auto-affezione dei viventi, perchè il pensiero è relazione a qualcos’altro, che mantiene distanza rispetto ad un altrove e che ne produce il senso, – mentre la macchina, cosciente o intelligente, per funzionare deve abolire la distanza, deve incorporarsi, deve divenire protesi, deve essere un inner device e deve entrare in un rapporto effettivo e continuo con i viventi.
La macchina organizza informazioni, il pensiero produce relazioni e questo secondo Benasayag perché il pensiero è un’affezione corporea, mentre il cervello è un organo del corpo. Per sé dunque il cervello non pensa ma è un vettore indispensabile per il pensiero che «viene catturato in quanto ulteriore elemento di un substrato». In questo spazio vettoriale la macchina cosiddetta intelligente introduce un vettore molto potente che orienta l’intero processo.
Allora, la questione non è se la macchina è intelligente o meno, ma come la combinazione di cervello, paesaggio e macchina produce ed è catturata dal linguaggio. Ed è questa combinatoria, questo insieme di relazioni che determina di volta in volta le risposte all’ambiente.
Il riferimento di Benasayag alla biologia di Varela è che i corpi non percepiscono l’ambiente; succede invece che sulla base di stimoli ogni organismo produce immagini, produce un mondo. Negli animali è l’enazione, cioè la costruzione di immagini che non sono pensiero simbolico. C’è interpenetrazione, come hanno indicato Maturana e Varela con la teoria dell’autopoiesi secondo la quale i rapporti tra organismi e ambienti sono regolati dall’autonomia reciproca: l’ambiente stimola gli organismi all’autoproduzione, e ad avere reazioni, risposte e operazioni.
In secondo luogo, gli organismi non producono mondi in modo isolato: i rapporti tra organismi e ambiente sono di co-produzione. In un saggio precedente, La singolarità del vivente, Benasayag illustra questa correlazione. Ogni pensiero è situato tra corpi in interazione e non è un pensiero astratto.
Ora, un ambiente artificiale non è realizzato da una macchina intelligente ma dall’interazione tra l’organizzazione del vivente, della tecnologia e dello spazio in cui agisce. La macchina non pensa ma partecipa modificando in maniera potente un ambiente misto, cioè biologico, tecnico, culturale. Dove c’è singolarità del vivente c’è attrito, c’è interpenetrazione e c’è territorializzazione.
Deleuze ha pensato la singolarità riferendosi a Leibnitz e Varela riprende questa linea di pensiero. L’auto-affezione è una relazione molecolare in un sistema vivente che è un sistema complesso, non riducibile alla somma delle sue parti, cioè ad un’informazione. Ogni “parte” del sistema – e la molecola non è la parte semplice del corpo organico – è soggetta ad un doppio vincolo: il limite di ciascuna parte e il limite dell’organismo.
A differenza della Singolarità immaginata da Kurtzweil, che ha promosso il movimento transumanista, la singolarità si definisce con l’autoaffezione. I transumanisti interpretano l’avvenire come un sistema automatico di macchine deterritorializzato la cui potenza e velocità di calcolo porterà alla costruzione di altre macchine con l’eliminazione dei corpi viventi. Ma mentre la macchina è affetta in modo univoco – accumulo e funzionamento – secondo una logica di traduzione, il vivente mette in opera trasduzioni, cioè relazioni di attrito e di affezione. «I processi trasduttivi e gli stimoli che li costituiscono non sono assimilabili a un’informazione». La macchina non è intelligente perché è un supporto separabile, è hardware. Nella macchina vi è entropia positiva, si rompe un pezzo e lo si sostituisce. Nel vivente vi è entropia negativa, la cicatrice è la storia della ferita.
Chat GPT opera con una configurazione ottimale e non può operare sui limiti, non opera alla frontiera di parole, cose e azioni. La macchina può fare una poesia in base a una combinatoria ma non può sperimentare niente. Avere un’informazione e avere esperienza sono cose diverse. Il funzionamento di Chat GPT è di tipo statistico, mentre il polo semantico non è statistico ma storico ed esistenziale. D’altra parte la macchina colonizza il campo biologico e impoverisce la capacità di comprensione che è un affare corporeo. L’intelligenza della macchina coincide con il calcolo, cioè con una nozione che totalizza il concetto.
Alla razionalità è necessario opporre l’elogio della barbarie, l’importanza delle pulsioni e dei piaceri. Il vivente acquisisce un’esperienza dell’esistere non del funzionare. Il filosofo Gilbert Simondon, che ha dato senso al concetto di individuazione, ha dimostrato che una delle differenze tra l’automa e l’essere vivente è che mentre il vivente, una volta raggiunto il suo proprio limite in rapporto all’informazione esterna, salta di piano e converte la propria struttura in un’altra che integra l’informazione eccedente, – l’automa non cambia struttura, la sua struttura determina in precedenza il tipo di informazione che può acquisire.
Per Simondon il vivente opera auto-creazioni, salti di qualità, rotture di sistema e non semplice adattamento. Al mutare delle condizioni, domanda, valuta e seleziona l’ambiente in cui è immerso. Per dirlo con Deleuze e Guattari, vi sono macchine desideranti che sono tali nella composizione e nei concatenamenti di macchine organiche e artificiali; e ci sono macchine deterritorializzate imperiali, dispotiche, di controllo, che realizzano fasi di territorializzazione in conflitto o in alleanza con altri aggregati, altri corpi, altri organi. Da qui una condizione di resistenza che può nascere e svilupparsi a partire dalla presa d’atto della realtà ibrida in cui operano macchine e viventi.
Ciò che residua di questa realtà che possiamo chiamare post-umana e che contrasta con la condizione transumana di un Evento Singolare, è la soggettività. La soggettività non è l’individuo preformato, che non esiste, ma è l’insieme in divenire di contraddizioni, lotte, conflitti, negoziazioni.
Al contrario, la contaminazione del discorso amoroso con la lingua economicista è legata ad una razionalità strumentale che, oltre ad aver prodotto colonizzazione e devastazione, ha riprodotto la società degli individui divenuta realtà algoritmica.
Le app per appuntamenti, il calcolo degli incontri, “investire” in una relazione, sono definizioni funzionali che restituiscono il risultato di un’operazione non l’intensità di una relazione, non il suo attrito, la sua lotta e la sua gioia. Così, nel campo dell’educazione il triste linguaggio aziendalista prevede un soggetto formattato, normalizzato, un corpo docile come già Foucault aveva indicato. Come dice Pennisi, «la pedagogia delle competenze cattura le capacità…e presuppone che le possibilità di comprensione di coloro che studiano ai vari livelli, siano legate a coefficienti intellettuali, come una sorta di ginnastica decodificatrice». Bensayag aggiunge: «la macchina può persino bloccare la capacità di comprensione. La macchina tende a bloccare l’intuizione che è l’emergenza, a partire da una conoscenza…La macchina non fa ipotesi ma calcola; anche quando chiediamo a Chat GPT di elaborare un’ipotesi, in realtà si tratta di una ricombinazione».
I cervelli, a partire dall’esperienza corporea, fanno ipotesi, commettono errori, ritornano sui loro passi, ci riprovano. Citando il matematico Giuseppe Longo, autore di Matematica e senso. Per non divenire macchina, Benasayag indica nella storicità dell’intuizione il movimento di produzione del pensiero. Longo sostiene che la matematica è legata all’esperienza. La matematica è il prodotto di un attrito tra il pensiero simbolico e il mondo. I problemi matematici sono epocali nel senso che emergono nei momenti in cui si manifesta l’esigenza di pensarli. Chat GPT e le intelligenze generative non sono legate all’epoca.
In matematica e nell’arte c’è discontinuità, ci sono rotture tra cause ed effetti. «Non è il soggetto a creare o il cervello a secernere: anche l’ultima delle pietre o il condor partecipano all’emergere del flauto di Pan».
Il cervello azzarda delle previsioni mentre la macchina calcola in modalità discreta e trae risposte sulla base delle associazioni tra dati, ma non predice realmente. Anche il pensiero astratto è un punto di vista e «la macchina non ha un punto di vista, non prende posizione».
Per questo ogni lingua di contrasto alla realtà algoritmica, ogni presa di posizione ha da assumere questa governamentalità come luogo di comprensione e di conflitto, come luogo di lotta e di verità, altrimenti non c’è critica e non c’è trasformazione.

ChatGPT free

Secondo Pennisi e Benasayag un nuovo antagonismo avrebbe possibilità di circolare all’interno e intorno ad una serie di domande su:
1) nuove soggettivazioni ibride, miste di biologico, tecnico, culturale;
2) modi per disertare e destituire l’universale astratto in cui opera la macchina e assumere una situazione corporea e di presa di parola;
3) forme di rifiuto della delega di funzioni alla macchina e pensieri e percezioni del molteplice vivente;
4) modi per rivendicare un diritto che non riduce ambienti, viventi ed ecosistemi a persone giuridiche, ma che li comprende in un progetto giuridico-politico autonomo rispetto alla sua logica di funzionamento.
Renato Curcio nel saggio Intelligenze artificiali e Intelligenze sociali riprende molte questioni discusse da Pennisi e Benasayag. Per Curcio la sperimentazione collettiva della ricerca potrebbe essere l’elemento comprensivo di possibili alternative.
Nessuna informazione alternativa può modificare percezioni incarnate e ciò orienta la critica alla macchina “intelligente”. L’alternativa non può essere avviata dall’esterno, dalla distanza di una teoria che smonta il dispositivo generale della cibernetica, ma da una posizione di soglia in un attraversamento continuo tra interno ed esterno, tra corpi e macchine, tra lingue e dispositivi. C’è infatti una conflittualità propria delle relazioni organiche che la macchina ignora.
La “presa” sulla vita della cibernetica algoritmica mette in gioco direttamente le possibilità dei viventi nella prevedibile estinzione non di una sola specie ma delle possibilità organiche. E queste possibilità non riguardano solo la terra ma anche l’ambiente cosmico vivente secondo l’imperante visione dello spazio esterno alla terra, – da quando la terra si è cominciata a chiamare pianeta.
Questa visione dall’alto e da lontano della terra è una decostruzione, una scomposizione dell’organico in dati e informazioni, – oggi per raggiungere Marte e per costruire una fitta rete di dispositivi.
Si tratta di un funzionamento, non di una possibilità. Ed è un funzionamento legato alla guerra, alla violenza di un razzismo diffuso, ad una crudeltà di qualità superiore alimentata dal bisogno di sicurezza, un bisogno che è diventato una necessità percepita, prodotta e alimentata dalla quotidiana produzione di insicurezza da cui sono investiti corpi, parole e popolazioni. Le intelligenze artificiali generative che ottengono risposte senza seguire alcun ordine gerarchico hanno una superiore capacità di suggestione e di normalizzazione.
Una delle linee di suggestione e di induzione dei dispositivi digitali era stata sperimentata nel 1991. Kevin Warwich impiantava sottopelle un chip per comandare a distanza gli attrezzi digitali del suo laboratorio di cibernetica all’Università di Reading. La ricerca dell’interazione tra interfacce digitali e organismi trova attuazione nel 2015 quando i lavoratori di Epicenter, azienda di ricerca haig-tech di Stoccolma, vengono dotati di chip sottopelle con funzione di badge, carta di credito e codice d’accesso agli strumenti di lavoro.
Nel 2016 Elon Musk fonda Neuralink, un centro di ricerca sulle reti neurali e le nanotecnologie. Nel 2023 l’azienda ha sperimentato alcuni dispositivi su volontari dopo averli testati su animali. Su X, Musk ha annunciato che i ricercatori avevano impiantato «nel cervello di un volontario paralizzato un dispositivo, denominato Telepathy del diametro di circa due centimetri, col proposito di rimettere in comunicazione attraverso un’interfaccia artificiale una rete neurale con il sistema muscolare…Dai suoi ideatori e realizzatori Telepathy viene descritto come un microchip capace di…intercettare e trasformare in comandi informatici le “intenzioni di movimento” delle persone a cui viene impiantato».
Gli esperimenti aprono l’inedita questione del diritto alla “libertà cognitiva”, questione portata all’attenzione dalla ricercatrice Nita Farahany e da Rafael Yuste della NeuroRights Foundation, secondo il quale nei prossimi anni «sarà possibile decodificare il pensiero dall’attività neurale o migliorare la capacità cognitiva collegando il cervello direttamente alle reti digitali. Tali innovazioni potrebbero sfidare la nozione stessa di cosa significhi essere umani».
Curcio riporta anche l’esperimento di Alexander Huth e Jerry Tang, descritto da “Nature Neuroscience”. Con l’uso della risonanza magnetica funzionale i ricercatori «sono riusciti a ricostruire in modo piuttosto preciso i pensieri di un gruppo di volontari stimolati dalle conversazioni con un software di Intelligenza Artificiale (GPT-1). La rivista “Nature Human Behaviour” ha pubblicato uno studio di ricercatori del California Institute of Technology sulla decodifica del “linguaggio interiore” «vale a dire delle parole che pensiamo anche se non le pronunciamo».
Quest’anno (2025) Meta lancerà un dispositivo di elettromiografia che capta l’intuizione di muovere la mano o di muoverci attraverso uno schermo, «mentre Apple permetterà, con un’interfaccia cervello-computer attraverso le risposte pupillari, di muoverci su uno schermo in base alla nostra semplice intenzione». Apple si è affidata alla Synchron Switch, un’azienda di neurotecnologie che ha progettato un’interfaccia cervello-computer «per consentire alle persone di usare i propri pensieri per controllare un dispositivo digitale che…può essere impiantato nel cervello passando per il sistema venoso.».
Neuralink, Meta, OpenAI, Apple, conclude Curcio, non hanno solo in pugno il destino dell’intelligenza artificiale «ma sono anche promotrici delle idee transumaniste e sostenitrici del “potenziamento delle capacità umane”» attraverso l’integrazione simbiotica con le tecnologie-IA.
Nel 2015 Open AI nasce come creatura di Microsoft e come istituzione no-profit che ha nel suo statuto la «creazione di sistemi di Intelligenza Artificiale a beneficio dell’umanità». Nel 2021 avviene il salto della tecnologia digitale dal modello dei motori di ricerca e del blog all’oralità insita nel rapporto domanda-risposta. L’Intelligenza Artificiale non implica la scrittura e l’interfaccia non è organizzata secondo link gerarchizzati.
Nel novembre 2923 Sam Altman, fino a quel momento amministratore delegato di OpenAI, era stato destituito ma con il massiccio contributo anche economico di Microsoft era stato reintegrato. La Commissione Europea decideva di mettere sotto inchiesta l’ingente investimento di 13 miliardi di dollari con l’accusaa Microsoft di ingerenza aziendale con intenzione monopolistica. Anche La Federal Trade Commission conduceva un’inchiesta perchè OpenAI si serviva dei cloud di Microsoft; inoltre, Federal Trade Commission e Commissione UE erano interessate alla estesa partnership di OpenAI: Google, Amazon, Meta, Apple, Nvidia, tutte le grandi piattaforme erano riunite in una concentrazione di potere mai vista.
A contrastare lo strapotere di OpenAI, Elon Musk realizzava X-AI, orientata verso i potentati politici repubblicani e quindi solidale con Trump. Nel marzo 2024 Elon Musk fa causa ad OpenAI accusandola di aver tradito la mission originaria nel momento in cui il prototipo Chat GPT viene privatizzato.
Grock, la macchina AI di Musk diventa allora open source. Ma Musk è anche proprietario di Starlink, il sistema satellitare che con Trump presidente potrebbe essere esteso a tutti i continenti, di Starshield e Space X che acquisiscono informazioni e immagini del pianeta che Washington e il Pentagono considerano di interesse strategico.
A maggio 2024 otto giornali statunitensi hanno contestato a OpenAI di aver usato i loro articoli protetti da copyright per addestrare i modelli linguistici di Chat GPT. OpenAI ha dovuto sostenere anche un contenzioso con la Author Guild, relativo all’infrazione dei diritti d’autore per esseri appropriata di più di 100mila libri pubblicati. OpenAI ha ammesso di averlo fatto ma di aver poi cancellato i dati. Il contenzioso è stato risolto con un risarcimento. Sempre a maggio 2024 Musk ha annunciato su X di aver ricevuto un finanziamento di 6 miliardi di dollari da due venture capital californiane, Andreessen Horowitz e Sequoia Capital, per potenziare la ricerca di X-AI e portare sul mercato un prodotto in grado di competere con Chat GPT e Gemini di Google.
A giugno del 2024 Apple è entrato in OpeAI. L’inedita alleanza Apple-Microsoft consente a ChatGPT l’accesso ai nuovi iPhone tramite il motore di ricerca Siri. Apple implementerà comunque nuove funzionalità ritagliate sugli utenti con Apple Intelligence che si propone come AI on device con il chip Apple Silicon, versione che consentirebbe di apprendere dall’utente e adeguare le risposte ai suoi standard e alle sue abitudini. In pratica si tratta di uno spyware.
A Luglio 2024 Amazon ha finanziato Anthropic, l’azienda che produce l’AI Claude con 4 miliardi di dollari. Claude è una macchina per la comprensione del linguaggio naturale che si serve di Sonnet 3.5, il software usato da Alexa considerato più potente di GPT-4.
Il potere di influenza delle grandi piattaforme è tale da produrre politiche di morte che sono l’esito della presa sulla vita dell’evoluzione delle tecnologie di sorveglianza in sistemi di Intelligenza Artificiale.
In un recente articolo (gennaio 2025), postato da Franco “Bifo” Berardi sulla sua rubrica “Il Disertore”, Pino Nicolosi ricorda tre suicidi esemplari di tecnici informatici e ricostruisce l’ambiente di conflitto tra l’istanza di condivisione della conoscenza e dell’open source e il copyright, il furto di sapere e la manipolazione su larga scala dell’informazione attuata dai sistemi di intelligenza generativa.
Suschir Balaji, programmatore che aveva lavorato per 4 anni presso il centro di ricerca di Open AI, viene trovato morto nella sua abitazione a San Francisco nel novembre 2024. Dopo essersi licenziato aveva dato un’intervista al “New York Times” in cui denunciava la violazione da parte di ChatGPT del diritto d’autore di innumerevoli testi con cui la macchina si addestra: «Questi testi copiati vengono inizialmente “mescolati” a quelli sul medesimo argomento. Progressivamente, tuttavia, soprattutto grazie all’addestramento finale basato su rinforzo, effettuato da operatori umani, ChatGPT riesce a contenere il “rumore”, fornendo all’utente risposte approssimative ma, per l’essenziale, fondate sul contenuto originario dei testi che ha copiato.».
Per Balaji la legge che tutela il diritto d’autore non viene applicata quando ad effettuare violazioni sono le potentissime holding dell’IA. Suchir, scrive Nicolosi, aveva ottime ragioni per pensare che il furto sistematico di testi e informazioni tutelate da copyright avrebbero provocato l’estinzione del web.
Tuttavia questa considerazione entra in conflitto con l’idea della libera conoscenza, della condivisione di parole e immagini e dell’open source.
Queste istanze, che hanno animato l’etica hacker e le importanti conquiste del software libero nei primi anni Novanta, ci riportano al primo suicidio eccellente, quello di Ian Murdock.
Murdock è stato, insieme a Richard Stallman, animatore della Software Foundation, l’inventore della più famosa piattaforma di software libero, GNU/Linux, ed è stato colui che ha realizzato Debian, uno dei primi sistemi operativi open source, insieme alla compagna Debra. Nel 1995 Ian scrive il manifesto Debian in cui enuncia i principi e le possibilità di ideazione, circolazione, e implementazione del codice sorgente attraverso cui si sviluppano sistemi operativi e applicativi. «Lo scopo di Murdock era quello di creare una distribuzione non commerciale in grado di competere effettivamente sul libero mercato».
L’enorme successo dei sistemi GNU/Linux, insieme alla licenza “copyleft” ideata da Stallmann rappresentarono una vera minaccia per i magnati dei sistemi operativi proprietari. Steve Ballmer, braccio destro di Bill Gates, nel 2000 dichiarava che «Linux è un competitor agguerrito. Non c’è alcuna azienda che si chiama Linux, e a malapena Linux ha una road map. Eppure Linux sembra sprigionarsi naturalmente dalla Terra. E ha le caratteristiche del comunismo che alla gente piacciono moltissimo, cioè è gratuito. Per noi è un fronte di competizione vero».
Nicolosi ricorda che solo fino alla metà degli anni Novanta è stato possibile realizzare programmi informatici “aperti”, non proprietari e non orientati al profitto ma alla condivisione. «Era una scommessa difficile e non sorprende che, sul piano politico, sia stata persa, probabilmente in modo definitivo», benchè le distro Linux sono usate e apprezzate a fronte dell’appropriazione privata della rete.
Il secondo drammatico suicidio nel pantheon dell’informatica è stato quello di Aaron Shwartz nel gennaio 2013. Shwartz era stato condannato ad una multa di 1 milione di dollari e a 30 anni di carcere per aver scaricato da un server del MIT «un cospicuo quantitativo di documentazione scientifica sotto tutela che, presumibilmente, intendeva distribuire gratuitamente in rete».
Shwartz scrisse un Guerrilla Open Access Manifesto: «L’informazione è potere. Ma come con ogni tipo di potere, ci sono quelli che se ne vogliono impadronire. L’intero patrimonio scientifico e culturale, pubblicato nel corso dei secoli in libri e riviste, è sempre più digitalizzato e tenuto sotto chiave da una manciata di società private (…) Questo è un prezzo troppo alto da pagare. Forzare i ricercatori a pagare per leggere il lavoro dei loro colleghi? Scansionare intere biblioteche, ma consentire solo alla gente che lavora per Google di leggerne i libri? Fornire articoli scientifici alle università d’élite del Primo Mondo, ma non ai bambini del Sud del Mondo? Tutto ciò è oltraggioso ed inaccettabile.».
Scrive Nicolosi che forse la ragione della pena “esemplare” irrogata a Swartz è stata aver pubblicato il Manifesto; quella pena lo ha spinto al suicidio.
Oggi, benemerite fondazioni che diffondono testi e saperi, come Internet Archive, una delle più prestigiose e storiche istituzioni della rete, sono sotto processo per aver concesso ai cittadini, segregati durante l’emergenza pandemica, lo scaricamento di qualche centinaio di libri sotto copyright, mentre nessuno si sogna di mettere sotto accusa i proprietari delle piattaforme che fanno profitti vendendo conoscenza e infrangendo il copyright.
Ma come osserva Nicolosi c’è un altro aspetto dell’appropriazione di conoscenza che entra inevitabilmente in conflitto con il copyright. Il diritto d’autore infatti vale per un insieme di opere che in tal modo acquistano valore, mentre l’ingente produzione di sapere libero e condiviso, non essendo coperta da copyright viene ritenuta appropriabile senza alcuna limitazione. «Dal fatto che un lavoro sia pagato non deriva automaticamente che sia anche più produttivo ai fini di Chat GPT».
In realtà il furto di maggiore entità è quello dell’intelligenza collettiva, della produzione spontanea degli utenti, ed è un’appropriazione molto più estesa di quella operata su testi e immagini coperti dal diritto d’autore.
L’estensione mondiale dei sistemi di sorveglianza, monitoraggio e controllo istruiti con Intelligenza Artificiale dispone le politiche di morte nel planisfero ove le coordinate geografiche entrano in risonanza con le coordinate satellitari.
Nel 2021 Amazon e Google con il Progetto “Nimbus” hanno fornito servizi di cloud computing all’esercito israeliano. La NSO israeliana ha prodotto “Pegasus” che si intrufola negli smarthphone e negli iPhone e disabilita i sistemi di protezione per consegnare conversazioni private a istituzioni di sorveglianza di massa. Il software è in grado di inserire frammenti sonori e immagini prodotte con AI nella memoria dei devices costruendo così false prove.
A Gaza sono stati impiegati droni dotati di telecamere e armati con fucili di precisione che seguono bersagli mobili, li inquadrano e sparano e macchine in grado di selezionare obiettivi specifici e calcolare il quoziente di “danno collaterale” tollerabile, che abbattono interi edifici e quartieri. La capacità chirurgica e preventiva delle macchine di Intelligenza Artificiale propagandata come intelligente, è falsa.
I sistemi d’arma con AI sono Lavender, Gospel, Habsora.
Lavender è un sistema di raccolta e selezione del nemico. Raccolta mirata di informazione su militanti di Hamas, sulle loro relazioni e sul grado di importanza politica, tracciate sugli smarthphone personali tramite social, Instagram per la ricognizione facciale. Guy Rosen, Chief Information Security Office di Meta è un ex-operativo dell’esercito israeliano nella Unit 8200.
Gospel è un sistema che fornisce all’esercito obiettivi da colpire in un preciso momento, con bombardamenti incessanti e non chirurgici: postazioni, depositi, gallerie, università, scuole, ospedali.
I due dataset di Lavender e Gospel alimentano il sistema d’arma Habsora. La rivista on line “+972 Magazine” di Tel Aviv nel dicembre 2023 lo ha definito «un sistema di Intelligenza Artificiale che genera obiettivi in autonomia ad una grande velocità». Ha una banca dati di 30-40 mila militanti tutti considerati sospetti. Un algoritmo seleziona gli obiettivi militari e logistici da colpire, decide la qualità distruttiva dell’operazione bellica e i danni collaterali. Maggiore è la rilevanza dell’obiettivo, maggiore il numero di morti civili e la distruzione ambientale.
Tanto per rimanere in Europa, la rubrica di inchiesta di RAI3, “Report” nella puntata del 12 gennaio ci informa che le relazioni tra Israele e Unione Europea dopo il 7 ottobre sono sempre più strette. A Bruxelles sono 20 i gruppi di pressione pro-Israele. La European Coalition for Israel, una importante lobby che frequenta le istituzioni europee ha provveduto alla schedatura degli eurodeputati in base alla propria attività legislativa. Ad ognuno e ad ogni partito è stato dato un voto in base all’appoggio sulle questioni della cosiddetta “sicurezza” di Israele. David Cronin, giornalista, autore di The Israel Lobby and European Union sostiene che a Bruxelles le lobbies fanno di tutto per convincere che a Gaza non c’è genocidio.
Francesca Albanese, Relatrice Speciale ONU nei territori occupati ha dichiarato che Israele attraverso le sue ambasciate ha cominciato a terrorizzare chiunque organizzi incontri sulla situazione di guerra con persone sgradite, facendo forti pressioni affinchè venga loro impedito di parlare.
Industria e imprenditorialità sono gli interessi di queste lobbies. Nel 2000 l’import da Israele era di meno di 8 miliardi di Euro; nel 2011 è stato di 17,6 miliardi. Nel 2013 il programma europeo “Copernicus”, un sistema di monitoraggio satellitare europeo che ha applicazioni nella Difesa è stato adottato in un partenariato con Israele, con Finmeccanica che ha sottoscritto vari contratti. Nello stesso periodo L’Italia è diventato il primo partner di Israele con acquisti di armi per mezzo miliardo di euro. Tra 2014 e 2020 l’UE ha finanziato università e aziende israeliane che collaborano con le principali industrie di armi che sono testate in Palestina, per 1 miliardo e 280 milioni di euro attraverso il programma Orizon.
La Tecnon Univ di Tel Aviv che collabora con le principali industrie belliche, Elbit System e Israeli Aerospace Industries, è stata finanziata da Orizon per 17 milioni di euro per veicoli senza pilota usati per la demolizione delle abitazioni palestinesi.
Fino al 2020 le principali industrie belliche di Israele sono state finanziate dall’UE con 5 milioni di euro.
Quando nell’imbarazzo generale a Bruxelles Orizon è stato soggetto a regole più stringenti, Elbit System e Israeli Aerospace Industries hanno dichiarato di ottenere finanziamenti per scopi civili. Elbit progetta droni che volano attraverso la cenere vulcanica e Israel Aerospace realizza software per la logistica di porti e aeroporti, robot e droni. Ma il sistema ottico di cui sono dotati può essere istallato su droni killer e per la movimentazione di esplosivi.
L’agenzia Frontex ha largamente finanziato l’industria bellica israeliana. Ha finanziato Israeli Aerospace con 100 milioni di euro per droni di sorveglianza che rimpiazzassero le navi che controllavano i confini marittimi dell’Europa. Perché le navi possono salvare, i droni no e come ha dichiarato l’ex direttore di Frontex, Fabrice Leggeri ora eurodeputato del Rassemblement National di Marie LePen tutto è stato fatto per impedire alle ONG i salvamenti. Nel 2018 Frontex ha sperimentato il pattugliamento del mediterraneo con i droni di Elbit System, gli “Hermes 900”, usati in Palestina e altrove per sganciare missili.
In questa situazione storica gli apparati funzionano in un tempo terminale, in una soglia di compimento delle opere del capitale e dell’individuazione, in un tempo della fine dei mondi che la fenomenologia e le scienze umane annettevano alla vita distinta degli animali, dei boschi, delle rocce e degli umani.
L’interesse va dunque al conflitto contro l’identità profilata dei viventi e contro gli agenti dei processi di automazione, di autonomia e di ibridazione attraverso cui possono prodursi resistenze, blocchi, emergenze in cui «l’ibridazione lascia sussistere la possibilità di un agire a partire da un’interiorità che non è più il soggetto moderno, bensì un insieme –…– organico, multiagente…Non si tratta di rivendicare l’individuo in estinzione, né di un nuovo umanesimo, bensì di possibili che si pongono come antagonisti in quanto presuppongono effetti e direzioni diversi».
È quanto da tempo sostengono Donna Haraway e Rosi Braidotti. Haraway nel corso degli anni ha indicato in manufatti ibridi, il corpo cyber, le emergenze multispecie, la realtà pratica e artistica delle specie compagne e di una creatività ibridante, una forma di vita che assume il disastro dell’antropocene per giocare le molteplici possibilità di “vita chtulucene”, cioè di favole vitali, abitabili, confezionate ad hoc per gioiosi mutanti umani e non umani.
Rosi Braidotti, autrice femminista di una densa teoria dell’ibrido corporeo, vivente e situato, sostiene l’impegno per una proficua de-identificazione dei dispositivi di genere, razza e sapere che risultano dalla realtà di tecnocorpi in divenire.
Per Braidotti non si tratta di opporre ai deliri transumanisti, razzisti e suprematisti, corpi umani marcati da identità di genere, sessuali, culturali, da sempre catturati nel binarismo sessuale, sociale, relazionale. Si tratta invece di vivere un divenire molteplice, un nomadismo permanente che è proprio della materia vivente. Questa è la “svolta femminista” post-umana che inizia dall’interdipendenza e dalla collaborazione fra umani, animali, piante, terra e ambienti biogenetici. Questo divenire è produttivo perché realizza creazioni e co-creazione registrando la disfatta dell’anthropos e rovesciando i rapporti storici di soggezione.
In contrasto ad una ingenua e pericolosa ingegneria genetica che punta al miglioramento e all’aumento della materia biologica umana, Braidotti indica la corporeità ibrida di zoè, geo e tecno come quel contro-sapere di sé che è sociale, personale e generazionale, che contrasta la “naturalizzazione” tecnologica della vita.
Infine, l’emergenza di mondi indigeni e di corpi sessuati non omologati ai generi, – zoe-corpi, geo-corpi, tecno-corpi, produce un sapere dell’essere comune che vive della potenza di Eros. La posta in gioco è un processo di liberazione «del potenziale virtuale racchiuso in molteplici aspetti del passato. Queste potenzialità sono ancora presenti e…nella misura in cui non furono mai completamente realizzate, non sono né passate, né presenti, ma in costante divenire. Cioè persistono come elementi virtuali che vanno attualizzati qui e ora».
Si tratterebbe di far valere, all’interno degli apparati di cattura, diversi metodi e cartografie «per valutare accuratamente l’impatto multidimensionale della convergenza post-umana». Si tratterebbe di esercitare una critica archeologica dei fenomeni che si attraversano; il che implica una genealogia delle tecnologie che ne mostri l’incidenza di saperi-poteri, cioè di modi di governo estesi al di là del loro campo specifico di applicazione.
Il territorio attuale ridefinisce la soggettività come assemblaggio eterogeneo di componenti umane e non umane in un processo organico di mutazione. Il che significa, a dispetto della prassi corrente di individuazione e di identificazione a fini di profilazione, raggiungere una comprensione adeguata delle condizioni alle quali si è subordinati in rapporto all’essere comune. E considerare che queste condizioni alimentano le passioni tristi, genocide, distruttive, mentre la soggettività in divenire provoca e alimenta passioni gioiose.
C’è bisogno di una pratica collettiva basata sull’intelligenza sociale. Come scrive Curcio, la vita di relazione demolisce i muri, integra, riduce la fatica del lavoro, migliora le condizioni sanitarie, bandisce le guerre, contrasta le disuguaglianze; è un sapere che è percezione, sensazione, incarnazione, cioè intelligenza della materia vivente che resiste alla distruzione e accende la viva intimità degli estranei.

Bibliografia

Miguel Benasayag-Ariel Pennisi, Chat GPT non pensa (e il cervello neppure), Jaca Book, Santarcangelo di Romagna 2024.

Franco “Bifo” Berardi, L’accelerazionismo in questione dal punto di vista del corpo, in Gli algoritmi del capitale, Ombre Corte, Verona 2014.

F. “Bifo” Berardi, Disertate, Timeo, Roma 2023.

Rosi Braidotti, Il postumano vol. III. Femminismo, DeriveApprodi, Bologna 2024.

Manuel Castells, La nascita della società in rete, Università Bocconi Editore, Milano (1996)-2002.

Niccolò Cintoli – Valerio Diotallevi, Crypto. Manuale introduttivo, Edizioni Efesto, Roma 2023.

Renato Curcio, Identità Cibernetiche. Dissociazione indotta, contesti obbliganti e comandi furtivi, Sensibili alle Foglie, Roma 2020

Renato Curcio, Intelligenze Artificiali e Intelligenze Sociali, sensibili alle foglie, Roma 2024.

Derrick de Kerkove – Francesco Monico, L’algoritmo e la fine del pubblico. Eco-chamber, neo totemismo ed etica della funzione, (download pdf), «che_Fare», 29 giugno 2022, https://che-fare.com/almanacco/politiche/comunita/pubblico-algortimo-eco-chamber-totemismo/

DUST, “Slaughterbots” (Shi-Fi short film), https://www.youtube.com/watch?v=O-2tpwW0kmU

Carlo Formenti, Mercanti di futuro. Utopia e crisi della Net Economy, Einaudi, Torino 2002.

C. Formenti, Incantati dalla rete. Immaginari, utopie e conflitti nell’epoca di Internet, Raffaello Cortina editore, Milano 2000.

Donna Haraway, Chtuluchene. Sopravvivere su un pianeta infetto, trad.it. produzioni Nero, Roma 2019.

Kai-Fu Lee – Chen Qiufan, AI 2041. Scenari dal futuro dell’Intelligenza Artificiale, LUISS, Roma (2021)-2023.

Humberto Maturana – Francisco Varela, Autopoiesi e cognizione. La realizzazione del vivente, trad.it. Marsilio editore, Padova 1985.

H. Maturana – F. Varela, Macchine ed esseri viventi. L’autopoiesi e l’organizzazione biologica, trad.it. casa editrice Astrolabio, Roma 1992.

Melanie Mitchell, L’intelligenza Artificiale. Una guida per esseri umani pensanti, Einaudi, Torino 2022

Pino Nicolosi, Suicidi eccellenti nella Silicon Valley, “Il Disertore”, 17 gennaio 2025.
https://francoberardi.substack.com/p/suicidi-eccellenti-nella-silicon

Chen Qiufan, Marea Tossica, Urania Mondadori, Milano (2013)-2023

“Report” – RAI3, 12/01/2025

Jeremy Rifkin, L’età della resilienza. Ripensare l’esistenza su una terra che si rinaturalizza, Mondadori, Milano 2022.

Tiziana Terranova, Dopo Internet. Le reti digitali tra capitale e comune, Nero edizioni, Roma 2024.

Tiqqun, L’ipotesi cibernetica, (2001)-2012 a cura di Guido Battisti, Maldoror Press, https://maldoror.noblogs.org/files/2012/09/TIQQUN-IpotesiCibernetica.pdf

Shoshana Zuboff, Il capitalismo della sorveglianza. il futuro dell’umanità nell’era dei nuovi poteri, LUISS, Roma (2019)-2023.

Articoli simili

Un commento

  1. Pingback: hello world

I commenti sono chiusi.