COS’È IL TESCREALismo, PERCHÉ COMBATTERLO di Davide Z. Morris *
TESCREAL (acronimo che sta per Transumanesimo, Estrofianismo, Singolaritarismo, Cosmismo, Razionalismo, Altruismo Efficace e Longtermismo) è un neologismo coniato dal filosofo Émile Torres e dall’informatica Timnit Gebru. Si tratta dell’ideologia che va per la maggiore nei circoli e tra la teste d’uovo della Silicon Valley.
«Un nuovo articolo di Timnit Gebru ed Émile P. Torres traccia gli stretti legami tra transumanesimo, altruismo efficace, longtermismo e altre ideologie cripto-autoritarie.
Due sono state le persone che hanno plasmato il mio pensiero sulla filosofia di Sam Bankman-Fried. [1] Il primo è l’investitore Nic Carter, la cui condanna dell’Altruismo Efficace come conseguenza dell’abominio morale che è il “consequenzialismo” è stata per me chiarificatrice. Tutto deriva da una violazione dell’imperativo kantiano/cristiano contro la strumentalizzazione degli esseri umani. Il secondo è il filosofo Emile P. Torres, che, insieme alla ricercatrice Google licenziata in modo punitivo Timnit Gebru, ha coniato l’acronimo TESCREAL per descrivere le connessioni tra EA[2], transumanesimo e i “catastrofisti” dell’intelligenza artificiale come l’imbarazzante Eliezer Yudkowsky .
“TESCREAL” è un acronimo che sta per Transumanesimo, Estrofianismo, Singolaritarsmo, Cosmismo, Razionalismo, Altruismo Efficace e Longtermismo. Torres e Gebru sostengono che queste ideologie sono profondamente radicate nel movimento eugenetico, in particolare nei suoi tentativi di definire “intelligenza” strumentalmente, e che le implicazioni di TESCREAL sono prevedibilmente autoritarie.
I due hanno tracciato pubblicamente queste connessioni mentre lavoravano a una presentazione più solida, e il documento completo è stato finalmente pubblicato il mese scorso, sulla rivista First Monday . Il documento è una mappa inestimabile del groviglio di ideologie che si estendono e si allineano anche al determinismo di Barbara Fried, e aiutano ad articolare ulteriormente perché la truffa FTX riguardava molto più delle azioni criminali di un solo uomo.
Invece, il crollo dell’FTX — e la sua successiva, continua copertura retorica da parte di agenti d’élite — mostrano cosa succede quando certe ideologie corrotte e corruttrici — soprattutto, l’ethos tecno-autoritario mascherato noto come “longtermism” — trovano terreno fertile nei cervelli e negli spiriti di sociopatici privilegiati . Bankman-Fried era in grado di derubare migliaia di persone, e lo ha fatto non solo con il sostegno ideologico del longtermism per razionalizzare le sue azioni, ma con il supporto istituzionale e sociale dell’Altruismo Efficace , le cui varie branche erano state selvaggiamente arricchite da fondi rubati convogliati verso di loro come “donazioni di beneficenza” da SBF.
Le dichiarazioni del giudice Lewis Kaplan alla sentenza della SBF hanno riassunto in modo eccellente il rischio più ampio in questione: se Sam non fosse stato punito, le persone “disposte a lanciare una moneta sulla continuazione dell’esistenza della vita e della civiltà sulla Terra” avrebbero potuto acquisire influenza nella nostra società e mettere a repentaglio tutte le nostre vite.
Ma ciò che Torres e Gebru espongono in modo più scioccante nel loro articolo è che questo è esattamente ciò che sta accadendo in questo momento, sotto forma del discorso (sostanzialmente finanziato da Peter Thiel ) sull’intelligenza artificiale e il suo “rischio esistenziale” per l’umanità. La ricerca gemella (e ugualmente allucinatoria) di “intelligenza artificiale generale” [AGI], e il tormento per le conseguenze dell’AGI, sono una scommessa a lungo termine fatta con trilioni di dollari di capitale di investimento, radunati da una retorica ingannevole e basati su comprensioni profondamente imperfette della tecnologia e della società.
Per dirla in modo meno oscuro, la visione TESCREAL dell’intelligenza artificiale ha assorbito una grossa fetta di denaro ed energia da alcune delle persone più talentuose e motivate in vita oggi, e ci sono buone probabilità che si tratti di un vicolo cieco che arranca ancora per qualche anno prima che l’AGI si allontani di un altro mezzo secolo all’orizzonte.
Questa realtà attuale ha due facce. Gebru e Torres sostengono che la spinta a creare “intelligenza artificiale generale [AGI]” sta portando direttamente a prodotti pericolosamente “senza scopo” come gli LLM [Modelli Linguistici di Grandi Dimensioni], che sono progettati quasi interamente con un occhio alla ricerca di AGI. Ciò significa (in un punto che rimane implicito nel loro articolo) che la ricerca pseudo-religiosa di AGI ha soppiantato applicazioni e perfezionamenti reali e utili di strumenti avanzati di elaborazione dati. La ricerca sulla AGI, e a sua volta sulla essenzialmente religiosa “singolarità” di Ray Kurzweil, è il motivo per cui oggi abbiamo chatbot allucinanti, invece di assistenti personali funzionali o algoritmi di screening automatizzati per il cancro diffusi.
Altrettanto importante e ancora più esplicitamente, il mito dell’AGI è il motivo per cui gli sforzi basati sulla realtà per rendere gli algoritmi di intelligenza artificiale esistenti sicuri per gli esseri umani attualmente viventi hanno quasi zero interesse tra i più accaniti sostenitori della “sicurezza dell’intelligenza artificiale”. Proprio nello stesso modo in cui Sam Bankman-Fried rubava i fondi dei clienti per fare scommesse a lungo termine , gli attuali leader dell’intelligenza artificiale stanno attivamente e vocalmente respingendo gli attuali rischi materiali degli algoritmi di apprendimento automatico e concentrandosi invece su un futuro a lungo termine che prevedono con sicurezza senza un briciolo di prova effettiva. (Sono due le assunzioni infondate della fantasia catastrofista: l’intelligenza artificiale diventerà auto-migliorante e padroneggerà facilmente la nanotecnologia .)
Questa palese dimostrazione di follia potrebbe essere la ragione più profonda per cui l’industria tecnologica ha dovuto espellere Timnit Gebru. La visione dell’IA condivisa da persone come Sam Altman deriva sostanzialmente dalla fantascienza come Terminator di James Cameron, e risale fino a RUR di Karel Capek , che sta all’origine della parola “robot”. L’opera teatrale di Capek del 1923 precedeva di gran lunga qualsiasi cosa come l’IA, rendendo chiaro che il “robot” intenzionale, umanoide e pensante è sempre stato principalmente una metafora della dialettica molto più complessa attraverso cui la tecnologia creata dall’uomo diventa una minaccia per l’essenza umana.
I Singolaristi hanno commesso l’errore infantile di fraintendere queste storie semplificate da libro di fiabe con la complessità della realtà e finché Gebru e il suo gruppo rimarranno impegnati a descrivere come funziona realmente la tecnologia, la fantasia collettiva di un’IA superintelligente ma incredibilmente pericolosa sarà minacciata.
In effetti, il collegamento tra Singolaritarismo escatologico e Altruismo Efficace non è semplicemente un parallelo filosofico: SBF ha rubato un sacco di soldi e li ha consegnati ad Anthropic, la startup di intelligenza artificiale legata all’Altruismo efficace, la quale, qualunque siano le sue origini, è stata materialmente e ideologicamente dirottata da quella che equivale a una cospirazione di élite tecnologiche per sovvertire i mercati dei capitali al servizio di quella che è, in sostanza, una setta di estrema destra in abiti scientifici.
Timnit Gebru, licenziata per aver affermato la verità
La co-paternità del paper TESCREAL Bundle da parte di Timnit Gebru è degna di nota perché è già stata vittima di questa setta e dei suoi deliri. La storia mi sembra recente (ne ho scritto un po’ per Fortune, credo) ma vale la pena ripeterla, non da ultimo perché è uno di quegli eccellenti casi che prendono in giro i teorici della cospirazione mostrando una disciplina ideologica e politica che opera alla luce del sole.
Gebru è altamente e tradizionalmente qualificata, con anni di esperienza in ingegneria elettrica per Apple e un dottorato di ricerca a Stanford incentrato sulla visione artificiale (tutto molto diverso, non posso resistere a dirlo, da Yudkowsky). Ma alla fine del 2020, Gebru è stata licenziata dal suo ruolo di ricercatrice di etica dell’IA presso Google per come hanno sostenuto in modo convincente i critici, aver condotto ricerche sui pregiudizi dell’IA che minacciavano di minare la concezione fantastica che la Silicon Valley vuole promuovere.
Gebru è anche una rifugiata della guerra civile etiope/eritrea, i cui successi di fronte alle avversità non possono che renderla ancora più oggetto di risentimento per alcuni uomini bianchi dolorosamente nella media. Gebru ha pubblicato una ricerca importante e di impatto che mostra che il software di riconoscimento facciale AI ha avuto difficoltà a riconoscere i volti non bianchi. Una delle principali linee guida della sua ricerca è stata quella di evidenziare i modi in cui i set di dati determinano fortemente il comportamento dei modelli AI e, in particolare, come il pregiudizio razziale e identitario insito nella comunicazione e nella cultura umana esistente riproduca tale pregiudizio nei modelli AI, o addirittura lo acuisca a causa della mancanza di controlli umani.
Si tratta di un’estensione fondamentalmente semplice del truismo “garbage in, garbage out” [3] che si applica a tutti i sistemi di elaborazione dati. Ma il suo argomento era e rimane una minaccia per l’industria tecnologica, perché non esiste una seria soluzione tecnologica per questo, almeno non una che “scala” nel modo in cui le economie tecnologiche richiedono. Il documento che ha fatto licenziare Gebru è riassunto qui su MIT Tech Review .
Più sottilmente, la posizione di Gebru è una minaccia alla religiosità degradata che è stata riconfezionata nella tesi della “singolarità” di Ray Kurzweil. Questa è la tesi secondo cui un giorno l’intelligenza artificiale raggiungerà la superintelligenza e, in sintesi, risolverà tutti i problemi dell’umanità. Questa, come sottolineano Gebru e Torres nel nuovo articolo, è essenzialmente un’escatologia, o una teoria della fine del mondo, che si adatta perfettamente al Rapimento cristiano [4]. Lo stesso Kurzweil sembra aver sempre più riconosciuto ciò che era sempre stato implicito nell’idea. Il singolaritarismo è persino arrivato a includere, attraverso l’assurda tesi del “Basilisco di Roko” , l’idea che agli oppositori dell’infinito potere redentore dell’IA (alias non credenti) verrà negato l’accesso al paradiso in arrivo sulla Terra reso possibile dall’IA.
La ricerca di Gebru è invece focalizzata su come funzionano realmente l’apprendimento automatico, i grandi modelli linguistici e le altre forme di “intelligenza” delle macchine esistenti. La conclusione più importante del lavoro di Gebru, e in particolare di questo articolo con Torres, è che la minaccia più grande sia per gli ideologi di TESCREAL, sia per gli hype-men del capitale di rischio che li stanno abilitando, è quella di concentrarsi sulla realtà attuale dell’IA invece che sulle bizzarre fantasie dei TESCREAListe a riguardo.
Persone come Sam Altman ed Elon Musk preferirebbero parlare della loro futura ascensione alla (sostanzialmente) divinità, predetta con sicurezza, piuttosto che di banalità come la provenienza dei loro dati di addestramento . La loro strana definizione della “sicurezza” dell’IA in parte consente loro semplicemente di etichettare alcuni dei loro sforzi come “caritatevoli” in vari modi (inclusa la strana struttura iniziale di OpenAI). Questo, scrivono Torres e Gebru, ha trasformato la ricerca AGI da un’area di ricerca di basso profilo in “un’impresa multimiliardaria finanziata da potenti miliardari e importanti aziende”.
Inquadrare l’IA come un mito escatologico non solo aiuta a tenere in movimento il treno del denaro, ma anche, come vedremo di seguito, consente ai suoi sostenitori di ignorare qualsiasi danno attuale a favore di un focus sul futuro. I catastrofisti dell’IA stanno al capitale di rischio tecnologico come gli Altruisti Efficaci stavano al FTX.
Entrambi i gruppi sfruttano la paura per rubare il futuro.
AGI, transumanesimo ed eugenetica
Gebru e Torres sostengono su più fronti che il TESCREALismo discende materialmente, porta ancora con sé artefatti e potrebbe persino essere una continuazione clandestina del movimento eugenetico [5 ]che all’inizio del XX secolo cercò una base “scientifica” per varie sfumature di genocidio. La coppia ha contribuito a far emergere dichiarazioni infiammatorie di Nick Bostrom che probabilmente hanno contribuito a far revocare i finanziamenti al suo istituto a Oxford, ma più sostanziale è la questione di come definire l’intelligenza.
Definire l’intelligenza diventa davvero importante quando si cerca di costruirla! E in particolare quando si dedicano esplicitamente risorse a una macchina che si dice sarà più intelligente di qualsiasi membro della propria specie, tanto che Kurzweil si riferisce al mondo dopo la Singolarità come “Utopia” e David Pearce dice che promette “la completa abolizione della sofferenza” negli esseri umani.
Ma uno dei veri e propri indizi dell’intera spinta per l'”Intelligenza Artificiale Generale”, o AGI, è che persino i suoi sostenitori non riescono a definire cosa stanno cercando di costruire. Non è per sminuire la loro ignoranza: nessuno ha davvero una solida comprensione di come funzionano il cervello/la mente umana, ed è esattamente questo il punto. I tipi veramente curiosi e propriamente umili forse prenderebbero un po’ più seriamente la risposta a queste domande.
Ma questo non fermò gli eugenetisti, che furono pionieri e continuarono a sostenere idee strumentalizzanti di “intelligenza” umana come quella del “quoziente di intelligenza” (QI) misurabile. Il QI continuò a svolgere un ruolo da protagonista nel razzismo scientifico per decenni, incluso nell’articolo di propaganda razzista di Charles Murray The Bell Curve, che Gebru e Torres trovano sia stato difeso e citato nel lavoro dei TESCREALists. Questo perché l’incoronazione di questo “sistema” era, come tante odi alla razionalità e alla scienza, poco più che l’incoronazione e la formalizzazione di pregiudizi esistenti. Molti sono casi del genere.
In effetti, una delle cose più scioccanti evidenziate nel documento di Gebru e Torres è che il Centre for Effective Altruism aveva testato l’assegnazione alle persone di un parametro chiamato “Potenziale valore strumentale atteso a lungo termine”, un parametro basato in parte sull’IQ [Quoziente d’Intellettivo] dei membri.
In altre parole, l’Altruismo Efficace ha almeno istituzionalmente sfiorato l’idea di classificare i cervelli umani come tagli di carne, utilizzando una metrica che ha una profonda eredità nel razzismo istituzionalizzato e scientifico.
Torres e Gebru dimostrano che questa incapacità di definire l’intelligenza, mentre si crede con fervore religioso che bisogna crearla, è il crimine distruttivo principale dell’attuale spinta all’intelligenza artificiale.
“Le ideologie TESCREAliste guidano la corsa all’intelligenza artificiale”, scrivono — e come retorica religiosa piuttosto che scientifica, queste idee creano una formula perfetta per frodi e imbrogli.
È così che si finisce per far credere alla gente che i chatbot siano coscienti, quando in realtà vengono ingannati da un Mechanical Turk del XXI secolo , o forse da Madame Blavatsky . È così che si finisce per far sì che il talento nello sviluppo e i dibattiti etici siano ugualmente spostati da cose che sono reali e che contano davvero.
Il cancro intellettuale del lungotermine
L’altro vettore di collegamento qui è tra eugenetica e IA come strumenti per il miglioramento scientifico umano. I movimenti estropianista, transumanista, singolaritarista e cosmista sono tutti focalizzati sulla massimizzazione del potenziale dell’umanità e sull’espansione fisica verso l’esterno attraverso l’universo. Ci sono collegamenti diretti qui attraverso nientemeno che lo sfortunato Bostrom, che ha co-fondato la WTA-World Transhumanist Organization [6]. Ma devo dire che trovo questo il segmento meno sviluppato del lavoro di Gebru e Torres: le risonanze qui sembrano almeno inesplorate e forse forzate.
Il progresso e l’immaginazione del progresso sembrano, dopotutto, abbastanza innati nell’animale umano. Ciò che penso possa mancare nell’articolazione è una discussione sulle concezioni del tempo, sulla pianificazione autocosciente e sulla proiezione. Gli estropisti e i singolaritaristi, ora incarnati negativamente nell’IA Doomer [catastrofisti dell’Intelligenza Artificiale], vogliono che il futuro lontano sia in primo piano e al centro dell’attenzione e ci incoraggiano a comportarci come se potessimo pianificare e allocare con precisione le risorse verso quel futuro lontano, una mentalità generale promossa come longtermismo [“a lungo termine”].
Il longtermismo in pratica si basa sulla presunzione che possiamo prevedere il futuro a lungo termine e l’impatto a lungo termine delle nostre azioni. Ciò comporta due cose: l’universo prevedibile e razionalista di cui ho parlato in relazione al lavoro di Barbara Fried e la strumentalizzazione degli esseri umani viventi per il raggiungimento di obiettivi a lungo termine.
Gebru e Torres citano del materiale davvero scioccante su questo fronte, tra cui un articolo scritto insieme a Will MacAskill che sostiene che “ai fini della valutazione delle azioni, possiamo spesso ignorare semplicemente tutti gli effetti contenuti nei primi 100 (o anche 1.000) anni, concentrandoci principalmente sugli effetti futuri più lontani. Gli effetti a breve termine agiscono come poco più che spareggi [tie-breaker]”.
Ma ancora peggiore è l’affermazione secondo cui, nella ricerca per costruire un’Intelligenza Artificiale Generale, anche “‘un gigantesco massacro per l’uomo’ potrebbe non rappresentare altro che un ‘piccolo passo falso per l’umanità’, fintanto che i danni rilevanti non mettono a repentaglio il nostro futuro ‘vasto e glorioso’ tra le stelle”.
L’autore di questo sentimento pro-massacro è, come prevedibile, Nick Bostrom .
Sto sorvolando o omettendo vaste porzioni del lavoro di Gebru e Torres, ma questo mi sembra un punto giusto in cui fermarmi: la ricerca dell’intelligenza artificiale, usata per razionalizzare l’aggiramento della moralità convenzionale alla ricerca di un glorioso futuro lontano. Questo era il modus operandi di Sam Bankman-Fried, su scala più piccola e funzionale, di gestione di una truffa gigantesca.
Trasposto in un’intera ideologia, sembra ovvio che il TESCREALismo e il suo privilegio morale del futuro siano un ritorno alla camera a gas, all’arma nucleare tattica, ai bombardamenti a tappeto e ai campi di sterminio.
Anche se, nel breve termine, si accontenteranno di derubarti alla cieca».
* FONTE: DAVIDZMORRIS
NOTE
[1] Il fondatore di Ftx, società per lo scambio di criptovaluta, un tempo l’under 30 più ricco del mondo, è stato condannato a 25 anni di carcere per frode e associazione a delinquere.
[2] EA (Expert Advisor), è un programma software o uno script che opera in modo più o meno autonomo all’interno della piattaforma MetaTrader (qui MetaTrader 4*). Un EA, noto anche come robot di trading, può prendere ed eseguire decisioni di trading per conto del trader sulla base di regole e parametri predefiniti.
[3] Garbage in, garbage out (lett. “spazzatura dentro, spazzatura fuori”, GIGO in forma abbreviata; anche rubbish in, rubbish out) è una frase utilizzata nel campo dell’informatica e della tecnologia dell’informazione e della comunicazione.
[4] Il Vangelo non usa esplicitamente la parola “Rapimento”, ma ci sono diversi passaggi che suggeriscono l’idea che i credenti vengano portati in cielo prima della fine dei tempi. Un versetto chiave è 1 Tessalonicesi 4:16-17, che dice: “Perché il Signore stesso scenderà dal cielo con un grido di comando, con la voce di un arcangelo e con il suono della tromba di Dio. E i morti in Cristo risorgeranno per primi. Poi noi che siamo vivi, che siamo rimasti, saremo presi insieme a loro nelle nuvole per incontrare il Signore nell’aria, e così saremo sempre con il Signore”. Un altro passo significativo è Matteo 24:40-41, dove Gesù dice: “Allora due uomini saranno nel campo; uno sarà preso e l’altro lasciato. Due donne staranno macinando al mulino; una sarà presa e l’altra lasciata”. Questo versetto suggerisce una separazione tra credenti e non credenti durante i tempi della fine.
[5] L’eugenetica si prefigge di favorire e sviluppare le qualità innate di una razza, giovandosi delle leggi dell’ereditarietà genetica. termine fu coniato nel 1883 da F. Galton. Sostenuta da correnti di ispirazione darwinistica e malthusiana, l’eugenetica si diffuse inizialmente nei paesi anglosassoni, anzitutto negli USA e successivamente nella Germania nazista, trasformandosi nella prima metà del 20° sec. in un movimento politico-sociale volto a promuovere la riproduzione dei soggetti “socialmente desiderabili” (e. positiva) e a prevenire la nascita di “soggetti indesiderabili” (e. negativa) per mezzo di infanticidio e aborto.
[6] Il filosofo transumanista David Pearce fondò la World Transhumanist Association (WTA), un’organizzazione internazionale che promuoveva il transumanesimo come una seria disciplina accademica. Nel 2008 la WTA cambiò il suo nome in Humanity+.
Mettete per favore pure qui tutti i video di Moreno sull’Umbria che corcolano in rete???