di GIOVANNI BIRINDELLI
In una recente intervista1, Geoffrey Hinton (che Elon Musk descrive come “una delle persone più intelligenti del pianeta nel campo dell’intelligenza artificiale”) sostiene due cose.
- La prima, è che l’intelligenza artificiale è un pericolo esistenziale per il genere umano, nel senso che in un futuro non lontano essa potrebbe prendere il sopravvento sull’uomo (scenario Matrix);
- La seconda è che, a suo parere, l’unico modo di rallentare questo scenario (che quindi appare essere inevitabile) è ricorrere a una “stretta regolamentazione statale”.
Preliminarmente, vorrei far notare che la prima affermazione è quella di un esperto, mentre la seconda è quella di una persona qualunque. Infatti, mentre Hinton è sicuramente un esperto nel campo dell’IA, egli non è affatto un esperto nel campo delle scienze sociali. Al di là del fatto che, di fronte al metodo scientifico (a cui può ricorrere chiunque) non c’è ‘esperto’ che regge, questo fatto è importante. Di fronte a un problema specifico che non riguarda direttamente le scienze sociali (poniamo un nuovo virus, o l’intelligenza artificiale) la tentazione di ‘affidarsi agli esperti’ di quel campo specifico per regolamentare la vita sociale ed economica (e la tentazione da parte degli esperti di quel campo specifico di dare consigli nel campo delle scienze sociali, nel quale non sono esperti) è molto forte. E’ molto forte specialmente fra coloro che, dimostrando la loro assenza di familiarità con la metodologia stessa delle scienze sociali, vedono la società come una grande organizzazione e invece che come un ordine spontaneo. Le recenti dittature sanitarie, tuttavia, hanno mostrato a coloro che ne avevano ancora bisogno che è importante non cedere a questa tentazione.
Riguardo alla prima affermazione, non sono un esperto di intelligenza artificiale quindi non ho elementi per valutarla. L’unica cosa che posso dire è che mi sembra che abbia senso. Secondo Hinton, la condizione necessaria e sufficiente perché l’IA prenda il sopravvento sull’uomo è il raggiungimento della superintelligenza, cioè di un’intelligenza artificiale maggiore di quella umana: “quanti esempi mi puoi fare in cui una cosa più intelligente è controllata da una meno intelligente?”. A suo parere, c’è una probabilità del 50% che la superintelligenza sia raggiunta entro i prossimi 20 anni.
In quanto segue, darò per buona questa prima affermazione.
La seconda affermazione, invece, mostra una tanto notevole quanto comune incompetenza nel campo delle scienze sociali. Preso per buono il fatto che l’IA costituisca un pericolo esistenziale per il genere umano e che c’è il 50% di probabilità che la condizione necessaria e sufficiente per il concretizzarsi di questo pericolo (il raggiungimento della superintelligenza) si realizzi entro i prossimi 20 anni, il ricorso alla regolamentazione statale non farebbe che accelerare questo scenario, renderlo più probabile e più devastante nel caso in cui si concretizzasse.
La ragione di fondo è che la regolamentazione statale implica per definizione una struttura centralizzata: tanto maggiore ed efficace la regolamentazione, tanto maggiore deve essere la centralizzazione. Tuttavia, una struttura sociale centralizzata rende esponenzialmente più facile la presa di controllo dell’intera società da parte di un avversario. Questo infatti si trova il lavoro già fatto: deve solo prendere il controllo della stanza dei bottoni, il resto viene da sé.
Per visualizzare questo fatto, basta comparare un semaforo (struttura centralizzata) a una rotatoria (struttura decentralizzata). Se un avversario volesse governare l’intero traffico in funzione dei suoi fini (come nel caso del film The Italian Job) non solo potrebbe farlo ma, se è abbastanza intelligente e ha abbastanza dati, potrebbe farlo molto facilmente: gli basterebbe entrare da remoto nella stanza dei bottoni. Viceversa, se il traffico fosse regolato da rotatorie invece che da semafori (quindi senza stanza dei bottoni ma sulla base di regole generali e azioni basate su chi si trova lì in quel momento) un avversario troverebbe infinitamente più difficile, se non impossibile, controllarlo.
Un altro esempio riguarda le Central Bank Digital Currencies (CBDC: il denaro digitale e programmabile delle banche centrali) e il denaro contante (o meglio ancora Bitcoin). Se gli stati imponessero che tutte le transazioni debbano essere fatte mediante CBDC, per un avversario (poniamo un nuovo tiranno, oppure l’IA) controllare tutti gli scambi economici e piegare in questo modo l’intera vita sociale ai propri fini sarebbe banale. Viceversa, se le transazioni fossero fatte in denaro contante (o, infinitamente meglio, con bitcoin), il controllo delle singole transazioni sarebbe estremamente più difficile se non impossibile.
Nel suo The Road to Serfdom2, Hayek ricorda che l’avvento al potere di Hitler fu enormemente facilitato dalla straordinaria centralizzazione della vita economica e sociale tedesca che era già presente.
Di esempi possono esserne fatti infiniti. In un sistema basato sul positivismo giuridico (dove le regole coercitive aventi valore legale sono quelle decise arbitrariamente da un’autorità, democratica o meno che sia), praticamente qualsiasi regolamentazione costituisce un esempio del fatto che la centralizzazione prepara il lavoro a un avversario che volesse prendere il controllo dell’intera società.
Intendiamoci: le società contemporanee sono già state catturate (da quel dì) da quell’avversario: il potere politico. Lo scenario che paventa Hinton sarebbe un salto di qualità immenso di questa cattura. Tuttavia, le misure che suggerisce Hinton non solo “non sono un gran ché”, come lui stesso riconosce, ma vanno nella direzione opposta a quella da lui desiderata. Non è aumentando il potere e l’intervento dello stato che si risolve il problema della cattura sistemica, ma eliminandolo: sostituendo le migliaia di strutture centralizzate prodotte dal positivismo giuridico e dalla regolamentazione centralizzata (dalle CBDC alle banche dati statali, dalla sorveglianza alla proprietà delle strade, dalla regolamentazione del lavoro al welfare, dai tribunali statali alla polizia, ecc.) col libero scambio.
L’assenza di regolamentazione non solo non vuol dire assenza di regole, ma il suo esatto contrario: la sostituzione di regole coercitive arbitrarie con regole coercitive non-arbitrarie (che non vanno confuse con le regole coercitive democratiche)3. Senza regole coercitive non-arbitrarie, per definizione non può esserci decentralizzazione. La decentralizzazione è una condizione necessaria (anche se forse non sufficiente) a ridurre il rischio (e la devastazione) dello scenario che paventa Hinton in cui l’IA prende il sopravvento sull’uomo.
La transizione da una società governata in base a regole coercitive arbitrarie a una società libera (in cui le uniche regole coercitive a cui sono soggette le persone sono quelle non-arbitrarie) avrebbe un altro importante vantaggio in relazione allo scenario paventato da Hinton. Se il paradigma etico che viene dato in pasto all’IA è quello che fa perno su regole coercitive arbitrarie stabilite da un’autorità in funzione di un fine ‘collettivo’ da essa definito, l’IA non solo non avrà alcun ostacolo ‘morale’ a prendere il sopravvento sull’uomo ma anzi sarà incentivata a farlo (per esempio in funzione del ‘bene comune’ da essa definito). Viceversa, se il paradigma etico che viene dato in pasto all’IA è quello basato sul metodo scientifico proprio delle scienze sociali (la logica, che è indipendentemente verificabile) l’IA avrà un ostacolo morale a controllare/eliminare l’uomo, quanto meno non sarà incentivata dall’uomo stesso a farlo.
Tradendo una mentalità squisitamente collettivista e a digiuno di scienza economica, Hinton non resiste a spiegare come lui “crede che la società debba essere organizzata”: attraverso uno stato onnipotente e benevolo che possa governare l’intero processo economico impedendo l’imprenditorialità quando questa produce “cose cattive”. Questo ragionamento ha più errori di quanti ne possano essere qui elencati. In primo luogo, nei limiti in cui il principio di uguaglianza davanti alla legge è visto come requisito di giustizia, lo stato è tecnicamente ingiusto: nelle parole di Javier Milei, lo stato è un’organizzazione criminale e, in quanto tale, non può essere benevolo. Anche volendo negare a oltranza questo fatto, è difficile che uno statalista consideri tutti gli stati (anche quelli in guerra fra loro) buoni e benevoli. La teoria soggettiva e marginalista del valore non consente di stabilire cosa è “buono” o “cattivo” in generale, ma solo in relazione alle preferenze della singola persona (d’altro canto, la logica ci permette di affermare che l’unico comportamento eticamente “cattivo” in generale è l’aggressione: cioè la violazione iniziale della proprietà privata). Come esempio di “cosa cattiva” Hinton porta “la CO2 prodotta dalle aziende petrolifere” (!): per avere dati e argomenti contro questa folle demonizzazione della CO2 si vedano per esempio i lavori di Alex Epstein4 e di Franco Battaglia5 (questi sono solo alcuni fra i più accessibili ai non esperti: la letteratura scientifica su questo è immensa).
Quello che Hinton non sembra avere i mezzi per capire è che l’organizzazione stessa della società per definizione richiede centralizzazione e che questa favorisce enormemente un’eventuale presa di controllo da parte dell’IA.
Hayek disse: “Se un socialista capisse l’economia, non sarebbe un socialista”. E’ possibile parafrasare questa frase dicendo che se un socialista capisse l’economia (e il principio di uguaglianza davanti alla legge) non ricorrerebbe alla regolamentazione per contenere il pericolo che l’IA prenda il sopravvento sull’uomo. I pericoli dell’IA (al pari dell’economia) sono la ragione per cui un socialista dovrebbe abbracciare a braccia aperte la libertà, anche se la odiasse.
In questo senso, i pericoli dell’IA sono (forse l’ultima) occasione di passare da un sistema totalitario (specie se democratico) alla libertà. Hinton invece li vede come una ragione per aumentare il potere, già assoluto, dell’autorità statale.
NOTE
1 https://twitter.com/elonmusk/
2 Hayek F.A., 1944, The Road to Serfdom (Routledge, London and New York), in particolare p. 25.
3 https://giovannibirindelli.
4 Epstein A.J., 2022, Fossil Future. Why Global Human Flourishing Requires More Oil, Coal, and Natural Gas – Not Less (Penguin, New York).
5 Battaglia F., 2021, There is No Climate Emergency (21mo Secolo, Milano)