Visualizzazione post con etichetta anarchia. Mostra tutti i post
Visualizzazione post con etichetta anarchia. Mostra tutti i post

giovedì 14 agosto 2025

Come ha fatto Satoshi a pensare a Bitcoin?

Ricordo a tutti i lettori che su Amazon potete acquistare il mio nuovo libro, “Il Grande Default”: https://www.amazon.it/dp/B0DJK1J4K9 

Il manoscritto fornisce un grimaldello al lettore, una chiave di lettura semplificata, del mondo finanziario e non che sembra essere andato fuori controllo negli ultimi quattro anni in particolare. Questa una storia di cartelli, a livello sovrastatale e sovranazionale, la cui pianificazione centrale ha raggiunto un punto in cui deve essere riformata radicalmente e questa riforma radicale non può avvenire senza una dose di dolore economico che potrebbe mettere a repentaglio la loro autorità. Da qui la risposta al Grande Default attraverso il Grande Reset. Questa la storia di un coyote, che quando non riesce a sfamarsi all'esterno ricorre all'autofagocitazione. Lo stesso accaduto ai membri del G7, dove i sei membri restanti hanno iniziato a fagocitare il settimo: gli Stati Uniti.

____________________________________________________________________________________


da Bitcoin Magazine

(Versione audio della traduzione disponibile qui: https://open.substack.com/pub/fsimoncelli/p/come-ha-fatto-satoshi-a-pensare-a)

Bitcoin viene spesso paragonato a Internet negli anni '90, ma credo che l'analogia migliore sia con il telegrafo degli anni '40 dell'Ottocento.[1]

Il telegrafo è stata la prima tecnologia a trasmettere dati codificati a velocità prossime a quella della luce su lunghe distanze. Ha segnato la nascita dell'industria delle telecomunicazioni. Internet, sebbene sia più grande in termini di dimensioni, più ricco di contenuti e molti-a-molti anziché uno-a-uno, è fondamentalmente una tecnologia di telecomunicazione.

Sia il telegrafo che Internet si basano su modelli di business in cui le aziende investono capitali per costruire una rete fisica e poi addebitano agli utenti l'invio di messaggi attraverso questa rete. La rete di AT&T ha storicamente trasmesso telegrammi, telefonate, pacchetti TCP/IP, messaggi di testo e ora TikTok.

La trasformazione della società attraverso le telecomunicazioni ha portato a maggiori libertà, ma anche a una maggiore centralizzazione. Internet ha ampliato la portata di milioni di creatori di contenuti e piccole imprese, ma ha anche rafforzato la presa di aziende, stati e altre istituzioni sufficientemente ben posizionate per monitorare e manipolare l'attività online.

Ma Bitcoin non è la fine di alcuna trasformazione: ne è l'inizio. Come le telecomunicazioni, Bitcoin cambierà sia la società umana che la vita quotidiana. Prevedere l'intera portata di questo cambiamento oggi è come immaginare Internet vivendo nell'era del telegrafo.

Questo saggio cerca di immaginare un tale futuro partendo dal passato. Inizieremo ripercorrendo la storia delle valute digitali prima di Bitcoin. Solo comprendendo i fallimenti dei progetti precedenti possiamo comprendere cosa determinerà il successo di Bitcoin e suggerire una metodologia per costruire i sistemi decentralizzati del futuro.


Sintesi

I. I sistemi decentralizzati sono i mercati

II. I mercati decentralizzati richiedono beni decentralizzati

III. In che modo i sistemi decentralizzati possono calcolare i prezzi?

IV. Gli obiettivi della politica monetaria di Satoshi hanno portato a Bitcoin

V. Conclusione

Un'affermazione centrale di questo articolo è che Bitcoin può essere considerato un adattamento del progetto b-money di Dai, il quale eliminava la libertà di creare denaro. Poche settimane dopo la pubblicazione di questo saggio, sono emerse nuove email in cui Satoshi affermava di non avere familiarità con b-money, pur ammettendo che Bitcoin inizia “esattamente da quel punto”. Alla luce di queste nuove prove, crediamo che questa affermazione, sebbene non storicamente accurata, sia comunque un modo utile per riflettere sull'origine di Bitcoin.


Come ha fatto Satoshi a pensare a Bitcoin?

Satoshi era brillante, ma Bitcoin non è nato dal nulla.

Bitcoin ha reiterato lavori esistenti in crittografia, sistemi distribuiti, economia e filosofia politica. Il concetto di Proof-of-work esisteva molto prima del suo utilizzo nel campo monetario e cypherpunk dato che Nick Szabo, Wei Dai e Hal Finney hanno anticipato e influenzato la progettazione di Bitcoin con progetti come Bit Gold, B-Money e RPOW. Si consideri che, nel 2008, quando Satoshi scrisse il white paper di Bitcoin, molte delle idee importanti per Bitcoin erano già state proposte e/o implementate:

• Le valute digitali dovevano essere su reti P2P

• La Proof-of-work è la base della creazione del denaro

• Il denaro viene creato tramite un'asta

• La crittografia a chiave pubblica viene utilizzata per definire la proprietà e il trasferimento delle monete

• Le transazioni vengono raggruppate in blocchi

• I blocchi vengono concatenati tramite Proof-of-work

• Tutti i blocchi vengono archiviati da tutti i partecipanti alla rete

Bitcoin sfrutta tutti questi concetti, ma Satoshi non ne ha ideato nessuno. Per comprendere meglio il suo contributo, dovremmo determinare quali principi di Bitcoin mancano dall'elenco.

Alcuni candidati ovvi sono l'offerta limitata, il consenso di Nakamoto e l'algoritmo di aggiustamento della difficoltà. Ma cosa ha apportato Satoshi a queste idee in primo luogo?

Questo saggio esplora la storia delle valute digitali e sostiene che l'attenzione di Satoshi per una sana politica monetaria è ciò che ha portato Bitcoin a superare le sfide che hanno vanificato progetti precedenti come Bit Gold e B-money.


I. I sistemi decentralizzati sono i mercati

Bitcoin è spesso descritto come un sistema decentralizzato o distribuito. Sfortunatamente i termini “decentralizzato” e “distribuito” vengono spesso confusi. Quando applicati ai sistemi digitali, entrambi i termini si riferiscono a modi in cui un'applicazione monolitica può essere scomposta in una rete di elementi comunicanti.

Ai nostri fini, la principale differenza tra sistemi decentralizzati e distribuiti non è la topologia dei loro diagrammi di rete, ma il modo in cui applicano le regole. Nella sezione seguente ci prenderemo del tempo per confrontare i sistemi distribuiti e decentralizzati e per motivare l'idea che i sistemi decentralizzati robusti siano i mercati.


I sistemi distribuiti si basano su autorità centrali

In questo lavoro per “distribuito” intendiamo qualsiasi sistema suddiviso in più parti (spesso chiamate “nodi”) che devono comunicare, tipicamente tramite una rete.

Gli ingegneri del software sono diventati esperti nella creazione di sistemi distribuiti a livello globale. Internet è composto da sistemi distribuiti che contengono collettivamente miliardi di nodi. Ognuno di noi ha un nodo in tasca che partecipa e si affida a questi sistemi.

Ma quasi tutti i sistemi distribuiti che utilizziamo oggi sono governati da un'autorità centrale, in genere un amministratore di sistema, un'azienda o uno stato, che gode della fiducia reciproca di tutti i nodi del sistema.

Le autorità centrali garantiscono che tutti i nodi aderiscano alle regole del sistema e rimuovono, riparano, o puniscono i nodi che non lo fanno. Sono affidabili per fornire coordinamento, risolvere i conflitti e allocare risorse condivise. Nel tempo le autorità centrali gestiscono le modifiche al sistema, aggiornandolo o aggiungendo funzionalità e assicurandosi che i nodi partecipanti si conformino alle modifiche.

I vantaggi che un sistema distribuito ottiene affidandosi a un'autorità centrale hanno dei costi. Sebbene il sistema sia robusto contro i guasti dei suoi nodi, un guasto della sua autorità centrale può causare l'interruzione complessiva del funzionamento. La capacità dell'autorità centrale di prendere decisioni unilateralmente implica che sovvertirla o eliminarla sia sufficiente per controllare o distruggere l'intero sistema.

Nonostante questi compromessi, se esiste il requisito che un singolo partito o una coalizione debba mantenere l'autorità centrale, o se i partecipanti al sistema si accontentano di affidarsi a un'autorità centrale, allora un sistema distribuito tradizionale è la soluzione migliore. Non sono richieste blockchain, token o simili accorgimenti decentralizzati.

In particolare, il caso di una crittovaluta supportata da venture capitalist o dallo stato, con requisiti che impongono a un singolo partito di monitorare o limitare i pagamenti e congelare i conti, è il caso d'uso perfetto per un sistema distribuito tradizionale.


I sistemi decentralizzati non hanno autorità centrali

Consideriamo “decentralizzato” un significato più forte di “distribuito”: i sistemi decentralizzati sono un sottoinsieme dei sistemi distribuiti privi di autorità centrale. Un sinonimo stretto di “decentralizzato” è “peer-to-peer” (P2P).

L'eliminazione dell'autorità centrale conferisce diversi vantaggi. Sistemi decentralizzati:

• Crescono rapidamente perché non presentano barriere all'ingresso: chiunque può espandere il sistema eseguendo un nuovo nodo e non è richiesta alcuna registrazione o approvazione da parte dell'autorità centrale.

• Sono robusti perché non esiste un'autorità centrale il cui fallimento possa compromettere il funzionamento del sistema. Tutti i nodi sono uguali quindi i fallimenti sono locali e la rete evita i danni.

• Sono difficili da catturare, regolamentare, tassare, o sorvegliare perché mancano punti di controllo centralizzati che gli stati possano sovvertire.

Questi punti di forza sono il motivo per cui Satoshi ha scelto un design decentralizzato e peer-to-peer per Bitcoin:

«Gli stati sono bravi a tagliare la testa a [...] reti controllate centralmente come Napster, ma le reti P2P pure come Gnutella e Tor reggono il confronto.» ~ Nakamoto, 2008

Tuttavia questi punti di forza presentano anche delle debolezze. I sistemi decentralizzati possono essere meno efficienti, poiché ogni nodo deve inoltre assumersi responsabilità di coordinamento precedentemente assunte dall'autorità centrale.

Anche i sistemi decentralizzati sono afflitti da comportamenti fraudolenti e ostili. Nonostante il riferimento di Satoshi a Gnutella, chiunque abbia utilizzato un programma di condivisione file P2P per scaricare un file che poi si è rivelato essere qualcosa di disgustoso, o dannoso, comprende i motivi per cui la condivisione file P2P non è mai diventata il modello di riferimento principale per il trasferimento di dati online.

Satoshi non l'ha menzionato esplicitamente, ma la posta elettronica è un altro sistema decentralizzato che è sfuggito ai controlli statali. E la posta elettronica è altrettanto nota per lo spam.


I sistemi decentralizzati sono governati da incentivi

Il problema di fondo, in tutti questi casi, è che il comportamento ostile (seminare file dannosi, inviare email di spam) non viene punito, mentre il comportamento cooperativo (seminare file validi, inviare solo email utili) non viene premiato. I sistemi decentralizzati che fanno affidamento sui loro partecipanti affinché siano buoni attori non riescono a scalare, perché non possono impedire ai cattivi attori di partecipare.

Senza imporre un'autorità centrale, l'unico modo per risolvere questo problema è utilizzare incentivi economici. I buoni attori, per definizione, rispettano le regole perché sono intrinsecamente motivati a farlo. I cattivi attori sono, per definizione, egoisti e antagonisti, ma adeguati incentivi economici possono reindirizzare i loro comportamenti scorretti verso il bene comune. I sistemi decentralizzati scalabili lo fanno garantendo che il comportamento cooperativo sia redditizio e quello antagonistico sia costoso.

Il modo migliore per implementare servizi decentralizzati robusti è creare mercati in cui tutti gli attori, buoni e cattivi, siano pagati per fornire quel servizio. L'assenza di barriere all'ingresso per acquirenti e venditori in un mercato decentralizzato incoraggia la scalabilità e l'efficienza. Se i protocolli di mercato possono proteggere i partecipanti da frodi, furti e abusi, allora i cattivi attori troveranno più redditizio rispettare le regole o attaccare un sistema diverso.


II. Decentralizzazione

I mercati decentralizzati richiedono beni decentralizzati

Ma i mercati sono complessi. Devono offrire ad acquirenti e venditori la possibilità di pubblicare offerte e richieste, nonché di individuare, abbinare e regolare gli ordini. Devono essere equi, garantire una forte coerenza e mantenere la disponibilità nonostante i periodi di volatilità.

Oggi i mercati globali sono estremamente capaci e sofisticati, ma utilizzare beni tradizionali e reti di pagamento per implementare incentivi in un mercato decentralizzato è un'impresa impossibile. Qualsiasi associazione tra un sistema decentralizzato e moneta fiat, asset tradizionali, o beni fisici reintrodurrebbe la dipendenza dalle autorità centrali che controllano chi processa i pagamenti, ovvero le banche e gli exchange.

Ciò significa che i sistemi decentralizzati non possono eseguire pagamenti denominati in beni tradizionali. Non possono nemmeno determinare i saldi dei conti dominati da moneta fiat, o la proprietà di immobili o beni fisici. L'intera economia tradizionale è completamente illeggibile all'interno dei sistemi decentralizzati.

La creazione di mercati decentralizzati richiede lo scambio di nuovi tipi di beni decentralizzati, leggibili e trasferibili all'interno di sistemi decentralizzati.


Il calcolo è il primo bene decentralizzato

Il primo esempio di “bene decentralizzato” è una classe speciale di calcoli proposta per la prima volta nel 1993 da Cynthia Dwork e Moni Naor.

A causa delle profonde connessioni tra matematica, fisica e informatica questi calcoli richiedono energia e risorse hardware reali: non possono essere falsificati. Poiché le risorse reali sono scarse, anche questi calcoli sono scarsi.

L'input per questi calcoli può essere qualsiasi tipo di dato. L'output risultante è una “prova” digitale che i calcoli sono stati eseguiti sui dati di input forniti. Le prove contengono una data “difficoltà” che è la prova (statistica) di una certa quantità di lavoro computazionale. Ancora più importante, la relazione tra i dati di input, la prova e il lavoro computazionale originale eseguito può essere verificata in modo indipendente senza ricorrere ad alcuna autorità centrale.

L'idea di trasmettere dati di input insieme a una prova digitale come prova del lavoro computazionale svolto nel mondo reale su tale input è ora chiamata “Proof-of-work”.[2] Essa è, per usare l'espressione di Nick Szabo, “costosa e non falsificabile”. Poiché la Proof-of-work è verificabile da chiunque, rappresenta una risorsa economica accessibile a tutti i partecipanti a un sistema decentralizzato. La Proof-of-work trasforma i calcoli sui dati in beni decentralizzati. Dwork e Naor hanno proposto di utilizzare i calcoli per limitare l'abuso di una risorsa condivisa, costringendo i partecipanti a fornire Proof-of-work con una certa difficoltà minima prima di potervi accedere:

«In questo documento di lavoro suggeriamo un approccio computazionale per contrastare la proliferazione della posta elettronica. Più in generale, abbiamo progettato un meccanismo di controllo degli accessi che può essere utilizzato ogni volta che è opportuno limitare, ma non proibire, l'accesso a una risorsa.» ~ Dwoak & Naor, 1993

Nella proposta di Dwork & Naor un amministratore di sistema di posta elettronica avrebbe impostato una difficoltà minima di Proof-of-work per la consegna delle email. Gli utenti che desideravano inviare email avrebbero dovuto eseguire un numero corrispondente di calcoli utilizzando quell'email come dati di input. La prova risultante sarebbe stata inviata al server insieme a qualsiasi richiesta di consegna dell'email.

Dwork & Naor si riferivano alla difficoltà di una Proof-of-work come a una “funzione di prezzo” perché, regolando la difficoltà, una “autorità di prezzo” avrebbe potuto garantire che la risorsa condivisa rimanesse economica da utilizzare per gli utenti onesti e medi, ma costosa per gli utenti che cercavano di sfruttarla. Nel mercato della consegna delle email, gli amministratori dei server sono le autorità di prezzo; devono scegliere un “prezzo” per la consegna delle email che sia sufficientemente basso per l'utilizzo normale ma troppo alto per lo spam.

Sebbene Dwork e Naor abbiano inquadrato la Proof-of-work come un disincentivo economico per combattere l'abuso di risorse, la terminologia “funzione di prezzo” e “autorità di prezzo” supporta un'interpretazione diversa, basata sul mercato: gli utenti acquistano l'accesso a una risorsa in cambio di calcoli a un prezzo stabilito dal controllore della risorsa.

In questa interpretazione una rete di distribuzione di posta elettronica è in realtà un mercato decentralizzato che scambia la consegna di posta elettronica con i calcoli. La difficoltà minima di una Proof-of-work è il prezzo richiesto per la consegna di posta elettronica denominato nella valuta dei calcoli.


La valuta è il secondo bene decentralizzato

Ma i calcoli non sono una buona valuta.

La Proof-of-work utilizzata per “scambiare” calcoli è valida solo per l'input utilizzato in quei calcoli. Questo legame indissolubile tra una Proof-of-work specifica e un input specifico significa che la Proof-of-work per un determinato input non può essere riutilizzata per uno diverso.

Questo vincolo è utile: può essere utilizzato per impedire che il lavoro svolto da un acquirente sul mercato venga riutilizzato da un altro. Ad esempio, HashCash, la prima vera implementazione del mercato per la consegna di email, includeva metadati come timestamp corrente e indirizzo email del mittente nei dati di input per i calcoli della Proof-of-work. Le prove prodotte da un dato utente per una data email non possono essere riutilizzate per l'invio di un'email diversa.

Ma questo significa anche che i calcoli della Proof-of-work sono beni su misura. Non sono fungibili, non possono essere riutilizzati[3] e non risolvono il problema della coincidenza dei desideri. Queste proprietà monetarie mancanti impediscono ai calcoli di essere considerati valuta. Nonostante il nome, non vi è alcun incentivo per un fornitore di servizi di posta elettronica ad accumulare HashCash, come ci sarebbe invece per il denaro reale.

Adam Back, inventore di HashCash, ha compreso questi problemi:

«HashCash non è direttamente trasferibile perché, per distribuirlo, ogni fornitore di servizi accetta pagamenti solo in contanti creati appositamente per sé. Si potrebbe forse creare una zecca in stile digicash (con ecash chaumiano) e far sì che la banca coniasse denaro solo al ricevimento di collisioni di hash a essa indirizzate. Tuttavia questo significa che bisogna fidarsi che la banca non conierà quantità illimitate di denaro per il proprio uso interno.» ~ Adam Back, 1997

Non vogliamo scambiare calcoli personalizzati per ogni singolo bene o servizio venduto in un'economia decentralizzata; vogliamo una valuta digitale di uso generale che possa essere utilizzata direttamente per coordinare gli scambi di valore in qualsiasi mercato.

Costruire una valuta digitale funzionante pur rimanendo decentralizzata è una sfida ardua. Una valuta richiede unità fungibili di pari valore che possano essere trasferite tra gli utenti. Ciò richiede modelli di emissione, definizioni crittografiche di proprietà e trasferimento, un processo di scoperta e regolamento delle transazioni e un registro storico. Nessuna di queste infrastrutture è necessaria se si considera la Proof-of-work come un mero “meccanismo di controllo degli accessi”.

Inoltre i sistemi decentralizzati sono i mercati, quindi tutte queste funzioni di base di una valuta devono in qualche modo essere fornite tramite fornitori di servizi a pagamento... nelle unità della valuta che viene creata!

Come la compilazione del primo compilatore, un black-start della rete elettrica, o l'evoluzione della vita stessa, i creatori di valute digitali si sono trovati di fronte a un problema di bootstrapping: come definire gli incentivi economici alla base di una valuta funzionante senza avere una valuta funzionante in cui denominare o pagare tali incentivi.


Il primo mercato decentralizzato deve scambiare calcoli in cambio di valuta

Il progresso su questo problema di bootstrapping deriva dalla corretta definizione dei suoi vincoli.

I sistemi decentralizzati devono essere i mercati; essi sono costituiti da acquirenti e venditori che si scambiano beni; il mercato decentralizzato di una valuta digitale ha solo due beni leggibili al suo interno:

• Calcoli tramite Proof-of-work

• Unità della valuta che stiamo cercando di costruire

L'unico scambio di mercato possibile deve quindi essere tra questi due beni. I calcoli devono essere venduti per unità di valuta o, in modo equivalente, unità di valuta devono essere vendute per calcoli. Affermare questo è facile: la parte difficile è strutturare questo mercato in modo che il semplice scambio di valuta per calcoli attivi tutte le capacità della valuta stessa!

L'intera storia delle valute digitali, culminata nel white paper di Satoshi del 2008, è stata una serie di tentativi sempre più sofisticati di strutturare questo mercato. La sezione seguente esaminerà progetti come bit-gold di Nick Szabo e b-money di Wei Dai. Comprendere come questi progetti abbiano strutturato i loro mercati e perché hanno fallito ci aiuterà a comprendere perché Satoshi e Bitcoin hanno avuto successo.


III. In che modo i sistemi decentralizzati possono prezzare i calcoli?

Una delle funzioni principali dei mercati è la determinazione del prezzo. Un mercato che scambia calcoli per valuta deve quindi determinare il prezzo del calcolo stesso, espresso in unità di quella valuta.

In genere non attribuiamo un valore monetario ai calcoli. In genere diamo valore alla capacità di eseguire calcoli perché diamo valore all'output dei calcoli, non ai calcoli stessi. Se lo stesso output può essere eseguito in modo più efficiente, con meno calcoli, questo viene solitamente definito “progresso”.

La Proof-of-Work rappresenta calcoli specifici il cui unico output è la prova che sono stati eseguiti. Produrre la stessa prova eseguendo meno calcoli e meno lavoro non sarebbe un progresso, ma un bug. I calcoli associati alla Proof-of-Work sono quindi un bene insolito e nuovo da valutare.

Quando la Proof-of-Work è considerata un disincentivo contro l'abuso di risorse, non è necessario valutarla in modo preciso o coerente. Ciò che conta è che il fornitore di servizi di posta elettronica imposti difficoltà sufficientemente basse da essere impercettibili per gli utenti legittimi, ma sufficientemente alte da essere proibitive per gli spammer. Esiste quindi un'ampia gamma di “prezzi” accettabili e ogni partecipante agisce come propria autorità di determinazione dei prezzi, applicando una funzione di prezzo locale.

Tuttavia le unità di una valuta sono concepite per essere fungibili, avendo ciascuna lo stesso valore. A causa dei cambiamenti tecnologici nel tempo, due unità di valuta create con la stessa difficoltà di Proof-of-work – misurata dal numero di calcoli corrispondenti – possono avere costi di produzione reali radicalmente diversi, misurati in termini di tempo, energia e/o capitale necessari per eseguire tali calcoli. Quando i calcoli vengono venduti in cambio di valuta e il costo di produzione sottostante è variabile, come può il mercato garantire un prezzo costante?

Nick Szabo ha identificato chiaramente questo problema di prezzo descrivendo bit gold:

«Il problema principale [...] è che gli schemi di Proof-of-work dipendono dall'architettura del computer, non solo da una matematica astratta basata su un “ciclo di calcolo” astratto. [...] Quindi, potrebbe essere possibile essere un produttore a bassissimo costo (di diversi ordini di grandezza) e inondare il mercato di bit gold.» ~ Szabo, 2005

Le prime valute digitali tentavano di prezzare i calcoli cercando di misurare collettivamente il “costo del calcolo”. Wei Dai, ad esempio, propose la seguente soluzione approssimativa con b-money:

«Il numero di unità monetarie create è pari al costo dello sforzo di calcolo in termini di un paniere standard di beni. Ad esempio, se un problema richiede 100 ore per essere risolto sul computer che lo risolve nel modo più economico, e ci vogliono 3 panieri standard per acquistare 100 ore di tempo di calcolo su quel computer sul mercato libero, allora, al momento della diffusione della soluzione di quel problema, tutti accreditano 3 unità sul conto di chi lo ha diffuso.» – Dai, 1998

Purtroppo Dai non spiegò come gli utenti di un sistema presumibilmente decentralizzato dovrebbero concordare sulla definizione di un “paniere standard”, su quale computer risolva un dato problema “nel modo più economico”, o sul costo di elaborazione sul “mercato aperto”. Raggiungere il consenso tra tutti gli utenti su un set di dati condiviso variabile nel tempo è il problema essenziale dei sistemi decentralizzati!

Per essere onesti con Dai, anche lui stesso lo capì:

«Uno degli aspetti più problematici del protocollo b-money è la creazione di moneta. Questa parte del protocollo richiede che tutti [gli utenti] decidano e concordino sul costo di particolari elaborazioni. Sfortunatamente, poiché la tecnologia informatica tende a progredire rapidamente e non sempre pubblicamente, queste informazioni potrebbero non essere disponibili, inaccurate o obsolete, il che causerebbe seri problemi al protocollo.» – Dai, 1998

Dai avrebbe poi proposto un meccanismo di determinazione dei prezzi basato su aste più sofisticato, che Satoshi avrebbe poi definito il punto di partenza delle sue idee. Torneremo su questo schema d'asta più avanti, ma prima passiamo a bit gold e consideriamo le intuizioni di Szabo sul problema.


Utilizzare i mercati esterni

Szabo sosteneva che la Proof-of-work doveva essere “datata in modo sicuro”:

«La Proof-of-work è datata in modo sicuro. Dovrebbe funzionare in modo distribuito, con diversi servizi di marcatura temporale, in modo che non sia necessario fare affidamento su alcun servizio di marcatura temporale in particolare.» ~ Szabo, 2005

Szabo rimandava a una pagina di risorse sui protocolli di marcatura temporale sicura, ma non descriveva alcun algoritmo specifico per la marcatura temporale sicura. Le espressioni “in modo sicuro” e “in modo distribuito” hanno un peso notevole in questo contesto, eludendo le complessità dell'affidarsi a uno (o più) servizi “esterni al sistema” per la marcatura temporale.[4]

A prescindere dalla vaghezza dell'implementazione, Szabo aveva ragione: il momento in cui viene creata una Proof-of-work è un fattore importante nella determinazione del prezzo, perché è correlato al costo di elaborazione:

«[...] Poiché bit gold ha una marcatura temporale, il momento in cui è stato creato e la difficoltà matematica del lavoro possono essere automaticamente dimostrati. Da ciò si può dedurre quale sia stato il costo di produzione durante quel periodo di tempo[...].» ~ Szabo, 2005

“Dedurre” il costo di produzione era importante perché bit gold non aveva alcun meccanismo per limitarne la creazione. Chiunque poteva creare bit gold eseguendo i calcoli appropriati. Senza la possibilità di regolamentarne l'emissione, era simile a un oggetto da collezione:

«[...] A differenza degli atomi d'oro fungibili, ma come per gli oggetti da collezione, un'ampia disponibilità in un dato periodo di tempo ne farà diminuire il valore. In questo senso bit gold si comporta più come un oggetto da collezione che come l'oro [...].» ~ Szabo, 2005

Bit gold richiedeva un ulteriore processo esterno per creare unità di valuta fungibili:

«[...] [Bit gold] non sarà fungibile in base a una semplice funzione, ad esempio, della lunghezza della stringa. Invece, per creare unità fungibili, i commercianti dovranno combinare pezzi di bit gold di diverso valore in unità più grandi di valore approssimativamente uguale. Questo è analogo a ciò che molti commercianti di materie prime fanno oggi per rendere possibili tali mercati. La fiducia è ancora distribuita, perché i valori stimati di tali pacchetti possono essere verificati in modo indipendente da molte altre parti in modo ampiamente o completamente automatizzato.» ~ Szabo, 2005

Parafrasando Szabo: “Per valutare il valore di [...] bit gold, un commerciante controlla e verifica la difficoltà, l'input e il timestamp”. I commercianti che definiscono le “unità più grandi di valore approssimativamente uguale” forniscono una funzione di determinazione del prezzo simile al “paniere standard di materie prime” di Dai. Le unità fungibili non vengono create in bit gold quando vengono prodotte le Proof-of-work, ma solo in seguito, quando queste ultime vengono combinate in “unità più grandi di valore approssimativamente uguale” da commercianti in mercati esterni alla rete.

A suo merito, Szabo riconobbe questo difetto:

«[...] Il potenziale di eccessi di offerta inizialmente nascosti, dovuti a innovazioni nascoste nell'architettura delle macchine, è un potenziale difetto di bit gold, o almeno un'imperfezione che le aste iniziali e gli scambi ex post dovranno affrontare.» ~ Szabo, 2005

Ancora una volta, pur non essendo arrivato a quella che oggi conosciamo come la soluzione, Szabo ce la stava indicando: poiché il costo del calcolo cambia nel tempo, la rete deve rispondere alle variazioni dell'offerta di calcolo aggiustando il prezzo del denaro.


Utilizzare mercati interni

I commercianti di Szabo avrebbero costituito un mercato esterno che definiva il prezzo di (pacchetti di) bit gold dopo la sua creazione. Era possibile implementare questo mercato all'interno del sistema invece che al suo esterno?

Torniamo a Wei Dai e a b-money. Come accennato in precedenza, Dai propose un modello alternativo basato su aste per la creazione di b-money. Il progetto di Satoshi per Bitcoin migliora direttamente il modello d'asta di bmoney:

«Quindi propongo un sottoprotocollo alternativo per la creazione di moneta, in cui [gli utenti] [...] decidono e concordano la quantità di b-money da creare in ogni periodo, con il costo di creazione determinato da un'asta. Ogni periodo di creazione di moneta è suddiviso in quattro fasi, come segue.

Pianificazione. Gli [utenti] calcolano e negoziano tra loro per determinare un aumento ottimale dell'offerta di moneta per il periodo successivo. Indipendentemente dal fatto che la [rete] riesca o meno a raggiungere un consenso, ognuno di loro trasmette la propria quota di creazione di moneta e qualsiasi calcolo macroeconomico effettuato a supporto di tali cifre.

Offerta. Chiunque voglia creare b-money trasmette un'offerta nella forma in cui X è la quantità di b-money che desidera creare e Y è un problema irrisolto di una classe di problemi predeterminata. Ogni problema in questa classe dovrebbe avere un costo nominale (ad esempio, in MIPS-anni) che viene concordato pubblicamente.

Calcolo. Dopo aver visto le offerte, coloro che le hanno presentate possono risolvere i problemi a esse allegati e diffondere le soluzioni.

Creazione di denaro. Ogni [utente] accetta le offerte più alte (tra coloro che hanno diffuso le soluzioni) in termini di costo nominale per unità di denaro creato e le accredita sui conti degli offerenti.» ~ Dai, 1998

B-money compì passi significativi verso la corretta struttura di mercato per una valuta digitale. Cercò di eliminare i commercianti esterni di Szabo e consentì agli utenti di impegnarsi nella determinazione del prezzo facendo offerte dirette tra loro.

Ma implementare la proposta di Dai così come era stata formulata sarebbe stato impegnativo:

• Nella fase di “Pianificazione”, gli utenti avevano l'onere di negoziare “l'aumento ottimale dell'offerta di moneta per il periodo successivo”. Non viene descritto come debba essere definito “ottimale”, come gli utenti debbano negoziare tra loro e come vengano condivisi i risultati di tali negoziazioni.

• Indipendentemente da quanto pianificato, la fase di “Offerta” consentiva a chiunque di presentare un'offerta per creare b-money. Le offerte includevano sia una quantità di b-money da creare sia una quantità corrispondente di Proof-of-work, quindi ogni offerta rappresenta un prezzo, ovvero il numero di calcoli che un determinato offerente era disposto a eseguire per acquistare una determinata quantità di b-money.

• Una volta presentate le offerte, la fase di “Calcolo” consisteva negli offerenti che eseguivano la Proof-of-work per la quale presentavano la propria offerta e trasmettevano le soluzioni. Non era previsto alcun meccanismo per abbinare gli offerenti alle soluzioni. Ancora più problematico, non era chiaro come gli utenti potessero sapere che tutte le offerte erano state presentate: quando terminava la fase di “offerta” e iniziava la fase di “calcolo”?

• Questi problemi si ripresentavano nella fase “Creazione di denaro”. Data la natura della Proof-of-work, gli utenti potevano verificare che le prove ricevute nelle soluzioni fossero reali. Ma come potevano concordare collettivamente sull'insieme delle “offerte più alte”? Cosa succedeva se utenti diversi sceglievano insiemi diversi, per preferenza o per latenza di rete?

I sistemi decentralizzati faticano a tracciare i dati e a fare scelte coerenti, eppure b-money richiedeva il tracciamento delle offerte di molti utenti e la scelta consensuale tra di loro. Questa complessità ne impedì l'implementazione.

La radice di questa complessità era la convinzione di Dai che il tasso “ottimale” di creazione di b-money dovesse fluttuare nel tempo in base ai “calcoli macroeconomici” dei suoi utenti. Come Bit Gold, B-money non aveva alcun meccanismo per limitare la creazione di denaro. Chiunque poteva creare unità di B-money trasmettendo un'offerta e quindi eseguendo la corrispondente Proof-of-work.

Sia Szabo che Dai proposero di utilizzare un mercato per lo scambio di valuta digitale per i calcoli, ma né Bit Gold né B-money definirono una politica monetaria per regolare l'offerta di valuta all'interno di quel mercato.


IV. Gli obiettivi della politica monetaria di Satoshi hanno portato a Bitcoin

Al contrario, una solida politica monetaria era uno degli obiettivi principali di Satoshi per il progetto Bitcoin. Nel primissimo post della mailing list in cui fu annunciato Bitcoin, Satoshi scrisse:

«Il problema di fondo della valuta convenzionale è tutta la fiducia necessaria per farla funzionare. Bisogna fidarsi della banca centrale affinché non svaluti la valuta, ma la storia delle valute fiat è piena di violazioni di tale fiducia.» ~ Satoshi, 2009

Satoshi avrebbe poi descritto altri problemi delle valute fiat, come il rischioso sistema bancario a riserva frazionaria, la mancanza di privacy, i furti e le frodi dilaganti e l'impossibilità di effettuare micropagamenti; ma partì dal problema della svalutazione da parte delle banche centrali, con una preoccupazione per la politica monetaria.

Voleva che Bitcoin raggiungesse un'offerta circolante finita, non diluibile nel tempo. Il tasso “ottimale” di creazione di bitcoin, per Satoshi, avrebbe quindi dovuto essere pari a zero.

Questo obiettivo di politica monetaria, più di qualsiasi altra caratteristica che possedeva personalmente (o collettivamente!), fu la ragione per cui Satoshi “scoprì” Bitcoin, la blockchain, il consenso di Nakamoto, ecc., e non qualcun altro. È la risposta breve alla domanda posta nel titolo di questo articolo: Satoshi pensò a Bitcoin perché era concentrato sulla creazione di una valuta digitale con un'offerta finita.

Un'offerta finita di Bitcoin non è solo un obiettivo di politica monetaria, o un meme. È la semplificazione tecnica essenziale che ha permesso a Satoshi di creare una valuta digitale funzionale, mentre b-money di Dai è rimasto solo un affascinante post sul web.

Bitcoin è b-money con l'ulteriore requisito di una politica monetaria predeterminata. Come molte semplificazioni tecniche, vincolare la politica monetaria consente il progresso riducendo l'ambito. Vediamo come ciascuna delle fasi della creazione di b-money viene semplificata imponendo questo vincolo.


Tutti i 21 milioni di bitcoin esistono già

In b-money ogni “periodo di creazione di moneta” includeva una fase di “Pianificazione” in cui gli utenti dovevano condividere i loro “calcoli macroeconomici” giustificando la quantità che desideravano creare in quel momento. Gli obiettivi di politica monetaria di Satoshi, ovvero un'offerta finita e zero emissioni di coda, erano incompatibili con la libertà concessa da b-money ai singoli utenti. Il primo passo nel percorso da b-money a Bitcoin è stato quindi quello di eliminare questa libertà. I singoli utenti non possono creare bitcoin. Solo la rete può crearli e lo ha fatto esattamente una volta, nel 2009, quando Satoshi inaugurò il progetto Bitcoin.

Satoshi riuscì a sostituire le ricorrenti fasi di “Pianificazione” di b-money in un unico programma predeterminato in base al quale i 21 milioni di bitcoin creati nel 2009 sarebbero stati immessi in circolazione. Gli utenti sottoscrivono volontariamente la politica monetaria di Satoshi scaricando ed eseguendo il software Bitcoin Core, in cui tale politica monetaria è codificata.

Questo cambia la semantica del mercato per i calcoli: i bitcoin pagati ai miner non sono di nuova emissione, vengono invece emessi da una riserva esistente.

Questa inquadratura è radicalmente diversa dall'ingenua affermazione secondo cui “i miner creano bitcoin”. I miner non creano bitcoin, li acquistano. Bitcoin non ha valore perché “i bitcoin sono fatti di energia”: il valore è dimostrato dal fatto che viene venduto in cambio di energia.

Ripetiamolo ancora una volta: Bitcoin non viene creato tramite Proof-of-work, Bitcoin viene creato tramite consenso.

 

Il prezzo di Bitcoin viene determinato tramite consenso

La libertà concessa agli utenti di creare denaro si traduceva in un corrispondente onere per la rete b-money. Durante la fase di “Offerta", essa doveva raccogliere e condividere le “offerte” di creazione di denaro da molti utenti diversi.

Eliminare la libertà di creare denaro alleggerisce la rete Bitcoin da questo onere. Poiché tutti i 21 milioni di bitcoin esistono già, la rete non ha bisogno di raccogliere le offerte degli utenti per creare denaro, deve semplicemente venderli secondo il programma prestabilito da Satoshi.

La rete Bitcoin offre quindi un prezzo di richiesta consensuale per i bitcoin che vende in ogni blocco. Questo prezzo unico viene calcolato da ciascun nodo in modo indipendente utilizzando la propria copia della blockchain. Se i nodi hanno il consenso sulla stessa blockchain (un punto su cui torneremo più avanti), offriranno tutti un prezzo di richiesta identico a ogni blocco.[5]

La prima metà del calcolo del prezzo di consenso determina quanti bitcoin vendere ed è stabilito dal programma di rilascio prestabilito da Satoshi. Tutti i nodi Bitcoin nella rete calcolano lo stesso importo per un dato blocco:

La seconda metà del prezzo richiesto è il numero di calcoli per cui viene venduto il sussidio attuale. Anche in questo caso tutti i nodi Bitcoin nella rete calcolano lo stesso valore (riprenderemo questo calcolo della difficoltà nella prossima sezione):

Insieme il sussidio e la difficoltà della rete definiscono l'attuale richiesta di bitcoin denominata in calcoli. Poiché la blockchain è basata sul consenso, questo prezzo è un prezzo di consenso.

Si presumeva anche che gli utenti di b-money avessero una “blockchain” di consenso contenente la cronologia di tutte le transazioni, ma Dai non pensò mai alla semplice soluzione di un prezzo di richiesta univoco e consensuale per la creazione di nuovi b-money, determinato esclusivamente dai dati presenti in quella blockchain.

Dai diede invece per scontato che la creazione di moneta dovesse continuare all'infinito. I singoli utenti avrebbero quindi dovuto avere il potere di influenzare la politica monetaria, proprio come nelle valute fiat. Questa esigenza portò Dai a progettare un sistema di offerte che impedì l'implementazione stessa di b-money.

Questa ulteriore complessità è stata eliminata dal requisito di Satoshi di una politica monetaria predeterminata.


Il tempo chiude tutti gli spread

Nella fase di “Calcolo” di b-money, i singoli utenti avrebbero eseguito i calcoli che si erano impegnati a fare nelle loro offerte precedenti. In Bitcoin l'intera rete è il venditore, ma chi è l'acquirente?

Nel mercato dell'invio delle email, gli acquirenti erano individui che desideravano inviarne una. L'autorità di determinazione dei prezzi, il fornitore di servizi di posta elettronica, avrebbe fissato un prezzo considerato economico per gli individui ma costoso per gli spammer. Ma se il numero di utenti legittimi aumentasse, il prezzo potrebbe comunque rimanere invariato perché la potenza di calcolo dei singoli utenti rimarrebbe invariata.

Nel sistema b-money, ogni utente che contribuiva alla creazione di moneta avrebbe dovuto successivamente eseguire autonomamente il numero corrispondente di calcoli. Ogni utente agiva come autorità di determinazione dei prezzi in base alla propria conoscenza delle proprie capacità di calcolo.

La rete Bitcoin offre un unico prezzo richiesto in termini di calcoli per l'attuale sussidio. Tuttavia nessun singolo miner che trova un blocco ha eseguito questo numero di calcoli.[6] Il blocco vincente del singolo miner è la prova che tutti i miner hanno eseguito collettivamente il numero richiesto di calcoli. L'acquirente è quindi l'industria globale del mining.

Una volta raggiunto un prezzo richiesto consensuale, la rete Bitcoin non modificherà tale prezzo finché non verranno prodotti altri blocchi. Questi blocchi devono contenere Proof-of-work al prezzo richiesto corrente. L'industria del mining non ha quindi altra scelta se vuole “eseguire una transazione” se non pagare il prezzo richiesto corrente in calcoli.

L'unica variabile che l'industria del mining può controllare è quanto tempo ci vorrà per produrre il blocco successivo. Proprio come la rete Bitcoin offre un unico prezzo di richiesta, l'industria del mining offre quindi un'unica offerta: il tempo necessario per produrre il blocco successivo che soddisfi il prezzo di richiesta corrente della rete.

«Per compensare la crescente velocità dell'hardware e il diverso interesse nel gestire i nodi nel tempo, la difficoltà della Proof-of-work è determinata da una media mobile che punta a un numero medio di blocchi all'ora. Se vengono generati troppo velocemente, la difficoltà aumenta.» ~ Nakamoto, 2008

Satoshi sta descrivendo con modestia l'algoritmo di regolazione della difficoltà, spesso citato come una delle idee più originali nell'implementazione di Bitcoin. Questo è vero, ma invece di concentrarci sull'inventiva della soluzione, concentriamoci sul motivo per cui risolvere il problema era importante per Satoshi in primo luogo.

Progetti come Bit Gold e B-Money non avevano bisogno di limitare il ritmo di creazione di moneta, perché non avevano un'offerta fissa o una politica monetaria predeterminata. I periodi di creazione di moneta più rapida o più lenta potevano essere compensati con altri mezzi, ad esempio commercianti esterni che inserivano token di Bit Gold in bundler più o meno grandi o utenti di B-money che modificavano le loro offerte.

Ma gli obiettivi di politica monetaria di Satoshi richiedono che Bitcoin abbia una frequenza predeterminata con cui i token vengono immessi in circolazione. Limitare la frequenza (statistica) di produzione dei blocchi nel tempo è naturale in Bitcoin, perché la frequenza di produzione dei blocchi è la frequenza con cui la fornitura iniziale di bitcoin viene venduta. Venderne 21 milioni in 140 anni è una proposta diversa dal consentirne la vendita in 3 mesi.

Inoltre Bitcoin può implementare questa limitazione perché la blockchain è il “protocollo di marcatura temporale sicura” di Szabo. Satoshi descrive Bitcoin prima di tutto come un “server di marcatura temporale distribuito su base peer-to-peer” e le prime implementazioni del codice sorgente di Bitcoin utilizzano il termine “timechain” anziché “blockchain” per descrivere la struttura dati condivisa che implementa il mercato Proof-of-work di Bitcoin.

L'algoritmo di riaggiustamento della difficoltà di Bitcoin sfrutta questa capacità. La blockchain di consenso viene utilizzata dai partecipanti per enumerare le offerte storiche effettuate dall'industria del mining e riaggiustare la difficoltà per avvicinarsi al tempo di blocco target.


Un ordine permanente crea consenso

La catena di semplificazioni causata dalla richiesta di una politica monetaria forte si estende alla fase di “Creazione di moneta” di b-money.

Le offerte inviate dagli utenti in b-money soffrivano del problema del “nulla in gioco”. Non esisteva un meccanismo che impedisse agli utenti di inviare offerte con un'enorme quantità di b-money con pochissimo sforzo. Ciò richiedeva che la rete tenesse traccia delle offerte completate e accettasse solo le “offerte più alte [...] in termini di costo nominale per unità di b-money create” in modo da evitare le offerte indesiderate. Ogni partecipante a b-money doveva tenere traccia di un intero portafoglio di ordini di offerte, abbinarle ai propri calcoli successivi e liquidare solo gli ordini completati con i prezzi più alti.

Questo problema era un esempio del problema più generale del consenso nei sistemi decentralizzati, noto anche come “Generali bizantini”, o talvolta problema della “doppia spesa” nel contesto delle valute digitali. La condivisione di una sequenza identica di dati tra tutti i partecipanti è complessa all'interno di una rete decentralizzata e avversaria. Le soluzioni esistenti a questo problema, i cosiddetti “algoritmi di consenso Byzantine-fault tolerant” (BFT), richiedono un coordinamento preventivo tra i partecipanti o una maggioranza qualificata (>67%) dei partecipanti per evitare comportamenti avversari.

Bitcoin non deve gestire un ampio portafoglio ordini di offerte, perché la sua rete offre un unico prezzo di richiesta di consenso. Ciò significa che i nodi Bitcoin possono accettare il primo blocco (valido) che vedono che soddisfa il prezzo di richiesta corrente della rete: le offerte di disturbo possono essere facilmente ignorate e rappresentano uno spreco di risorse per un miner.

La determinazione del prezzo consensuale dei calcoli consente di abbinare rapidamente gli ordini di acquisto/vendita in Bitcoin, in base al principio “primo arrivato, primo servito”. A differenza di b-money, questo abbinamento di ordini significa che il mercato di Bitcoin non ha fasi: funziona ininterrottamente, con un nuovo prezzo di consenso calcolato dopo ogni singolo ordine abbinato (blocco trovato). Per evitare biforcazioni causate da latenza di rete, o comportamento avversario, i nodi devono anche seguire la regola della catena più pesante. Questa regola garantisce che solo le offerte più alte vengano accettate dalla rete.

Questo algoritmo, in cui i nodi accettano il primo blocco valido che vedono e seguono anche la catena più pesante, è un nuovo algoritmo BFT che converge rapidamente sul consenso sulla sequenza dei blocchi. Satoshi dedica il 25% del white paper di Bitcoin a dimostrare questa affermazione.[7]

Abbiamo stabilito nelle sezioni precedenti che il prezzo di richiesta di consenso di Bitcoin dipende dal fatto che la blockchain sia in consenso, ma a quanto pare l'esistenza di un singolo prezzo di richiesta di consenso è ciò che consente al mercato di abbinare prontamente gli ordini, che è ciò che porta al consenso in primo luogo!

Inoltre questo nuovo “consenso di Nakamoto” richiede solo che il 50% dei partecipanti non sia avversario, un miglioramento significativo rispetto allo stato dell'arte precedente. Un cypherpunk come Satoshi ha compiuto questa svolta teorica nell'informatica, al posto di un tradizionale ricercatore accademico o industriale, grazie alla sua focalizzazione sull'implementazione di una moneta sana/onesta piuttosto che su un generico algoritmo di consenso per il calcolo distribuito.


V. Conclusione

B-money era un framework potente per la creazione di una valuta digitale, ma era incompleto perché privo di una politica monetaria. Vincolare B-money a un programma di rilascio predeterminato ha ridotto la portata e semplificato l'implementazione, eliminando l'obbligo di tracciare e scegliere tra le offerte di creazione di moneta inviate dagli utenti. Preservare il ritmo temporale del programma di rilascio ha portato all'algoritmo di aggiustamento della difficoltà e ha reso possibile il consenso di Nakamoto, ampiamente riconosciuto come uno degli aspetti più innovativi dell'implementazione di Bitcoin.


[*] traduzione di Francesco Simoncelli: https://www.francescosimoncelli.com/


Supporta Francesco Simoncelli's Freedonia lasciando una mancia in satoshi di bitcoin scannerizzando il QR seguente.


______________________________________________________________________________________

Note

[1] Il titolo di questo saggio è stato ispirato dal primo messaggio col telegrafo della storia, inviato da Samuel Morse nel 1844: “Cosa ha fatto Dio?”.

[2] Nonostante l'idea iniziale Dwork & Naor non inventarono la “proof-of-work”, termine che fu coniato più tardi, nel 1999, da Markus Jakobsson e Ari Juels.

[3] Il progetto RPOW di Hal Finney è stato un tentativo di creare una Proof-of-work trasferibile, ma Bitcoin non utilizza questo concetto perché non tratta i calcoli come valuta. Come vedremo più avanti, quando esamineremo bit-gold e b-money, i calcoli non possono essere valuta perché il valore dei calcoli cambia nel tempo, mentre le unità di valuta devono avere lo stesso valore. Bitcoin non è calcoli, è valuta venduta in cambio di calcoli.

[4] A questo punto alcuni lettori potrebbero credere che io disprezzi i contributi di Dai o Szabo perché sono stati poco articolati o vaghi su alcuni punti. La mia opinione è esattamente l'opposto: Dai e Szabo avevano sostanzialmente ragione e il fatto che non abbiano articolato ogni dettaglio come ha fatto successivamente Satoshi non sminuisce il loro contributo. Anzi dovrebbe accrescere il nostro apprezzamento nei loro confronti, poiché rivela quanto sia stato impegnativo l'avvento della valuta digitale, anche per i suoi migliori esperti.

[5] Qui vengono fatte due semplificazioni:

  1. Il numero di bitcoin venduti in ogni blocco è influenzato anche dal mercato delle commissioni di transazione, il quale esula dall'ambito di questo saggio, ma si rimanda a lavori successivi.
  2. La difficoltà segnalata da Bitcoin non è esattamente il numero di calcoli previsti; bisogna moltiplicarlo per un fattore di proporzionalità.

[6] Almeno non dai vecchi tempi in cui Satoshi era l'unico miner sulla rete.

[7] Satoshi ha commesso un errore sia nella sua analisi nel white paper, sia nella successiva implementazione iniziale di Bitcoin, utilizzando la regola della “catena più lunga” invece della “catena più pesante”.

______________________________________________________________________________________

 

venerdì 8 novembre 2024

Un testo elementare sul libero mercato dell'elettricità

 

 

di Robert Bradley

L'elettricità è uno dei settori più regolamentati dell'economia statunitense. Un secolo di barriere all'ingresso e tariffe dei servizi pubblici non ha fatto altro che far soccombere il settore a tutta una serie di nuovi interventi governativi. L'elettricità all'ingrosso è pianificata centralmente nella maggior parte degli stati, creando un mercato al dettaglio artificiale. Allo stesso tempo le politiche governative hanno sempre più sostituito la generazione termica (gas naturale, petrolio, carbone e nucleare) con energia eolica e solare intermittente, cosa che richiede costosi accumulatori di energia sotto forma di batterie.

Oggi un numero crescente di regioni è soggetto a tariffe elettriche in aumento, appelli per la conservazione e interruzioni del servizio. Il grande blackout del Texas del febbraio 2021 ha causato centinaia di morti per mancanza di riscaldamento e altri servizi, per non parlare di cento miliardi di dollari di danni. La California, che nel 2000-2001 ha subito carenze che hanno portato alla chiusura di aziende e scuole, sopporta tariffe “verdi” che sono il doppio rispetto alla media nazionale. Altri stati e regioni stanno perseguendo linee di politica che preannunciano risultati simili.

La discoordinazione economica può creare disagi, interrompere il servizio e persino uccidere, ma questa minaccia all'elettricità affidabile e conveniente non è il risultato di un fallimento del mercato, bensì di un fallimento dello stato, alimentato anche dagli errori dei cosiddetti esperti fuorviati dal problema della conoscenza e dalla politicizzazione.


Elettricità regolamentata

Per più di un secolo, l'elettricità è stata regolamentata come un “monopolio naturale”. Negli ultimi decenni la rete interconnessa per la distribuzione dell'elettricità (“la rete”) è stata regolamentata come un “bene comune”.[1] Una transizione forzata all'eolico e al solare, guidata da Big Green, ha creato una tempesta perfetta di aumenti dei costi e instabilità del servizio. Questo tsunami statalista implora un'alternativa non governativa.

La teoria del monopolio naturale postula situazioni in cui un'azienda porta all'esaurimento le economie di scala, acquistando concorrenti e raggiungere una posizione dominante al minor costo. La progressione naturale verso il controllo del singolo permette a un'azienda di “sfruttare” i consumatori.

“È riconosciuto che la moltiplicazione dei cavi aerei è un male e un pericolo impellente", scrisse un riformatore nel 1889. “Si può dubitare che sia il colmo della follia continuare lungo questa strada, e che davvero l'unico modo razionale di affidare il servizio elettrico a società costituite sia consentire a una sola società di operare in un distretto e controllare i prezzi con mezzi diversi dalla concorrenza?”[2]

Circa 80 anni dopo l'economista Alfred Kahn descrisse la “prestazione accettabile” per il “monopolio regolamentato” come una situazione in cui c'è bisogno di “barriere all'ingresso, impostazione dei prezzi, prescrizione della qualità e delle condizioni del servizio, e l'imposizione di un obbligo di servire tutti i richiedenti a condizioni ragionevoli”.[3] Il quid pro quo della protezione del franchising per l'azienda in cambio di tariffe massime autorizzate da un'autorità centrale divenne noto come patto di regolamentazione.

La regolamentazione dell'elettricità da parte dei servizi pubblici è stata affiancata negli ultimi decenni da un regime normativo più completo: un mercato energetico all'ingrosso pianificato centralmente e basato sull'accesso aperto obbligatorio (AAO) nella trasmissione, da cui può emergere la “concorrenza” sia nella generazione che nella distribuzione. Per portare l'energia alle case e alle aziende, la regolamentazione interstatale da parte della Federal Energy Regulatory Commission (FERC) a metà degli anni '90 è stata affiancata dall'AAO intrastatale a partire dalla California (1996) e dal Texas (1999).[4]

Sotto il cosiddetto retail wheeling, l'utility in franchising ha mantenuto il suo monopolio di trasmissione con tariffe “disaggregate” limitate più un ragionevole ritorno (secondo la regolamentazione dei servizi pubblici). Ma l'utility ha dovuto consentire ai generatori e ai rivenditori esterni di accedere ai suoi cavi, creando rivalità con l'utility in franchising.

Questo sistema non è né una deregolamentazione né una stazione di passaggio verso la deregolamentazione. L'accesso aperto obbligatorio viola i diritti di proprietà privata sottraendo il controllo ai proprietari (dei servizi). “Quello che è tuo è mio”, hanno scritto due critici di questo “socialismo infrastrutturale”.[5]

In secondo luogo, il collegamento vitale della trasmissione è rimasto sotto una rigida regolamentazione in fatto di servizi pubblici.

In terzo luogo, un'entità governativa è tenuta a pianificare e coordinare la rete socializzata di fatto. Ciò che veniva fatto prima dall'azienda, ovvero acquistare, trasportare e vendere energia in base “all'obbligo di servire”, adesso è coordinato dai dipendenti dell'Independent System Operator (ISO) o del Regional Transmission Organization (RTO). Entrambe le agenzie governative si spingono ben oltre il controllo ingegneristico delle operazioni di rete: determinano i prelievi, i prezzi e il rilascio.[6]

Le sette agenzie centrali sono mostrate nella Figura 1, con la regolamentazione tradizionale che governa il Nordovest, il Sudovest e il Sudest (tutti o parte di 17 stati).

Fonte: Federal Energy Regulatory Commission

La decantata “concorrenza” in base all'AAO è artificiale, forzata, sollevando il problema dell'eccesso di entrate e dello spreco di risorse rispetto a ciò che emergerebbe in un vero processo di scoperta di libero mercato.

“Ma niente è così permanente come un programma governativo temporaneo”, scrissero Milton e Rose Friedman nel 1983.[7] La spinta alimentata dallo stato per l'energia eolica e solare dimostra questo punto.

Operativamente collaudati a New York fin dal 1880, le turbine eoliche e i pannelli solari non sono industrie nascenti. Essendo diluite e intermittenti (il sole non splende sempre, né il vento soffia perennemente), entrambe le fonti di energia erano antieconomiche e indesiderate per generare elettricità, soprattutto se confrontate con l'elettricità più affidabile e distribuibile generata prima col carbone e l'idroelettrico, poi con il petrolio e il gas naturale.

L'attuale boom dell'energia eolica può essere ricondotto all'Energy Policy Act del 1992, il quale ha introdotto un considerevole credito d'imposta per ogni kilowattora generato. Destinato a scadere nel 1999, il credito è stato prorogato 14 volte. Il beneficio fiscale ha persino consentito ai produttori di energia eolica di offrire prezzi negativi, pagando le persone per usare l'elettricità. Tale situazione paradossale ha causato il ritiro prematuro di mezzi affidabili di produzione di energia e l'assenza di nuovi ingressi nel settore, esponendo la rete a problemi di affidabilità in periodi di picco della domanda o eventi imprevisti.

I sussidi federali per l'energia solare risalgono al 1978 e sono stati prorogati 15 volte. Il boom risale all'EPAct del 1992, il quale ha triplicato l'Investment Tax Credit (ITC) per coprire il 30% dei costi di installazione dell'energia solare.

La duplicazione della rete con una generazione più costosa e inaffidabile è una storia di lobbying spiegata dal fenomeno dei benefici concentrati, dei costi diffusi e dalla politica dei battisti (ambientalisti) e dei contrabbandieri (aziende eoliche e solari). La linea di politica governativa in questi casi ha creato grandi industrie che avrebbero avuto solo applicazioni di nicchia, come l'energia solare fuori dalla rete.

Il controllo della rete da parte di ISO/RTO ha semplificato l'ingresso dell'energia eolica e solare in grandi regioni. Le preferenze fiscali sproporzionate, le disposizioni federali obbligatorie e il basso costo marginale hanno garantito un rapido ingresso dell'elettricità più costosa e meno affidabile. La politica climatica della decarbonizzazione è evidente nelle sette regioni di controllo.


Normativa di libero mercato

Un libero mercato dell'elettricità è definito come l'assenza di proprietà, controllo o regolamentazione governativa. Elettricità e stato sono separati, a parte la protezione legale contro la forza o la frode. Lo stato sostiene in modo neutrale l'applicabilità dei contratti privati e di altre norme di mercato in base allo stato di diritto.

La proprietà e il controllo privati dirigono ogni fase del settore, dalla generazione alla trasmissione fino alla consegna e all'utilizzo finali. Entrata, uscita, prezzi e altri termini di servizio non sono prescritti dallo stato in un contesto di libero mercato. L'organizzazione industriale (come l'integrazione verticale o orizzontale) non è limitata; il coordinamento dei gruppi commerciali e la cooperazione tra aziende sono esenti da controllo antitrust. Oltre a ciò, un processo di scoperta del mercato determinerebbe i particolari del settore.

Il liberalismo classico mette in guardia contro la direzione e il controllo dello stato, dal socialismo assoluto (proprietà municipale) alla protezione del franchising e ai massimali tariffari basati sui costi (regolamentazione dei servizi pubblici), all'accesso aperto obbligatorio per le parti esterne (un'acquisizione non compensata), ai requisiti dell'energia rinnovabile (la sostituzione forzata dell'energia eolica e solare).[8]

La storia offre forti prove a favore dei mercati liberi rispetto al controllo statale dell'elettricità. I problemi di regolamentazione e pianificazione in un contesto politico hanno portato a un secolo di interventi in espansione, da locali a statali fino a quelli federali (si veda la Figura 2).

L'era dell'elettricità di libero mercato, frutto dell'azione umana ma non della progettazione umana, risale all'inizio del settore fino all'avvento della regolamentazione dei servizi pubblici. La “regolamentazione tramite concorrenza” è durata decenni: a New York dal 1882 al 1905; in Illinois dal 1881 al 1914; in California dal 1879 al 1911.[9]

L'era del mercato fu caratterizzata da tariffe in calo, utilizzo in espansione e servizio affidabile.[10] “Vendi il tuo prodotto a un prezzo [che] ti consentirà di ottenere un monopolio”, disse il padre del moderno servizio elettrico integrato (e protetto di Thomas Edison), Samuel Insull, prima della regolamentazione dei servizi pubblici nel suo stato.[11]

La politica tariffaria “taglia e vinci” e “ridicolmente bassa” di Insull consolidò ed espanse il mercato di Chicago, un modello che poi portò nei sobborghi e nelle campagne.[12] Con il suo territorio assicurato, questo cosiddetto monopolista naturale cercò di “fare di tutto per abbassare i costi di produzione [...] in modo da servire il pubblico e ottenere/conservarne la buona volontà”.[13]

Il processo di mercato non veniva mai terminato dopo che un'azienda aveva consolidato un'area sostituendo piccole e inefficienti “dinamo” con grandi generatori in stazioni centrali e installando una trasmissione a valle per raggiungere utenti distanti. La competizione per il mercato era un processo, non un punto di arrivo.

Insull sfruttò le economie di scala, dalla “produzione di massa” al “vangelo del consumo”. Il fattore di carico fondamentale, ovvero l'utilizzo medio delle apparecchiature di generazione e trasmissione, richiedeva di riempire le valli di utilizzo tra i picchi. La redditività della stazione centrale, per non parlare dell'affidabilità, era guidata da una tariffazione in due parti, in base alla quale gli utenti pagavano un sovrapprezzo speciale per i macchinari in modo che fossero pronti per il loro picco di domanda. Le utility interconnettevano le loro reti (la “superutility”) per migliorare i fattori di carico con meno investimenti.[14] Tutto questo come se fosse guidato da una “mano invisibile”.

La fisica dell'elettricità guidava gli imprenditori di mercato. L'integrazione verticale e orizzontale rifletteva economie di scala con una merce che doveva essere consumata nel momento in cui veniva generata. L'affidabilità doveva essere infallibile, le case elettrificate e gli uffici cablati non potevano rimanere al buio, gli ascensori e i tram non potevano essere bloccati. L'accumulo in batterie di emergenza entrò in scena a metà del decennio del 1890, per quanto costoso serviva a evitare i costi umani e finanziari dei blackout.[15]

Le operazioni integrate e dirette dal mercato determinarono un'accessibilità economica senza precedenti e un servizio continuo e coordinato. La responsabilità era sotto lo stesso tetto del capitale di quella (grande) azienda a rischio di blackout. È vero, pochi o nessun indipendente nella generazione, trasmissione o distribuzione potevano competere con il “monopolio naturale”, tuttavia l'unicità dell'elettricità richiedeva un funzionamento multifase altamente coordinato, evidente nel petrolio e nel gas naturale (in un libero mercato). La protezione governativa del franchising non era necessaria.

L'elettricità non è mai stata considerata una risorsa comune in contrasto con i diritti di proprietà privata definibili e un funzionamento efficiente. La teoria dei “beni comuni” è nata solo con la trasmissione ad accesso aperto imposta dallo stato, di per sé una chiara violazione dei diritti di proprietà privata. Durante l'era di mercato dell'elettricità, ampie aree di controllo o bilanciamento (economie di scala) erano all'interno dell'azienda, non all'esterno.


Regolamentazione guidata dalle utility: monopolio innaturale

Le economie di scala riducono notevolmente la rivalità tra aziende, ma lo “sfruttamento”, in cui un monopolista naturale trattiene l'offerta o aumenta i prezzi per i suoi clienti prigionieri, non è pervenuto. “La teoria economica del monopolio naturale è estremamente breve ed [...] estremamente poco chiara”, ha osservato l'economista Harold Demsetz. “Non riesce a dimostrare i passaggi logici che la portano dalle economie di scala nella produzione al prezzo di monopolio sul mercato”.[16]

Infatti i “monopolisti naturali” si sono rivolti al monopolio innaturale tramite la regolamentazione dei servizi pubblici a livello statale. In un discorso storico del 1898 davanti alla National Electric Light Association (ora Edison Electric Institute), Samuel Insull della Chicago Edison Company chiese una via di mezzo tra “socialismo municipale” e “concorrenza”.

Il franchising competitivo, si lamentava, “spaventa l'investitore e costringe le aziende a pagare un prezzo molto alto per il capitale”. Un consolidamento “inevitabile” pone fine allo spreco economico di strutture duplicate. La soluzione era il quid pro quo di franchigie esclusive per la regolamentazione delle tariffe.

Il miglior servizio al prezzo più basso possibile può essere ottenuto solo [tramite] franchigie esclusive [...] unite alla condizione del controllo pubblico che richiede che tutti i prezzi per i servizi stabiliti dagli enti pubblici siano basati sul costo, più un profitto ragionevole [...]. Più certa è la protezione [del franchising], più basso sarà il tasso d'interesse e più basso sarà il costo totale di esercizio e, di conseguenza, più basso sarà il prezzo del servizio per gli utenti pubblici e privati.[17]

Le tariffe scesero e il servizio si espanse rapidamente senza tale regolamentazione. Non c'era alcun “fallimento del mercato”, tanto meno un notevole malcontento dei contribuenti. I leader del settore dovevano creare la domanda di regolamentazione con campagne di pubbliche relazioni e sforzi di lobbying.[18]

Insull e altri leader del settore desideravano bloccare nuovi entranti e assicurarsi un profitto migliore con la regolamentazione del costo del servizio, ma una preoccupazione primaria era quella di evitare una regolamentazione locale potenzialmente punitiva e la minaccia della municipalizzazione.[19] L'economia politica della regolamentazione, che come una valanga avrebbe portato a una serie di nuove norme, era evidente.

Fallimento ed espansione della regolamentazione

Le commissioni statali che regolamentavano l'elettricità come servizio pubblico iniziarono nel Massachusetts (1887), New York (1905) e Wisconsin (1907). Il fervore intellettuale e industriale per tale controllo portò all'adesione di altri 35 stati all'inizio degli anni '20 del Novecento.[20]

Adottati come ideale progressista, esperti imparziali si misero a implementare una regolamentazione “scientifica” basata su dati determinabili, ma la soggettività intervenne e i monopolisti legali “impararono a regolamentare la regolamentazione”.[21] Le utility giocarono con la regolamentazione del costo del servizio massimizzando (gonfiando) la base tariffaria e sfuggirono alla giurisdizione delle commissioni statali tramite transazioni interaziendali o interstatali.

“I primi sostenitori della regolamentazione statale”, osservò l'economista John Bauer, “pensavano di aver trovato il modo di sfruttare il monopolio privato a vantaggio pubblico”. Invece

la regolamentazione è stata inefficace. Non ha fornito l'estensione e la regolarità della protezione dei consumatori come previsto [...]. Peggio ancora, ha permesso le perversioni di organizzazione e gestione nel settore dell'energia elettrica durante gli anni '20, le quali hanno creato ulteriori barriere a una regolamentazione soddisfacente.[22]

Un crollo della regolamentazione portò a un intervento sempre più ampio.[23] Due importanti leggi del New Deal vennero promulgate nel 1935: il Federal Power Act estese la regolamentazione dei servizi pubblici al commercio interstatale, conferendo poteri alla Federal Power Commission (ora Federal Energy Regulatory Commission); il Public Utility Holding Company Act impedì alle società di holding elettriche (e del gas) di possedere proprietà separate in stati diversi. L'integrazione orizzontale era limitata a una proprietà contigua. Seguirono importanti disinvestimenti di società di gas ed elettricità.[24]

Colmare le lacune normative con un intervento sempre più ampio (da locale a statale a federale) era all'ordine del giorno (vedere Figura 2). L'affidamento alla “regolamentazione tramite la concorrenza” venne politicamente dimenticato.[25]

Fonte: Immagine dell'autore


Replica liberale classica

La regolamentazione dei servizi di pubblica utilità venne poco contestata fino agli anni '60, quando gli economisti di libero mercato riesaminarono il caso del fallimento del mercato e dell'intervento statale “correttivo”.

In Capitalism and Freedom, Milton Friedman sosteneva il “monopolio privato non regolamentato ovunque questo fosse tollerabile”.[26] George Stigler si schierò dalla parte dei mercati imperfetti, confrontando la teoria con la pratica: “I meriti del laissez-faire si basano meno sui suoi fondamenti teorici e più sui suoi vantaggi nei confronti delle prestazioni effettive di forme rivali di organizzazione economica”.[27]

Harvey Averch e Leland Johnson spiegarono il gold-plating, un processo mediante il quale le aziende soggette a regolamentazione dei servizi di pubblica utilità sono incentivate ad ampliare artificialmente (e in modo antieconomico) la base tariffaria su cui viene calcolato il loro tasso di rendimento regolamentato.[28] Più investimenti di capitale, maggiori profitti. Con una base tariffaria deprezzabile su cui applicare il tasso di rendimento consentito, si incoraggiava un investimento eccessivo per mantenere la redditività. Mantenere le apparecchiature obsolete nei libri contabili era una strategia; stipulare contratti per centrali nucleari nonostante il rischio di ritardi nella costruzione e costi gonfiati era un'altra.

“Why Regulate Utilities?” (1968) di Harold Demsetz fornì un'indicazione per la libera concorrenza di mercato. Sosteneva che la rivalità per un franchising forniva concorrenza per il settore. In altre parole, più aziende potevano fare offerte per vincere i diritti di monopolio dove i vantaggi delle economie di scala si sarebbero riflessi nelle tariffe e in altri termini di servizio.

Gli acquirenti, seguendo questa linea di ragionamento, potevano organizzarsi come un monopsonio per stipulare contratti contro un'unica azienda già operativa. Senza regolamentazione, gli imprenditori terzi potevano sottoscrivere blocchi di contribuenti per contrastare un'azienda di servizi di pubblica utilità con un unico venditore ed evitare lo “sfruttamento”. Avvocati e consulenti avrebbero avuto una nicchia di libero mercato per realizzare l'autoregolamentazione e lo stato sarebbe stato messo da parte.

Scrisse Demsetz: “[L]a rivalità del mercato aperto disciplina in modo più efficace rispetto ai processi normativi delle commissioni. Se i dirigenti delle aziende di servizi di pubblica utilità dubitano di questa convinzione, suggerisco loro di riesaminare la storia del loro settore per scoprire chi ha fornito la maggior parte della forza dietro il movimento normativo”.[29] Infatti non sono stati i consumatori, ma coloro che dovevano essere regolamentati, con gli esperti al seguito, a fare pressioni per ottenere il patto normativo.

Non furono solo gli economisti della Scuola di Chicago a mettere in discussione il monopolio naturale come pretesto per la regolamentazione dei servizi di pubblica utilità.[30] L'economista aziendale Walter Primeaux Jr. ha documentato la rivalità tra aziende, definita come “situazione in cui due aziende elettriche servono la stessa città e i consumatori hanno la possibilità di essere serviti da un'azienda o dall'altra”.[31] Furono identificate quasi 50 città in una situazione di monopolio non così naturale. Altrimenti esisteva una competizione tra combustibili per diversi servizi energetici, tra cui gas naturale, propano, elettricità e petrolio.

Anche la Scuola Austriaca era in disaccordo con il fallimento del mercato e la regolamentazione dei servizi di pubblica utilità. “Un settore di 'servizi pubblici' non differisce concettualmente da nessun altro, e non esiste un metodo non arbitrario con cui possiamo designare alcuni settori come 'vestiti di interesse pubblico', mentre altri no”, scrisse Murray Rothbard nel 1962.[32] La concorrenza in sé non riguardava il numero di aziende (anche se ce n'era solo una), ma le condizioni di entrata/uscita e di funzionamento senza barriere.

Una visione liberale classica spiegava il processo di mercato intrinsecamente competitivo. La concorrenza poteva comportare una rivalità diretta con strutture duplicate, oppure poteva essere un'unica azienda a mantenere un mercato contro potenziali rivali. In entrambi i casi, i costi privati e pubblici dell'intervento statale potevano essere aggirati e i segnali di mercato ripristinati.

Questa tradizione venne resa popolare da un libro curato da Robert Poole Jr., Unnatural Monopolies: The Case for Deregulating Public Utilities (1985). L'eccesso di capitale e il ritardo normativo erano solo due problemi che impedivano “la modernizzazione e un servizio più responsabile”, spiegava l'introduzione.[33]


Socialismo infrastrutturale: accesso aperto obbligatorio

Gli incentivi perversi basati sulle tariffe (maggiori profitti derivanti dalla sovracapitalizzazione) raggiunsero il loro apice con gli sforamenti di costo associati alle centrali nucleari, di per sé un'industria alimentata dallo stato.[34] I grandi impegni per il nucleare da parte delle utility negli anni '60 provocarono problemi senza precedenti negli anni '70, persino cancellazioni in fase di costruzione. Nel frattempo il rapido miglioramento della generazione a gas naturale creò una grande disparità tra il costo marginale dell'energia generata dai nuovi impianti rispetto al costo medio dell'energia gonfiato dalle utility.

Con la legislazione federale del Public Utility Regulatory Policies Act del 1978 (PURPA), che sovvenzionava i produttori di energia indipendenti, in particolare la cogenerazione a gas, i gruppi di clienti fecero pressioni per un'elettricità più economica che potesse essere trasportata a tariffe con tetto massimo dei costi. Ciò suscitò entusiasmo tra economisti e regolatori a favore dell'accesso aperto obbligatorio, in base al quale le utility erano obbligate ad aprire i loro cavi (regolati dalle tariffe) a terze parti tra l'impianto di generazione e il consumatore. L'Energy Policy Act del 1992 prescriveva tale “wheeling” interstatale, così come le successive iniziative a livello statale per l'accesso all'ultimo miglio (al dettaglio).[35]

L'AAO ha declassato la pianificazione e il servizio di pubblica utilità all'autorità dello stato per quanto riguarda chi, cosa, dove e quanta energia, e su più aree di pubblica utilità. I bacini di energia centralizzati ISO/RTO hanno consentito alle nuove aziende di acquistare e vendere la merce. La continua regolamentazione della trasmissione-distribuzione da parte dei servizi pubblici (“mettere in quarantena il monopolio”) ha consolidato la protezione del franchising, eliminando al contempo l'incentivo del profitto per il miglioramento.

Il calcolo economico ha tormentato le ISO/RTO: per le aziende la determinazione dei prezzi in due parti (tariffa di domanda e tariffa volumetrica) ha consentito di soddisfare la domanda di picco in modo redditizio, ma per i pianificatori centrali incaricati dell'affidabilità dell'intero sistema le diverse opzioni si sono rivelate difficili e persino distruttive. Alcune regioni hanno implementato “tariffe di capacità” per premiare i generatori per la capacità di riserva. Altre hanno puntato su prezzi “solo energia”, scommettendo che un'ampia capacità sarebbe stata incitata da periodici cali di prezzo. La “taglia unica” ha sostituito una tariffa personalizzata e meno centralizzata per il cliente.

Il benessere dei consumatori e “l'obbligo di servire” sono andati perduti nella transizione alla pianificazione centralizzata, così come nella ricerca governativa di decarbonizzazione. Peggio ancora, gli errori delle agenzie governative (come l'aumento in preda al panico dei prezzi della sola energia in Texas nel febbraio 2021) sono stati protetti dall'immunità sovrana.


Riforma di libero mercato

Un libero mercato dell'elettricità porrebbe fine alle attuali disposizioni di statuti federali come il Power Act del 1935, il Public Utility Holding Company Act del 1935, il Public Utility Regulatory Policies Act del 1978, l'Energy Policy Act del 1992, l'Energy Policy Act del 1995 e l'Inflation Reduction Act del 2022. L'abrogazione della regolamentazione dei servizi pubblici sarebbe richiesta a livello statale, tra cui il Public Utility Regulatory Act del 1975 del Texas, il Public Utility Regulatory Act del 1995 e l'Electric Restructuring Act del 1999.

Le riforme di cui sopra eliminerebbero le funzioni elettriche della Federal Energy Regulatory Commission (nata Federal Power Commission) e della Securities and Exchange Commission, nonché, in Texas, della Public Utility Commission e dell'Electric Reliability Council. Organismi semi-governativi come la North American Electric Reliability Corporation e la National Association of Regulatory Utility Commissioners verrebbero riorganizzati secondo linee private, o chiusi.

In altre parole, un programma di riforma di libero mercato eliminerebbe:

• Protezione delle franchigie, regolamentazione delle tariffe e regole di entrata/uscita

• Decreti di trasmissione a livello federale e statale

• Limitazioni della struttura del settore

• Sussidi fiscali e altre preferenze per nucleare, eolico, solare, batterie, ecc.

• Restrizioni sugli accordi volontari tra aziende (legge antitrust)

Un vero libero mercato basato sui diritti di proprietà privata mette gli imprenditori in cerca di profitto, non i regolatori e i pianificatori, a capo della produzione, trasmissione e distribuzione dell'elettricità. Le aziende sarebbero contrattualmente soggette ai consumatori o ai loro rappresentanti. Cesserebbero gli incentivi malevoli che aumentano le tariffe, così come le spese associate a terze parti.

Dell'esercito di esperti e pianificatori nel mondo dell'elettricità politicizzata, alcuni diventerebbero dipendenti o consulenti per le aziende con potere di mercato o rappresenterebbero blocchi di consumatori che negoziano con queste aziende. Con la pianificazione centralizzata e i dettagli normativi declassati, le risorse liberate e l'imprenditorialità ampliata spingerebbero il processo di distruzione creativa alla ricerca di tariffe migliori e altri termini di servizio.


Conclusione

Il libero mercato non ha fallito nell'offrire i suoi benefici nei decenni iniziali dell'elettricità commerciale. Gli imprenditori, sebbene ostacolati dallo stato, hanno servito con successo case, aziende e industrie. Il risultato complessivo è stato un ordine non progettato che ha premiato sia i fornitori che i consumatori.

La svolta verso la regolamentazione dei servizi pubblici era politica, non economica. Una fede ingenua nel controllo capillare ha conferito nuovi poteri allo stato, ma le soluzioni si sono rivelate illusorie poiché tale interventismo ha creato nuovi problemi. I regolatori non erano imparziali e le questioni complicate sui costi “prudenti” e sui profitti “ragionevoli” sono diventate punti critici.

Le basi tariffarie gonfiate dei servizi hanno creato una grande discrepanza nei costi che l'accesso aperto obbligatorio pretendeva di fornire ai consumatori. Ma la pianificazione centrale, unita all'integrazione della generazione eolica e solare alimentate dallo stato, ha lasciato i contribuenti e l'economia con il peggiore dei mondi possibili.

L'elettricità di libero mercato si basa su fondamenta teoriche ed evidenti consolidate nel tempo. Purtroppo l'alternativa liberale classica alla regolamentazione pesante è stata ignorata (non confutata) per più di un secolo. Un ripensamento radicale e una successiva riforma politica promettono di abbassare le tariffe, garantire l'affidabilità e liberare risorse per il resto dell'economia: una vittoria quasi per tutti, tranne che per una parte della popolazione politica che, giustamente, dovrebbe essere smantellata.


[*] traduzione di Francesco Simoncelli: https://www.francescosimoncelli.com/


Supporta Francesco Simoncelli's Freedonia lasciando una “mancia” in satoshi di bitcoin scannerizzando il QR seguente.


____________________________________________________________________________________

Note

[1] La tesi delle risorse comuni organizzate dallo stato è stata avanzata da L. Lynne Kiesling, Deregulation, Innovation and Market Liberalization: Electricity Regulation in a Continually Evolving Environment (New York: Routledge, 2009), capitolo 8.

[2] Charles Whiting Baker, Monopolies and the People (New York: G. P. Putnam’s Sons, 1889), pp. 66–67. Nel 1920 la questione principale era come regolare al meglio il mercato. Si veda, per esempio, Charles Stillman Morgan, Regulation and the Management of Public Utilities (Boston, MA: Houghton Mifflin, 1923).

[3] Alfred Kahn, The Economics of Regulation: Principles and Institutions (Cambridge, MA: The MIT Press, 1970, 1995), vol. 1, pp. 3, 11.

[4] Questo intervento fu preceduto dalle leggi del diciannovesimo secolo sugli acquirenti comuni e sui trasportatori comuni emanate grazie alla forza politica dei produttori di petrolio greggio a spese degli oleodotti. Robert L. Bradley Jr., Oil, Gas, and Government: The U.S. Experience (Lanham, MD: Rowman & Littlefield, 1996), pp. 118–119, 609–18. Ha sfruttato la cosa anche l'AAO a spese degli oleodotti di gas naturale. Robert L. Bradley Jr., “The Distortions and Dynamics of Gas Regulation” in New Horizons in Natural Gas Deregulation, ed. Jerry Ellig and Joseph Kalt (Westport, CT: Praeger, 1996), pp. 16–19.

[5] Adam D. Thierer and Clyde Wayne Crews Jr., What’s Yours Is Mine: Open Access and the Rise of Infrastructure Socialism (Washington, DC: Cato Institute, 2003).

[6] In termini di economia politica queste agenzie svolgono una “pianificazione non esaustiva”, in contrapposizione alla piena proprietà e al controllo delo stato. Don Lavoie, National Economic Planning: What Is Left? (Cambridge, MA: Ballinger Publishing, 1985), pp. 3–4.

[7] Milton and Rose Friedman, Tyranny of the Status Quo (New York: Harcourt Brace Jovanovich, 1983), p. 115.

[8] I mandati di utilizzo finale e la regolamentazione della conservazione sarebbero un'altra intrusione al di fuori delle azioni di mercato nel settore elettrico. La domanda sarebbe regolata da prezzi e contratti, non da politiche governative.

[9] Prima della regolamentazione statale i comuni emettevano franchigie e spesso prescrivevano tariffe massime. Ma non tutti lo facevano e le utility avevano generalmente margine di manovra entro i vincoli tariffari. Anche sfide legali e lasca applicazione delle norme hanno caratterizzato l'era del libero mercato dell'elettricità.

[10] Robert Bradley, Jr. “The Origins of Political Electricity: Market Failure or Political Opportunism?Energy Law Journal 17, no. 1 (1996), pp. 60–61, 70.

[11] Samuel Insull, “Sell Your Product at a Price Which Will Enable You to Get a Monopoly,” in Central-Station Electric Service: Selected Speeches, 1897–1914 (Chicago, IL: Privately Printed, 1915), p. 116.

[12]
Un biografo di Insull ha descritto la strategia come “una parte di servizio di qualità, due parti di vendita aggressiva e tre parti di tagli alle tariffe”. Forrest McDonald, Insull (Chicago, IL: University of Chicago Press, 1962), p. 104. Si veda Robert L. Bradley Jr., Edison to Enron: Energy Markets and Political Strategies (Hoboken, NJ: John Wiley & Sons; and Salem, MA: Scrivener Publishing, 2011), pp. 71–72.

[13] Samuel Insull, “The Obligations of Monopoly Must Be Accepted”, in Central-Station Electric Service, p. 122.

[14] Bradley, Edison to Enron, pp. 71–77.

[15] Bradley, Edison to Enron, p. 90.

[16] Harold Demsetz, “Why Regulate Utilities?The Journal of Law and Economics 11, no. 1 (April 1968), p. 56.

[17] Insull, “Standardization, Cost System of Rates, and Public Control”, June 7, 1898. Ristampato in Insull, Central-Station Electric Service, p. 45.

[18] Lo sforzo di Insull (e di Theodore Vail) per influenzare l'opinione pubblica verso la regolamentazione implicava “servizi editoriali standard, l'invio di manager a diventare leader di gruppi comunitari, la produzione di articoli scritti da ghostwriter e la modifica dei libri di testo scolastici”. Si veda Marvin N. Olasky, Corporate Public Relations: A New Historical Perspective (Hillsdale, NJ: Lawrence Erlbaum Associates, 1987), capitolo 4.

[19] Bradley, Edison to Enron, pp. 86–88.

[20] Robert L. Bradley Jr. “The Origins of Political Electricity”, pp. 65–66.

[21] William E. Mosher et al., Electrical Utilities: The Crisis in Public Control, ed. Mosher (New York: Harper & Bros., 1929), p. 1.

[22] John Bauer and Peter Costello, Public Organization of Electric Power: Conditions, Policies, and Programs (New York: Harper & Brothers, 1949), pp. 37–38.

[23] Si veda Bradley, “The Origins of Political Electricity”, pp. 81–82.

[24] Douglas W. Hawes, Utility Holding Companies: A Modern View of the Business, Financial, SEC, Corporate Law, Tax, and Accounting Aspects of Their Establishment, Operation, Regulation, and Role in Diversification (New York: Clark Boardman Co., 1987), at 2-18.

[25] Bradley, “The Origins of Political Electricity”, pp. 75–76, 77–78, 78–82.

[26] Milton Friedman, Capitalism and Freedom (Chicago, IL: University of Chicago Press, 1962), p. 155.

[27] George J. Stigler, “Monopoly”, in The Fortune Encyclopedia of Economics, ed.David R. Henderson (New York: Warner Books, 1993), p. 409.

[28] Harvey Averch and Leland L. Johnson, “Behavior of the Firm Under Regulatory Constraint”, American Economic Review 52, no. 5 (1962): 1052–69.

[29] Demsetz, “Why Regulate Utilities?”, p. 65.

[30] Demsetz, “Why Regulate Utilities?”, p. 55. Richard A. Posner, Natural Monopoly and Its Regulation (Preface of the 30th Anniversary Edition. Washington, DC: Cato Institute, [1969], 1999), p. vi.

[31] Walter J. Primeaux Jr., Direct Electric Utility Competition: The Natural Monopoly Myth (New York: Praeger, 1986), p. ix.

[32] Murray Rothbard, Man, Economy and State: A Treatise on Economic Principles (Los Angeles, CA: Nash Publishing, 1962), pp. 619–20.

[33] Robert W. Poole Jr.,Unnatural Monopolies: The Case for Deregulating Public Utilities (Lexington, MA: Lexington Books, 1985). Un capitolo era di Primeaux, presentato a Poole da Gordon Tullock, uno dei fondatori della scuola Public Choice.

[34] Negli anni '50 le centrali nucleari richiedevano limiti di responsabilità (il Price Anderson Act del 1957), cinque anni di uranio arricchito gratuito dalla Atomic Energy Commission e un'azione di pressione da parte dei funzionari statali e federali affinché le aziende di servizi pubblici stipulassero contratti nucleari sotto la protezione della regolamentazione dei servizi pubblici (per il trasferimento dei costi e un profitto).

[35] Si veda Paul L. Joskow, “The Difficult Transition to Competitive Electricity Markets in the United States,” in Electricity Deregulation: Choices and Challenges, ed. James M. Griffin and Steven L. Puller (Chicago, IL: University of Chicago Press, 2005), pp. 31–97. Si veda qui per la versione originale del 2003.

____________________________________________________________________________________