In natura le forze fondamentali conosciute sono quattro: nucleare forte, nucleare debole, elettromagnetica e gravitazionale. Governano ogni fenomeno fisico, dal comportamento delle particelle elementari fino alla dinamica di stelle e galassie; sono dette fondamentali perché sembrano non derivare da altri fenomeni e descrivono tutte le interazioni.
Uno degli scopi fondamentali della fisica contemporanea è raggiungere da un punto di vista teorico e sperimentale un quadro completo di unificazione nel quale queste quattro forze non sono più fondamentali, ma quattro differenti manifestazioni di una sola e unica forza descritta in una teoria detta del “tutto” (Theory of Everything, TOE) che si pensa sia valida però, solo alle energie estreme dei primi istanti cosmologici, dai quali, al diminuire dell’energia, emergono progressivamente le quattro interazioni fondamentali.
In questo articolo esaminiamo lo stato attuale della conoscenza, le nuove possibilità offerte dallo sviluppo della Bridge Theory e le prospettive che derivano dalla possibile esistenza di un’unica forza a qualunque ordine di scala dell’energia.




Perseguendo la strada dell’unificazione, dopo gli anni 60′ si potè ridurre il numero delle forze fondamentali da quattro a tre. Infatti, a seguito della conferma nel 1983 ad opera del gruppo di ricerca diretto da Carlo Rubbia al SppS (Super Proton-Proton collider) di Ginevra, convertito per lo scopo in un collisore protone-antiprotone, della teoria elettrodebole di Weinberg, Glashow e Salam (1960-1967) mediante la scoperta dei mediatori W e Z, si dimostrò inequivocabilmente che le forze nucleari deboli sono una differente manifestazione delle forze elettromagnetiche. Questa scoperta permise di unificare la forza nucleare debole con la forza elettromagnetica in un’unica forza detta “elettrodebole“, la quale prevede complessivamente l’esistenza di quattro mediatori: il fotone gamma, lo Z neutro e i due mediatori W carichi. La teoria predice però che l’unificazione valga solo per energie elevate e non allo stato di bassa energia, per questo motivo nel diagramma in Figura 1 mentre l’unficazione elettromagnetica compare a qualunque valore di energia, l’unificazione elettrodebole appare solo ad energie dell’ordine di 100 GeV.
Dallo scenario di unificazione che si sta delineando, ci sono per il momento due grandi escluse, la forza nucleare forte e la forza di gravità. Mentre la forza nucleare forte sappiamo che è sicuramente quantizzata ma non unificata nella teoria di Grande Unificazione (Grand Unification Theory – GUT) con l’elettrodebole, la strada per la quantizzazione e unificazione della forza di gravità, come abbiamo visto sembra essere ancora lunga e non semplice, perché la fenomenologia gravitazionale non solo non mostra alcun indizio di quantizzazione, anche se esistono più teorie che la prevederebbero, ma il suo meccanismo di azione legato alla curvatura dello spaziotempo la allontana da una possibile unificazione con le altre forze in un’unica Theory of Everything.

Il raggiungimento dell’unificazione sembra perciò essere una meta lontana, forse perché i mezzi tecnici a nostra disposizione sono insufficienti ma forse un giorno con maggiore tecnologia si riuscirà nell’intento di capire come tutto può unificarsi, o forse perché stiamo guardando un elefante con una lente di ingrandimento e nel cerchio della lente vediamo incredibili particolari ma non riusciamo a vedere l’elefante nel suo insieme.
Torniamo ancora una volta a Maxwell. La teoria elettromagnetica è stata un incredibile successo, in grado di unificare con eleganza e simmetria la forza elettrica e magnetica ad ogni valore di energia, dimostrado che campo elettrico e magnetico sono fenomenologie fra loro complementari, inoltre la sua capacità predittiva in solo cento anni è stata in grado di permettere lo sviluppo dell’elettronica, delle telecomunicazioni, dell’informatica, della robotica e mentre tutto questo accadeva, proprio con l’aiuto dell’elettronica e dell’informatica si sono scoperte e verificate teorie come la Relatività, la Meccanica Quantistica, si sono scoperte nuove particelle, osservati gli atomi al microscopio elettronico, penetrati i segreti del nucleo atomico, quindi nei cento anni successivi che scadranno nel 2065 ci dovremmo aspettare un balzo ben più grande nell’ambito della conoscenza delle leggi della natura e nello spillover tecnologico. Purtroppo, a quella data mancano solo quarant’anni e nei precedenti sessanta quasi tutto è rimaso immutato. Considerando che le teorie quantistiche e relativistiche sono sinergiche ma così come sono formulate sono concettualmente incompatibili, per cercare nuove risposte bisogna prima porsi qualche nuova domanda. Per esempio, come è possibile che un segnale radio si propaghi nel vuoto classicamente come un onda trasportando energia in modo continuo, mentre la luce che ha la stessa natura di un segnale radio sia formata invece da fotoni che trasportano energia in modo quantizzato? Come è possibile che una particella si possa comportare come un’onda solo se non viene osservata? Non basta affermare che la natura è fatta così, in un impeto di riduzionismo bisogna trovare delle risposte.
Sicuramente una giustificazione a questa incongruenza fenomenologica che ha radici nella nostra conoscenza limitata delle leggi della natura possiamo anche darla; infatti, un segnale radio può avere lunghezze d’onda di diversi metri ed è perciò un fenomeno macroscopico descritto da onde elettromagnetiche, mentre lo spettro della luce visibile ma anche quello oltre il visibile, descritto nella teoria elettromagnetica Maxwelliana sempre da onde elettromagnetiche con una lunghezza tra i 400 e i 700 nanometri ( 4 10-7 – 7 10-7 m) è un fenomeno microscopico che è invece descritto nella realtà da fotoni (pacchetti di energia) che si propagano secondo la Meccanica Quantistica come particelle, seguendo uno schema probabilistico ondulatorio che non ha niente a che vedere con le onde elettromagnetiche maxwelliane; quindi, mentre le onde radio sono descritte dall’elettromagnetismo, la luce ma anche lo spettro elettromagnetico ad alta energia, come ultravioletti, radiazione X e gamma hanno un comportamento duale tipicamente quantistico, completamente diverso da quello delle onde elettromagnetiche. Sembra quindi che la motivazione della differenza di descrizione dei due fenomeni possa risiedere principalmente nella differenza di scala tra un’antenna che emette onde radio e un atomo che emette luce. C’è quindi da chiedersi, come può essere possibile che uno stesso fenomeno (oscillazioni di carica nello spazio) se prodotto a due differenti ordini di grandezza, uno macroscopico ed uno microscopico, per essere descritto richieda due teorie tanto differenti? Questo problema venne affrontato nel 1979.
Un nuovo modo di vedere la realtà: la Bridge Theory
Negli anni 80′ venne formulata una risposta elegante a questa domanda ma non di facile comprensione fenomenologica. La teoria sviluppata portò a rivedere completamente l’interpretazione della maggior parte dei fenomeni fisici e delle teorie usate per descriverli. Questa revisione permise di sviluppare una nuova teoria completamente autoconsistente e per così dire “economica”, perché basata solo sull’elettromagnetismo maxwelliano. Ora si chiama “Teoria Ponte” (Bridge Theory – BT), il suo nome è dovuto alla caratteristica fondamentale di fare da ponte concettuale e formale tra la teoria elettromagnetica di Maxwell e i fenomeni fisici microscopici che richiedono per la loro spiegazione approcci quantistici o relativistici. Nell’esempio che abbiamo fatto a proposito di segnali radio e luce, per comprendere appieno il problema occorre spiegare che i fotoni sono emessi dagli atomi durante le transizioni di elettroni da un livello energetico ad un altro, i cosiddetti salti quantici; quindi, dal punto di vista elettromagnetico in un atomo si devono prendere in considerazione le interazioni fra coppie di carica di segno opposto, cioè tra i protoni del nucleo positivi e gli elettroni orbitali atomici negativi. In BT , lo studio dettagliato dell’interazione elettromagnetica in una coppia, permise di ottenere un nuovo modello di sorgente elettromagnetica dipolare (Dipolar Electromagnetic Source – DEMS) nel cui intorno si localizza una quantità di energia identica a quella del fotone che realmente si osserva. Questo meccanismo però non ha limiti di scala, agisce ad ogni ordine di grandezza, non solo a livello atomico e le differenti fenomenologie, continua o quantistica dipendono esclusivamente dalla grandezza dell’osservatore o dello strumento di misura utilizzato. Infatti, se lo strumento (chiamato osservatore) è grande per l’ordine di grandezza considerato, non può essere contenuto all’interno della DEMS; quindi, la misurazione viene fatta non sui campi elettromagnetici continui della sorgente di dipolo dell’onda, ma sull’intera sorgente che appare all’osservatore come un grano di energia, cioè un fotone. Quindi la Meccanica Quantistica è una teoria necessaria per superare un effetto di scala e non perché la natura cambia paradigmi nel microscopico.
Al pari di altre teorie come la LQG e la Teoria delle Stringhe (Strings Theory – ST), pur essendo altamente predittiva, la BT non è per il momento verificata sperimentalmente sulle nuove fenomenologie proposte, ma a differenza delle precedenti non ha bisogno di introdurre principi estranei al contesto teorico, come la quantizzazione o il principio di relatività, in quanto li contiene in modo consistente al proprio interno.
In BT a differenza della LQG e della ST che seguono strade più tradizionali, pur non essendo in contraddizione con la realtà fisica-fenomenologica, vengono proposte nuove chiavi di lettura dei fenomeni quantistici e relativistici che sono invece alla base di teorie accreditate come la Meccanica Quantistica (Quantum Mechanics – QM), l’Elettrodinamica Quantistica (Quantum Electrodynamics – QED), la Cromodinamica Quantistica (Quantum Cromodynamics – QCD), proprio questa difformità strutturale nei fondamenti, relega attualmente la BT in secondo piano, esponendola a critiche metodologiche e procedurali.
Vediamo perché la BT può essere considerata una teoria fondamentale. Ogni modello o teoria quantistica mainstream è direttamente o indirettamente quantizzata dall’esterno tramite l’introduzione di una costante di azione universale che si chiama costante di Planck, il cui valore secondo la visione universalmente accettata è stimabile solo sperimentalmente. La scoperta della quantizzazione dovuta a Max Planck è legata alla spiegazione delle peculiarità dello spettro della radiazione di corpo nero, un fenomeno inspiegabile dal punto di vista elettromagnetico. Planck superò il problema assumendo che gli scambi di energia tra materia e radiazione in equilibrio termodinamico non fossero continui ma discreti, multipli di pacchetti di energia elementari, dove ogni pacchetto aveva un’energia proporzionale alla frequenza dell’onda elettromagnetica associata.
La costante di proporzionalità “h“, successivamente ribattezzata col nome di costante di Planck in onore del suo scopritore, ha attualmente un ruolo fondamentale nel processo di quantizzazione, ma il suo valore viene introdotto sempre forzosamente, in quanto è estraneo alla teorie in uso. Si sa che l’energia è quantizzata, quindi la utilizziamo in modo quantizzato e tutto funziona bene.
Pur essendo all’epoca di Planck la quantizzazione dell’energia un fenomeno estraneo alla teoria elettromagnetica maxwelliana, la sua introduzione si rivelò funzionale a risolvere il problema dello spettro di corpo nero, ciò permise di sviluppare il modello atomico e nei cento anni successivi di sviluppare teorie quantistiche estremamente potenti basate proprio sull’esistenza e sulla universalità della costante di Planck e del principio di quantizzazione. La Bridge Theory origina invece da un nuovo modo di descrivere l’interazione tra particelle cariche, una fenomenologia che permette mediante lo studio della struttura dei campi elettromagnetici della DEMS di prevedere teoricamente il valore esatto della costante di Planck, ottenendo quindi la quantizzazione del campo elettromagnetico senza doverla introdurre, dimostrando che tra le pieghe della teoria maxwelliana la quantizzazione esiste già senza doverla introdurre.
Un nuovo modello di Universo
A partire dal 2019 la Bridge Theory fu estesa con successo prima alla Relatività Speciale, poi alla Relatività Generale, ma essendo questa una teoria gravitazionale, quindi cosmologica, la sua estensione alla Relatività Generale comportò lo sviluppo di un nuovo modello di Universo detto a Multi-Bolle (Multi-Bubble Universe – MBU). Il modello MBU è basato integralmente sulla Bridge Theory, potremmo dire che è una sua estensione ma non è parte fondamentale della teoria. Secondo il modello MBU, l’Universo non ha avuto un tempo zero in cui sì è verificato un unico Big Bang ma è formato da infiniti Small Bang prodotti dal campo del nulla, un campo inosservabile perché precedente alla formazione dello spaziotempo, nel quale, in totale rispetto delle leggi di conservazione, esiste una continua formazione di bolle di spaziotempo e materia, le quali aggregandosi formano uno spaziotempo unico, quantizzato, che dà origine a una specie di schiuma.

Lo spaziotempo di ogni bolla rappresentato schematicamente in Figura 5 è il campo elettromagnetico prodotto nel decadimento spontaneo di un particolare bosone chiamato gravitone di bilanciamento, la sua previsione di massa è di 2.68 TeV. Il suo ruolo è quello di bilanciare l’energia della bolla trasferendo l’energia elettromagnetica in eccesso prodotta da fluttuazioni quantistiche spontanee, che porterebbero a un collasso della bolla, al campo del nulla con l’effetto di dilatare adiabaticamente mediante scambi quantizzati la bolla di spaziotempo mantenendo inalterata l’energia totale del vuoto. Attualmente, date le sue caratteristiche, esiste solo una particella candidata ad essere il gravitone di bilanciamento ed il gravitone di Kaluza-Klein, la cui esistenza è prevista anche in altre teorie. Dal punto di vista sperimentale i segni della sua esistenza sono ricercati nelle collisioni ad alta energia prodotte nel Large Hadron Collider (LHC) del CERN.
Un vantaggio del modello MBU è che non c’è bisogno di materia oscura per giustificare le anomalie rotazionali degli aloni galattici, e non c’è nemmeno bisogno de energia oscura per giustificare il comportamento espansivo osservato in alcune regioni di universo, in quanto l’Universo si espande accelerando o rallentando in base all’attività di formazione delle bolle in una certa direzione rispetto all’osservatore, quindi in base alla crescita della “schiuma spaziotemporale“. Inoltre, il residuo energetico della creazione delle bolle genera una radiazione cosmica di fondo a microonde che è coerente con la radiazione di fondo osservata.
In questo quadro teorico complessivo, tutte le forze risulterebbero quantizzate e persino la gravità su scala della bolla verrebbe inserita in un contesto quantistico apparendo solo come un diverso modo di agire delle forze elettromagnetiche. A questo punto in termini di unificazione mancherebbe ancora l’interazione nucleare forte che, pur essendo una forza già naturalmente quantizzata, in base alle teorie comunemente accettate non sembrerebbe avere affinità con le forze elettromagnetiche.
In due recenti lavori, uno pubblicato il 9 ottobre di quest’anno sul Applied Physics Research (Vol. 17, No. 2, 2025) e l’altro in via di pubblicazione sulla stessa rivista ma attualmente solo in preprint, applicando il modello di interazione dipolare alle interazioni adroniche si è ottenuto un perfetto accordo tra il modo di agire previsto dalla Bridge Theory e l’interazione nucleare forte, con una previsione rispettata sia delle costanti di accoppiamento forti che delle masse dei quark up 2.23 MeV e down 4.83 MeV.

In questo caso i dati di controllo utilizzati sono stati le masse sperimentali dei quark e i raggi di momento di dipolo del protone 8.1 10-16 m e del neutrone 8.9 10-16 m, che si accordano, in particolare quello del protone, con il raggio di carica del protone misurato sperimentalmente: 8.3 10-16 m. Quindi, stando ai risultati, anche la forza nucleare forte può essere riconducibile alle forze elettromagnetiche mediante l’uso della Bridge Theory, unificandosi alle forze elettrodeboli e gravitazionali in un’unica interazione unificata.
Questi risultati, se aggiunti a tutti gli altri successi già ottenuti, indicano un’altissima predittività della teoria che aggiunta alla sua potenziale falsificabilità, cioè la possibilità di verificare o non verificare sperimentalmente le sue predizioni, la rendono una teoria potente e interessante fino a prova contraria.

L’approccio elettrodinamico caratteristico dell BT, applicato a diversi ambiti teorici della fisica moderna, ha permesso di sviluppare una teoria in grado di spiegare senza mai contraddirsi sia i fenomeni quantistici che relativistici, portando ad una descrizione completa, anche se fuori dal consueto, di un Universo senza limiti e senza tempo. Si tratta ora di verificarla sperimentalmente al di là degli attuali successi teorici.
Esiste però una dicotomia interna alla Bridge Theory che permette di poter lavorare nella sua verifica a due step. Infatti la BT potrebbe essere valida unificando forze elettrodeboli con le forze nucleari forti, quindi raggiungendo un’unificazione elettronucleare, primo step, senza che sia valido il modello Multi-Bubble Universe, secondo step, pur fornendo il modello MBU interessanti e intriganti dettagli sulla struttura dell’universo, oppure potrebbero essere validi entrambi gli step, raggiungendo così una totale unificazione delle quattro forze della natura in un’interazione unificata che ha origine elettromagnetica ad ogni scala di grandezza dell’universo, semplificando così la trattazione dei fenomeni in un unico quadro già ben noto, dominato da una forza unica di cui ancora non è stato pensato nemmeno il nome.

Comments