Perseguendo la strada dell’unificazione, possiamo ridurre il numero delle forze fondamentali da quattro a tre, in quanto a seguito della conferma nel 1983 al SppS (Super Proton-Proton collider) di Ginevra, convertito per lo scopo in un collisore protone-antiprotone, della teoria di Weinberg, Glashow e Salam (1960-1967) ad opera del gruppo di ricerca diretto da Carlo Rubbia, mediante la scoperta dei mediatori W e Z previsti dalla teoria elettrodebole, si è dimostrato che le forze nucleari deboli sono solo una differente manifestazione delle forze elettromagnetiche, questo ha permesso di unificare la forza nucleare debole con la forza elettromagnetica in un’unica forza detta “elettrodebole” la quale prevede l’esistenza di quattro mediatori elettrodeboli: il fotone, lo Z neutro e due mediatori W carichi. Si è così verificato che le forze nucleari deboli sono solo una differente manifestazione delle forze elettromagnetiche, questo ha permesso di unificare la forza nucleare debole con la forza elettromagnetica in un’unica forza detta “elettrodebole” la quale prevede l’esistenza di quattro mediatori elettrodeboli: il fotone, lo Z neutro e due mediatori W carichi. La teoria predice però che l’unificazione valga solo per energie elevate e non allo stato di bassa energia, per questo motivo nel diagramma in Figura 1 mentre l’unficazione elettromagnetica compare a qualunque valore di energia, l’unificazione elettrodebole appare solo ad energie dell’ordine di 100 giga eV.
Dallo scenario di unificazione ci sono per il momento due grandi escluse, la forza nucleare forte e la forza di gravità. Mentre la forza nucleare forte sappiamo che è sicuramente quantizzata ma non unificata all’elettrodebole nella teoria di Grande Unificazione (Grand Unification Theory – GUT), la strada per l’unificazione della forza di gravità sembra essere ancora lunga e affatto semplice, perché la fenomenologia gravitazionale non solo non mostra alcun indizio di quantizzazione, anche se esistono più teorie che la prevederebbero, ma il suo meccanismo di azione dovuto alla curvatura dello spaziotempo la allontana da una possibile unificazione con tutte le altre forze in un’unica Teoria del Tutto (Theory of Everything – ToE).
Il raggiungimento dell’unificazione delle forze sembra perciò essere una meta ancora lontana, forse perché i mezzi a nostra disposizione sono ancora insufficienti ma forse un giorno si riuscirà nell’intento di capire come tutto può unificarsi o forse perché stiamo guardando un elefante con una lente di ingrandimento, e nel cerchio della lente vediamo incredibili particolari ma non riusciamo a vedere l’elefante nel suo insieme.
Torniamo per un attimo a Maxwell. La teoria elettromagnetica è stata un incredibile successo, in grado di unificare con eleganza e simmetria la forza elettrica e magnetica ad ogni valore di energia, dimostrado che campo elettrico e magnetico sono fenomenologie fra loro complementari, inoltre la sua capacità predittiva in solo cento anni è stata in grado di permettere lo sviluppo dell’elettronica, delle telecomunicazioni, dell’informatica, della robotica e mentre tutto questo accadeva, proprio con l’aiuto dell’elettronica si sono scoperte e verificate teorie come la Relatività, la Meccanica Quantistica, si sono scoperte nuove particelle, osservati gli atomi al microscopio elettronico, penetrati i segreti del nucleo atomico, quindi nei cento anni successivi che scadranno nel 2065 ci dovremmo aspettare un balzo ben più grande nell’ambito della conoscenza delle leggi della natura e nello spillover tecnologico. Purtroppo, a quella data mancano solo quarant’anni e nei precedenti sessanta quasi tutto è rimaso immutato.
Considerando che le teorie quantistiche e relativistiche sono sinergiche ma così come sono formulate sono concettualmente incompatibili, per cercare nuove risposte bisogna prima porsi qualche nuova domanda. Per esempio, come è possibile che un segnale radio si propaghi nel vuoto classicamente come un onda trasportando energia in modo continuo, mentre la luce che ha la stessa natura di un segnale radio sia formata invece da fotoni che trasportano energia in modo quantizzato? Come è possibile che una particella si possa comportare come un’onda solo se non viene osservata? Non basta affermare che la natura è fatta così, bisogna capirne il perché.
Sicuramente una giustificazione a questa incongruenza che ha radici nella nostra conoscenza limitata delle leggi della natura possiamo darla, infatti un segnale radio può avere lunghezze d’onda di diversi metri ed è un fenomeno macroscopico descritto da onde elettromagnetiche, mentre la luce visibile descritta nella teoria elettromagnetica Maxwelliana esattamente come un’onda radio, solo con una lunghezza d’onda tra i 400 e i 700 nanometri ( 4 10-7 – 7 10-7 m), a differenza delle onde radio è un fenomeno microscopico che è sperimentalmente descritto da fotoni (pacchetti di energia) che si propagano secondo la Meccanica Quantistica come particelle seguendo uno schema probabilistico ondulatorio che non ha niente a che vedere con le onde elettromagnetiche, quindi mentre le onde radio sono descritte dall’elettromagnetismo maxwelliano, la luce si comporta in un modo duale tipicamente quantistico, completamente diverso da quello delle onde elettromagnetiche. Sembra quindi che la motivazione della differenza di descrizione dei due fenomeni risieda principalmente nella differenza di scala tra un’antenna che emette onde radio e un atomo che mette luce. C’è quindi da chiedersi, come può essere possibile che uno stesso fenomeno (oscillazioni di carica nello spazio) se prodotto a due differenti ordini di grandezza, uno macroscopico ed uno microscopico, per essere descritto richieda teorie tanto differenti? Questo problema me lo posi nel 1979.
Un muovo modo di vedere la realtà: la Bridge Theory
Negli anni 80′ riuscii a formulare una risposta elegante a questa domanda ma non di facile comprensione fenomenologica. Il lavoro che sviluppai mi portò a rivedere completamente l’interpretazione della maggior parte dei fenomeni fisici e delle teorie usate per descriverli. Questa revisione mi permise di sviluppare una nuova teoria completamente autoconsistente e per così dire “economica”, perché basata solo sull’elettromagnetismo maxwelliano. Ora si chiama Teoria Ponte (Bridge Theory – BT), il suo nome è dovuto alla caratteristica fondamentale di fare da ponte concettuale e formale tra la teoria elettromagnetica di Maxwell e i fenomeni fisici microscopici che richiedono per la loro spiegazione approcci quantistici o relativistici. Nell’esempio che abbiamo fatto a proposito di segnali radio e luce, per comprenderne appieno il problema occorre spiegare che la luce è formata da fotoni emessi durante le transizioni di elettroni atomici da un livello energetico ad un altro, i cosiddetti salti quantici; quindi dal punto di vista elettromagnetico in un atomo si devono prendere in considerazione le interazioni fra coppie di carica di segno opposto, cioè tra i protoni del nucleo positivi e gli elettroni orbitali negativi. Lo studio dettagliato dell’interazione elettromagnetica in una coppia, mi ha permesso di ottenere un nuovo modello di interazione che genera una sorgente di dipolo nel cui intorno si localizza una quantità di energia pari a quella del fotone che realmente si osserva. Questo meccanismo però agisce ad ogni ordine di grandezza, solo che se l’osservatore o il suo strumento di misura è grande per l’ordine di grandezza considerato, non può essere contenuto all’interno della sorgente; quindi la misurazione viene fatta non sui campi elettromagnetici della sorgente dell’onda ma sull’intera sorgente che appare all’osservatore come un grano di energia, cioè un fotone. Quindi la Meccanica Quantistica è necessaria per superare un effetto di scala e non perché la natura cambia paradigmi nel microscopico.
Al pari di altre teorie come la LQG e la Teoria delle Stringhe (Strings Theory – ST), la BT pur essendo altamente predittiva su ciò che già si conosce, non è per il momento verificata sperimentalmente sulle nuove fenomenologie proposte, ma a differenza delle precedenti, pur non essendo in contraddizione con la realtà fisica e fenomenologica attuale, non introduce principi estranei come la quantizzazione o il principio di relatività, in quanto li contiene al proprio interno senza doverli inserire forzosamente al proprio interno.
In BT sostanzialmente vengono proposte nuove chiavi di lettura di alcuni fenomeni quantistici e relativistici che sono alla base di teorie accreditate come la Meccanica Quantistica (Quantum Mechanics – QM), l’Elettrodinamica Quantistica (Quantum Electrodynamics – QED), la Cromodinamica Quantistica (Quantum Cromodynamics – QCD), invece la LQG e la ST seguono strade diverse più tradizionali, proprio questa difformità strutturale nei fondamenti, relega attualmente la BT in una nicchia esponendola a critiche metodologiche e procedurali.
Vediamo perché la BT pur non entrando in conflitto con le teorie standard, quindi assecondandole, può essere considerata una teoria fondamentale. Ogni modello o teoria quantistica mainstream è direttamente o indirettamente quantizzato introducendo una costante di azione universale che si chiama costante di Planck, il cui valore è noto solo sperimentalmente. La sua scoperta è dovuta a Max Planck che nel 1900 riuscì a spiegare le peculiarità dello spettro della radiazione di corpo nero, un fenomeno inspiegabile secondo la teoria elettromagnetica di Maxwell, ipotizzando che gli scambi di energia tra materia e radiazione in equilibrio termodinamico avvenissero per pacchetti discreti di energia proporzionali alla frequenza dell’onda. La costante di proporzionalità chiamata “h“, successivamente ribattezzata col nome di costante di Planck in onore del suo scopritore, ha quindi un ruolo fondamentale nella quantizzazione, ma il suo valore è introdotto forzosamente, in quanto è estraneo al modello matematico. Si sa che l’energia è quantizzata, quindi la utilizziamo in modo quantizzato. Pur essendo all’epoca di Planck la quantizzazione dell’energia un fenomeno estraneo alla teoria elettromagnetica, la sua introduzione si rivelò funzionale a risolvere il problema dello spettro di corpo nero, ciò permise nei cento anni successivi di sviluppare teorie quantistiche estremamente efficienti basate proprio sull’esistenza e sulla universalità della costante di Planck e del principio di quantizzazione. La Bridge Theory origina invece da una nuova fenomenologia di interazione tra particelle cariche che permette, mediante lo studio dei suoi campi elettromagnetici, di prevedere il valore esatto della costante di Planck, ottenendo quindi la quantizzazione del campo elettromagnetico e dimostrando che tra le pieghe della teoria maxwelliana esiste la quantizzazione senza doverla imporre dall’esterno.
Un nuovo modello di Universo
A partire dal 2019 la Bridge Theory fu estesa con successo prima alla Relatività Speciale, poi alla Relatività Generale, ma essendo questa una teoria gravitazionale, quindi cosmologica, la sua estensione alla Relatività Generale comportò lo sviluppo di un nuovo modello di Universo detto a Multi-Bolle (Multi-Bubble Universe – MBU). Il modello MBU è basato integralmente sulla Bridge Theory, potremmo dire che è una sua estensione ma non è parte fondamentale della teoria. Secondo il modello MBU, l’Universo non ha avuto un tempo zero in cui sì è verificato un unico Big Bang ma è formato da infiniti Small Bang prodotti dal campo del nulla, un campo inosservabile perché precedente allo spaziotempo, dal quale in totale rispetto delle leggi di conservazione esiste una continua formazione di bolle di spaziotempo e materia che aggregandosi formano uno spoaziotempo unico, quantizzato, che dà origine a una specie di schiuma.
Lo spaziotempo di ogni bolla rappresentato schematicamente in Figura 4 è il campo elettromagnetico prodotto nel decadimento spontaneo di un particolare bosone chiamato gravitone di bilanciamento con una previsione di massa di 2.68 TeV. Il suo ruolo è quello di bilanciare l’energia della bolla trasferendo l’energia elettromagnetica in eccesso prodotta da fluttuazioni quantistiche spontanee al campo del nulla. L’effetto è di dilatare quantisticamente la bolla mantenendo inalterata l’energia totale del vuoto. Attualmente esiste solo una particella candidata ad esserlo ed il gravitone di Kaluza-Klein, la cui esistenza è prevista anche in altre teorie. Dal punto di vista sperimentale i segni della sua esistenza sono ricercati nelle collisioni ad alta energia utilizzando il Large Hadron Collider (LHC) del CERN.
Un vantaggio del modello MBU è che non c’è bisogno di materia oscura per giustificare le anomalie rotazionali degli aloni galattici, e non c’è nemmeno bisogno de energia oscura per giustificare il comportamento espansivo osservato in alcune regioni di universo, in quanto l’Universo si espande accelerando o rallentando in base all’attività di formazione delle bolle in una certa direzione rispetto all’osservatore, quindi in base alla crescita della “schiuma spaziotemporale“. Inoltre, il residuo energetico della creazione delle bolle genera una radiazione cosmica di fondo a microonde che è coerente con la radiazione di fondo osservata.
In questo quadro complessivo tutte le forze risultano quantizzate e persino la gravità è inserita in un contesto quantistico apparendo solo come un diverso modo di agire delle forze elettromagnetiche, però in termini di unificazione delle forze mancherebbe ancora l’interazione nucleare forte che, pur essendo una forza quantizzata, in base alle teorie comunemente accettate non sembrerebbe avere affinità con le forze elettrodeboli.
In due recenti lavori, uno pubblicato il 9 ottobre di quest’anno sul Applied Physics Research (Vol. 17, No. 2, 2025) e l’altro in via di pubblicazione sulla stessa rivista ma attualmente solo in preprint, applicando il modello dipolare alle interazioni adroniche si è ottenuto un perfetto accordo tra il modo di agire previsto dalla Bridge Theory e l’interazione nucleare forte, con una previsione rispettata sia delle costanti di accoppiamento forte che delle masse dei quark up 2.23 MeV e down 4.83 MeV.
In questo caso i dati di controllo utilizzati sono stati le masse dei quark e i raggi di momento di dipolo del protone 8.1 10-16 m e del neutrone 8.9 10-16 m, che si accordano, in particolare quello del protone, con il raggio di carica misurato sperimentalmente: 8.3 10-16 m. Questi risultati, se aggiunti a tutti gli altri successi già ottenuti, indicano un’altissima predittività della teoria; tuttavia, perché la Bridge Theory sia considerata una teoria scientifica deve essere falsificabile; quindi, bisogna che una o più predizioni di fenomeni non ancora noti siano sperimentalmente verificabili.
Stando ai risultati, anche la forza nucleare forte può essere riconducibile alle forze elettromagnetiche mediante l’uso della Bridge Theory, unificandosi alle forze elettrodeboli e gravitazionali in un’unica interazione unificata.
Questo approccio elettrodinamico applicato a diversi ambiti della fisica moderna ha permesso di sviluppare una teoria in grado di spiegare senza mai contraddirsi sia i fenomeni quantistici che relativistici, portando ad una descrizione completa, anche se fuori dal consueto, di un Universo senza limiti e senza tempo. Si tratta ora di verificarla al di là degli attuali successi, studiandone le previsioni e i risultati.
Esiste una dicotomia interna alla Bridge Theory che permette di poter lavorare a due step. Infatti la BT potrebbe essere valida unificando forze elettrodeboli con le forze nucleari forti, quindi raggiungendo un’unificazione elettronucleare, primo step, senza che sia valido il modello Multi-Bubble Universe pur fornendo interessanti e intriganti dettagli sulla struttura dell’universo, oppure potrebbero essere validi entrambi raggiungendo così una totale unificazione delle quattro forze della natura in un’interazione unificata che ha origine elettromagnetica ad ogni scala di grandezza di cui ancora non è stato pensato nemmeno il nome.