Gravita Zero: comunicazione scientifica e istituzionale

Il sogno dell’unificazione delle forze: da Galileo alla Bridge Theory – Dallo stato dell’arte alle prospettive di un modello elettrodinamico unificato

Origine ed evoluzione dell'universo secondo il Modello Standard

In natura le forze fondamentali conosciute sono quattro: nucleare forte, nucleare debole, elettromagnetica e gravitazionale. Governano ogni fenomeno fisico, dal comportamento delle particelle elementari fino alla dinamica di stelle e galassie; sono dette fondamentali perché sembrano non derivare da altri fenomeni e descrivono tutte le interazioni. 

     Uno degli scopi fondamentali della fisica contemporanea è raggiungere da un punto di vista teorico e sperimentale un quadro completo di unificazione nel quale queste quattro forze non sono più fondamentali, ma quattro differenti manifestazioni di una sola e unica forza descritta in una teoria detta del “tutto” (Theory of Everything, TOE) che si pensa sia valida però, solo alle energie estreme dei primi istanti cosmologici, dai quali, al diminuire dell’energia, emergono progressivamente le quattro interazioni fondamentali.

   In questo articolo esaminiamo lo stato attuale della conoscenza, le nuove possibilità offerte dallo sviluppo della Bridge Theory e le prospettive che derivano dalla possibile esistenza di un’unica forza a qualunque ordine di scala dell’energia.

Figura 1
Schema di unificazione delle forze
con origine nel Big Bang
Ipotesi di unificazione delle forze nel Modello Standard di Universo
Breve storia delle forze fondamentali
 Alla fine del 500′, Galileo Galilei fu il primo a intuire l’esistenza dell’inerzia dei corpi e a formulare il “Principio d’Inerzia“. L’innovazione principale rispetto al passato fu quella di superare la visione aristotelica che considerava la quiete come lo stato naturale dei corpi, mentre il movimento, come qualcosa che necessitava di una forza costante per essere attuato e mantenuto.

Utilizzando esperimenti reali e mentali, Galileo tra il 1580 e il 1630 osservò che una sfera di bronzo che scendeva rotolando lungo un piano inclinato (immagine a sinistra) aumentava di velocità, mentre una che saliva diminuiva di velocità.
Riducendo progressivamente le pendenze dei piani inclinati ed estendendo idealmente l’esperimento a piani inclinati con pendenze sempre più piccole, strumentalmente quasi irrealizzabili con i mezzi artigianali dell’epoca, formulò il principio che su un piano perfettamente orizzontale in mancanza di resistenze tra biglia e piano, la velocità iniziale della biglia non sarebbe cambiata ma sarebbe rimasta identica lungo tutto il percorso. Galileo fu quindi il primo a comprendere che l’attrito tra corpi e le resistenze subite da corpi in movimento in mezzi fluidi come l’aria, sono forze passive che si oppongono al moto dei corpi rallentantoli, ma che se si potessero eliminare completamente, i corpi si muoverebbero indefinitamente sempre con la stessa velocità. Un principio questo, verificato attualmente anche nel vuoto in assenza di forze. Questa intuizione permise a Galileo di formulare l’idea che sia la quiete di un corpo, che il moto rettilineo uniforme di un corpo in movimento a velocità costante, sono entrambi stati possibili che possono essere mantenuti finché non intervengono forze esterne a modificarli. Successivamente, con l’introduzione del “principio di relatività galileiana” che prendeva in considerazione il moto relativo di due corpi su uno stesso asse, immaginati come due osservatori reciproci e indipendenti, il concetto di quiete come stato a sé stante venne superato, diventando di fatto solo uno dei possibili stati di moto di un corpo: quello con velocità zero.
Cento anni dopo, nel 1687, il principio di inerzia di Galileo venne ripres0 e formalizzat0 in termini matematici da Isaac Newton nel suo capolavoro “Philosopiae Naturalis Principia Mathematica” nel quale divenne il primo principio della dinamica newtoniana, il  vero fondamento della Meccanica di Newton.
Ripartiamo dal principio newtoniano: un corpo mantiene il proprio stato di moto inalterato finché non intervengono forze esterne a modificarlo. Quindi, una forza che agisce per un certo tempo su un corpo è la causa del suo cambiamento dello stato di moto. Tra le cause possibili del cambiamento dello stato di moto dei corpi ci sono le forze che agiscono per “contatto”, come nell’urto tra due bocce, ma queste sono forze impulsive non fondamentali, perché sono prodotte da forze interatomiche di repulsione elettrostatica della materia. Solo la gravità, la forza elettrostatica, la forza magnetica all’epoca di Newton erano forze fondamentali e avevano la peculiarità di agire “a distanza”,  cioè nell’idea tipicamente newtoniana, un corpo agisce a distanza esercitando un’influenza istantanea su un altro corpo, per esempio gravitazionale, senza un contatto fisico e senza un mezzo osservabile che trasmetta tale interazione; questo era il caso del Sistema Solare, di due oggetti elettrizzati o di due magneti che si attraggono o respingono senza un reale contatto diretto.
Più recentemente, Faraday nel XIX secolo introdusse il concetto di campo di forza, e ciò che Newton chiamava “azione a distanza” venne descritta come una interazione mediata da campi (classici o quantistici), che a differenza dell’idea newtoniana, propaga un’influenza non istantaneamente ma a velocità finita, quindi con un ritardo.
Figura 2
Interazione elettrone-positrone
Diagramma di Feynman: interazione tra una coppia elettrone-positrone con scambio di un fotone gamma.
Attualmente sappiamo che l’azione per le forze elettromagnetiche e nucleari è trasmessa da mediatori: per esempio la forza elettromagnetica tra due particelle cariche (Figura 2) è trasmessa mediante lo scambio di fotoni gamma, particelle con massa nulla. Ciascun fotone trasporta una quantità definita di energia e di impulso e quando è emessa o ricevuta si modifica lo stato di moto delle particelle in interazione. Sappiamo anche che la forza nucleare forte è mediata da particelle mediatrici che si chiamano gluoni, anch’essi con massa nulla, che hanno il compito di tenere incollate a cortissima distanza particelle elettricamente cariche come i protoni all’interno di uno stesso nucleo, infatti senza i gluoni i protoni tenderebbero a causa della repulsione coulambiana a respingersi elettrostaticamente, rendendo impossibile la formazione dei nuclei atomici. Per le forze nucleari deboli esistono invece due tipi di mediatori: il bosone carico W che può essere sia positivo che negativo e il bosone neutro Z, entrambi sono bosoni che si occupano della trasformazione di alcune particelle in altre particelle e per questo parliamo di forza debole. Per la forza di gravità, al momento non ci sono evidenze sperimentali che sia una forza che agisce tramite mediatori, pertanto limitatamente alla Teoria della Gravitazione Universale newtoniana, il concetto di azione a distanza mediante campi di forza continui è ancora valido.
Fino all’introduzione nel 1865 della Teoria Elettromagnetica di James Clerk Maxwell, le forze fondamentali note in natura erano solo tre, in quanto all’epoca ancora non si conoscevano le forze nucleari forti e deboli. Inoltre all’epoca non era ancora noto il principio di quantizzazione, scoperto solo trentacinque anni dopo da Max Planck nel 1900, quindi l’eletromagnetismo maxwelliano si basava su fenomeni descritti da campi continui; quindi, luce e onde elettromagnetiche erano descritte come uno stesso identico fenomeno solo a scale di grandezza differenti. Solo dopo la scoperta della quantizzazione e l’affermazione della Meccanica Quantistica si ebbe la prova, anche sperimentale, che l’energia elettromagnetica luminosa, a differenza di quella trasportata da onde emesse da antenne, non poteva essere trasmessa con continuità, ma solo per quantità discrete dette quanti, cioè era un fenomeno quantizzato. La teoria di Maxwell chiarì un fatto, la forza magnetica non era una forza fondamentale come si credeva, perché è una manifestazione del moto delle cariche elettriche sia nel vuoto che nel mezzo materiale, inoltre la teoria di Maxwell dimostrò che i campi magnetici variabili erano responsabili dell’insorgenza di correnti, quindi di cariche in movimento, fenomenologie che legano a doppio filo forze elettriche e magnetiche, unificandole in un’unica forza elettromagnetica.
L’introduzione nel 1915 della teoria della Relatività Generale (General Relativity – GR) ad opera di Albert Einstein, diede una svolta decisiva al concetto di fondamentalità della forza gravitazionale. Infatti la Gravità fino a prova contraria non poteva più essere considerata fondamentale nel senso newtoniano, ma solo un effetto prodotto dalla curvatura dello spaziotempo indotta da concentrazioni locali di energia e materia, come la massa di galassie, stelle e pianeti. In Figura 3 è rappresento un modello bidimensionale dello spaziotempo che si incurva in presenza di grandi concentrazioni di energia di massa provocando la deviazione delle traiettorie rettilinee. Perciò, la gravità non è una forza fondamentale in senso newtoniano e in mancanza di verifiche sperimentali non è nemmeno quantizzata come le altre forze, anche se attualmente più di una teoria prevederebbe l’esistenza dei gravitoni, fantomatiche particelle mediatrici dell’interazione gravitazionale che la renderebbero quantizzata secondo le differenti teorie accettate dalla comunità scientifica. In mancanza di evidenze la questione resta tutt’ora aperta.
Figura 3
Curvatura dello spaziotempo
La forza di gravità come effetto della curvatura della trama spaziotemporale prodotta da addensamenti di energia. (Credit INAF)

 

Perseguendo la strada dell’unificazione, dopo gli anni 60′ si potè ridurre il numero delle forze fondamentali da quattro a tre. Infatti, a seguito della conferma nel 1983 ad opera del gruppo di ricerca diretto da Carlo Rubbia al SppS  (Super Proton-Proton collider) di Ginevra, convertito per lo scopo in un collisore protone-antiprotone, della teoria elettrodebole di Weinberg, Glashow e Salam (1960-1967) mediante la scoperta dei mediatori W e Z, si dimostrò inequivocabilmente che le forze nucleari deboli sono una differente manifestazione delle forze elettromagnetiche. Questa scoperta permise di unificare la forza nucleare debole con la forza elettromagnetica in un’unica forza detta “elettrodebole“, la quale prevede complessivamente l’esistenza di quattro mediatori: il fotone gamma, lo Z neutro e i due mediatori W carichi. La teoria predice però che l’unificazione valga solo per energie elevate e non allo stato di bassa energia, per questo motivo nel diagramma in Figura 1 mentre l’unficazione elettromagnetica compare a qualunque valore di energia, l’unificazione elettrodebole appare solo ad energie dell’ordine di 100 GeV.

Dallo scenario di unificazione che si sta delineando, ci sono per il momento due grandi escluse, la forza nucleare forte e la forza di gravità. Mentre la forza nucleare forte sappiamo che è sicuramente quantizzata ma non unificata nella teoria di Grande Unificazione (Grand Unification Theory – GUT) con l’elettrodebole, la strada per la quantizzazione e unificazione della forza di gravità, come abbiamo visto  sembra essere ancora lunga e non semplice, perché la fenomenologia gravitazionale non solo non mostra alcun indizio di quantizzazione, anche se esistono più teorie che la prevederebbero, ma il suo meccanismo di azione legato alla curvatura dello spaziotempo la allontana da una possibile unificazione con le altre forze in un’unica Theory of Everything.

Sino ad oggi sono stati compiuti più tentativi per unificare la Relatività Generale con la Meccanica Quantistica. Tra le teorie attualmente più accreditate e accettate dalla comunità scientifica c’è la Gravità Quantistica ad Anello (Loop Quantum Gravity – LQG).  In questa teoria è lo spaziotempo ad essere quantizzato da flussi di campo gravitazionale che circolano su anelli chiusi, gli anelli determinano una granularità della struttura spaziotemporale a lunghezze dell’ordine della lunghezza di Planck (~ 2 10-35 m). In questo caso la gravità verrebbe quantizzata per effetto della particolare geometria dello spaziotempo e la Relatività Generale continuerebbe a valere in un contesto approssimato, non continuo, con il vantaggio che i buchi neri non terminerebbero in singolarità matematica ma in regioni finite limitate dalla granulosità spaziotemporale. Per quanto elegante sia la LQG, non si risolverebbe però il problema vero dell’unificazione delle quattro forze, in quanto la gravità rimarrebbe comunque una forza indotta dalla curvatura dello spaziotempo; quindi, non unificata alle forze elettrodeboli.
Figura 4 
Ordini di grandezza fondamentali nell’Universo

 

Il raggiungimento dell’unificazione sembra perciò essere una meta lontana, forse perché i mezzi tecnici a nostra disposizione sono insufficienti ma forse un giorno con maggiore tecnologia si riuscirà nell’intento di capire come tutto può unificarsi, o forse perché stiamo guardando un elefante con una lente di ingrandimento e nel cerchio della lente vediamo incredibili particolari ma non riusciamo a vedere l’elefante nel suo insieme.

Torniamo ancora una volta a Maxwell. La teoria elettromagnetica è stata un incredibile successo, in grado di unificare con eleganza e simmetria la forza elettrica e magnetica ad ogni valore di energia, dimostrado che campo elettrico e magnetico sono fenomenologie fra loro complementari, inoltre la sua capacità predittiva in solo cento anni è stata in grado di permettere lo sviluppo dell’elettronica, delle telecomunicazioni, dell’informatica, della robotica e mentre tutto questo accadeva, proprio con l’aiuto dell’elettronica e dell’informatica si sono scoperte e verificate teorie come la Relatività, la Meccanica Quantistica, si sono scoperte nuove particelle, osservati gli atomi al microscopio elettronico, penetrati i segreti del nucleo atomico, quindi nei cento anni successivi che scadranno nel 2065 ci dovremmo aspettare un balzo ben più grande nell’ambito della conoscenza delle leggi della natura e nello spillover tecnologico. Purtroppo, a quella data mancano solo quarant’anni e nei precedenti sessanta quasi tutto è rimaso immutato.  Considerando che le teorie quantistiche e relativistiche sono sinergiche ma così come sono formulate sono concettualmente incompatibili, per cercare nuove risposte bisogna prima porsi qualche nuova domanda. Per esempio, come è possibile che un segnale radio si propaghi nel vuoto classicamente come un onda trasportando energia in modo continuo, mentre la luce che ha la stessa natura di un segnale radio sia formata invece da fotoni che trasportano energia in modo quantizzato? Come è possibile che una particella si possa comportare come un’onda solo se non viene osservata? Non basta affermare che la natura è fatta così, in un impeto di riduzionismo bisogna trovare delle risposte.

Sicuramente una giustificazione a questa incongruenza fenomenologica che ha radici nella nostra conoscenza limitata delle leggi della natura possiamo anche darla; infatti, un segnale radio può avere lunghezze d’onda di diversi metri ed è perciò un fenomeno macroscopico descritto da onde elettromagnetiche, mentre lo spettro della luce visibile ma anche quello oltre il visibile, descritto nella teoria elettromagnetica Maxwelliana sempre da onde elettromagnetiche con una lunghezza tra i 400 e i 700 nanometri ( 4 10-7 – 7 10-7  m) è un fenomeno microscopico che è invece descritto nella realtà da fotoni (pacchetti di energia) che si propagano secondo la Meccanica Quantistica come particelle, seguendo uno schema probabilistico ondulatorio che non ha niente a che vedere con le onde elettromagnetiche maxwelliane; quindi, mentre le onde radio sono descritte dall’elettromagnetismo, la luce ma anche lo spettro elettromagnetico ad alta energia, come ultravioletti, radiazione X e gamma hanno un comportamento duale tipicamente quantistico, completamente diverso da quello delle onde elettromagnetiche. Sembra quindi che la motivazione della differenza di descrizione dei due fenomeni possa risiedere principalmente nella differenza di scala tra un’antenna che emette onde radio e un atomo che emette luce. C’è quindi da chiedersi, come può essere possibile che uno stesso fenomeno (oscillazioni di carica nello spazio) se prodotto a due differenti ordini di grandezza, uno macroscopico ed uno microscopico, per essere descritto richieda due teorie tanto differenti? Questo problema venne affrontato nel 1979.

Un nuovo modo di vedere la realtà: la Bridge Theory

Negli anni 80′ venne formulata una risposta elegante a questa domanda ma non di facile comprensione fenomenologica. La teoria sviluppata portò a rivedere completamente l’interpretazione della maggior parte dei fenomeni fisici e delle teorie usate per descriverli. Questa revisione permise di sviluppare una nuova teoria completamente autoconsistente e per così dire “economica”, perché basata solo sull’elettromagnetismo maxwelliano. Ora si chiama “Teoria Ponte” (Bridge Theory – BT), il suo nome è dovuto alla caratteristica fondamentale di fare da ponte concettuale e formale tra la teoria elettromagnetica di Maxwell e i fenomeni fisici microscopici che richiedono per la loro spiegazione approcci quantistici o relativistici. Nell’esempio che abbiamo fatto a proposito di segnali radio e luce, per comprendere appieno il problema occorre spiegare che i fotoni sono emessi dagli atomi durante le transizioni di elettroni da un livello energetico ad un altro, i cosiddetti salti quantici; quindi, dal punto di vista elettromagnetico in un atomo si devono prendere in considerazione le interazioni fra coppie di carica di segno opposto, cioè tra i protoni del nucleo positivi e gli elettroni orbitali atomici negativi.  In BT , lo studio dettagliato dell’interazione elettromagnetica in una coppia, permise di ottenere un nuovo modello di sorgente elettromagnetica dipolare (Dipolar Electromagnetic Source – DEMS) nel cui intorno si localizza una quantità di energia identica a quella del fotone che realmente si osserva. Questo meccanismo però non ha limiti di scala, agisce ad ogni ordine di grandezza, non solo a livello atomico e le differenti fenomenologie, continua o quantistica dipendono esclusivamente dalla grandezza dell’osservatore o dello strumento di misura utilizzato. Infatti, se lo strumento (chiamato osservatore) è grande per l’ordine di grandezza considerato, non può essere contenuto all’interno della DEMS; quindi, la misurazione viene fatta non sui campi elettromagnetici continui della sorgente di dipolo dell’onda, ma sull’intera sorgente che appare all’osservatore come un grano di energia, cioè un fotone. Quindi la Meccanica Quantistica è una teoria necessaria per superare un effetto di scala e non perché la natura cambia paradigmi nel microscopico.

Al pari di altre teorie come la LQG e la Teoria delle Stringhe (Strings Theory – ST), pur essendo altamente predittiva, la BT non è per il momento verificata sperimentalmente sulle nuove fenomenologie proposte, ma a differenza delle precedenti non ha bisogno di introdurre principi estranei al contesto teorico, come la quantizzazione o il principio di relatività, in quanto li contiene in modo consistente al proprio interno.

In BT a differenza della LQG e della ST che seguono strade più tradizionali, pur non essendo in contraddizione con la realtà fisica-fenomenologica, vengono proposte nuove chiavi di lettura dei fenomeni quantistici e relativistici che sono invece alla base di teorie accreditate come la Meccanica Quantistica (Quantum Mechanics – QM), l’Elettrodinamica Quantistica (Quantum Electrodynamics – QED), la Cromodinamica Quantistica (Quantum Cromodynamics – QCD), proprio questa difformità strutturale nei fondamenti, relega attualmente la BT in secondo piano, esponendola a critiche metodologiche e procedurali.

Vediamo perché la BT può essere considerata una teoria fondamentale. Ogni modello o teoria quantistica mainstream è direttamente o indirettamente quantizzata dall’esterno tramite l’introduzione di una costante di azione universale che si chiama costante di Planck, il cui valore secondo la visione universalmente accettata è stimabile solo sperimentalmente. La scoperta della quantizzazione dovuta a Max Planck è legata alla spiegazione delle peculiarità dello spettro della radiazione di corpo nero, un fenomeno inspiegabile dal punto di vista elettromagnetico. Planck superò il problema assumendo che gli scambi di energia tra materia e radiazione in equilibrio termodinamico non fossero continui ma discreti, multipli di pacchetti di energia elementari, dove ogni pacchetto aveva un’energia proporzionale alla frequenza dell’onda elettromagnetica associata.

La costante di proporzionalità “h“, successivamente ribattezzata col nome di costante di Planck in onore del suo scopritore, ha attualmente un ruolo fondamentale nel processo di quantizzazione, ma il suo valore viene introdotto sempre forzosamente, in quanto è estraneo alla teorie in uso. Si sa che l’energia è quantizzata, quindi la utilizziamo in modo quantizzato e tutto funziona bene.

Pur essendo all’epoca di Planck la quantizzazione dell’energia un fenomeno estraneo alla teoria elettromagnetica maxwelliana, la sua introduzione si rivelò funzionale a risolvere il problema dello spettro di corpo nero, ciò permise di sviluppare il modello atomico e nei cento anni successivi di sviluppare teorie quantistiche estremamente potenti basate proprio sull’esistenza e sulla universalità della costante di Planck e del principio di quantizzazione. La Bridge Theory origina invece da un nuovo modo di descrivere l’interazione tra particelle cariche, una fenomenologia che permette mediante lo studio della struttura dei campi elettromagnetici della DEMS di prevedere teoricamente il valore esatto della costante di Planck, ottenendo quindi la quantizzazione del campo elettromagnetico senza doverla introdurre, dimostrando che tra le pieghe della teoria maxwelliana la quantizzazione esiste già senza doverla introdurre.

Un nuovo modello di Universo

A partire dal 2019 la Bridge Theory fu estesa con successo prima alla Relatività Speciale, poi alla Relatività Generale, ma essendo questa una teoria gravitazionale, quindi cosmologica, la sua estensione alla Relatività Generale comportò lo sviluppo di un nuovo modello di Universo detto a Multi-Bolle (Multi-Bubble Universe – MBU). Il modello MBU è basato integralmente sulla Bridge Theory, potremmo dire che è una sua estensione ma non è parte fondamentale della teoria. Secondo il modello MBU, l’Universo non ha avuto un tempo zero in cui sì è verificato un unico Big Bang ma è formato da infiniti Small Bang prodotti dal campo del nulla, un campo inosservabile perché precedente alla formazione dello spaziotempo, nel quale, in totale rispetto delle leggi di conservazione, esiste una continua formazione di bolle di spaziotempo e materia, le quali aggregandosi formano uno spaziotempo unico, quantizzato, che dà origine a una specie di schiuma.

Figura 5 
Creazione di bolle spaziotemporali
Immagine schematica: Decadimento spontaneo dei gravitoni con formazione di spaziotempo e materia .

 

Lo spaziotempo di ogni bolla rappresentato schematicamente in Figura 5 è il campo elettromagnetico prodotto nel decadimento spontaneo di un particolare bosone chiamato gravitone di bilanciamento, la sua previsione di massa è di 2.68 TeV. Il suo ruolo è quello di bilanciare l’energia della bolla trasferendo l’energia elettromagnetica in eccesso prodotta da fluttuazioni quantistiche spontanee, che porterebbero a un collasso della bolla, al campo del nulla con l’effetto di dilatare adiabaticamente mediante scambi quantizzati la bolla di spaziotempo mantenendo inalterata l’energia totale del vuoto. Attualmente, date le sue caratteristiche, esiste solo una particella candidata ad essere il gravitone di bilanciamento ed il gravitone di Kaluza-Klein, la cui esistenza è prevista anche in altre teorie. Dal punto di vista sperimentale i segni della sua esistenza sono ricercati nelle collisioni ad alta energia prodotte nel Large Hadron Collider (LHC) del CERN.

Un vantaggio del modello MBU è che non c’è bisogno di materia oscura per giustificare le anomalie rotazionali degli aloni galattici, e non c’è nemmeno bisogno de energia oscura per giustificare il comportamento espansivo osservato in alcune regioni di universo, in quanto l’Universo si espande accelerando o rallentando in base all’attività di formazione delle bolle in una certa direzione rispetto all’osservatore, quindi in base alla crescita della “schiuma spaziotemporale“. Inoltre, il residuo energetico della creazione delle bolle genera una radiazione cosmica di fondo a microonde che è coerente con la radiazione di fondo osservata.

In questo quadro teorico complessivo, tutte le forze risulterebbero quantizzate e persino la gravità su scala della bolla verrebbe inserita in un contesto quantistico apparendo solo come un diverso modo di agire delle forze elettromagnetiche. A questo punto in termini di unificazione mancherebbe ancora l’interazione nucleare forte che, pur essendo una forza già naturalmente quantizzata, in base alle teorie comunemente accettate non sembrerebbe avere affinità con le forze elettromagnetiche.

In due recenti lavori, uno pubblicato il 9 ottobre di quest’anno sul Applied Physics Research (Vol. 17, No. 2, 2025) e l’altro in via di pubblicazione sulla stessa rivista ma attualmente solo in preprint, applicando il modello di interazione dipolare alle interazioni adroniche si è ottenuto un perfetto accordo tra il modo di agire previsto dalla Bridge Theory e l’interazione nucleare forte, con una previsione rispettata sia delle costanti di accoppiamento forti che delle masse dei quark up 2.23 MeV e down 4.83 MeV.

 

Figura 6 
Funzione di accoppiamento forte
In figura è rappresantata la variabilità della costante di accoppiamento forte in funzione dell’energia di interazione. Il fenomeno (in rosso) è chiamato “running” ed è perfettamente emulato mediante la Bridge Theory (in blu).

 

In questo caso i dati di controllo utilizzati sono stati le masse sperimentali dei quark e i raggi di momento di dipolo del protone 8.1  10-16 m e del neutrone 8.9  10-16 m, che si accordano, in particolare quello del protone, con il raggio di carica del protone misurato sperimentalmente: 8.3  10-16 m. Quindi, stando ai risultati, anche la forza nucleare forte può essere riconducibile alle forze elettromagnetiche mediante l’uso della Bridge Theory, unificandosi alle forze elettrodeboli e gravitazionali in un’unica interazione unificata.

Questi risultati, se aggiunti a tutti gli altri successi già ottenuti, indicano un’altissima predittività della teoria che aggiunta alla sua potenziale falsificabilità, cioè la possibilità di verificare o non verificare sperimentalmente le sue predizioni, la rendono una teoria potente e interessante fino a prova contraria.

Figura 7 
Masse dei Quark Down e Up
Nei due grafici è riportato in rosso il valore della massa dei quark down e up calcolata mediante la Bridge Theory. In nero sono riportati i valori ottenuti in differenti esperimenti. Le fasce bianche indicano l’intervallo di attendibilità delle misurazioni, le linee tratteggiate in rosso indicano l’intervallo di errore associato all’energia di massa calcolata in BT.

 

L’approccio elettrodinamico caratteristico dell BT, applicato a diversi ambiti teorici della fisica moderna, ha permesso di sviluppare una teoria in grado di spiegare senza mai contraddirsi sia i fenomeni quantistici che relativistici, portando ad una descrizione completa, anche se fuori dal consueto, di un Universo senza limiti e senza tempo. Si tratta ora di verificarla sperimentalmente al di là degli attuali successi teorici.

Esiste però una dicotomia interna alla Bridge Theory che permette di poter lavorare nella sua verifica a due step. Infatti la BT potrebbe essere valida unificando forze elettrodeboli con le forze nucleari forti, quindi raggiungendo un’unificazione elettronucleare, primo step, senza che sia valido il modello Multi-Bubble Universe, secondo step, pur fornendo il modello MBU interessanti e intriganti dettagli sulla struttura dell’universo, oppure potrebbero essere validi entrambi gli step, raggiungendo così una totale unificazione delle quattro forze della natura in un’interazione unificata che ha origine elettromagnetica ad ogni scala di grandezza dell’universo, semplificando così la trattazione dei fenomeni in un unico quadro già ben noto, dominato da una forza unica di cui ancora non è stato pensato nemmeno il nome.