Nel luglio 2025, i modelli linguistici di grandi dimensioni (LLM) di DeepMind (Gemini Deep Think) e OpenAI hanno fatto parlare di sé per aver raggiunto prestazioni equivalenti ai medagliati d’oro alle Olimpiadi Internazionali di Matematica (IMO), risolvendo cinque dei sei problemi proposti. Questo risultato è stato celebrato come un traguardo storico per l’intelligenza artificiale, ma merita davvero tutto l’entusiasmo che ha generato?
Un successo impressionante, ma che va contestualizzato
Le Olimpiadi Internazionali di Matematica (IMO) sono una competizione prestigiosa che sfida giovani talenti conproblemi complessi di algebra, geometria, combinatoria e teoria dei numeri. Secondo un articolo di The NewYork Times (luglio 2025), i modelli di DeepMind e OpenAI hanno risolto cinque problemi su sei, collocandosi nel 10% dei migliori partecipanti umani.
DeepMind ha partecipato ufficialmente, con i risultati di Gemini Deep Think validati dagli organizzatori dell’IMO, mentre OpenAI ha testato il suo modello sperimentale al di fuori dellacompetizione, con verifiche condotte da ex vincitori delle IMO, come riportato in un comunicato stampa dell’azienda. Questi modelli hanno dimostrato capacità avanzate di ragionamento. DeepMind ha utilizzato il parallel reasoning,esplorando più percorsi logici contemporaneamente, mentre OpenAI ha adottato un approccio di multi-agentconsensus, in cui diversi agenti generano e selezionano soluzioni. L’apprendimento per rinforzo ha ulteriorment eaffinato le loro strategie, come descritto in un blog tecnico di Google Research (luglio 2025).
Terence Tao, matematico e medaglia Fields, ha commentato che “questo risultato mostra quanto l’IA possa eccellere in compiti strutturati, ma non è una sorpresa per chi conosce i progressi recenti”. Tuttavia, il clamore generato sembra sproporzionato. I problemi delle IMO, pur complessi, seguono schemiprevedibili che i modelli possono apprendere da vasti dataset di problemi matematici.
Come notato da Emily Bender, esperta di IA presso l’Università di Washington, in un’intervista a MIT Technology Review (agosto 2025),“risolvere problemi delle IMO non equivale a fare matematica creativa. È più simile a un esercizio diriconoscimento di pattern”.
Questo suggerisce che il successo, sebbene impressionante, non rappresenti unsalto qualitativo verso l’intelligenza generale.
Limiti Evidenti dei Modelli di IA
Il risultato delle IMO evidenzia i limiti fondamentali dell’IA attuale. Primo, i modelli dipendono fortemente dai datidi addestramento.
Ilya Sutskever, co-fondatore di OpenAI, ha scritto spiegato come “i modelli eccellono grazie a dataset enormi di problemi e soluzioni preesistenti”. Questo significa che non stanno“inventando” soluzioni, ma applicando tecniche apprese. La ricerca matematica avanzata, invece, richiede diformulare nuove domande e sviluppare teorie originali, un’area in cui l’IA è ancora carente.Secondo, i modelli richiedono interventi umani significativi. Per AlphaProof di DeepMind, i problemi delle IMOsono stati tradotti manualmente in un linguaggio formale, come riportato da Google Research (luglio 2025). Questo passaggio rivela una dipendenza da esperti umani, ridimensionando l’autonomia del sistema.
MelanieMitchell, ricercatrice presso il Santa Fe Institute, ha scritto su Nature Machine Intelligence (agosto 2025) che “l’IApuò sembrare intelligente, ma senza un contesto strutturato e un supporto umano, le sue capacità crollano”. Terzo, i modelli faticano con il ragionamento di buon senso. Vince Conitzer, professore alla Carnegie Mellon University, ha osservato su Wired (luglio 2025) che “anche i migliori modelli di IA falliscono in problemi logicisemplici se escono dal loro dominio di addestramento”. Ad esempio, un modello potrebbe risolvere un’equazionecomplessa ma non capire una domanda banale come “perché un triangolo non può avere quattro lati”. Questolimite sottolinea che l’IA è lontana dall’emulare la flessibilità cognitiva umana.
Infine, la trasparenza è un problema. OpenAI non ha partecipato ufficialmente alla competizione, e i suoi risultatisono stati verificati internamente, suscitando critiche. Un ex partecipante alle IMO ha scritto su X (luglio 2025)che “senza una validazione indipendente, i risultati di OpenAI sono difficili da valutare”. Questo alimenta ilsospetto che il clamore sia in parte una mossa di marketing.
Perché “Tanto Rumore per Nulla”?
Il successo alle IMO è stato presentato come una svolta, ma è davvero così rivoluzionario? I problemi delle IMO,come notato da Geordie Williamson, matematico dell’Università di Sydney, in un’intervista a The Guardian (luglio2025), “sono progettati per essere risolti in poche ore con tecniche note. La ricerca matematica, invece, richiedeanni di lavoro creativo”. L’IA ha dimostrato di poter padroneggiare un formato specifico, ma non di affrontareproblemi aperti o di sviluppare nuove teorie.Inoltre, il confronto con gli esseri umani mostra che l’IA non è imbattibile. Durante la AtCoder World Tour Finals2025, un giovane sviluppatore umano ha superato il modello di OpenAI in un compito di ottimizzazione, comeriportato da TechCrunch (luglio 2025). Questo suggerisce che, in contesti competitivi, l’intelligenza umanarimane competitiva, specialmente quando si tratta di intuizione e creatività.Il clamore rischia anche di oscurare il vero potenziale dell’IA: il supporto ai ricercatori. Yann LeCun, chief AIscientist di Meta, ha dichiarato a The Verge (luglio 2025) che “l’IA è più utile come assistente che come sostitutodei matematici”. Sistemi come AlphaGeometry di DeepMind, che ha scoperto nuove soluzioni in geometria (Quanta Magazine, giugno 2025), mostrano come l’IA possa accelerare il lavoro umano, ma non sostituirlo.
L’enfasi sul successo competitivo, però, alimenta narrazioni esagerate che possono portare a aspettative irrealistiche.
Un futuro collaborativo, non sostitutivo
Il risultato delle IMO 2025 è un passo avanti, ma non una rivoluzione. L’IA ha dimostrato di poter competere in uncontesto strutturato, ma la ricerca matematica richiede qualità che i modelli attuali non possiedono: creatività,intuizione e la capacità di affrontare l’ignoto. Come sottolineato da Mitchell su Nature Machine Intelligence(agosto 2025), “l’IA è un martello potente, ma non ogni problema è un chiodo”. Per sfruttare appieno il suopotenziale, è necessario sviluppare modelli più autonomi e trasparenti, capaci di operare senza interventi umanie di affrontare problemi non strutturati.Nel frattempo, il futuro della matematica sembra risiedere nella collaborazione tra umani e IA. I modelli possonoassistere i ricercatori verificando congetture, generando ipotesi o risolvendo calcoli complessi, ma la guidaumana rimane essenziale. Come ha detto Tao su Scientific American (luglio 2025), “l’IA è uno strumento, non unmatematico. Il suo valore dipende da come lo usiamo”.