BELLEZZA E CONOSCENZA - La bellezza dei numeri primi
Uno, due, tre... sono i numeri cui accediamo sin dall'infanzia, e ben presto realizziamo il nostro potere illimitato nel contare... quattro, cinque, sei... e avanti così, senza fine...

"Dio creò i numeri naturali, il resto è opera dell'uomo" - sentenziò Kronecker, per attribuirgli un significato primordiale, un ruolo di fondamento nella costruzione matematica.
E dentro i numeri naturali - in apparenza senza misteri - se ne annidano altri dalle sembianze ancor più umili: i numeri primi, il sottoinsieme dei naturali maggiori di 1, divisibili solo per sé stessi e per l'unità.
Impossibile immaginare un oggetto matematico più semplice, non è vero?
Ma è una semplicità ricca di sfumature, che traccia itinerari affascinanti e conduce in luoghi immaginifici, spalanca porte sull'alta teoria ed entra in contatto con pratica quotidiana, e finisce con l'annoverare i primi tra i personaggi più misteriosi e intriganti dell'universo matematico.
I due migliori libri divulgativi sui numeri primi.
La loro testimonianza più remota è nell'osso di Ishango - un reperto datato al Paleolitico superiore, tra il 20.000 e il 18.000 a.C. - in cui compaiono inequivocabili segni espressivi dei numeri primi tra 10 e 20.
Li ritroviamo in Mesopotamia, nel secondo millennio avanti Cristo, in tavolette con problemi aritmetici le cui soluzioni richiedono una buona conoscenza della loro proprietà formali.
Allo stesso millennio appartiene il celebre papiro di Rhind - il primo documento matematico, trascritto intorno al 1650 a.C. - che riporta espansioni in frazioni egiziane del tipo 2/n, di forma differente a seconda che n sia un numero primo o composto.

L'osso d'Ishango è un perone di un babbuino, di colore scuro,
con una scaglia tagliente di quarzo innestata a una estremità, probabilmente utilizzata per incidere.
Il reperto fu rinvenuto nel 1960, nei pressi del lago Edoardo, da Jean de Heinzelin de Braucourt,
con una scaglia tagliente di quarzo innestata a una estremità, probabilmente utilizzata per incidere.
Il reperto fu rinvenuto nel 1960, nei pressi del lago Edoardo, da Jean de Heinzelin de Braucourt,
durante un'esplorazione nell'allora Congo Belga.
E' ricoperto da una serie di scalfitture, raggruppate in tre colonne che occupano l'intera lunghezza.
L'organizzazione delle tacche in tre raggruppamenti asimmetrici ha una funzione pratica,
al punto da ipotizzare una disposizione funzionale alla costruzione di un sistema numerico.
al punto da ipotizzare una disposizione funzionale alla costruzione di un sistema numerico.
La fila (c), nell'immagine stilizzata, inizia con 3 tacche, subito dopo se ne trovano 6, il doppio,
così come al numero 4 segue l'8, per poi invertire il sistema per il numero 10, seguito dal 5.
La sequenza suggerisce una comprensione delle operazioni di moltiplicazione e divisione per 2.
I numeri delle file (a) e (b) sono invariabilmente dispari (9, 11, 13, 17, 19 e 21):
quelli incisi nella fila (b) sono tutti i numeri primi compresi tra 10 e 20,
I numeri delle file (a) e (b) sono invariabilmente dispari (9, 11, 13, 17, 19 e 21):
quelli incisi nella fila (b) sono tutti i numeri primi compresi tra 10 e 20,
quelli sulla fila (a) sono calcolati secondo la regola 10+1, 10-1, 20+1 e 20-1.
Con gli "Elementi" di Euclide - tra il IV e il III secolo a.C. - si ha il primo abbozzo del quadro d'assieme.
Poi, curiosamente, i matematici se ne disinteressano, e per secoli non si hanno risultati apprezzabili.
Ritornano di moda intorno al 1600, con Fermat, Mersenne, Eulero e Goldbach.
Nell'800 se ne occupano, tra gli altri, il principe dei matematici, Gauss, e poi il suo allievo Riemann, nella gloriosa Università di Gottinga.
Ritornano di moda intorno al 1600, con Fermat, Mersenne, Eulero e Goldbach.
Nell'800 se ne occupano, tra gli altri, il principe dei matematici, Gauss, e poi il suo allievo Riemann, nella gloriosa Università di Gottinga.
Rimangono gingilli teorici sino agli anni settanta del ’900, allorquando, con l'avvento della tecnologia, offrono la chiave risolutiva al pressante problema della sicurezza nella trasmissione delle informazioni: pagare col bancomat, chiamare con un i-Phone, guardare la pay-tv, accedere alla mailbox, e tante altre operazioni quotidiane, sono realizzabili in tutta tranquillità solo grazie all'armamentario dei numeri primi.

Hardy trasformava in un punto d'onore ciò che per molti è una limitazione:
"La 'vera' matematica dei 'veri' matematici, quella di Fermat, di
Eulero,
di Gauss, di Abel e di Riemann, è quasi totalmente
'inutile'.
Non è possibile giustificare la vita di nessun vero
matematico professionista
sulla base della 'utilità' del suo lavoro".
Hardy si occupava di teoria dei numeri
- quel ramo dedicato ai numeri interi, con al centro i numeri primi - proprio perché "inutile".
Lo studio dei numeri primi aveva per lui tutto il fascino dell'esplorazione di un mondo incantato,
senza il peso di possibili conseguenze pratiche, e proprio per ciò era "vera" matematica,
da scoprire e contemplare nella sua purezza e perfezione, senza altri pensieri.
E così effettivamente è stato sino alla seconda metà degli anni '70,
quando lo sviluppo e la diffusione della tecnologia ha riproposto un problema antico:
come proteggere la trasmissione di informazioni riservate?
Buona parte della storia dell'umanità si potrebbe riscrivere da questa prospettiva
- dal cifrario di Cesare sino alla macchina "Enigma" dei nazisti -
perché la battaglia intellettuale tra inventori e solutori di codici,
ha
spesso lasciato segni profondi nello sviluppo del pensiero e della pratica.
Ma è con l'affermarsi della tecnologia informatica che il problema diventa collettivo,
una questione di tutela della privacy e
protezione degli interessi di ciascuno di noi.
Se comunichiamo via e-mail, e archiviamo nella
mailbox i messaggi spediti e ricevuti,
è perché sentiamo di essere gli
unici a poter accedere alla nostra casella di posta elettronica.
Paghiamo per un servizio di wifi nella convinzione che altri non ne possano usufruire gratis.
Guarderemmo con sospetto alla naturale operazione del pagare con la carta di credito,
se venisse
meno - anche solo per un attimo - la sensazione di essere al sicuro dagli hacker.
Ma su cosa si basa - tecnicamente - tutta questa sicurezza? Sui numeri primi!
Il tecnicismo matematico ha le sue incomprimibili complessità,
ma se può ancora rendere il senso con un esempio dal sapore vintage: l'elenco del telefono.
E' immediato trovare manualmente il numero di telefono di un utente a partire dal suo nome,
ma la ricerca speculare, di individuazione del nome attraverso il numero di telefono,
è praticamente impossibile, se fatta a mano, per i suoi tempi improponibili.
In termini formali serve riferirsi a un'operazione (f ) che sia facile da eseguire,
ma di cui sia praticamente impossibile realizzare l'inverso (f -1).
E qual è questa operazione matematica? La fattorizzazione in numeri primi!
Assegnati due numeri primi a piacere, p1 e p2, è immediato calcolare il prodotto q=p1×p2.
Ma se da un numero q arbitrariamente grande (tra 100 e 300 cifre),
si vuole risalire ai numeri primi {pk} che vi stanno dietro,
allora si fronteggia una sfida ben più complessa dell'elenco del telefono,
anche avvalendosi della migliore tecnologia di calcolo disponibile.
L'operazione f - facile da eseguire - è la moltiplicazione, che opera con rapidità;
la
sua inversa, f -1, è la fattorizzazione in numeri primi, che lavora con esasperante lentezza
al punto da potersi dire "impossibile", nel senso proprio della logica crittografica
(non realizzabile in tempi ragionevoli con la conoscenza scientifica e la tecnologia disponibili).
(non realizzabile in tempi ragionevoli con la conoscenza scientifica e la tecnologia disponibili).
I primi sono così diventati le chiavi delle serrature a protezione dei segreti (elettronici) del mondo.
Fuori dal mondo matematico, i primi sono sorgente d'ispirazione per gli artisti, motivo d'interesse per i neurobiologi, mezzo di sopravvivenza per le specie animali.
Il romanzo "La solitudine dei numeri primi", di Paolo Giordano, è sin troppo noto per doverlo presentare.
Più datato è il racconto fantascientifico "Contact", di Carl Sagan, in cui una sequenza di numeri primi è il messaggio scelto da una civiltà aliena per avviare la comunicazione con i terrestri, nella certezza della sua comprensione da parte di qualsiasi intelligenza evoluta.
"Si può immaginare che dall'altra parte dell'universo esistano una
chimica o una biologia differenti,
ma i numeri primi rimarranno numeri
primi in qualsiasi galassia si conti"
(Marcus du Sautoy)
Non solo fantascienza, ma anche scienza.
I numeri primi sono i protagonisti di un episodio documentato dal dottor Oliver Sacks, in "L'uomo che scambiò sua moglie per un cappello", una raccolta di storie di malati cerebrali, che nonostante le menomazioni e l'anormalità (o forse grazie a esse?) sviluppano per compensazione delle capacità tecniche, artistiche o di calcolo fuori dall'ordinario.
Il capitolo XXIII - intitolato "I gemelli" - discute il caso di due fratelli autistici che conversano tra loro a colpi di numeri primi.
Quando il dottore prova a inserirsi in quel singolare dialogo, munito di una tavola di primi sino a dieci cifre, ne viene presto estromesso, per la capacità dei due gemelli di andare ben oltre, semplicemente con le loro facoltà intellettive.
I gemelli saranno poi separati "per il loro bene", quando non è più il dottor Sacks a seguire il caso; e una volta divisi, in effetti, i due migliorano notevolmente nelle capacità relazionali e guadagnano in auto-sufficienza, al prezzo però della loro passione per i numeri, di una complicità basata su cifre condivise come fossero parole.
"Per me è difficile ascoltare questa storia senza sentirmi intimidito e strabiliato
di fronte al funzionamento del cervello.
Ma mi chiedo: i miei amici non matematici hanno la stessa reazione?
Ma mi chiedo: i miei amici non matematici hanno la stessa reazione?
Hanno la più vaga idea di quanto fosse bizzarro, prodigioso e persino ultraterreno
il singolare talento che i due gemelli possedevano in modo cosi naturale?
Sono consci del fatto che da secoli i matematici si sforzano di trovare
una maniera per fare quello che John e Michael facevano spontaneamente:
generare e riconoscere dei numeri primi?"
generare e riconoscere dei numeri primi?"
(Enrico Bombieri, "Medaglia Fields" 1974)
Non solo esseri umani, reali o di fantasia, ma anche Madre Natura mostra una predilezione per i numeri primi, nel plasmare i suoi oggetti, nell'indirizzare il comportamento delle sue creature.
Il caso più affascinante è nei cicli di vita delle cicale Magicicada tredecim e Magicicada septendecim, diffuse nel Nord America.
Le due specie condividono lo stesso ambiente, con una latenza rispettivamente di 13 e 17 anni, durante la quale si alimentano con la linfa delle radici degli alberi, per poi uscire in massa dal sottosuolo, compiere la loro metamorfosi, intonare canti d'amore, accoppiarsi, deporre le uova e infine morire, dopo sei settimane, e far ripiombare la foresta in un silenzio ultradecennale.
Aver calibrato i propri cicli vitali su due numeri co-primi - il 13 e il 17, non divisibili l'uno per l'altro - minimizza le occasioni di incontro, quindi le possibilità di ibridazione con conseguente indebolimento della specie, ed evita l'eccesso di competizione per le stesse risorse ambientali: le due famiglie di cicale si troveranno a spartirsi la foresta una volta ogni 13×17=221 anni.
Con cicli anche solo leggermente sfasati (rispetto al 13 e al 17) la frequenza della coabitazione aumenterebbe: se fossero 18 e 12, le due
specie si incrocerebbero ben 6 volte nello stesso periodo di 221 anni (e
precisamente negli anni 36, 72, 108, 144, 180 e 216); con periodi più
lunghi, ma non primi tra loro, la frequenza delle coincidenze aumenterebbe ancora (con 15 e 18 anni, ad esempio, l'incontro avverrebbe ogni 90
anni).
Il 13 e il 17 non sono solo co-primi, ma sono anche primi se presi singolarmente, cosicché si riduce pure il rischio di imbattersi in predatori con ciclo vitale più breve. In quelle stesse foreste è presente un fungo letale per le cicale con un ciclo di vita di 5 anni (ancora un numero primo!) per cui l'incontro tra predatore e preda avviene ogni 5×13=65 anni e 5×17=85 anni. Di nuovo, con cicli diversi, ad esempio di 8 e 10 anni, si assisterebbe a un agone tra funghi e cicale una volta ogni 5×8=40 e 5×10=50 anni.
ma la chiave per la sopravvivenza"
(Marcel du Sautoy)
Nei numeri primi ci sono un piacere sottile, una densità di significati e un potere evocativo - viene da dire una magia - che si accompagnano a un senso di bellezza ben percepibile già nel loro originario ambito matematico.
I motivi d'interesse matematico per i numeri primi sono localizzati nelle Proposizioni 31 e 32 del Libro VII e nella Proposizione 20 del Libro IX degli "Elementi" di Euclide:
- ogni numero naturale, maggiore di 1, o è primo o è composto, e ogni numero composto è il prodotto di numeri primi (sarà poi a Gauss a provare l'unicità della fattorizzazione, nel 1798);
- i numeri primi sono infiniti.
I due enunciati sono di facile comprensione, e però si prestano a interpretazioni suggestive.
I numeri primi sono l'equivalente matematico della tavola periodica degli elementi in chimica: come ogni molecola del mondo fisico si può costruire con gli atomi della
tavola, ogni numero naturale, non primo, si può formare tramite
una moltiplicazione di numeri primi.
Il loro nome - primi - prende così un significato profondo, oltre le apparenze: i primi sono proprio i primi di tutti, i capostipiti del sistema numerico, perché se "Dio creò naturali" - come dice Kronecher - allora in principio erano i primi e solo dopo arrivarono tutti gli altri.
L'enunciato è elementare, ma conviene vederlo all'opera:
2=2
3=3
4=2×2=22
5=5
6=2×3
7=7
8=2×2×2=23
9=3×3=32
10=2×5
o per proporre un caso più elaborato:
23.244=22×3×13×149
Chiaro, sì? O un numero è primo, e allora è uguale a sé stesso (granitico, irriducibile, tutto d'un pezzo) oppure è composto, e allora lo si può scomporre nel prodotto di numeri primi (eventualmente contati più volte).
Il teorema fondamentale dell'aritmetica su un francobollo della Repubblica Democratica Tedesca,
emesso nel
1981 in occasione del 150° anniversario della nascita del matematico
Richard Dedekind:
ogni numero naturale,
diverso da 1, si può rappresentare in modo univoco come prodotto di numeri primi p1, p2, p3, ... ognuno preso con la sua molteplicità e1, e2, e3, ...
Il teorema chiarisce - incidentalmente - il motivo per cui il numero 1 è tenuto fuori dal club dei primi: se vi appartenesse, la fattorizzazione non sarebbe più unica, perché al numero 1 si potrebbe dare una molteplicità arbitraria, senza alterare il risultato.
23.244=1×22×3×13×149
23.244=12×22×3×13×149
23.244=13×22×3×13×149
23.244=14×22×3×13×149
...
23.244=1n×22×3×13×149
Il numero 1 non dà quindi informazioni utili per costruire altri numeri per via moltiplicativa (l'1 è l'elemento neutro del prodotto) e il vantaggio di evitare fattorizzazioni plurime prevale - anche sul piano estetico - su una definizione ingenua che volesse accogliere l'1 tra i primi.
tanto più che la stessa definizione di numeri primi si può dare con maggior rigore, se si esclude l'1:
i numeri primi ammettono esattamente due divisori distinti, l'1 e sé stessi
(e l'1 quindi non è primo, perché ha un solo un divisore).
Il 2 è l'unico numero primo pari (qualsiasi altro pari è divisibile per 2)
ma ha un ruolo cruciale nello scovare numeri primi arbitrariamente grandi,
che spesso vengono espressi nella forma 2n-1, con n numero naturale da individuare.
Il più grande numero primo a oggi conosciuto si ha per n=82.589.933,
scoperto il 7 dicembre 2018 da Patrick Laroche
nell'ambito del progetto "Great Internet Mersenne Prime Search".
(a volerlo scrivere con cifre di un centimetro di larghezza
coprirebbe una distanza paragonabile a quella tra Catania e Palermo).
Ma è un record effimero, com'è inevitabile quando si fronteggia l'infinito,
e prima o poi se ne troverà un altro, e poi un altro e un altro ancora...
La fattorizzazione in numeri primi di un numero naturale è l'equivalente del suo codice fiscale, o se preferite, i numeri primi rappresentano gli atomi dell'aritmetica, la tavola di Mendelev del matematico.
Con una differenza cruciale, però: se il codice fiscale è limitato a 16 caratteri alfanumerici, e la tavola chimica a 109 elementi, i primi sono invece infiniti, e sempre se ne incontreranno, presto o tardi, per quanto ci si voglia spingere in là sulla linea dei numeri.
Riepiloghiamo: all'origine della matematica c'è l'operazione del contare; il conteggio usa i numeri naturali; i numeri naturali sono esprimibili attraverso un prodotto di numeri primi; e i numeri primi sono infiniti.
Se i primi avessero avuto il buon gusto di trovarsi in numero finito, li si sarebbero potuti censire, schedare, si sarebbe potuto prendere atto di chi fossero, elencandoli. E invece i primi sono infiniti e la loro infinità solleva degli interrogativi.
Il fatto è che non tutti gli infiniti sono uguali: alcuni si possono - per così dire - addomesticare, altri sono invece più bizzosi.
Prendiamo ad esempio la sequenza numerica:
1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048, ...
E' chiaramente una sequenza infinita - che si può cioè prolungare a piacimento, senza mai incontrare un punto fermo - ma rimane governabile. La sequenza è infinita, ma la scrittura compatta:
2n, n=0, 1, 2, 3, ...,
ne racchiude tutti gli infiniti termini e "imbriglia l'infinito" - per così dire - sapendo di dover assegnare a n un numero naturale (incluso lo zero).
La funzione 2n è la sorgente da cui sgorgano tutti i numeri della sequenza, e se si vuol sapere quale numero occupa l'n-esimo posto non si deve far altro che che calcolare 2n-1: il primo posto (n=1) è occupato da 21-1=20=1; il secondo posto (n=2) è occupato da 22-1=21=2; il terzo posto (n=3) da 23-1=22=4; e al tredicesimo posto (n=13) troviamo 213-1=212=4096; e via così, con n arbitrario.
La sequenza 1, 2, 4, 8, 16, 32, ... è sì infinita, ma tutte le sue proprietà sono perfettamente note, e tutto quel che si vuol sapere lo si può conoscere lavorando sulla quantità 2n che ne fornisce la chiave di lettura.
E' possibile realizzare qualcosa di simile anche per la sequenza infinita dei numeri primi? Da dove sgorgano? Se ne può individuare una chiave di lettura? Esiste una
formula per creare numeri primi a piacimento, una regola per sapere -
ad esempio - qual è il centesimo numero primo? Possiamo risalire a una realtà antecedente agli atomi della matematica proprio come - a dispetto del nome - abbiamo frantumato gli atomi della fisica?
La questione è insidiosa, perché si vorrebbe è una formula capace di generare tutti e soli numeri primi, e anche al più distratto degli sguardi risulta evidente il bizzarro andamento dei numeri primi, già nel tratto iniziale.
I primi sono colpi improvvisi sul tamburo matematico, battono un ritmo irregolare, sfuggente, eppure incessante.
Partono abbracciati - il 2 col 3 - ma già al passo successivo si separano - tra il 3 e il 5 c'è il 4, che è composto - e la loro distanza varia imprevedibilmente man mano che si procede a identificarli; si diradano, diventano rari, e si possono costruire intervalli arbitrariamente grandi privi di numeri primi; ma ci si imbatte un gran numero di volte - infinte? - in primi separati da un solo numero, come il 3 e il 5, il 59 e il 61, o l'821 e l'823, i cosiddetti primi gemelli (metafora matematica delle vicende esistenziali dei protagonisti del romanzo "La solitudine dei numeri primi").
Eulero - nel 1751 - manifestava tutto il suo scetticismo sulla possibilità di scovare un algoritmo semplice per la generazione dei numeri primi. "Ci sono alcuni misteri che la mente umana non penetrerà mai. Per convincercene non dobbiamo far altro che gettare un'occhiata alle tavole dei numeri primi. Ci accorgeremo che non vi regna né ordine né legge".
Possibile che non vi siano spiegazioni per il modo con cui
creature così semplici si dispongono nell'universo numerico? Che il cuore pulsante della matematica batta a un
ritmo isterico?
Se i numeri fossero suoni - come volendo si possono
intendere - possibile che i primi producano solo rumore, che non vi sia alcuna melodia nei padri fondatori di tutti gli altri numeri?
"Quando le cose diventano troppo complicate, qualche volta ha senso fermarsi e chiedersi: ho posto la domanda giusta?".
Le parole di Enrico Bombieri, grande matematico contemporaneo, saranno riecheggiate anche nella testa di Carl Federich Gauss, il princeps mathematicorum dell'800, tra i più grandi matematici di sempre: se la linea d'attacco non porta ai risultati sperati, se non offre punti di presa interessanti, allora si deve modificare la prospettiva, rigirare la questione, porsi proprio un'altra domanda.
E fu così che Gauss cambiò strategia: l'assalto all'armata dei primi non fu più condotto con l'idea di scovare una regola per individuarli sull'asse dei numeri - come accade con 2n per la sequenza 1, 2, 4, 8, ... - ma interrogandosi sulla probabilità di estrarre un numero primo da un'urna con palle numerate fino a un certo numero n.
Gauss introdusse la funzione enumerativa dei primi:
π(n) = {quantità di numeri primi tra 1 e n}
La funzione π(n) conta i numeri primi tra 1 e n, con n numero naturale arbitrario (incluso nel conteggio).
Quindi, a esempio:
- π(1)=0, perché 1 non è un numero primo;
- π(2)=1, perché tra 1 e 2 c'è un solo numero primo non superiore a 2 (il 2 stesso);
- π(3)=2, perché tra 1 e 3 ci sono due numeri primi (2 e 3);
- π(4)=2, perché tra 1 e 4 i numeri primi rimangono solo 2 (sempre 2 e 3);
- π(5)=3, perché tra 1 e 5 troviamo ora tre numeri primi (2, 3, 5);
- π(6)=3, perché tra 1 a 6 i primi rimangono tre (2, 3, 5).
Andando avanti troviamo π(7)=π(8)=π(9)=π(10)=4, perché tra 1 e 7, tra 1 e 8, tra 1 e 9 e tra 1 e 10 ci sono sempre 4 numeri primi (2, 3, 5, 7); il salto successivo è a π(11)=5.
La funzione π(n) ha perciò un andamento "a scala": cresce di un'unità ogni volta che incontra un numero primo, con cui dà forma un gradino di altezza unitaria, e poi si stabilizza lungo tutto l'intervallo senza primi, per compiere un altro salto unitario quando incontra il primo successivo; e la scala procede indefinitamente verso l'alto, non c'è un pianerottolo definitivo, perché i primi sono infiniti e via via che n aumenta anche la funzione π(n) è destinata ad aumentare.
La scalinata dei primi assomiglia all'opera di un architetto ubriaco, di un ingegnere folle: è un susseguirsi di scalini di uguale altezza, ma di lunghezze imprevedibili, senza alcun significato apparente.
La svolta di Gauss - il suo colpo di genio - fu nel guardare non più al processo di arrivo dei numeri primi, ma alla loro densità, π(n)/n, in un intervallo di lunghezza n.
Qual è la percentuale dei primi tra 1 e n=10? E tra 1 e n=100? Tra 1 e n=1.000?
Queste erano le domande giuste, gli interrogativi suscettibili di aprire prospettive interessanti.
Per rispondere servivano solo conteggi (calcolare il valore π(n) al crescere di n) e divisioni (calcolare il rapporto π(n)/n) che però assorbivano tempo, anche per la diffidenza di Gauss verso le liste pubblicate da altri.
"Ho sfruttato spesso un quarto d'ora libero per setacciare un migliaio di numeri qua e là" - scriveva Gauss all'astronomo Encke - "Nel supplemento di Lambert il migliaio di numeri tra 101.000 e 102.000 è pieno zeppo di errori; nelle mie copie ho cancellato sette numeri primi e ne ho aggiunti due mancanti".
Equipaggiato con la giusta tavola dei numeri primi, Gauss iniziò a contare:
- tra 1 e 10 ci sono 4 numeri primi, quindi π(10)=4, corrispondenti al π(10)/10=40% del totale;
- tra 1 e 100 se ne trovano 26, π(10)=26, quindi il π(100)/100=26%;
- tra 1 e 1.000 ne compaiono 169, π(100)=169, da cui π(1.000)/1,000=16,9%; π(10.000)=1.229, perciò π(10.000)/10.000=12,3%.
Gauss osservò una regolarità nel tasso di riduzione della percentuale π(n)/n via via che si allargava l'insieme in cui cercarli, una proprietà che si apprezza meglio "allo specchio", guardando all'aumento del reciproco della frequenza, n/π(n).
Una volta superato il 100.000, se si moltiplica n per 10, l'inverso della frequenza aumenta pressoché costantemente di 2,31: nel passare da n a 10n si passa da n/π(n) a n/π(n)+2,31.
Quando una grandezza varia per via moltiplicativa - la n - e un'altra a essa associata varia in modo additivo - n/π(n) - si dice che tra le due grandezze intercorre una relazione logaritmica.
Quando una grandezza varia per via moltiplicativa - la n - e un'altra a essa associata varia in modo additivo - n/π(n) - si dice che tra le due grandezze intercorre una relazione logaritmica.
Cosa sia un logaritmo dovremmo saperlo tutti dalle scuole superiori, ma qui non vogliamo imbarazzare nessuno, e poi un ripasso fa bene a tutti.
Un oggetto matematico del tipo yz=x è double-face: lo si può vedere come il calcolo di x, assegnata la base y e l'esponente z, così, ad esempio, per y=10 e z=3 si ha x=1.000; ma lo si può anche leggere al contrario, come ricerca dell'esponente z assegnati i valori di y e x, e si dice allora che z è il logaritmo di x in base y.
Il logaritmo in base y=10 di x aumenta di un'unità ogni volta che x si moltiplica per 10.
Il logaritmo in base y=10 di x aumenta di un'unità ogni volta che x si moltiplica per 10.
E' immediato vederlo: 10z=10 è soddisfatta per z=1; se si passa a x=100 (la x è stata moltiplicata per 10), l'equazione 10z=100 è vera per z=2 (il logaritmo z è aumentato di 1); 10z=1.000 (nuova moltiplicazione di x per 10) è soddisfatta per z=3 (nuovo incremento unitario di z).
Nella base y=10 non vi è però nulla di speciale, e anzi la base per eccellenza è la cosiddetta e di Nepero, un numero della stessa specie di pi-greco - con infinite cifre aperiodiche dopo la virgola - approssimativamente uguale a 2,71.
Nella base y=10 non vi è però nulla di speciale, e anzi la base per eccellenza è la cosiddetta e di Nepero, un numero della stessa specie di pi-greco - con infinite cifre aperiodiche dopo la virgola - approssimativamente uguale a 2,71.
Il logaritmo in base e di x è emblematicamente chiamato logaritmo naturale, è indicato con la scrittura lnx e ha la caratteristica di aumentare di 2,3 (tralasciando gli altri decimali) quando la x è moltiplicata per 10.
Guarda un po'! Un incremento additivo di 2,3, in corrispondenza di un incremento moltiplicativo di 10: la stessa quantità trovata sperimentalmente da Gauss!
Guarda un po'! Un incremento additivo di 2,3, in corrispondenza di un incremento moltiplicativo di 10: la stessa quantità trovata sperimentalmente da Gauss!
I riottosi e indisciplinati numeri primi mostrano un lato più docile, se li si guarda sotto la lente dei logaritmi in base e: l'inverso della loro densità cresce approssimativamente come il logaritmo naturale di n. In formule:
n/π(n) ≈ lnn
A sinistra c'è il numero esatto dell'inverso della quota di primi inferiori a n (in generale non conosciuta per n qualsiasi) e a destra abbiamo invece l'approssimazione proposta da Gauss (calcolabile facilmente per ogni n). Ritornare all'oggetto di interesse - la funzione π(n) - è piuttosto semplice:
π(n) ≈ n/lnn
Il risultato è straordinario, perché per la funzione π(n) costruita "a mano" - per punti, con una compilazione via via più estesa della tavola dei primi - Gauss proponeva ora una semplice funzione matematica, p(n)=n/lnn, che auspicabilmente ben approssimava il risultato esatto.
Dall'intuizione di Gauss si traeva una valutazione della probabilità di sorteggio di un primo da un'urna con palle numerate da 1 a n: se tra 1 e n ci sono (approssimativamente) n/lnn numeri primi, allora la regola "casi favorevoli su casi possibili" porta a calcolare la probabilità P come rapporto tra n/lnn (i casi favorevoli) ed n (i casi possibili):
Dall'intuizione di Gauss si traeva una valutazione della probabilità di sorteggio di un primo da un'urna con palle numerate da 1 a n: se tra 1 e n ci sono (approssimativamente) n/lnn numeri primi, allora la regola "casi favorevoli su casi possibili" porta a calcolare la probabilità P come rapporto tra n/lnn (i casi favorevoli) ed n (i casi possibili):
P{estrarre un primo da un'urna di n numeri naturali consecutivi} ≈ 1/lnn
e si spera che la valutazione sia tanto migliore quanto più n è elevato.
Serve un chiarimento sul concetto di "approssimazione".
Se guardiamo i due grafici in rosso e in blu
- dell'originaria funzione π(n) e della sua approssimazione p(n) -
li vediamo allontanarsi, man mano che si procede in avanti (che aumenta n).
Ma a noi - per dire che p(n) approssima π(n) - interessa che diminuisca la distanza relativa,
cioè il valore assoluto della differenza p(n)-π(n) rapportata a n.
E questa distanza effettivamente si riduce all'aumentare di n,
anche se lo fa così lentamente da mettere in dubbio la concreta possibilità dell'approssimazione.
Dopo 1.000 numeri (n=1.000) la differenza tra p(1.000) e π(1.000) è poco meno del 14%;
se la si vuol all'incirca dimezzare (errore del 7,8%) serve arrivare a n=1.000.000;
e non basterebbe arrivare a n=10.000.000.000 (dove l'errore è 4,6%) se la si volesse dimezzare ancora.
Che p(n) sia un'approssimazione valida di π(n), nel senso rigoroso che tra poco chiariremo,
è un fatto che per il momento rimane ancora tutto da dimostrare.
Siamo partiti nel modo più semplice possibile, dai numeri naturali - "i numeri del bambino", per dirlo con Smilla Qaavigaaq Jaspersen, la protagonista del romanzo "Il senso di Smila per la neve" di Peter Høeg - quei numeri di cui si fa esperienza fin da piccoli, in risposta alla naturale esigenza del contare: 1, 2, 3, 4, e via così, senza fine.
Dentro i numeri naturali ci sono i numeri primi, che ammettono solo due
divisori, sé stessi e l’unità: 2, 3, 5, 7, 11, … . L'idea di numero primo è di per sé elementare, ma subito se ne scopre la centralità nell'universo numerico (teorema fondamentale dell'aritmetica: i numeri primi generano tutti gli altri numeri naturali) e la loro estensione illimitata (i numeri primi sono infiniti).
Non solo. I primi mostrano un comportamento bizzarro, appaiono all'improvviso, senza logica apparente, e ogni tentativo di costruire un algoritmo per generarli a
piacimento si è rivelato velleitario: se pk è il k-esimo numero primo, non c'è modo di sapere quando s'incontrerà il numero primo successivo pk+1 (e in realtà è già maledettamente difficile trovare regole semplici che generino solo numeri primi, anche se non tutti).
Ci volle il genio di Gauss, per cambiare prospettiva e riportare la carovana matematica sul giusto cammino. Paradossalmente, la regolarità si trovava nel mondo dell'incerto, dell'alea, del sorteggio da un'urna. La domanda giusta non era "quale sarà il prossimo numero primo?", ma "qual è la probabilità di estrarre un numero primo da un'urna con n palle?". E fu una rivoluzione.
Lo stravolgimento dell'angolo visuale - non guardare più in avanti, al prossimo numero primo, ma indietro, agli n numeri naturali che si avevano alle spalle e ai primi che vi erano contenuti - diede ben altre suggestioni e rivelò una sorpresa: i numeri primi - i semplici, sobri, elementari numeri primi - erano collegati al logaritmo naturale, al logaritmo in base e.
Gauss propose di approssimare la funzione enumerativa dei primi, π(n), con la funzione p(n)=n/lnn e qui c'è un aneddoto sfizioso.
Il matematico Adrien-Marie Legendre si appoggiò alla funzione immaginata da Gauss e ne propose - per così dire - una generalizzazione:
p*(n)=n/(lnn-B)
Smucinò un po' sulle tavole dei numeri primi fino a 400.000, e concluse che con il valore B=1,08366 si otteneva un'approssimazione migliore di π(n).
La comunità matematica rimase gelida: l'introduzione del fattore correttivo imbruruttiva la formula, l'appesantiva, tanto più che nel numero 1,08366 non vi era nulla di speciale, di evocativo, di intrigante; la formula di Legendre era solo un modo rozzo di migliorare l'approssimazione, e peraltro su un tratto limitato ai primi 400.000 numeri.
Se davvero esisteva un'approssimazione migliore di π(n), se c'era sul serio una via per catturare la traiettoria dei numeri primi, allora doveva essere necessariamente più bella ed elegante, quindi più comprensibile.
E Gauss in effetti la trovò, assecondando ancora il paradigma probabilistico: se si sorteggia un numero da un'urna che ne contiene 2, poi un altro da un'urna che ne ha 3, e via a seguire fino a un'urna che ne contiene n, quanti numeri primi ci si può aspettare di estrarre?
Se diamo per buona la struttura di probabilità {(1/lnn), n=2, 3, 4, ...} la risposta è una semplice sommatoria:
(1/ln2)+(1/ln3)+(1/ln4)+ ... + (1/lnn)
Per uno spirito raffinato come Gauss fu irresistibile la tentazione di passare dal discreto al continuo, dal finito all'infinito, dalla somma di n numeri all'integrale della funzione 1/lnt, definito tra 2 e un arbitrario numero reale positivo x:
Li(x)=ꭍ(1/lnt)dt
La funzione Li(x) - Logaritmo integrale: somma, per integrazione, di una sequenza di inversi di logaritmi - è chiaramente figlia di un'astrazione: la variabile t viaggia tra i numeri reali, laddove le grandezze d’interesse sono solo i naturali, ma approssima meglio la funzione enumerativa dei primi π(n), rispetto alla p(n) originaria (il primo termine dello sviluppo in serie di Taylor di Li(x) è proprio p(x), come può verificare in autonomia chi ne sa un po' di analisi matematica).
I numeri primi - i semplici, sobri, intuitivi numeri primi - si scoprono così collegati al calcolo infinitesimale, e se dopo il numero e sono arrivati gli integrali e lo sviluppo in serie, c'è da aspettarsi che proseguendo nel loro studio si finirà con l'inoltrarsi in luoghi matematici via via più misteriosi e affascinanti.
Anche perché c'è ancora molto da studiare, e sicuramente più di quel che può sembrare a prima vista.
Gauss voleva trovare una buona approssimazione della funzione π(n), e aveva proposto prima la funzione p(n) e poi la più raffinata Li(x).
Queste funzioni - all'epoca - avevano però un valore sperimentale: Gauss si era messo a calcolare materialmente i valori di π(n) a blocchi di 10, 100,
1.000, 10.000, e seguendo il filo delle potenze del 10 aveva osservato un ordine empirico nella riduzione della densità dei
primi, che lo aveva spinto a proporre la funzione p(n) e poi la Li(x) come approssimazione di π(n).
Era un modo di procedere analogo all'iter d'indagine di fisici,
chimici, biologi, statistici o sociologi: si
registrano i dati, in accordo con un assegnato schema di rilevazione; li si
analizzano con i metodi propri della disciplina e se ne trae infine un modello
di rappresentazione della realtà, approssimativamente valido, utile a
fini pratici; tutto quel che
si cerca - in definitiva - è il conforto della realtà fattuale, per avanzare un'ipotesi o proporre una teoria.
L'evidenza riscontrata da Gauss nella
tavola dei numeri primi sarebbe stata oltremodo sufficiente - diciamo
pure sovrabbondante - per le attitudini e i bisogni di un qualsiasi altro
studioso di qualsiasi altra disciplina. Nessuno - che non fosse un matematico - si sarebbe fatto scrupoli nel trarre una
regola di validità generale dall’osservazione di tanti casi particolari
così ben articolati: una volta verificato che oltre n=100.000, e procedendo con
potenze del 10, le differenze nei rapporti n/lnn si manteneva nell'ordine di
2,31, un'empirista avrebbe prolungato senza indugio a tutti i numeri quella relazione
osservata solo su alcuni blocchi di numeri.
Ma in matematica non funziona così. La matematica sposa altri paradigmi, segue altre filosofie. Il matematico ha un'altra forma mentis, un altro modus operandi.
Lo spirito d'osservazione, l'arte della congettura, i
tentativi e gli errori, giocano sì una parte rilevante nel processo
creativo delle proposizioni matematiche - offrono spunti d'indagine,
suggeriscono linee di ricerca - ma la matematica non procede per
esperimenti.
La matematica avanza col rigore di ragionamenti svolti
nel regno dell'intelletto, col sostegno della logica. Il matematico - più d'ogni altro - ha chiara la differenza tra regole logiche e
proposizioni empiriche; e il matematico si fida delle logica, delle
dimostrazioni, non dell'empiria o della realtà, perché sa che
tutto quel che proviene dalla realtà, dalla realtà può anche esser
smentito, laddove una verità matematica è - come un diamante - per sempre.
La matematica è un gioco intellettuale, non sperimentale. Vedere le
formule perfettamente funzionanti per miliardi e miliardi di numeri non dà maggior
conforto del saper verificata una proprietà per un numero finito di
oggetti quando la si vorrebbe valida per un'infinità. Per quanto un
numero sia grande rimarrà comunque finito, e per quanti numeri si
esamineranno ne resteranno ancora infiniti da verificare.
C'è una curiosa sequenza di numeri primi che dimostra come l'estrapolazione - dal conosciuto allo sconosciuto - sia
una stampella su cui è pericoloso appoggiarsi.
Nel XVII
secolo ci si accorse che i seguenti
numeri erano tutti primi:
31
331
3331
33.331
333.331
3.333.331
33.333.331
Serviva uno sforzo notevole - all'epoca - per verificare se anche i numeri successivi della sequenza fossero primi, e qualcuno - in effetti - fu
tentato di estrapolare il risultato a partire dallo schema verificato su casi noti. Peccato che 333.333.331 - il numero successivo della sequenza - non lo è:
333.333.331=17×1.960.784
Osservare una differenza pressoché
costante di 2,3 nell'andamento di n/lnn, in blocchi numerici crescenti con le potenze del 10,
può senz'altro suggestionare, ma non prova nulla, e la matematica
procede per dimostrazioni, non per suggestioni.
Tanto più che c'è un risultato che diffida dal ragionare "a intuito" in fatto di affermazioni matematiche sui numeri primi.

Ora, da quel che si vede, si può essere tentati di pensare che Li(x) approssimerà π(x) sempre per eccesso (la curva rossa sta sempre sopra la blu, nel grafico) quando in realtà non solo non è così, ma la verità non può essere precorsa da nessuna intuizione: per quanto il tratto di partenza sia regolare, per quanto forte sia la tentazione di prolungarlo arbitrariamente, sarebbe il più credulone degli atteggiamenti preservare l'andamento qualitativo di Li(x) per x arbitrariamente grande.
Nel 1914 il matematico inglese Littlewood dimostrò un risultato sconcertante, rispetto a ciò che si vede nel grafico: all’aumentare di x, la differenza Li(x)-π(x) passa infinite volte da un valore positivo a uno negativo, vale a dire che infinite volte Li(x) è minore di π(x) e infinite volte è maggiore, che infinite volte Li(x) sottostima π(x) e infinte volte la sovrastima, e queste continue oscillazioni gettano una luce sinistra sull'ipotesi di una Li(x) che si avvicina sempre più a π(x) all'aumentare di x, perché nessun ciclo lunare è lì a rassicurarci che le basse e le alte maree di Li(x) finiranno presto o tardi con l'adagiarsi su π(n) o almeno a non portare Li(x) arbitrariamente lontano da π(n).
Insomma, che Li(x) fosse un'approssimazione di π(x), nel senso matematico del termine, rimaneva tutto da dimostrare.
Se buttiamo via i primi dieci termini della successione (fino a 1/10 compreso) ciò che rimane sono infiniti numeri che differiscono da 0 per meno di 1/10=0,1. L'errore commesso nel sostituire il valore limite (lo 0) con uno qualsiasi dei termini rimanenti (1/11, 1/12, 1/13, ...) incontra una barriera in 0,1. Conosciamo la misura esatta dell'errore massimo.
Se poi un errore di approssimazione di 0,1 si giudicasse eccessivo, e lo si volesse ridurre a non più di 0,01, non si dovrebbe far altro che buttar via i primi cento termini della successione (fino a 1/100 incluso) e rimarrebbero così solo numeri distanti da 0 per una quantità mai superiore a 0,01. Se si volesse una precisione al millesimo, allora si smazzeranno via i primi 1.000 numeri, e se non bastasse ancora allora si getterebbero alle ortiche i primi 10.000, e ogni volta si avrebbero approssimazioni più esatte nei numeri rimanenti. L'entità dell'errore si può ridurre a piacimento.
E cosa andava dimostrato, esattamente? Quand'è che si può dire - con proprietà di linguaggio - che una grandezza x è un'approssimazione matematica di un'altra grandezza y?
Lo si può dire - nel senso più preciso - se e solo se ricorrono simultaneamente due condizioni:
- è possibile avere una misura esatta dell'errore di approssimazione, bisogna cioè sapere di quanto si sbaglia nel sostituire x a y;
- è possibile rendere l'errore di approssimazione arbitrariamente piccolo, bisogna cioè poter migliorare l'approssimazione (renderla precisa) quanto si desidera.
La successione numerica:
1, 1/2, 1/3, 1/4, 1/5, ... 1/n, ...
è un'approssimazione del numero 0 - o, se si preferisce, converge a zero - perché soddisfa entrambe le condizioni.
Se buttiamo via i primi dieci termini della successione (fino a 1/10 compreso) ciò che rimane sono infiniti numeri che differiscono da 0 per meno di 1/10=0,1. L'errore commesso nel sostituire il valore limite (lo 0) con uno qualsiasi dei termini rimanenti (1/11, 1/12, 1/13, ...) incontra una barriera in 0,1. Conosciamo la misura esatta dell'errore massimo.
Se poi un errore di approssimazione di 0,1 si giudicasse eccessivo, e lo si volesse ridurre a non più di 0,01, non si dovrebbe far altro che buttar via i primi cento termini della successione (fino a 1/100 incluso) e rimarrebbero così solo numeri distanti da 0 per una quantità mai superiore a 0,01. Se si volesse una precisione al millesimo, allora si smazzeranno via i primi 1.000 numeri, e se non bastasse ancora allora si getterebbero alle ortiche i primi 10.000, e ogni volta si avrebbero approssimazioni più esatte nei numeri rimanenti. L'entità dell'errore si può ridurre a piacimento.
Il tratto iniziale (fino a 50) della successione infinita {1/n}:
all'aumentare di n, il valore 1/n si avvicina sempre più a 0,
e la distanza tra 0 e gli infiniti termini della successione
si può ridurre a piacimento trascurandone sempre un numero finito
(i primi 10, se si vuole un errore inferiore 0,1; i primi 100, se lo si vuole inferiore a 0,01;
il primo milione, se lo si vuole inferiore a 0,000001, e così via).
Questa è la definizione classica di "approssimazione matematica" - studiata già nei licei - ma al di fuori di situazioni scolastiche si devono spesso "rilassare" le pretese di precisione e accontentarsi di sapere che, da un certo punto in poi, l'errore non supererà mai una certa soglia.
Nelle applicazioni più avanzate, la situazione tipica pone di fronte a un funzione f(x), con tutta una serie di complessità nel suo andamento, da ricondurre in via approssimata a una funzione g(x) più semplice e ben conosciuta.
Si vuole cioè poter dire che la funzione (complicata) f(x) si comporta come la (più semplice) funzione g(x) nel senso che g(x) imprigiona f(x), fornendo una banda per le sue oscillazioni: i valori di f(x) saranno sempre compresi entro i limiti stabiliti dalla funzione g(x), a partire da un certo valore x*.
La g(x) - in rosso per la banda superiore, in blu per l'inferiore - è la funzione più semplice.
Si può dire che f(x) si comporta come g(x) perché a partire da un certo punto in poi
le oscillazioni di f(x) si trovano sempre imprigionate nella banda definita da g(x).
Non importa se vi è un tratto - più o meno lungo - nel quale f(x) fuoriesce dalla banda
come vediamo nel grafico nei punti in cui la f(x) sfora i limiti definiti dalla g(x);
conta solo che esista un particolare valore x* (nell'esempio x* =25)
dopo il quale si ha la certezza che f(x) sarà sempre confinata entro g(x).
Si dice allora - in gergo matematico - che "f(x) è 'O grande' di g(x)" e si scrive f(x)=O(g(x)).
Il principio di fondo è lo stesso della approssimazione classica:
non importa se un numero finito di termini 1/n sforano l'errore di approssimazione,
perché ce ne saranno comunque infiniti altri che saranno sicuramente inferiori,
a partire da un valore n* (=10, 100, 1.000 ...) coerente con l'errore desiderato (0,1, 0,01, 001, ...).
Quando parliamo della π(x) da un lato (la funzione complicata, dai salti imprevedibili) e della Li(x) dall'altro (la funzione più semplice, di cui conosciamo tutto) cosa ci assicura che esista un punto x* a partire dal quale la differenza π(x)-Li(x) rimarrà invariabilmente confinata in una banda precisa?
Chi ci garantisce che, nel proseguire con valori di x immensamente grandi, le due funzioni, π(x) e Li(x), non se ne vadano ciascuna per proprio conto?
Se Li(x) - fregandosene sovranamente di quel che l'occhio umano può vedere - sta ora sotto e ora sopra π(x),
se ogni tanto l'approssima per difetto e ogni tanto per eccesso - e anzi
infinite volte per l'uno e infinite anche per l'altro - chi può darci la sicurezza
che il suo ondeggiare intorno a π(x) non diventi selvaggio e imprevedibile?
Johann Friedrich Carl Gauss;
Charles Jean Étienne Gustave Nicolas Baron de la Vallée Poussin;
Jacques Solomon Hadamard.
I tentativi di dimostrare la
congettura di Gauss - perché di questo parliamo: di una congettura - segnano tutto l'800 matematico, e raccontano una sfida
eccitante, che, se vinta, sarebbe stata il non plus ultra per la comunità matematica: la conquista di
una regolarità nella distribuzione dei primi, coniugata alla bellezza
nella sua formulazione.
Nel 1896 il francese Hadamard a Parigi e il belga de la Vallée Poussin a Lovanio - indipendentemente l'uno dall'altro - promuovono l'originaria intuizione di Gauss da congettura a verità matematica, portano la scrittura π(n)≈n/lnn fuori dal limbo delle suggestioni, per fregiarla dello status di teorema, il teorema dei numeri primi.
Nel 1896 il francese Hadamard a Parigi e il belga de la Vallée Poussin a Lovanio - indipendentemente l'uno dall'altro - promuovono l'originaria intuizione di Gauss da congettura a verità matematica, portano la scrittura π(n)≈n/lnn fuori dal limbo delle suggestioni, per fregiarla dello status di teorema, il teorema dei numeri primi.
alla vostra sinistra c'è la differenza π(x)-Li(x),
tra la funzione enumerativa dei primi π(x) e la sua approssimazione Li(x),
che esprime l'errore commesso quando si usa Li(x) anziché π(x);
e alla vostra destra vedete la misura matematica di questo errore, nel senso di "O grande",
che ammette un'interpretazione intuitiva, di là del formalismo con cui è rappresentata.
La misura dell'errore ci dice che siamo una situazione paragonabile al gioco "testa&croce".
Il lancio ripetuto di una moneta - contrariamente a un disattento senso comune -
tende a produrre una differenza progressivamente più grande tra il numero di teste e di croci.
Quel che si riduce, all'aumentare dei lanci, è la discrepanza tra le frequenze relative,
cioè tra il numero di teste e croci rapportato al numero di lanci.
Una simulazione in Excel ha dato ad esempio i seguenti risultati:
con N=10 lanci, si hanno Nteste=4 e Ncroci=6, quindi una differenza di 2;
con N=100 lanci, si hanno Nteste=54 e Ncroci=46, con una differenza di 8;
con N=1.000 lanci, si hanno Nteste=489 teste e Ncroci=511 croci, con una differenza di 22.
E tanto più si va avanti nel numero N di lanci quanto più la differenza assoluta |Nteste- Ncroci| aumenta
(con 10.000 lanci, la simulazione fornisce 4.954 teste e 5.046 croci, con una differenza di 92).
Ma la differenza relativa - il rapporto tra |Nteste- Ncroci| e il numero N di lanci - diminuisce:
con N=10 lanci si ha una differenza relativa del 20%; con N=100, una differenza dell'8%;
con N=1.000, una differenza del 2%; con N=10.000, una differenza dell'1%; e cosi via.
Quindi, sebbene in 10, 100, 1.000... 10.000 lanci di moneta possa in astratto accadere di tutto
- al limite registrare solo teste o solo croci in tutti i 10, 100, 1.000... 10.000 lanci -
è ragionevole aspettarsi un avvicinamento delle frequenze relative delle due facce,
anche se la loro frequenza assoluta si allontana sempre più.
All'aumentare del numero di lanci, non solo ci si attende un allineamento tra frequenze relative,
ma si può anche stimare l'entità delle deviazioni rispetto alla situazione teorica attesa,
rispetto cioè all'ipotetica situazione in cui il manifestarsi delle due facce sia costantemente bilanciato.
La teoria delle probabilità dà un risultato preciso:
la velocità con cui il numero di teste si allontana dal numero di croci è nell'ordine di √N.
La radice quadrata di un numero x è, sì, una funzione crescente di x,
ma aumenta lentamente, sempre più lentamente,
e rimane via via sempre più indietro rispetto all'andamento lineare di x,
ed è proprio perché la divergenza |Nteste- Ncroci| tra il numero di teste e di croci
cresce a una velocità notevolmente inferiore alla velocità N del numero di lanci,
che è possibile recuperare l'avvicinamento tra teste e croci nelle frequenze relative:
i numeratori |Nteste- Ncroci| crescono molto più lentamente dei denominatori N,
cosicché, all'aumentare di N, il rapporto |Nteste- Ncroci|/N si riduce anche se |Nteste- Ncroci| aumenta.
Ora - e qui è la spettacolarità del risultato - la stessa conclusione vale per i numeri primi:
l'errore commesso da Li(x) nello stimare π(x) è nell'ordine di √N,
quindi l'irregolarità osservata nell'arrivo dei numeri primi non è poi così dissimile
dall'irregolarità statistica osservabile in ripetuti lanci di una moneta,
rispetto a una situazione teorica di perfetto equilibrio tra teste e croci.
Rimane impossibile predire il prossimo numero primo
- come non è possibile conoscere l'esito del prossimo lancio di moneta -
ma il modello previsionale offerto da Li(x) è semplice e preciso
come lo è la previsione dei risultati di un gran numero di lanci di una moneta.
Meravigliso, ma... come avevano fatto Hadamard e de la Vallée Poussin ad
alzare al rango di teorema ciò che persino il sommo Gauss si era dovuto
accontentare di tenere al livello di congettura?
Chi li aveva messi
sulla pista giusta?
Chi gli aveva fornito l'attrezzatura per
avventurarsi nel cammino?
E a ogni modo - se il teorema è
dimostrato - vuol dire che non c'è
altro da aggiungere?
Dobbiamo solo studiarlo e - per i più
sensibili - ammirarlo?
O - per caso - la dimostrazione fa sponda su altre
ipotesi indimostrate, su altre congetture, cosicché il nemico è solo
indietreggiato, senza esser stato vinto del tutto?

Bernhard Riemann è un nome ignoto ai più:
non ha sommato a cinque anni i numeri da 1 a 100 (come Gauss),
non scriveva su margini di libri con troppo poco spazio (come Fermat),
non è morto in duello, lamentandosi di avere poco tempo per completare l'opera (come Galois),
e l'unico aneddoto curioso è che morì a 40 anni recitando con la famiglia il "Padre Nostro",
senza nemmeno riuscire ad arrivare alla fine.
Povero, timido, religioso, di salute cagionevole e con una tendenza alla depressione,
pubblicò un solo articolo dedicato ai numeri primi - di appena nove pagine, non del tutto rigorose e ricche di affermazioni misteriose -
destinato a tormentare i migliori matematici di ogni epoca, sino ai giorni nostri.
Quando chiesero a David Hilbert cosa avrebbe fatto
se avesse avuto la possibilità di rinascere dopo un sonno di parecchi secoli,
il celebre matematico rispose secco: "Domanderei se qualcuno ha dimostrato l'ipotesi di Riemann".
La risposta - a oggi - sarebbe negativa: no, nessuno ha ancora dimostrato l'ipotesi di Riemann.
L'arma segreta (della dimostrazione) si chiama "ipotesi
di Riemann" e vi sono legati i nomi dei più grandi matematici, dalla
seconda metà dell'800 sino a tutto il '900: Riemman, ovviamente, che la
formulò, segnando uno passaggio cruciale nel cammino delle idee nelle nove pagine "Über die Anzahlder Primzahlen unter einer gegebenen Größe" ("Sul
numero di primi inferiori a una determinata grandezza") in cui scrive che "sarebbe auspicabile avere una dimostrazione rigorosa di questa proposizione:
tuttavia per il momento ho lasciato questa ricerca da parte dopo qualche
breve tentativo infruttuoso, poiché essa mi appare superflua per gli
scopi immediati dei miei studi"; e poi
Hilbert, Connes, Hardy, Littlewood, Ramanujan, Selberg, solo per citare
le celebrità; nel 2000 l'ipotesi è venuta alla ribalta del grande
pubblico, quando il Clay Mathematics Institute - in America - ha messo una taglia di 1
milione di dollari sulla sua dimostrazione.
Quando si parla dell'ipotesi di
Riemann è facile esaltarsi, trasformarsi in visionari, abbandonarsi a
toni da tregenda: "le conseguenze dell’ipotesi di Riemann sono fantastiche” (Iwaniec); se l'ipotesi di Riemann fosse falsa "sarebbe solamente orribile, orribile, estremamente sgradevole" (Gonek); "il fallire dell’ipotesi di Riemann sarebbe un disastro" (Bombieri); "se
l'ipotesi di Riemann non fosse vera il mondo sarebbe un posto molto
differente... in un certo senso sarebbe più interessante se essa fosse
falsa, ma sarebbe anche un disastro poiché abbiamo costruito così tanto
sull'assunzione della sua verità" (Sarnak).

Oggi il mainstream matematico reputa vera
l'ipotesi di Riemann - gli articoli di teoria dei numeri si aprono
invariabilmente con l'atto di fede: "se l’ipotesi di Riemann è vera,
allora..." - anche perché l’ipotesi in sé e le sue implicazioni sono così eleganti e
raffinate, esteticamente così gradevoli, che rinunciarvi sarebbe un tuffo al cuore. Già il fatto di chiamarla "ipotesi" anziché "congettura"
- come sarebbe corretto - rivela l'assoluta fiducia nel basarvi ulteriori verità matematiche.
Però
l'ipotesi di Riemann è... solo un’ipotesi; è stata verificata per miliardi di casi, ma, di
nuovo, i miliardi sono quantità finite, e lo rimangono per
quanti miliardi si vogliano ancora aggiungere; l'infinito è tutt'altra storia.
Se l'ipotesi fosse vera, sarebbe il trionfo in una guerra
secolare.
Se l'ipotesi fosse falsa, ogni risultato che vi è collegato (e ormai non si contano più) non sarebbe neppure una vittoria di
Pirro.
Se l'ipotesi sia vera o falsa - a oggi - non lo sappiamo.
Gli enigmi
matematici - al contrario della Guardia di Napoleone - indietreggiano
sempre, ma non muoiono mai.
Non è possibile - purtroppo - dare un'idea intuitiva dell'ipotesi di Riemann,
ma si può restituirne la fragranza col richiamo ad alcuni risultati scolastici.
Il modo più semplice per produrre un suono è pizzicare una corda.
Ora dimezzatene la lunghezza e fatela vibrare nuovamente.
Riducetela a un terzo e via con una nuova vibrazione.
Accorciatela di un quarto, di un quinto, e così via,
e avrete sempre suoni tra loro comparabili,
sentirete le varie "armoniche" del suono,
come sa bene anche chi si limita solo a strimpellare una chitarra
(e se non avete tempo e voglia di controllare personalmente,
vi bastino i pochi secondi di "Paperino nel regno della matemagica").
Perciò, la sequenza di numeri 1, 1/2, 1/3, 1/4, 1/5, ... è musica!
Quando si fa vibrare una corda di lunghezza unitaria, in effetti,
si producono simultaneamente tutti i possibili suoni
- anche se il nostro orecchio percepisce solo il principale -
per cui la descrizione matematica di una corda vibrante
è la sommatoria 1+1/2+1/3+1/4+1/5+... che idealmente si estende all'infinito.
Questa scrittura identifica un preciso oggetto matematico: è una serie numerica,
(una somma di infiniti termini, il cui generico addendo è qui dato da an =1/n)
che prende il nome di "serie armonica" (per il suo collegamento col mondo fisico).
Qual è il risultato di una somma di infiniti numeri?
Si può pensare a un esisto scontato - non può che essere infinito - ma non è così.
Calcolare una somma infinita richiede di interrogarsi sulla progressione degli addendi:
se hanno il buon gusto di decrescere abbastanza rapidamente, allora, seppur infiniti,
la loro somma convergerà a un valore finito, a un numero vero e proprio.
Serve capire se è più alta la velocità con cui si aggiungono nuovi termini alla somma
o la velocità con cui l'entità di ogni nuovo termine decresce,
e se la seconda supera di molto la prima, allora la serie converge.
La serie armonica ha le sembianze di una serie convergente:
ogni pezzetto della somma (1/n) è via via più piccolo (diminuisce all'aumentare di n),
per cui si potrebbe pensare che la serie finirà con lo sbattere su un numero preciso.
E invece no: la successione degli addendi {1/n} converge a zero, ma la loro somma Σ1/n è infinita.
E' però sufficiente una minima generalizzazione per ritrovare una somma finita.
Se prendiamo la successione dei reciproci dei quadrati {1/n2}
- se aumentiamo cioè la velocità di convergenza a zero degli addendi -
allora la nuova serie Σ1/n2 converge e la sua somma è π2/6
(un risultato sorprendente, perché da una progressione di quadrati
viene fuori il pi-greco, che nell'immaginario collettivo è collegato ai cerchi).
E arrivati qui - per un matematico - è naturale generalizzare:
cosa accade con un esponente α arbitrario, come si comporta la somma Σ1/na?
Ogni valore di α darà luogo a uno specifico valore della serie
- per α=1 la serie diverge, per α=2 converge a π2/6 -
e quindi abbiamo definito una funzione matematica ζ(α)
che a ogni valore di α associa un valore ζ dato dalla somma Σ1/na.
Come si comporta - in generale - ζ(α)? Cosa succede a ζ al variare di α?
Si è portati a congetturare un ruolo di spartiacque per il numero 1
- tutti gli α>1 conducono a un numero finito, assicurano la convergenza -
e per volontà di Dio, e capacità degli uomini, non è solo una congettura:
la serie ζ(α) converge per α>1 e diverge per α=1
(per α<1, i termini 1/n diventano via via più grandi, quindi la serie e diverge
e si può dire che di fatto la funzione ζ(α) non esiste per α<1).
Davvero tutto molto bello, ma... cosa c'entra con i numeri primi?

Riposizioniamo i riflettori sugli attori protagonisti,
ma facciamolo adesso attraverso la funzione ζ(α).
In ζ(α) compaiono le potenze successive degli inversi dei numeri naturali
e il teorema fondamentale dell'aritmetica ci dice che ogni numero naturale
si può rappresentare attraverso un prodotto di numeri primi;
perciò - disse Eulero - se armeggio a sufficienza sull'espressione di ζ(α)
potrò riscriverla facendo apparire solo i numeri primi.
Alla fine ci riuscì davvero, e il risultato lo vedete qui:
sommare infinite frazioni del tipo 1/na con n numero naturale e α>1
equivale a moltiplicare infiniti fattori del tipo [1-(1/pa)]-1, con p numero primo.
Il risultato è straordinario perché da un lato si ha una funzione nata e cresciuta per suo conto,
e dall'altro si hanno proprio i numeri primi, oggetto della nostra missione impossibile.
E allora può darsi che quella regolarità di cui si è alla ricerca
- e che non si riesce ad avere se si vogliono far parlare direttamente i numeri primi -
la si possa raggiungere analizzando le proprietà della funzione ζ(α):
se i primi {pk} non confessano, proviamo a far parlare ζ(α)
che alla sequenza {pk} è collegata tramite la formula di Eulero.
La suggestione può portare lontano, molto lontano davvero,
purché si sia pronti a intraprendere un viaggio più lungo di quanto si creda,
a patto di prestar fede a uno storico aforisma di Hadamard:
"La via più breve tra due verità sulla retta dei numeri reali passa attraverso il piano complesso".

In prima superiore s'impara che un polinomio è caratterizzato dal grado e dai suoi zeri.
Quindi, ad esempio, il polinomio P(x)=x2+bx+c si può esprimere come P(x)=(x- z1 )(x- z2 )
dove z1 e z2 sono gli zeri di P(x), cioè quei valori per cui P(z1)=P(z2)=0.
E' un risultato potente, per quel minimo che ci si riflette:
possiamo conoscere un polinomio (di grado assegnato)
attraverso la sola conoscenza dei suoi zeri.
Quindi, per estensione, possiamo conoscere qualunque funzione polinomiale
- qualunque funzione matematica nella forma y=xn+bxn-1+cxn-2+... -
semplicemente individuando i punti xz che azzerano y
(gli zeri della funzione y=x3-7x2-9x+63, in figura, sono marcati con un cerchio rosso,
e corrispondono ai punti di intersezione della funzione con l'asse delle ascisse).
Se il grafico di una funzione viene pensato come un paesaggio matematico,
si può dire che potrebbe bastare conoscerne i punti situati al livello del mare (gli zeri)
per poterne ricostruire l'intera geografia, i picchi, le valli, le alture e le pianure.
Il fatto può sembrare sorprendente, se riferito al mondo reale
- sembra ben strano che un cartografo possa ricostruire le Alpi conoscendo solo le località marine -
ma se ci si riflette esistono anche nella realtà delle situazioni in cui accade qualcosa di simile,
quando ad esempio gli astronomi deducono la composizione chimica di pianeti lontani,
avendo a loro disposizione solo la spettroscopia della luce proveniente dal pianeta.
Questo è esattamente ciò che succede per numerosi paesaggi matematici:
ciò che succede al livello del mare è sufficiente a sapere molto di quel che accade al di sopra.


Abbiamo scoperto che i numeri primi {pk} sono collegati alla funzione ζ(α)
- e perciò potremmo saperne di più su di loro studiando ζ(α) anziché la sequenza {pk} -
e abbiamo poi detto che il modo più efficiente per studiare una funzione è individuarne gli zeri,
che nel nostro caso sono quei valori αz per cui si ha ζ(αz)=0.
Ops! La funzione ζ(α) non ha zeri!
Non esistono valori αz che annullano ζ ,
la funzione ζ(α) non interseca mai l'asse delle ascisse, come si vede dal suo grafico.
D'accordo, ζ(α) non ha zeri, se la si intende come una funzione reale di variabile reale,
se la si legge come una regola che a un numero reale α associa un altro numero reale ζ.
Ma cosa accadrebbe se portassimo ζ(α) fuori dal suo dominio naturale?
Lo abbiamo già fatto con la funzione fattoriale, se vi ricordate:
eravamo partiti da una funzione f(n)=n! definita sull'insieme N dei numeri naturali
e l'abbiamo estesa a una funzione Γ(x) con x variabile sull'insieme R+ dei reali positivi.
Qui si tratta di realizzare la stessa operazione, ma a un livello più elaborato:
bisogna estendere ζ(α) dai numeri reali maggiori di 1 al campo C dei numeri complessi,
perché nel campo complesso potrebbe possedere - e in effetti possiede - quegli zeri che cerchiamo.
Così come Γ(x)=xΓ(x-1) era l'equazione per estendere il fattoriale f(n) ai numeri reali,
anche qui abbiamo un'equazione di riferimento - mostrata sopra -
per estendere la ζ(α) reale e trasformarla in una ζ(s) complessa.
L'operazione richiede un tecnicismo matematico piuttosto avanzato,
ma il fatto su cui val la pena soffermarsi è la sua meccanicità:
una volta che si sia riusciti a estendere la ζ(α) reale nella striscia tra 0 e 1,
la successiva estensione al campo complesso è univocamente determinata
(per riprendere l'esempio della cartografia,
è come se dopo aver completato la mappa nei dintorni di Oxford
si potesse automaticamente conoscere la conformazione di tutte le Isole britanniche)
La funzione ζ(s) - nel campo complesso - è la cosiddetta "Zeta di Riemann",
e la possibilità di rappresentare la differenza π(x)-Li(x) nei termini del gioco "testa&croce"
- la più semplice e bella rappresentazione possibile - dipende dal comportamento degli zeri di "Zeta".
Riemann divise gli zeri della funzione "Zeta" in "banali" e "non-banali",
e congetturò che tutti gli zeri non-banali si trovassero allineati su una stessa retta.
Qual è il problema?
Il solito: gli zeri di "Zeta" sono infiniti e l'infinito non è conoscibile per via sperimentale.
Aver trovato - a oggi - 10 mila miliardi di zeri allineati
non è neppure un pallido conforto sulla validità dell’ipotesi.
Per quanti siano gli zeri conformi all'ipotesi, vi saranno infiniti altri zeri da verificare,
e resteranno sempre infiniti, per quanti se ne possano aggiungere empiricamente.
Se si pone la sfida sul campo del bieco calcolo, non c'è partita:
l'ipotesi di Riemann non potrà mai esser provata, ma al più smentita,
se mai si scovasse uno zero fuori dalla linea, cosa sinora mai accaduta.
Ancora una volta è solo con la forza dell’intelletto che si può sperare di procedere oltre,
e anche lì, comunque, dovendosi talvolta accontentare.
Hardy e Littlewood dimostrarono l'esistenza di infiniti zeri non-banali sulla linea critica,
un gran bel risultato, sicuramente, ma nient'affatto decisivo,
allo stesso modo per cui sapere che vi sono infiniti numeri pari
non esclude che ve ne sia un'altrettanta infinità di dispari.
Nel 1989 Conrey provò che più del 40% degli zeri sono sempre lì, sulla linea critica
- un risultato enigmatico: cos'è il 40% di infinito? - e comunque rimase silente sul restante 60%.
A oltre 150 anni dalla sua formulazione, l'ipotesi di Riemann rimane appunto un'ipotesi,
- una congettura, una probabilità, una speranza - il più grande mistero della matematica.
dobbiamo far passare davanti alla nostra mente le questioni aperte
e dobbiamo considerare i problemi che sono posti dalla scienza attuale
e la cui soluzione attendiamo dal futuro.
Questi giorni, che stanno a cavallo tra due secoli,
mi sembrano ben adatti per una rassegna dei problemi".
Così David Hilbert apriva la sua conferenza, l'8 agosto 1900,
al Congresso internazionale dei matematici, a Parigi.
Fu stilata una lista di 23 problemi su cui la comunità matematica si sarebbe dovuta concentrare.
A oggi - al netto di quelli formulati in modo vago - solo due rimangono del tutto irrisolti:
l'estensione del teorema di Kronecker-Weber e la dimostrazione dell'ipotesi di Riemann.
"Se l’ipotesi di Riemann non fosse vera il mondo sarebbe un posto molto differente"
- ha annotato il matematico sudafricano Peter Sarnak -
"In un certo senso sarebbe più interessante se fosse falsa, ma sarebbe anche un disastro
poiché abbiamo costruito così tanto sull'assunzione della sua verità".
E si è scelto di costruire così tanto sull'ipotesi di Riemann
perché attratti ogni volta dalla bellezza di ciò che veniva fuori,
da sola sufficiente a confortare i matematici sulla sua verità,
e invogliarli a scommettervi ancora, ancora e ancora,
nella convinzione di generare un mondo troppo bello per essere distrutto.
Non preoccupatevi se - a un tratto - vi siete smarriti, se all'improvviso non siete più riusciti a seguire il ragionamento. Capita, succede, e non c'è da meravigliarsi.
Perché l'escursione tra i numeri primi inizia in pianura, con semplici conteggi e moltiplicazioni, ma si fa presto impervia, attraversa le curve della probabilità, tocca le vette del calcolo infinitesimale, fa sentire i vuoti d'aria delle funzioni complesse di variabile complessa, e non si può sapere dove si andrà a sbattere, quando ci si avventura tra i numeri primi, né se e quando si finirà di rimbalzare tra un capitolo e l'altro del Gran Libro della Matematica
Il loro studio ne fa un meraviglioso file rouge in un'esplorazione a 360° del mondo matematico, e può ben accadere, di quando in quando, di non capire perché si sta indugiando sulle equazioni funzionali e sulle tecniche di prolungamento, o come si sia atterrati sul piano dei numeri complessi alla ricerca degli zeri della funzione "Zeta", se tutto quel che si voleva conoscere erano solo le proprietà dell'innocua sequenza 2, 3, 5, 7, 11, ...
La risposta - non tecnica ma filosofica, perciò onnicomprensiva - è nel desiderio di unire il vero al bello, nel rifiutare l'apparente bruttezza di una sequenza numerica fondamentale nella matematica, nel tenere fermo un punto di metodo - "al mondo non c'è posto perenne per un matematica brutta" - nella convinzione, di Bertrand Russell, che la matematica se "vista dalla giusta angolazione, non possiede solo la
verità, ma anche la suprema bellezza", ed è la più straordinaria delle bellezze - "fredda e austera, pura e sublime, capace della
rigorosa perfezione, propria solo della più grande arte" - una via privilegiata per dilatare il proprio campo di conoscenza.














.png)
.jpg)










.png)



Commenti
Posta un commento