Wednesday, March 21, 2018

Perpetuum mobile drinking game

Let's imagine we're in a pub in some sort of Pippi Långstrump universe where (1) money comes in the form of physical coins that you can move around on a table, (2) you never really run out of them, and (3) you can buy a round of beer for a single coin.

Three people called A, B and C play a game: There is a six-sided die where three of the sides are labeled A, B, and C, and the other three are labeled Double+1. At the start of the game, each of the three players puts one coin on the table, and the die is thrown. If the side that comes up says Double+1, then each player doubles and adds one to their amount of money on the table, and the die is thrown again. The doubling repeats any number of times, leading to the players putting 3, 7, 15 etc coins on the table, until one of the sides labeled with a player comes up. Whenever the die shows A, B, or C, that player loses, and the other two split the loser's pot between them. Traditionally the odd coin is used for buying the next round of beer. 

This game is symmetric in the sense that all three players have the same status with respect to the rules: Whatever somebody else wins or loses, you could have won or lost with exactly the same probability. Let's calculate the probabilities of winning or losing a certain amount, and see if they reflect this fairness. 

First let's find the probability that a player, say A, loses exactly one coin. This happens if A loses without any doubling, and the probability is $1/6$ since it happens precisely when the first roll of the die is an A. In order for A to instead win one coin, there has to be one double and the second roll must be a B or a C, so that somebody else loses three coins and A gets one of them. The probability of starting with a double is $1/2$, and the probability of the second roll being a B or a C is $1/3$, so the probability of winning one coin is $1/6$ too.

It turns out that we also win or lose 3 coins with the same probability, and we start to see a pattern: Player A loses 3 coins of there is a double and then an A, and wins 3 coins if there are two doubles and then a B or a C. Both these scenarios have probability $1/12$. And to win or lose 7 coins, we have to win after 3 doubles or lose after 2, both of which have probability $1/24$, and so on. Each of the scenarios has probability exactly half of the previous one. So the game has the property that winning $X$ coins is exactly as likely as losing $X$ coins. 

That seems fair.

But wait, where does all the beer come from? Doesn't it seem that in the long run, nobody is paying? 

---

I discussed this sort of thing and related stuff in 2007 with the German probabilist Nina Gantert and my colleagues Jeff Steif and Olle Häggström. Thanks to Jeff who asked me about it a few days ago, because I had almost forgotten. I can't recall how it started, but I remember that when we met, Nina said she was from Münster, and I told her that I had been there and visited the Panzermuseum. Strangely she had never heard of it, and it turns out there isn't one. The Panzermuseum is in the small town Munster just south of Hamburg, some 200 km or so from the city of Münster. 



Saturday, March 10, 2018

Akta så inte hjärnan kollapsar!

Till det tok som snurrar runt på internet adderar vi nu att om du tänker på Grahams tal, ett fantastiskt stort tal som dyker upp i den del av kombinatoriken som kallas Ramseyteori, så kollapsar din hjärna till ett svart hål. Det verkar komma från något skämt i en video från Numberphile. Jag får väl vara försiktig då :)

Om det här talet sägs ofta att det observerbara universum inte skulle räcka till för att skriva ut det i decimalform. Det är sant, men det fångar liksom inte hur stort Grahams tal är. Det är lite som att säga att Rubiks kub har över tre olika tillstånd.

Jag har ofta skrockat lite inombords åt uttrycket "astronomiskt stort tal" och tänkt "de skulle bara veta vilka tal som förekommer i andra sammanhang". Så här kommer ett förslag på klassificering av tal i storleksfamiljer ordnade efter olika vetenskaper.

1. Astronomiska tal. Det här är tal av typen hur många meter det går på ett ljusår. The scale of the universe, kan man säga. Animeringen här är hisnande, men det är ingen större svårighet att skriva ner ett tal med 50 eller 100 siffror med papper och penna.

2. Kryptologiska tal. Här har vi de tal som gör att vi kan skicka pengar och inloggningar säkert över internet. Kryptonycklar är slumpmässiga strängar av ettor och nollor som är så långa att det ska vara praktiskt omöjligt att gissa eller leta igenom för att hitta dem och knäcka krypteringen. Animeringen the scale of the universe sträcker sig över 62 tiopotenser. Ett kryptosystem med nyckellängd på 256 bitar har $2^{256}$, eller ungefär $10^{77}$, möjliga nycklar. System med offentlig nyckel (public key) måste ha kanske 8 eller 16 gånger längre nyckel. Nu blir det lite jobbigt att skriva för hand, men en sådan nyckel tar ändå bara upp en försvinnande liten del av ett datorminne. De kryptologiska talen är bara ett litet snäpp ovanför de astronomiska i min klassificering. Titta gärna på avsnitt 1.7 i boken Applied Cryptography av Bruce Schneier.

3. Fysikaliska tal. Här har vi tal som dyker upp i statistisk mekanik. Varför fryser vatten till is vid en viss temperatur? Varför kokar det vid en viss annan temperatur, och hur kan det ändå finnas vatten i luften fast det är kallare än så och vatten är tyngre än luft? Vad är det som händer när saker koagulerar, spricker, blir magnetiska och så vidare, och det där entropi, vad är det?
  För att reda ut sådana saker behöver man resonera om tal som är större än de astronomiska och kryptologiska. Det handlar inte om antalet molekyler i luften i ett rum, utan om på hur många sätt de kan arrangeras, om vi till exempel klassificerar dem efter huruvida de befinner sig i eller utanför en kastrull på spisen. Typiskt rör det sig om sådant som två upphöjt till Avogadros tal. Nu kan vi inte längre hantera talen med en miniräknare eller med datorns flyttal. Fast vi skulle fortfarande kunna skriva ner dem i decimalform om vi omvandlade några planeter till papper! Och någon liten måne till gem för att hålla ordning.

4. Talteoretiska tal. I den del av talteorin som handlar om fördelningen av primtal, händer det ofta att man upphöjer till någonting ett par, tre, fyra gånger. Gauss och Riemann hade kommit på redan på 1800-talet att antalet primtal mindre än ett tal $x$, vilket brukar skrivas $\pi(x)$, approximeras väldigt bra av funktionen \[\mathrm{li}(x) = \int_0^x \frac1{\log t}\,dt.\] I den här integralen blir det lite tjafs kring $t=1$, men vi tolkar det som ett principalvärde, dvs kancellerar oändligheterna. Det såg till en början ut som om $\pi(x)$ alltid är mindre än $\mathrm{li}(x)$. Hur långt man än tittar i primtalstabellerna, verkar primtalen aldrig komma ikapp.
  Men sedan bevisade Littlewood och Skewes att $\pi(x)$ och $\mathrm{li}(x)$ kommer att hoppa bock över varandra oändligt många gånger, och att första gången primtalen kommer ikapp den logaritmiska integralen är för något $x$ som är mindre än \[e^{e^{e^{79}}}.\]
  Det här talet, $e$ upphöjt till $e$ upphöjt till $e$ upphöjt till 79, är redan långt förbi vad som kan skrivas ut i decimalform med alla atomer i det kända universum. Talet $e^{79}$ är ett astronomiskt stort tal, och när vi tar $e$ upphöjt till det talet, får vi ett tal som det krävs astronomiska resurser för att skriva ner i decimalform. Sedan ska vi alltså ta $e$ upphöjt till det talet.

5. Kombinatoriska tal. Här kommer Grahams tal och dess släktingar. Längst ner i det här skiktet ligger tornen. I stället för att som Skewes och Littlewood nöja oss med tre-fyra exponentieringar, bygger vi ett torn av en viss höjd, så här \[2^{2^{2^{\cdot^{\cdot^{\cdot^2}}}}}.\] Om vi sätter höjden till exempelvis 10, är vi redan i en helt annan bollpark än talteoretikerna.
  Här är ett problem där torn dyker upp: Tänk dig att du bor på en oändligt lång gata, där varje hus ska målas rött, grönt, eller blått. Det blir inte snyggt om två grannar väljer samma färg, så det vill vi undvika. Enkelt, du hör ju bara efter med dina två grannar hur de har tänkt måla, och vad de än säger, finns det åtminstone en färg kvar. Problemet är bara att de har sina andra grannar att tänka på, så de kanske kommer och frågar dig först. Vi antar att vi kan singla slant för att lösa upp situationer av typen "ok, vi tänker båda måla blått, så då får en av oss byta". Men informationen i grannarnas kommunikation hinner bara gå en ändlig sträcka, säg $n$ hus, på den vecka eller så man har på sig att välja färg. Då visar det sig att det inte går att garantera att alla grannar väljer olika! Som Alexander Holroyd berättade för oss på Chalmers förra våren, kommer det ungefär på ett ställe av $Tower(n)$ (ett torn av höjd $n$) att köra ihop sig och på grund av ändringar hit och dit i sista sekunden sluta med att två grannar målar sina hus i samma färg!
  Grahams tal, som är ännu mycket större än till exempel $Tower$ av något talteoretiskt tal, handlar om i vilken dimension en viss variant av tic-tac-toe inte längre kan sluta oavgjort. Där får vi börja med att skapa torn vars höjd bestäms av tidigare torn, och så vidare, och då har vi "ändå inte sett någonting än" som de säger på engelska. Jag får hänvisa till Numberphile igen.

6.  Datavetenskapliga tal. Alla tal vi har diskuterat hittills har varit möjliga att beräkna i princip. Det vore en enkel sak att skriva ett datorprogram som, om det kördes på en idealisk dator med oändlig hastighet och oändligt mycket minne, skulle spotta ut $Tower(1000)$ eller Grahams tal. Ett program för $Tower(1000)$ skulle kunna vara (i pseudokod):
\[N=1; \quad \mathrm{for} \,\, (k=1,\dots, 1000)\,\, \mathrm{do} \,\, N=2^N; \quad \mathrm{return}\, N.\] Det fick plats på en rad här. Och vi skulle kunna använda $Tower$ som en subrutin i ett något längre program för att beräkna de följande hisnande nivåerna upp till Grahams tal. Hela programmet skulle nog med bred marginal få plats på säg 50 rader om 20 tecken vardera, dvs det skulle ha färre än 1000 tecken om det skrevs i något vanligt programmeringsspråk. Låt oss nu definiera $f(N)$ som det största tal som ett sådant idealiskt datorprogram med högst $N$ tecken kan skriva ut. Då är $f(1000)$ minst lika med Grahams tal, och förmodligen ofattbart mycket större. Lägg märke till att programmet alltså måste stanna för att det ska räknas. Ett program som bara fortsätter att skriva ut siffror i oändlighet är inte en beskrivning av något tal, och räknas inte.
  Med de datavetenskapliga talen passerar vi gränsen för vad som överhuvudtaget kan beräknas. Funktionen $f$ är en variant av det som kallas Busy Beaver, och är ett av standardexemplen på vad som i likhet med Alan Turings halting problem inte går att beräkna med någon algoritm.
  Nu skulle man kunna tro att de datavetenskapliga talen ligger väldigt långt från de pussel och tankenötter som vanligt folk håller på med. Men även de är allestädes närvarande och dyker upp i just pussel. Wang tiles är fyrkantiga pusselbitar som ska läggas så att färgerna matchar. För en given uppsättning är frågan om det går att täcka hela planet. Hur stor är den största kvadrat som kan byggas av någon uppsättning av $n$ stycken Wang tiles som inte kan täcka hela planet? Svaret är att det i allmänhet inte går att räkna ut överhuvudtaget! Det är en funktion av busy-beavertyp, vilket innebär att om vi ställer den frågan för till exempel $n=1000$ tiles, kommer svaret att vara större än de tal jag nyss kallade "kombinatoriska".
  Jag och Urban Larsson har ett papper där vi visar att de datavetenskapligt stora talen lurar bakom barnspel med tändstickor.

Men det finns en vetenskap kvar på min lista, och de tal man kan stöta på där är så löjligt stora att vi ytterligare en gång får konstatera att vi inte hade sett någonting än.

7. Logiska tal. På samma sätt som programmeringens språk gjorde att vi kunde definiera $f(n)$ som det största tal som kan beräknas av ett $n$ tecken långt program, kan vi använda matematiska språk för att definiera det största tal som kan definieras med $n$ tecken.
  Då måste vi konstruera ett språk som gör att vi kan definiera matematiska begrepp formellt, inuti språket. Sådana språk har konstruerats, och ett av dem, ZFC, har kommit att bli en standard för den här typen av resonemang, även om det inte mig veterligen finns någon som faktiskt använder ZFC på det sätt som programmeringsspråk används.
  ZFC står för Zermelo-Fraenkels system utvidgat med the axiom of Choice, och det är i princip tillräckligt kraftfullt för att man ska kunna definiera begrepp som Turingmaskin. Det gör att vi med ett sådant språk formellt kan definiera funktionen $f$ ovan, trots att vi inte har något sätt att beräkna den. Vi kan sedan bland annat definiera en hel hierarki av olika varianter av Turingmaskiner, utökade  med svarta lådor som beräknar lägre nivåers busy-beaverfunktioner. Så om vi definierar $N$ som det största tal som kan definieras i ZFC med högst en miljon tecken, får vi något som slår till och med de datavetenskapliga talen med hästlängder.
  Scott Aaronson har en väldigt trevlig uppsats som bland annat förklarar detta i mer detalj, och nu ser jag att han har skrivit om detta på sin blogg ganska nyligen.
  Men är det inte lite paradoxalt att vi kan prata om detta tal $N$ i en bloggpost med färre än en miljon tecken? Kan vi definiera ännu större tal genom att formalisera våra resonemang om ZFC?
  Då hamnar vi i frågor om huruvida olika utvidgningar av ZFC är motsägelsefria, och snart är vi i vad Scott Aaronson kallar Gödels träsk. Så vi kan lika gärna avsluta med

Det största tal du kan tänka på plus ett, stjärnstopp stjärnstopp stjärnstopp!

Här är förresten en snygg affisch.

Uppdatering: Nu finns en Numberphile-video om denna Big Number Duel.




Sunday, March 4, 2018

Infinite lake surrounded by lighthouses: Why $1+1/4+1/9+\dots = \pi^2/6$

The Youtube channel 3Blue1Brown has made a wonderful video based on one of my papers! It's called The stunning geometry behind this surprising equation, and shows a geometrical proof of Leonhard Euler's amazing equation \[1 + \frac14 + \frac19 + \frac1{16} + \dots = \frac{\pi^2}6.\]
By the way, this means that a prediction from my very first blog post is coming true!


Several people notified me of this video already the same day it was posted (first of them was a student in my discrete math course), and it really is awesome!

 I have seen some videos from 3Blue1Brown before, but never checked out who makes them. This one was created by the team of Grant Sanderson and Ben Hambrecht. Grant Sanderson is the creator of 3Blue1Brown, and from their about-page I quote:

"...what excites me the most is finding that little nugget of explanation that really clarifies why something is true, not in the sense of a proof, but in the sense that you come away feeling that you could have discovered the fact yourself".

I wish I had said that myself. I mean I come away feeling that I could have!

About my personal relation to the Basel problem:

I remember thinking about the sum $1+1/4+1/9+\dots$ before I knew the answer. I asked one of my teachers about it, but he didn't know.

When I was something like 16 or 17 years old, I found a book in our school library called Högre matematik för poeter och andra matematiska oskulder (Higher mathematics for poets and other mathematical virgins). That book was my first encounter with Fourier series. I played around with the series for the saw-tooth and related functions, and used my pocket calculator to check the amazing results. Somehow I figured out that those series provided the answer to my question, and I was astonished to realize that it wasn't pi times something, it was pi squared!

I also realized I could integrate those series and sum the inverse powers whenever the exponent was even. I think I went as far as \[1+\frac1{2^{14}}+\frac1{3^{14}}+\dots = \frac{2\pi^{14}}{18243225},\] and used that to compute digits of pi on a computer in school.
I had a lot of fun discovering those things myself although I realized they had to be well-known. Later on I learned about the Riemann Zeta-function, Bernoulli numbers, and stuff.

By the way, and related to a discussion in the video, my friend Peter Grenholm from the years in Uppsala once said that "If there's a pi, there's a circle!". I think we were contemplating the mysteries of the normal distribution.

In 2004 I found an apparently new proof of the Wallis product formula, another amazing formula involving pi. That's another story, but while searching the literature to see if that proof was new (I still have doubts!) I stumbled upon a marvellous paper by the twin brothers Akiva and Isaak Yaglom from 1953. The paper was in Russian, but it was so short, elegant, and well written that I could understand it all by just looking at the equations. They derived three famous formulas by Wallis, Leibniz, and Euler, all involving pi. And they did it using trigonometric identities only, not calculus as in all the proofs I had seen before.

Those trigonometric identities were cute but still quite sophisticated, depending on complex numbers and a fair bit of algebra. But one day when I was teaching "Grunken" in Linköping, a sort of preparatory course for new students, one of the students asked me about a problem in their book. The problem was about expressing $\tan(x/2)$ in terms of $\tan x$. I knew there was such a formula, but hadn't really thought about it. But when we went through the solution, I immediately realized that the identities from the Yaglom-Yaglom paper could be easily derived, at least when a certain number $n$ was a power of 2. We discussed this in the coffee room in Linköping with some of my colleagues, and somebody, maybe Mats Aigner (?), showed me a paper by Josef Hofbauer where Euler's identity was derived in precisely this way (but Mats Aigner is not the M. Aigner cited in Hofbauer's paper, that's Martin Aigner).

So the idea was already known, but I still felt that there was something there that needed to be sorted out and simplified even further. If that trigonometry was so simple, why wouldn't the whole thing be just plain euclidean geometry?

So I tinkered with various ways of realizing the trigonometric identities geometrically. The problem was that in most of those constructions, the key quantities were tending either to zero or to infinity with increasing $n$. But finally I came up with a model that didn't need any annoying rescaling. I thought of it as stars revolving around a common center of gravity, and the relevant quantity was the total amount of light received at some other point in their orbit. But light-houses, as in the video, are arguably easier to move around!

I gave a talk about this at Chalmers in 2010, and put a LaTeXed version on my web page, mostly so that I wouldn't forget about it myself.

When I heard about the new video I didn't even remember which version of the paper I had put on my webpage. I had a different one where all the stars in the universe were on a line, and the theoretical physicists were debating the total amount of light. And then a little girl asked what would happen if the universe was finite and the stars were on a circle. A few years ago I had dinner with Lotta Olsson, an author of children's books, and we talked about poetry, mathematics, and Tönis Tönisson's book. Then I tried to rewrite the whole paper with rhymes in her style, but I didn't get it to work (yet!).

One of the funny things is that my paper isn't published anywhere except somewhere near the bottom of this webpage of mine that I only rarely update. It's not even on the arXiv. There is this industry (what should we call it?) in academia called bibliometry, where publications and citations are counted, but only in certain journals. A publication only counts as a "real" publication if a commercial publisher like Elsevier can trick universities to pay for it (using money from tax-payers of course). To enforce this corrupt system they talk about h-index, impact factors, and "outreach". This paper of mine has zero "outreach" of course, since it's not even a real paper according to this standard.

But somehow the internet tends to find what you put there. I have seen it mentioned on some blog somewhere, and I've been asked if I'm the author. And now, after a weekend, the 3Blue1Brown video explaining the paper has been viewed more than 200,000 times. I guess that means that most people who ever came across any of my mathematics did so in the last couple of days!