Wednesday, November 28, 2007

Lehrer Video

I bet many of you out there love Tom Lehrer songs as much as I do. So I hope you enjoy this video showing the master himself performing some of his maths songs:










There are some more Lehrer songs on youtube and especially this superb performance/animation of New Math:

Sunday, November 25, 2007

An example of examples: Series and limits (in German)

As an example of how I would explain a concept in terms of examples and counter-examples let me cut and paste a text that I wrote for a mailing list which explains the notion of series and limits to ninth grader. That mailing list is in German so is this text. Sorry.

Ich versuche es mal mit einer Prosabeschreibung. Also erstmal, was ist eine Folge? Einfach gesagt ist das ein Liste von Zahlen, die nicht aufhoert, also zB

1, 2, 3, 4, 5 etc.

oder auch

1, 1, 1, 1, 1, 1 etc.

oder auch

1, 1/2, 1/3, 1/4, 1/5, etc

oder auch

3, 3.1, 3.14, 3.141, 3.1415, 3.14159, 3.141592, etc

oder auch

1, -1, 1, -1, 1, -1, etc

Vornehm gesagt ist eine Folge nix weiter als eine Funktion von den natuerlichen Zahlen in eine (Zahlen)-Menge Deiner Wahl. D.h. fuer jede natuerliche Zahl n (die Position in der Folge) gibt es eine Zahl a_n. Im ersten Beispiel ist

a_n = n

im zweiten Beispiel

a_n = 1

im dritten Beispiel

a_n = 1/n

und im vierten Beispiel ist a_n die Zahl, die man erhaelt, wenn man von pi die ersten n Dezimalstellen nimmt. Die fuenfte Folge koennen wir schreiben als


n
a_n = (-1)
(minus eins hoch n)

Soweit alles klar?

Von einer Folge kann es nun sein, dass sie gegen einen Grenzwert a kovergiert (sie "diesen Grenzwert hat"). Grob gesagt soll das heissen, dass sie 'auf lange Sicht' der Zahl a immer naeher kommt. Das muss man nun etwas formalisieren. Eine moegliche Definition ist, dass fuer alle offenen Intervalle, die a enthalten, hoechstens endlich viele Glieder der Folge nicht auch schon in diesem Intervall liegen, egal wie klein das offene Intervall ist (wenn es kleiner wird, liegen halt mehr Folgenglieder nicht drin, aber es bleiben immmer endlich viele).

Nehmen wir zB das dritte Beispiel a_n = 1/n . Davon ist offenbar 0 der Grenzwert. Wir koennen das ueberpruefen. Ueberleg Dir ein offenes Intervall, das die 0 enthalet, also zb ]l,r[ . Damit die 0 drin ist, muss l negativ und r positiv sein. Offenbar liegen nur die a_n fuer die n<1/r ist, nicht in dem Intervall, alle anderen liegen drin, also haben wir tatsaechlich nur endlich viele Ausnahmen, egal welches Intervall wir nehmen.

Das zweite Beispiel, a_n = 1, hat auch einen Grenzwert, naemlich natuerlich die eins. Ein offenes Intervall, das die 1 enthaelt, enthaelt auch alle Folgenglieder, es gibt also ueberhaupt keine Ausnahmen.

An den beiden Beispielen sehen wir auch, dass es volkommen egal ist, ob der Grenzwert selber in der Folge vorkommt.

Bei der Definition ist es aber wesentlich, dass wir nur offfene Intervalle zulassen. Sonst koennten wir fuer die 1/n Folge das geschlossene Interval [0, 0] nehmen, dieses enthaelt zwar die Null, aber kein einziges Folgenglied, damit liegen alle, also unendlich viele Folgenglieder nicht im Intervall. Ueberlege Dir selbst, welche Folgen konvergieren wuerden, wenn wir geschlossene Invervalle nehmen wuerden.

Das Beispiel mit den Dezimalstellen von pi ist auch konvergent und hat den Grenzwert pi.

Du kannst Dir auch leicht ueberlegen, dass eine Folge nicht mehrere Zahlen als Grenzwert haben kann: Haette sie zwei verschidene Grenzwerte, koenntest Du zwei offene Intervalle I1 und I2 benutzen, die jeweils nur einen der beiden Grenzwerte enthalten und deren Schnitt leer ist (gegebenfalls musst Du sie entsprechend verkleinern). Dann muessen alle bis auf endlich viele der Folgenglieder in I1 enthalten sein. Daraus folgt aber, dass unendlich viele Folgenglieder nicht in I2 sind. Also gibt es einen Widerspruch zu der Annahme, dass ein ein Grenzwert in I2 ist.

Die fuenfte Folge, die abwechselnd 1 und -1 ist, ist hingegen nicht konvergent, sie hat keinen Grenzwert: Als Grenzwert kaemen sowieso nur 1 und -1 in Frage. Schauen wir uns also das offene Intervall

] 1/2 , 1 1/2 [

an. Dann liegen da zwar unendlich viele Folgenglieder drin (naemlich jedes zweite), aber es liegen auch unenedlich viele Folgenglieder nich drin, naemlich die restlichen. Also kann 1 kein Grenzwert sein, denn es gibt ein offenes Intervall, das 1 enthaelt, aber unendlich viele Folgenglieder nicht.

Bleibt noch die erste Folge a_n = n. Wenn wir als Grenzwert nur 'normale' Zahlen zulassen, dann hat die Folge keinen Grenzwert, da die Folgenglieder aus jedem endlichen offenen Intervall herauslaufen. Wir koennen aber auch "unendlich" als Grenzwert zulassen, wenn wir es als Obergrenze fuer offene Intervalle erlauben. So soll etwa

] l, unendlich [

die Menge aller Zahlen, die groesser als l sind sein. Nun koennten wir definieren, dass eine Folge gegen unendlich konvergiert, wenn in allen solchen Intervallen bis auf endlich viele Ausnahmen alle Folgenglieder drin liegen. In diesem Sinn konvergiert die erste Folge dann gegen unendlich. Auf aehnlich weise kann man dann auch definieren, was es heissen soll, dass eine Folge gegen minus unendlich konvergiert.

Wenn ich das urspruengliche Beispiel von Lukas richtig verstanden habe, war da der Witz, dass seine Folge abwechselnd positive und negative Zahlen haben sollte, die im Betrag immer groesser werden. Diese Folge konvergiert dann aber weder gegen unendlich noch minus unendlich aus dem gleichen Grund, wie die 1, -1, 1, Folge nicht gegen 1 oder -1 konvergiert.

Soweit zum Grenzwert und Konvergenz. Das Beispiel mit 1, -1,... suggeriert aber noch die Definition eines aehnlichen Begriffs, der aber in einem gewissen Sinn schwaecher ist: des Haeufungspunkts. Eine Zahl a ist ein Hauefungspunkt einer Folge, wenn in jedem offenen Interval, egal wie klein, das a enthaelt, auch unendlich viele Folgenglieder drin sind. Hier wird aber nichts darueber gesagt, wieviele Folgenglieder nicht drin sein duerfen.

Du ueberlegst Dir schnell, dass einen Folge, die einen Grenzwert a, auch a als Haeufungspunkt hat (und keinen weiteren). Die Folge mit den 1ern und -1ern hat zwei Haeufungspunkte, naemlich 1 und -1. Im Gegensatz zum Grenzwert kann eine Folge also mehrere Haeufungspunkte haben.

Die Folge 1, 2, 3, 4, 5, 1, 2, 3, 4, 5, 1, 2, 3, 4, 5, etc hat zB fuenf Haeufungspunkte, die Folge

1, 1, 2, 1, 2, 3, 1, 2, 3, 4, 1, 2, 3, 4, 5, etc

hat alle natuerlichen Zahlen als Haufungspunkt. Mit einem kleinen Trick ('Cantorsches Diagonalverfahren') kann man sich auch eine Folge ueberlegen, die alle rationalen oder sogar alle reellen Zahlen als Haeufungspunkt hat.

Von besonderem Interesse sind manchmal noch der groesste und der kleinste Haeufungspunkt einer Folge, Limes Superior und Limes Inferior genannt. Es ist eine Eigenschaft der reellen Zahlen, dass jede Folge von reellen Zahlen mindestens einen Haeufingspunkt hat (wenn man auch minus unendlich und unendlich als Haeufungspunkte zulaesst). Dieser Satz ist unter dem Namen "Satz von Bolzano Weierstrass" bekannt (siehe Wikipedia). Fuer die rationalen Zahlen stimmt er nicht (eines der obigen Beispiele fuer Folgen ist ein Gegenbeispiel, welches?)

Unsere Feststellung von oben kann man aber auch umkehren: Wenn eine Folge (im reellen) nur einen Haufungspunkt hat, der groesste also gleich dem kleinsten Haeufungspunkt ist, ist dieser automatisch auch schon Grenzwert der Folge und die Folge ist konvergent. Kannst Du das selber beweisen?

Soweit mein kleiner Crash-Kurs zum Thema Konvergenz von Folgen.

Tuesday, November 06, 2007

An example for example

Tim Gowers has two very interesting posts on using examples early on in a mathematical exposition of a subject. I can only second that and say that this is my favorite way of understanding mathematical concepts: Try to think through the simplest non-trivial example.
Of course, for a mathematician it could be enough just to state a definition or state a theorem (including a proof) but very often this leaves one without a proper understanding of the subject. Why this definition and not something else? Where and how can I use the theorem? Why do I have to make assumption x, y and z?

For my practical purposes I often want to see "the key example" that shows what's going on and then often the general theory is a more or less obvious generalisation or extension or formalisation or abstraction of this key example. This second step hopefully is then clear enough that one can come up with it by oneself and it's really the key example one should remember and not the formal wording of the definition/theorem etc.

I am not talking about those examples some mathematicians come up with when pressed for an example, like after stating the definition of a vector space giving {0} as the example. This is useless. I want to see a typical example, one that many (all) other cases are modeled on not the special one that is different from all other cases. And as important as examples are of course counter-examples: What is close but not quite according to the new definition (and why do we want to exclude it? What goes wrong if I drop some of the assumptions of the theorem?

I have already talked for too long in the abstract, let me give you some examples:
  • What's a sheaf and what do I need it for (at least in connection with D-branes)? Of course, there is the formal definition in terms of maps from open sets of a topological space into a category. The wikipedia article Sheaf reminds you what that is (and explains many interesting things. I think I only really understood what it really is after I realised that it's the proper generalisation of a vector bundle for the case at hand: A vector bundle glues some vector space to every point of a topological space and does that in a continuous manner (see, that's basically my definition of a vector bundle). Of course, once we have such objects, we would like to study maps between them (secretly we want to come up with the appropriate category). We know already what maps between vector-spaces look like. So we can glue them together point-wise (and be careful that we are still continuous) and this gives us maps between vector bundles. But from the vector-space case we know that then a natural operation is to look at the kernel of such a map (and maybe a co-kernel if we have a pairing). We can carry this over in a point-wise manner but, whoops, the 'kernel-bundle' is not a vector bundle in general: The dimension can jump! The typical example here is to consider as a one dimensional vector bundle over the real line (with coordinate x). Then multiplication in the fiber over the point x by the number x is trivially a fiber-wise linear map. Over any point except x=0 it has an empty kernel but over x=0 the kernel is everything. Thus, generically the fiber has dimension 0 but at the origin it has dimension one. Thus, in order to be able to consider kernels (and co-kernels) of linear bundle maps we have to weaken our definition of vector bundle and that what is a sheaf: It's like a vector bundle but in such a way that linear maps all have kernels and co-kernels.
  • When I was a student in Hamburg I had the great pleasure to attend lectures by the late Peter Slodowy (I learned complex analysis from him as well as representation theory of the Virasoro algebra, gauge theories in the principle bundle language, symplectic geometry and algebraic geometry). The second semester of the algebraic geometry course was about invariants. Without the initial example (which IIRC took over a week to explain) I would have been completely lost in the algebra: The crucial example was: We want to understand the space of matrices modulo similarity transformations . Once one has learned that the usual algebraic trick is to investigate a space in terms of the algebra of functions living on it (as done in algebraic geometry for polynomial functions, or in non-commutative geometry in terms of continuous functions) one is lead to the idea that this moduli space is encoded in the invariants, that is functions that do not change under similarity transformations. Examples of such functions are of course the trace or the determinant. It turns out that this algebra of invariants (of course the sum or product of two invariant functions is still invariant) is generated by the coefficients of the characteristic polynomial that is, by the elementary symmetric functions of the eigenvalues (eigenvalues up to permutations). So this should be the algebra of invariants and its dual the moduli space. But wait, we know what the moduli space looks like from linear algebra: We can bring any matrix to Jordan normal form and that's it, matrices with different Jordan normal forms are not similar. But both and have the same characteristic polynomial but are not related by a similarity transformation. In fact the second one is similar to any matrix
    for any . This shows that there cannot be a continuous (let alone polynomial) invariant which separates the two orbits as the first orbit is a limit point of points on the second orbit. This example is supposed to illustrate the difference between which is the naive space of orbits which can be very badly behaved and the much nicer which is the nice space of invariants.
  • Let me also give you an example for a case where it's hard to give an example: You will have learned at some point that a distribution is a continuous linear functional on test-functions. Super. Linear is obvious as a condition. But why continuous? Can you come up with a linear functional on test-functions which fails to be continuous? If you have some functional analysis background you might think "ah, continuous is related to bounded, let's find something which is unbounded". Let me assure you, this is the wrong track. It turns out you need the axiom of choice to construct an example (as in you need the axiom of choice to construct a set which is not Lebesgue measurable). Thus you will not be able to write down a concrete example.
  • Here is a counter-example: Of course is the typical example of a real finite dimensional vectors space. But it is very misleading to think automatically of when a real vector space is mentioned. People struggled long enough to think of linear maps as abstract objects rather than matrices to get rid of ad hoc basis dependence!
I a sitting in the "Mathematical quantum mechanics" class of our TMP program. There, to my mind, Prof. Siedentop does a pretty good job of motivating the ideas (in terms of examples and 'engineer talk' --- he means physicists talk) behind the definitions and proofs that he presents rather than getting bogged down in the technical details. Let's hope our (the physicists) insistence on this background information does not make him lose so much time he does not get to where he wants in the end...