Dialektik und Mathematik

Die Mathematik könnte man als eine übergeordnete Wissenschaft bezeichnen, finden doch ihre Erkenntnisse in beinahe allen Wissensbereichen Anwendung. Vielen gilt es sogar als Ritterschlag, wenn sich Ergebnisse ihrer Forschungen in mathematische Gleichungen oder Modelle fassen lassen. Wieso hat die Mathematik eine derart exponierte Stellung? Gegenstand der Mathematik sind vor allem quantitative Zusammenhänge, die unabhängig von konkreten Bezügen erforscht werden. Zur Darstellung der erkannten Zusammenhänge nutzt die Mathematik ein von ihr geschaffenes System aus Zahlen und Symbolen. Diese hohe Abstraktionsstufe der Untersuchungen ermöglicht es, dass ihre Erkenntnisse in viele praktische und wissenschaftliche Erklärungen einfließen können. Obwohl der große Vorzug der Mathematik ihre hohe Abstraktionsstufe ist, kann man ihre Entwicklung nicht verstehen, wenn man sie nicht als Antwort auf konkrete Erfordernisse des Lebens begreift. Ihre Anfänge reichen in die Frühzeit menschlicher Gesellschaften zurück, als die Augabe stand, die Mengen zählbarer Dinge zu bestimmen und zu vergleichen. Die ersten „Mathematiker“ gaben den Menschen Methoden zur Erfassung entsprechender Zusammenhänge an die Hand. Das ist durchaus wörtlich zu verstehen, denn wahrscheinlich waren die Finger die ersten von ihnen verwendeten Rechenhilfen.

Ich habe mich oft gefragt, warum unser Zahlensystem auf der Zahl Zehn aufbaut, obwohl es in der uns umgebenden Natur keinen erkennbaren Grund dafür gibt. Das Jahr, das mit dem Wechsel der Jahreszeiten den Lebenszyklus der Menschen maßgeblich bestimmt, gliedert sich in zwölf Monate oder Mondzyklen. Es wäre naheliegend, wenn das System der Zahlen dies wiederspiegeln würde. Ein solches auf der Zwölf basierendes System hat es tatsächlich lange Zeit gegeben. Nicht nur die zwölf Monate, auch die zweimal zwölf Stunden des Tages sowie die Untergliederung der Stunden beziehungsweise Minuten in jeweils 60 kleinere Einheiten sind noch heute Zeugnisse dieses Herangehens. Dieses auf der Zwölf fußende System fand aber nicht nur in Bezug auf Zeitangaben Anwendung, auch beim Zählen im alltäglichen Leben wurde mit Dutzend, Schock, Gros und Maß hantiert. Diese Größen waren fest in der Vorstellungswelt der Menschen verankert. Zum Zählen musste man jedoch die Finger zur Hilfe nehmen, und die sind nur zehn. So gesehen, ist es wiederum nicht verwunderlich, dass sich irgendwann ein Dezimalsystem durchsetzte.

Die Mathematik ist also nicht losgelöst von der Wirklichkeit entstanden. Sie entwickelte sich vielmehr im Kontext mit den Menschen und den Aufgaben, die sie sich stellten. Dabei fand sich nicht für jede Aufgabe gleich eine Lösung, mancher Ansatz mag sich später auch als falsch erwiesen haben, denn die Mathematik ist, wie jede andere Wissenschaft, auf der Suche nach einer adäquaten Widerspiegelung der in der Natur gegebenen Zusammenhänge. Das wird heute zum Beispiel bei mathematischen Modellen deutlich, die komplexe Zusammenhäne in Natur und Gesellschaft erfassen wollen. Sie können sich nur schrittweise der Wirklichkeit annähern, denn genauso, wie man jede Bestimmung konkreter Objekte auf einige Parameter in einem definierten Zeitfenster fokussieren muss, um zu einem Ergebnis zu gelangen, genauso muss jedes mathematische Modell von einem Teil möglicher Wechselwirkungen abstrahieren, um für ein gegebenes Problem eine Lösung präsentieren zu können. Die Komplexität der Welt, in der alles mit allem zusammenhängt und in der sich alle Faktoren ständig verändern, kann auch die Mathematik nur ausschnitthaft erfassen. Das hat immerhin den Vorteil, dass für jede kommende Generation Aufgaben zur Weiterentwicklung der Modelle verbleiben.

Die Mathematik ist also eine Methode, um die Wirklichkeit zu erfassen, ihre Zusammenhänge zu begreifen. Das hat sie sowohl mit der Dialektik als auch mit der Logik gemein. Nur, was ist eine Methode des Denkens eigentlich? Man kann sie vielleicht mit einem Algorithmus vergleichen, anhand dessen ein Computer in der Lage ist, Aufgaben zu lösen. Eine Methode des Denkens wäre demnach ein Algorithmus für das menschliche Gehirn, mit dem es arbeiten kann, mit dem es die Wirklichkeit analysiert und Zusammenhänge herstellt. Das Gehirn arbeitet aber nicht nur den Algorithmus ab, es ist auch lernfähig, das heißt, es ist in der Lage, seine Algorithmen, also seine Methoden selbst fortzuschreiben. Vielleicht trifft das nicht auf jeden Menschen gleichermaßen zu, aber doch im Prinzip. Worin besteht nun der Unterschied zwischen den verschiedenen Methoden des Denkens? Die Mathematik erfasst mit ihren Algorithmen quantitative Zusammenhänge, weitgehend unabhängig von den konkreten Eigenschaften der Dinge und Erscheinungen. Logik und Dialektik begründen dagegen Regeln des Denkens, die unabhängig davon sind, ob es sich um quantitative oder qualitative Aspekte der Wirklichkeit handelt. Die Logik fokussiert sich dabei auf kausale Zusammenhänge nach dem Muster „wenn … dann“, während die Dialektik die Wechselwirkungen der Dinge und Erscheinungen sowie deren Dynamik ergründen will. So gesehen, sind die Logik wie auch die Dialektik „übergeordnete“ Methoden des Denkens, die für alle Wissensgebiete Gültigkeit haben. Auch für die Mathematik? Auch für die Mathematik!

Das heißt, in der Mathematik müssten sich dialektische Ansätze finden, selbst wenn noch kein Mathematiker je etwas von Dialektik gehört haben sollte. In der Tat, es gibt wohl kaum eine andere Wissenschaft, die so viele dialektische Ansätze zu ihrem Basiswissen zählt, wie die Mathematik. Nehmen wir als erstes die Null, deren Einführung als eine der größten Errungenschaften in der Geschichte der Mathematik gilt. Die Null ist ja auch etwas ganz Ungeheuerliches, denn sie bezeichnet etwas, das nicht existiert, mit einem Namen und einem Symbol. Das Nichts wird zu einer definierten Größe. Das muss man sich auf der Zunge zergehen lassen. Etwas, was nicht vorhanden ist, wird zu einer definierten Größe, mit der man rechnen kann. Das Nichts als Rechengröße. Mit Logik hat das wenig zu tun. Da sich dieses Herangehen der Mathematiker bewährt hat, kann es jedoch kein Nonsens sein. Es ist zwar nicht unbedingt logisch, etwas Nichtvorhandenem eine konkrete Größe zuzuordnen, ein dialektischer Ansatz ist es allemal, denn eine der Grundüberzeugungen der Dialektik besagt, dass sich die Dinge und Erscheinungen nicht aus sich selbst heraus erkären lassen, dass sie sich vielmehr durch ihr Gegenteil definieren. Außerdem hat das Nichts als Zeichen des Nichtvorhandenseins selbst auch zwei Seiten. Einerseits kann etwas, das nicht vorhanden ist, keine praktische Relevanz besitzen, andererseits ist das Nichtvorhandensein eine Feststellung, aus der sich vielfältige Schlussfolgerungen ergeben können. Wenn beispielsweise bei einer bestimmten chemischen Reaktion Sauerstoff nachweislich nicht zur Verfügung stand, dann kann er auch keine Rolle gespielt haben. Diese Feststellung ist für die Bewertung einer chemischen Reaktion von erheblicher Bedeutung.

Das Gegenteil des auf diese Weise definierten Nichts ist das letztlich undefinierbare Unendliche. Unendlich kann unendlich groß bedeuten aber auch unendlich klein. Für diese Unendlichkeiten gibt es ein Symbol, mit dem die Mathematiker die tollsten Berechnungen anstellen. Auch das muss man noch einmal langsam wiederholen, weil es so unglaublich unlogisch ist. Unendlich impliziert „nicht erreichbar“. Ganz egal, wie weit man fortschreitet, es verbleibt immer noch ein Stück des Weges, der zu gehen ist. Umgekehrt kann man eine Strecke halbieren und deren eine Hälfte wieder halbieren und so fort. Die zu halbierende Strecke wird immer kleiner und doch gibt es immer wieder die Möglichkeit den verbleibenden Rest weiter zu teilen. Letztlich kann man also weder die eine noch die andere Unendlichkeit erreichen und damit auch nicht definieren – sagt mir die Logik. Mathematiker haben solche logischen Skrupel nicht. Man kann sich einer Unendlichkeit von immer kleineren Strecken mathematisch annähern und einen Grenzwert im Unendlichen berechnen. Auf diese Weise berechnet man auch den Punkt, an dem Achill die Schildkröte überholt. Und er überholt sie ja tatsächlich! Ähnlich „logisch“ ist übrigens die Feststellung der Astrophysiker, dass das Weltall unendlich groß sei und doch gleichzeitig räumlich begrenzt. Diese Beispiele vor Augen muss man wohl akzeptieren, dass sich die Wirklichkeit mit Logik allein nicht ausreichend beschreiben lässt. Wir brauchen die Dialektik, die die Dinge und Erscheinungen durch ihr Gegenteil definiert. Mit ihr lässt sich erklären, dass das eigentlich undefinierbare Unendliche durch sein Gegenteil, einen definierten Grenzwert oder eine räumliche Begrenzung, bestimmt ist.

Noch einmal zurück zur Null. Ihre tatsächliche Bedeutung geht natürlich weit über die Beschreibung des Nichtvorhandenseins hinaus. Um diese zu erfassen, müssen wir noch einmal zum Zählen zurückkehren. Die alten Römer hatten ein Zählsystem erfunden, das auf der Fünf, auf den fünf Fingern einer Hand, basierte. Ein Finger oder ein Zähler konnte durch eine Kerbe im Holz oder durch einen Strich auf dem Pergament festgehalten werden. Zwei Striche bedeuteten zwei gezählte Einheiten, drei Striche drei. Waren fünf zu zählende Dinge beisammen, dann hatte man eine Hand voll. Für die Handvoll wurde ein neues Zeichen benutzt. Zwei Handvoll erhielten wieder ein eigenes Symbol, das man dann, ähnlich den Einer-Symbolen additiv aneinanderreihen konnte. Der Nachteil dieses Systems war, dass man für größere Zahlen immer neue Symbole benötigte. Trotzdem erlangte dieses System durch die mit ihm gegebene Möglichkeit, ermittelte Mengen auf einfache Weise zu dokumentieren, große praktische Bedeutung. Für das eigentliche Rechnen, dem Herausfinden und Anwenden mengenmäßiger Zusammenhänge, war es dagegen wenig geeignet.

Die arabischen Zahlen, die ihren Ursprung wohl in Indien hatten, boten in dieser Hinsicht neue Möglichkeiten. Bei den arabischen Zahlen erhält jede Menge, beginnend mit dem Nichts, ein eigenes Symbol, eine Zahl. Das heißt, Symbole werden nicht additiv aneinandergereiht, sondern jeder Zählschritt bis zur Neun wird spezifisch benannt. Man könnte auch sagen, jeder Finger erhält einen eigenen Namen. Sind die Finger beider Hände abgezählt, dann entsteht etwas qualitativ Neues, denn, um weiterzählen zu können, muss eine zweite Zehnerreihe eröffnet werden. Diese zweite Reihe beginnt wieder bei Null. Die 10 versinnbildlicht also einerseits den Abschluss der ersten Zählreihe (zehn Finger) und gleichzeitig den Start der zweiten, die jedoch noch keine, also null Zähler, auf sich vereint. Wieder hat die Null also eine doppelte Bedeutung. Sie zeigt einerseits den Beginn einer neuen Qualität (zweite Zählreihe) an, die andererseits jedoch noch nicht zählbar (ohne Quantität) begonnen hat.

Ganz nebenbei beinhaltet der Übergang von der 9 zur 10 eine weitere in der Dialektik verankerte Gesetzmäßigkeit – den Übergang von Quantität in Qualität. In der Reihe von 0 bis 9 ruft jedes hinzukommende Zählstück ein neues Symbol, eine andere Zahl auf. Die Zahlen 0 bis 9 bilden damit eine eigene Qualität. Kommt beispielsweise zu 4 Stücken ein Stück hinzu, dann kann diese Menge wieder mit einer Zahl, nämlich der 5, benannt werden. Beim Übergang von der 9 zur 10 passiert jedoch etwas völlig anderes. Durch die Hinzunahme einer einzigen Quantität wird die Gruppe der einstelligen Zahlen verlassen. Es entsteht nun eine Zahl, die aus zwei Symbolen, aus zwei Ziffern zusammengesetzt ist. Das heißt, die Zahlen von 0 bis 9 werden in der zweistelligen Zahl zu Ziffern, zu Bestandteilen eines übergeordneten Größeren. Damit verkörpern die aus zwei Ziffern zusammengesetzten Zahlen eine neue Qualität. Sie öffnen den Horizont über das eigene Ich hinaus. Nicht nur die eigenen zehn Finger, die ganze Welt rückt jetzt in den Fokus des Zählens.

Eine weitere große Erfindung der Mathematiker waren die negativen Zahlen. Die Zahlen waren ursprünglich aus dem Zählen von Personen, Gegenständen oder was sonst noch wichtig ist im Leben entstanden. Negative Zahlen können aber nicht aus dem Zählen wirklicher Dinge hervorgegangen sein, denn sie sind in diesem Sinne nicht real. Niemand hat je minus ein Auto gesehen oder gehört. Und doch haben sich die negativen Zahlen als höchst brauchbar für die Beschreibung von Zusammenhängen erwiesen, da sie einen anderen Aspekt, eine andere Sicht auf die Dinge beschreiben. Positive Zahlen bezeichnen den Fakt des Vorhandenseins, negative Zahlen den Fakt des Fehlens. Das eine ist ohne das andere nicht denkbar. Nur wenn etwas vorhanden war oder ist, kann man auch sein Fehlen feststellen und darüber hinaus die Quantität des Fehlenden bestimmen. Ebenso wäre die Feststellung des Vorhandenseins sinnlos, wenn es nicht die Alternative des Fehlens gäbe. Vorhandensein und Fehlen sind Gegensätze, die einander bedingen, wie sich auch hell und dunkel gegenseitig bedingen und letztlich nur zusammen einen Sinn ergeben. Sind eigentlich das Nichtvorhandensein und das Fehlen ein und dasselbe? Das Nichtvorhandensein (0) und das Fehlen (-x) bezeichnen Sachverhalte unterschiedlicher Bezugssysteme. Nehmen wir ein Beispiel. Wir sollen eine Truppe von Kämpfern aufstellen. Es gelingt uns zehn (+10) Männer zu rekrutieren. Die Männer haben aber keine (0) Waffen. Wenn jeder Mann mit einem Schwert ausgerüstet werden soll, dann fehlen zehn Schwerter (-10). Aus (0) vorhandenen Schwertern werden nun (-10) fehlende Schwerter. Wie geht das? Zuerst werden die zehn potentiellen Kämpfer beschrieben, die keine Schwerter tragen. Erst in dem Moment, da die Forderung aufgestellt wird, dass die Kämpfer Schwerter tragen sollen (neues Bezugssystem Kämpfer mit Schwert), wird klar, es fehlen zehn Schwerter. Das heißt, ein und derselbe Sachverhalt (nicht vorhandene Schwerter) erhält je nach dem Bezugssystem, in das er gestellt wird, unterschiedliche Bedeutung oder Relevanz.

In der Schule wurde uns die Systematik der Zahlen mit dem Zahlenstrahl erklärt. An dessen Anfang stand die Null, dann kamen nach rechts fortlaufend die positiven Zahlen, bis sich der Pfeil irgendwo im Unendlichen verlor. Die negativen Zahlen wurden in die andere Richtung, also nach links laufend, und ebenfalls einer Unendlichkeit zustrebend, dargestellt. Mit Hilfe dieses Modells konnte das Addieren und Subtrahieren von positiven und negativen Zahlen gut veranschaulicht werden. Allerdings hinterließ es bei mir auch Unbehagen, nämlich dann, wenn ich mir vorstellen wollte, wieso bei der Multiplikation einer beliebig großen positiven Zahl mit minus eins, das Ergebnis mit einem Mal am anderen Ende der Welt, respektive des Zahlenstrahls zu suchen sein sollte. Ich weiß nicht, ob mittlerweile ein andere Darstellung des Zahlenstrahls gibt, erforderlich wäre sie, denn +1 und -1 sind eben nicht nur entgegengesetzte Größen, sie bezeichnen auch zwei Seiten der selben Medaille. Wenn ein Koffer vorhanden ist oder ein Koffer fehlt, dann sind das zwei entgegengesetzte Sachverhalte. Trotzdem geht es jeweils um einen Koffer. Wenn es sich bei den positiven und negativen Zahlen also um zwei Seiten ein und derselben Medaille handelt, dann sollte dies auch durch den Zahlenstrahl widergespiegelt werden. Die Null wäre dann der Beginn des Zählens, sowohl der positiven Zahlen (zum Beispiel auf der Oberseite des Strahls dargestellt) als auch der negativen Zahlen (auf der Unterseite des selben Strahls). Beim Addieren und Subtrahieren würde sich das fortlaufende Zählen immer über die Null als Wendepunkt vollziehen. Die Multiplikation mit einer negativen Zahl bedeutet dann, dass man die Seite der Medaille, das heißt das Bezugssystem, wechselt. Das heißt, bei einer Multiplikation mit -1 verändert sich nicht die Position der Zahl auf dem Zahlenstrahl sondern lediglich die Seite des Strahls, auf der sie zu finden ist. Aus dem Vorhandensein wurde das Fehlen einer bestimmten Quantität.

Bisher haben wir nur die ganzen Zahlen, resultierend aus dem Zählen von Personen, Dingen und Prozessen betrachtet. Natürlich wurde auch mit halben Einheiten, zum Beispiel einem halben Laib Brot, oder anderen Bruchteilen eines Ganzen gearbeitet. Zunehmend entstand jedoch das Bedürfnis, die Dinge und Prozesse genauer zu beschreiben. Mit Hilfe von Messwerkzeugen ermittelten die Menschen ihre Abmaße und andere quantitativ bestimmbare Eigenschaften. Für das Festhalten der Messergebnisse reichten ganze Zahlen oder auch deren Bruchteile bald nicht mehr aus. Dieses Manko war im 10. Jahrhundert in den hoch entwickelten arabischen Ländern besonders spürbar, jedenfalls begann man dort, das bestehende Dezimalsystem um die Dezimalbrüche zu erweitern. Mit den Dezimalbrüchen ließen sich die immer genauer werdenden Messergebnisse hervorragend dokumentieren. In der Folgezeit entstand jedoch ein neues Problem, denn die Messergebnisse wiesen nicht immer das gleiche Maß an Genauigkeit auf. Wenn man diese unterschiedlichen Genauigkeiten bedenkenlos miteinander kombinierte, dann konnte das Ergebnis eine Genauigkeit vorgaukeln, die es in Wirklichkeit gar nicht besaß. Es galt also, das erreichte Maß an Genauigkeit, genauso wie den möglichen Fehler, sorgfältig zu bestimmen. War der ausgewiesene Fehler geringer als die sich aus dem praktischen Zweck der Messung abgeleitete mögliche Toleranz, dann galt die Ungenauigkeit als unproblematisch.

Wir hatten einen Lehrer, der uns den Unterschied von Genauigkeit und Scheingenauigkeit näherbringen wollte. Das Thema hat bei mir innere Gegenwehr erzeugt und mich wahrscheinlich deshalb bis heute beschäftigt. Nehmen wir als Beispiel folgende Aufgabe: 127 x 13,5. Man nimmt schnell einen Taschenrechner und erhält 1.714,5. Aber ist das richtig? Das Ergebnis wäre richtig, wenn die Aufgabe gewesen wäre 127,0 x 13,5. War sie aber nicht. Die Zahl 127 deckt nämlich die Spanne von 126,5 bis 127,4 ab. Das Ergebnis der Multiplikation könnte also einen Wert von 1.707,8 bis 1.719,9 haben. Nun gibt es zwei Möglichkeiten, entweder man gibt einen mittleren Wert wie 1.714,5 als Ergebnis an und benennt gleichzeitig den Fehler, den dieses Ergebnis beinhalten kann, oder man bereinigt die Aufgabe dahingehend, dass ein gleiches, für beide Faktoren erreichbares Maß an Genauigkeit genutzt wird. Im zweiten Fall würde die Aufgabe dann 127 x 14 und das Ergebnis 1.778 lauten. Beide Wege haben offensichtlich Vor- und Nachteile. Das Beste ist, man erhöht, so es denn möglich ist, die Genauigkeit der Faktoren bis ein gemeinsames Niveau, zum Beispiel auf 127,1 x 13,5 = 1.715,85, erreicht ist. Aber halt, das Produkt kann nicht genauer sein als die Faktoren, aus denen es resultiert. Also muss das Ergebnis 1.715,9 lauten. Das Runden des Ergebnisses weist uns jedoch wieder auf einen möglichen Fehler hin. Außerdem ist der Faktor 127,1 ebenfalls bereits gerundet. Er könnte von 127,05 bis 127,14 alles beinhalten. Das gilt für den anderen Faktor in gleicher Weise. Was sollen wir tun? Wir erhöhen die Genauigkeit weiter! Das Dilemma verlässt uns jedoch nicht. Es bleibt uns, wenn auch auf immer höherer Ebene, erhalten. Ganz egal, was wir anstellen, wie genau wir unsere Messung auch durchführen, es bleibt immer ein bestimmtes Maß an Ungenauigkeit. Auf der einen Seite ist also die mögliche Anzahl der Ziffern hinter dem Komma unendlich, was die Darstellung einer unendlichen Genauigkeit ermöglichen würde, auf der anderen Seite ist eine absolute Genauigkeit nicht erreichbar und damit keine Option für die Praxis des Messens. In dieser Praxis muss man sich mit relativen Genauigkeiten begnügen, weshalb zu jedem Ergebnis eigentlich der Hinweis auf den möglichen Fehler gehört.

Dass beim Messen keine absolute Genauigkeit erreicht wird, heißt jedoch nicht, dass diese nicht existieren würde. Die absolute Größe tritt in der Praxis des Messens jedoch nur als relativ genaues Messergebnis in Erscheinung. Gäbe es keine absolute Genauigkeit, könnte es aber auch keine relativen Genauigkeiten geben. Beide Aspekte sind wiederum zwei Seiten der selben Medaille. Sie bilden einen dialektischen Zusammenhang, der, genauso wie positive und negative Zahlen, wie hell und dunkel, wie absolute und relative Geschwindigkeiten, nur in ihrer wechselseitigen Bedingtheit begriffen werden kann.

Welche Bedeutung haben die Grenzen in der Genauigkeit des Messens für unsere alltägliche Praxis? In erster Linie ist es erforderlich, sie zu beachten. In der Praxis hat sich gezeigt, dass für jeden Zweck ein bestimmtes Maß an Genauigkeit erforderlich und ausreichend ist. Für unsere Vorfahren bestand die Schwierigkeit meist darin, dass ihre Messverfahren die eigentlich notwendige Genauigkeit nicht liefern konnten. Heute verzeichnet man eher den Umstand, dass Genauigkeiten erzielt werden können, die weit über das notwendige Maß hinausgehen. Das kann durchaus zum Problem werden, weil bei einer Messung, die nicht von der praktischen Notwendigkeit sondern vom Drang nach Perfektion geleitet wird, mögliche Effektivitätspotentiale unausgeschöpft bleiben. Die Zahl Pi eignet sich hervorragend, diesen Zusammenhang deutlich werden zu lassen. Pi drückt das Verhältnis vom Umfang eines Kreises zu seinem Radius aus. Das spannende an Pi ist, dass man die Größe dieser Zahl nicht genau kennt, denn setzt man den Umfang eines Kreises zu seinem Radius ins Verhältnis, dann ergibt diese Rechnung kein endliches Ergebnis. Das ist theoretisch bewiesen. Ungläubige Praktiker haben Rechner losgejagt und Billionen Stellen nach dem Komma berechnen lassen, ohne zu einem Ende zu gelangen. Für die Zahl Pi gilt offensichtlich all das, was wir bisher schon über die Genauigkeit von Messergenissen gesagt haben. Pi ist einerseits eine relle Zahl, das heißt, sie ist in der Wirklichkeit existent. Gleichzeitig kann man sie nicht mit absoluter Genauigkeit bestimmen. Da man für jede praktische Anwendung ohnehin nur ein begrenztes Maß an Genauigkeit benötigt, ist dies jedoch nicht weiter von Belang. Es würde keinen Sinn machen, den Faktor Pi mit einer erheblich größeren Genauigkeit einzusetzen, als es die Genauigkeit der anderen zur Verfügung stehenden Messergebnisse hergibt.

 zuletzt geändert: 17.06.2019