Direkt zum Inhalt | Direkt zur Navigation

Benutzerspezifische Werkzeuge
Anmelden
Bereiche

Innovation durch Reflexion


Zum Beitrag der Philosophie für die Wissenschaftsentwicklung


1. Philosophia perennis?


Es ist ein altes Vorurteil, dass eine philosophia perennis ewige Themen bearbeite und die Philosophie daher selbst ein unendliches Gespräch sei. Was daran richtig ist, lässt sich in einer etwas weniger pathetischen Form so ausdrücken: In der Philosophie geht es immer um Selbstverständlichkeiten, die am Ende so situationsallgemein sind wie der Satz, dass 2 + 2 = 4 ist oder dass eine Tangente einen Kreis in genau einem Punkt berührt. Zu derartigen ewigen Selbstverständlichkeiten gehören auch Prinzipien wie die, dass jedes Einzelleben endlich ist oder dass alles Leben sich aus einem Stamm evolutiv entwickelt hat, dass es kein perpetuum mobile gibt oder dass man sich nicht in die Vergangenheit bewegen kann. Sätze dieser Art artikulieren eine Art Grundlage für jedes Verständnis der in derartigen Sätzen vorkommenden Wörter und Begriffe, also etwa die Wörter ›Tangente‹ und ›Kreis‹, ›Punkt‹ und ›berühren‹, ›Leben‹ und ›Evolution‹, ›Vergangenheit‹, ›Zukunft‹ und ›Bewegung‹. Dabei interessiert sich die Philosophie nicht für die relativ einfachen mathematischen Wahrheiten, sondern für begriffliche Prinzipien, etwa auch der Art, dass das menschliche Handeln in einem anderen Sinn frei ist als die Verhaltungen der Tiere oder die Bewegungsspielräume toter Dinge. Dabei besagt die begriffliche Regel, dass jede Handlung eine freie Handlung ist, nicht etwa, dass es keine Vorbedingungen für das (freie) Handeln gibt: Alle Prozesse und Bewegungen in dieser Welt sind irgendwie durch frühere Geschehnisse bedingt. Da aber fast niemand versteht, was man alles mit den Wörtern ›bedingt‹, ›determiniert‹, ›kausal‹ und ›bestimmt‹ sagen kann, meinen die meisten, dass das Handeln, seine Ergebnisse und zuvor schon die Entscheidung, so und nicht anders zu handeln, durch Vorgängerereignisse um mich herum, in meinem Leib und in meinem Gehirn kausal prädeterminiert sei. Dabei markiert das Wort ›frei‹ gerade den uns längst bekannten allgemeinen Kontrast zwischen einem bloßen Widerfahrnis, einem schon automatisierten Verhalten und der Selbstbestimmung meines Tuns im geplanten und vorbedachten Handeln. Letzteres geschieht in Abwägung von möglichen Gründen für und wider diese oder jene Handlungsform. Eine ­solche muss normalerweise beliebig frei ausführbar sein. Das Wort ›frei‹ bezieht sich demgemäß zunächst nur auf solche Formen. Sagen wir von Einzelhandlungen, sie seien frei, meinen wir, dass es sich um die Aktualisierung einer frei ausführbaren Handlungsform handelt wie das Radfahren im Kontrast zu einem Automatismus wie dem Blutkreislauf oder einem Widerfahrnis wie einem Herzinfarkt. Eine Handlungsform ist dabei in aller Regel hochkomplex. Das liegt an den durch logisch zusammengesetzte Begriffe oder Aussageformen definierten Erfüllungsbedingungen. Eine bloße Krümmung des Fingers ist nur selten (etwa beim Schießen) eine Handlung. Wegen der freien Unterlassbarkeit ist aber auch ein solches Tun nicht rein zufällig. In der tätigen Verfolgung einer Absicht kann allerdings immer auch etwas zufällig schief gehen. Die generische Handlung als das normalerweise ausführbare Handlungsschema kann mir dabei zunächst (etwa über ein Wort) rein passiv als Möglichkeit eingefallen sein. Die Ausführung ist dann aber in der Regel keineswegs rein passiv.


Offenbar dauert es immer eine kleine Ewigkeit, bis wir solche Prinzipien ganz verstehen. Gerade die gegenwärtige Debatte um die Willensfreiheit1 zeigt das sehr klar. Dabei bedeutete die Einsicht in die Differenz freier Handlungen und bloßen Verhaltensreaktionen gerade im Bereich von Moral und Recht eine riesige Innovation. Wer will, kann sie mit dem Namen Solons (~ 640–
560 v. Chr.) verbinden. Denn seine Gesetzgebung geht von der Einsicht aus, dass es nur dort und dann sinnvoll ist zu strafen, wo und wann man eine ­sozial unerwünschte Handlungsform vorab mit Strafandrohungen belegt hatte, um die Menschen dazu zu bringen, von einer explizit verbotenen bzw. allgemein unerwünschten Handlung Abstand zu nehmen, und zwar aufgrund eines eigenen freien Überlegens. Bei Tieren funktioniert ein solches Verfahren der verbalen Drohung nicht. Animalisches Verhalten lässt sich nicht über sprachlich vermittelte Möglichkeitserwartungen steuern. Ein Großkönig wie Xerxes (~ 519–465 v. Chr.) mochte dagegen einen Sklaven, der seinem Wünschen und Wollen zufällig in die Quere kam, ebenso wie ein Tier oder gar den Bosporus ›gestraft‹ haben – ohne noch den Unterschied zur reinen Rache zu begreifen. 


Auf das grundsätzliche Verhältnis von Seele und Leib reflektierte schon Heraklit (~ 520–460 v. Chr.). Sein Kernsatz ēthos anthrōpō daimōn besagt nämlich, dass das, was dem Menschen als ein gespenstartiger Geist erscheint, in Wahrheit ›das Ethos‹, Georg Wilhelm Friedrich Hegels (1770–1831) ›Sittlichkeit‹ ist. Bildung und Kultur der Person stehen also dem gegenüber, was die heutige Neuropsychologie als vermeintlichen Automatismus oder als reine Natur in das Gehirn bzw. den Körper verlegt. Was wir als Geist ansprechen, ist die kooperative und kommunikative ›Lebensform menschlicher Personen‹. Der nous, ›die Intelligenz‹, ist durch den logos, ›das Wort‹, vermittelt. Eine denkende Person zu sein, heißt, an dem wesentlich sprachlich vermittelten Wissen als der zentralen Artikulationsform eines gemeinschaftlich entwickelten Könnens teilzunehmen.


Es sollte klar sein, dass eine nicht bloß oberflächliche Wissenschaft zentrale Prinzipien in ihrem immer auch sprach- und verstehenstechnischen Sinn und ihrem angemessenen Gebrauch beherrschen muss. Prinzipien sind Grundlagen, archai, ›Anfänge‹. 


Dabei liegen die Anfänge von Wissenschaft, Mathematik und Philosophie offenbar gemeinsam in der Epoche, die auf Thales (~ 625–547 v. Chr.) und ­Anaximander (~ 610–546 v. Chr.) folgte, und zwar weil damals die Prinzipien der Institution Wissenschaft (epistēmē, scientia) und Philosophie (theoria, philosophia) entwickelt wurden, letztere sozusagen als gemeinsame Kontrolle von Wissensansprüchen. Das geschah im bewussten Kontrast zu bloßen Weisheitslehren wie wir sie bei Homer oder Hesiod, bei Konfutse oder Laotse, Buddha oder Zoroaster, auch in der Büchersammlung der Bibel finden. 


Philosophie ist dabei zunächst der theoretische Teil der Wissenschaft. Das kann man noch am Titel von Isaac Newtons (1643–1727) Philosophiae Naturalis Principia Mathematica sehen, der inhaltlich am besten wiederzugeben wäre als »Mathematische Grundlagen der Naturwissenschaft«. Im engeren Sinn ist Philosophie in der Nachfolge der prima philosophia des Aristoteles (384–
322 v.  Chr.), die später unter dem Titel Metaphysik bekannt wurde, sprachkritische Wissensreflexion und dialektikē technē (Platon, 427–347 v. Chr.) oder Reflexion auf den logos (Heraklit). Nur der formale Teil der Logik wird im Organon (unter Einschluss der Analytiken) des Aristoteles abgehandelt. Dass alle Wissenschaft aus der Philosophie stammt, heißt daher nicht etwa, dass die Philosophie bloß ahnende Vorwissenschaft sei, sondern dass es keine Wissenschaft gibt ohne metalogische und metawissenschaftliche Reflexion auf Prinzipien und Methoden einer wissenschaftlichen Disziplin – qua Institution des Forschens, der Artikulation von Wissen und damit der Lehre (mathesis).


Wie kann die Philosophie und was können die Philosophen dann aber durch ihre Reflexionen Innovatives für die Entwicklung von Wissenschaft beitragen? 


Der obige Hinweis auf Thales nennt die Richtung. Denn in der Philosophie geht es immer auch um das Verhältnis von mehr oder weniger schematisch lehrbarer mathesis im Sinn einer mathematikanalogen Theorie auf der einen Seite, deren realen Weltbezug in einer technischen, kooperativen, kommunikativen und eben damit immer schon sprachtechnischen Praxis auf der anderen Seite. Reflexion spielt dabei die Rolle eines metastufigen Bedenkens des je gegebenen theoretischen Rahmens. Eine solche Theorie ist Explikation impliziter begrifflicher Differenzierungen und der über die Ausdrücke oder logoi den so definierten Extensionen zugeordneten dispositionellen Normalerwartungen.


In den üblichen Darstellungen der Erfindung von Wissenschaft steht dagegen die einfache empirische Beobachtung und Narration (damit die historia) und das Experiment (das immer als Testhandlung zu verstehen ist) im Mittelpunkt der Betrachtung. Francis Bacon (1561–1626) und Galileo Galilei (1564–1642), technisches Handwerk und beobachtende Messung stehen Pate in der Normalerzählung der wissenschaftlichen Revolution der Neuzeit. Die Rolle der Texttraditionen und der Erfindungen sprachlicher Darstellungen und konzeptioneller Formen, also der Theorie, wird dabei regelmäßig unterschätzt. Die Erwachende Wissenschaft2 bei den Griechen wird entsprechend häufig reduziert auf den Beginn der Mathematik, die man wiederum über ihre exakten, rein schematischen Beweise definiert und damit schon in ihren Grundlagen unter
belichtet. 


Außerdem unterschätzt man, wie lange eine Debatte um die besten Darstellungsformen dauert. Besonders schön zeigt sich das an der Beschreibung der Beschleunigung beim Fall eines Körpers. Schon Straton von Lampaskos (~ 340–268 v. Chr.), der Nachfolger des Theophrast (~ 371–287 v. Chr.) im Athener Lyceum, beobachtete z. B., dass Wasser, das von einem Dach fällt, zunächst zusammenhängend bleibt und dann weiter unter in Tropfen zerstäubt. Er erklärte das durch die Zunahme der Fallgeschwindigkeit. Ebenso erklärte er, warum ein Stein ein tieferes Loch reißt, je länger er fällt. In seinem Buch The Science of Mechanics in the Middle Ages zeigt Marshall Clagett (1916–2005) diese Dinge3 und zwar in Fortsetzung der Arbeiten von Alexandre Koyré (1892–1864), Anneliese Maier (1905–1971) und Ernest Moody (1903–1975), denen er sein Werk widmete.4 Man weiß dann auch schon bald, dass das Gewicht keine wesentliche Rolle für die Beschleunigung spielt. Schon Johannes Buridan (1300–1358), nicht erst Nikolaus Kopernikus (1473–1543), erwog, dass sich doch die Erde um ihre Achse drehen könne, statt die Sonne um die Erde. 


Es ist also, wenn man die Debatten kennt, ein langer Weg, bis man z. B. die Beschleunigung als abhängig von der Zeit und nicht vom Weg erkennt bzw. den Unterschied zwischen Gewicht und Masse, um die noch nicht einmal Galilei wusste. Daher sind unsere üblichen Vorstellungen vom Beginn neuzeitlicher Wissenschaft mit ihren Helden ähnlich naiv wie die Geschichten von Theseus, dem Symbol für die Gründung Athens, oder von Herakles, dem Symbol für die griechische Besiedlung des Mittelmeerraums. Wir lieben Heldengeschichten und haben bis heute Probleme, Strukturentwicklungen ohne Einzeltäter überhaupt in ihrer Form zu verstehen, geschweige denn, gut zu rekonstruieren. Auch unsere kulturellen Halbgötter, von Goethe bis Einstein oder von Beethoven bis Picasso, sind immer Kristallisationen von allgemeinen Entwicklungen, nicht anders als gewisse Mächte in Götterfiguren zum Ausdruck kommen. Heroen des Geistes wie Aristoteles, Galilei, Kepler oder Newton schreiben wir ganze Wissenschaftsentwicklungen zu und lassen dabei zumeist sehr viele Zwischenglieder aus.


2. Von der Rechentechnik zur geometrischen Form


Das Innovative des Übergangs von einer schon hoch entwickelten praktischen Rechenkunst ›in Ägypten‹, wie die Griechen stellvertretend für den gesamten vorderasiatischen Bereich sagten, zu einer mathematischen Theorie besteht nicht in der Erfindung eines schematischen deduktiven Beweisens aus irgendwelchen intuitiven Axiomen, wie die übliche Geschichte es erzählt, sondern, wie Platon noch klar zu wissen schien, in der Betrachtung von orts- und zeit­invarianten Formen. Es ist also gar nicht die Exaktheit des Rechnens, es ist die Allgemeinheit eines formenbezogenen Wissens, welches am Anfang der Wissenschaft steht.


Für praktische Zwecke war die babylonisch-ägyptische Rechentechnik schon äußerst erfolgreich gewesen. Das Geniale des Sechzigersystems der uralten babylonischen Mathematik besteht dabei in den einfachen Rechenregeln für das ansonsten bis heute schwierige Dividieren (sozusagen ›in Gleitkommadarstellung‹, indem man die 60stel oder die 60ten Teile von Sechszigsteln zählt).5

Was aber ist eine geometrische Form oder Idee und warum ist die Erfindung dieser Ideen, eidē, für jede Wissenschaft so wichtig? Wie hängt das mit dem platonischen Spruch zusammen, der angeblich den Eingang in die Akademie zierte: mēdeis ageōmetros eisitō? Er besagt: Niemand, der sich nicht auf die strukturtheoretische Geometrie versteht, möge als kompetenter Teilnehmer des Wissenschaftsprojekts gelten. Denn jeder Wissenschaft liegt eine Ideenlehre im Sinne einer Formen- oder Strukturtheorie zugrunde. Das führt zurück zur schon angedeuteten Frage nach der Differenz zwischen bloß empirischer Kenntnis und wissenschaftlichem Wissen. Erstere ist bloße historia, ex post oder a posteriori dargestellt in Erfahrungsberichten oder anekdotischen occasion sentences.6 Auch die Statistiken der relativen Häufigkeiten von Teil­ereignissen, wie sie heute die empirischen Wissenschaften überschwemmen, sind zunächst bloße Anekdoten. Als solche gehören sie noch nicht zur epistēmē, zum Allgemeinwissen, zumal es keinen dezisionsfreien Übergang zu einer Wahrscheinlichkeitsbewertung generischer Aussagen gibt, so wenig wie eine Logik der induktiven Begründung deduktiver Kausalgesetze. Stehende Sätze, standing sentences, artikulieren dagegen der Idee nach ewige, d. h. situationsübergreifende Orientierungen. Diese müssen durch Kanonisierungen in Geltung gesetzt werden: Sie gelten dann als theoretische Strukturaussagen oder Inferenzregeln. Die Ewigkeit der Geltung meint natürlich eine gewisse Situa­tionsinvarianz, nicht eine wörtliche Ewigkeit, so wie die generische Allgemeinheit nicht als universell quantifizierte Allaussage über alle Einzelfälle zu verstehen ist. Theorien sind Systeme formentheoretischer Allgemeinaussagen über Typen und Gattungen, über Ideen oder eidē.


3. Was ist eine Idee?


Eine Idee im Sinne Platons ist eine eidetische Struktur, eine Form. Formen sind etwas, was sich reproduziert oder reproduzieren lässt. Sie zeigen sich in verschiedenen Größen in der Geometrie bzw. in verschiedenen Bewegungs- und Beschleunigungsformen der Kinematik und Dynamik. Mit nur wenig Phantasie kann man einsehen, dass es wohl zwei zentrale innovative Stufen waren, welche von der ›arithmetischen‹ Rechentechnik ›der Ägypter‹ zur ›geometrischen‹ Formentheorie eines Thales, Pythagoras (~ 570–510 v. Chr.), Archytas von Tarent (~ 430–345 v. Chr.), Eudoxos (~ 391–338 v. Chr.) und Euklid ­
(~ 3. Jhd. v. Chr.) geführt haben. Die erste ›Beobachtung‹ besteht in der Größenunabhängigkeit von Dreiecksformen und der zugehörigen Proportionen in einer Zentralprojektion. Sie besteht, kurz gesagt, in der Einsicht in die Geltung des Strahlensatzes. Thales und Pythagoras schienen zu wissen, dass sich beim Blick auf die Sonne, die durch die Breite des Fußes bei ausgestrecktem Bein verdeckt wird,7 die Entfernung der Sonne zu ihrer Größe so verhält wie die Länge des Beines zur Breite des Fußes. Das kurze Gnomon sagt also in ironisch verdrehter Weise, dass die Sonne sehr, sehr groß sein muss.8

Der angesprochene Strahlensatz lässt sich formentheoretisch beweisen auf der Basis von Tangram-Spielen des Zerlegens und Zusammenlegen von rechtwinkligen Dreiecken. Der ›Beweis‹ wäre, wenn man Flächen als Längenmultiplikation a ∙ b darstellt und Längen-Proportionen als das Inverse solcher Multiplikationen definiert hätte, sehr einfach gewesen: Denn es ist, wie man durch längere Betrachtung (vgl. Abb. 1) sehen kann: a ∙ d = b ∙ c und eben a : b = c : d.


Abb. 1: Beweis des Strahlensatzes durch Flächenvergleich. Abb. 1: Beweis des Strahlensatzes durch Flächenvergleich.

Seit der Antike geht man aber etwas anders vor, d. h. man definiert die Wahrheitsbedingungen der Gleichungen von Proportionen a : b = c : d nicht durch die der Flächen a ∙ d = b ∙ c sondern durch Wechselwegnahme (anthyphairesis), dem sogenannten euklidischen Algorithmus.9

In jedem Fall ist die Proportionenlehre das Kernstück der formentheoretischen Geometrie. Sie ist zugleich die Vorform der reellen Analysis. Messungen mit ›empirischen‹ Längen wie 1 Meter oder 1 Yard sind dabei im Vergleich zu Formenproportionen immer bloß approximativ, sozusagen ›ägyptisch‹ oder ›mesopotamisch‹, gehören also in eine rein empirische Vorwissenschaft.10

4. Natur als Ort und Kraft sich selbst entwickelnder Prozesse 


Fast wichtiger als die ersten mathematischen Beweise, die mit Sicherheit keine logischen Ableitungen waren, sondern strukturelle Einsichten in sich reproduzierende Eigenschaften von geometrischen Formen, ist die beginnende Absetzung von einem Kanon des tradierten Mythos, von den Texten des Hesiod und des Homer. Dabei lassen wir den Übergang von einer Erklärung natürlicher Ereignisse durch Handlungen personaler göttlicher Wesen oder Halb-Götter zu einer Erklärung durch selbständige Entwicklungsprozesse auf kanonische Weise seit alters mit Thales beginnen. Thales wird damit zum Symbol für den Beginn einer sogenannten Naturphilosophie. Die Natur (physis) wird zum Ort und zur Kraft sich selbst entwickelnder Prozesse. Alle frühe Philosophie trägt daher in ihren Texten (später) den stereotypen Titel peri physeōs, also ›über die sich selbst entwickelnde Natur‹. Und doch lassen sich Leser häufig dadurch in die Irre führen, dass bei Thales oder Anaximander ›alles voll von Göttern‹ ist: Wenn aber ›alles‹ voller Götter ist, dann braucht man keine personalen Götter mehr. Das Göttliche verwandelt sich in die Kräfte der Natur, so wie die psychai oder Seelen der Lebewesen und dann bei Platon auch der Planeten schlicht zu den innewohnenden Kräften und Energien werden, mit denen wir sich wiederholende Bewegungsformen sozusagen ›erklären‹.


Die Lesetradition, die dann Heraklit in einen angeblich archaischen ­Autor verwandelt oder Platons psychai als mystische Kräfte und nicht als Entmythisierung oder Analogisierung traditionaler Reden deutet, führt an einer verständigen Lektüre der Wissenschaftsentwicklung vorbei. Heraklits bloß scheinbar dunkle, weil Dinge extrem verdichtend artikulierende, gnomischen Orakel sagen wie die des Parmenides (~ 515–445 v. Chr.) mit einiger Sicherheit mehr und anderes, als die allzu harmlosen ›wörtlichen‹ Lesarten es erscheinen lassen. Wir haben daher neben den philologischen Editionen etc. gerade auch einen hermeneutischen Kanon ihrer Interpretation und Bewertung kritisch zu bearbeiten. Denn es kann sich dabei immer eine mögliche Verdeckungsgeschichte ergeben. Das ist besonders naheliegend, wenn man die Praxis der antiken Bildung kennt, wie sie z. B. Henri-Irénée Marrou (1904–1977) für die Person und Zeit des Augustinus geschildert hat.11 In Standardlektüren und Standardkommentaren werden nämlich Texte und Sichtweisen festgeschrieben, die gelegentlich in Dekonstruktionen wie bei Georg Wilhelm Friedrich Hegel, Martin Heidegger (1889–1976) oder Jaques Derrida (1930–2004) wieder verflüssigt werden müssen.12

In einer längst schon kanonisierten Vereinfachung wurde z. B. Galilei zur ersten Person stilisiert, die Fallexperimente anstellte. Er ›entdeckte‹, dass Beschleunigungen proportional zur Zeit geschehen, woraus der Formelteil t2 in Newtons Gleichungen entstand. Aber schon Straton der Physiker erkannte als Enkelschüler des Aristoteles, dass sich der Fall beschleunigt, auch wenn noch unklar blieb, ob das je nach Fallhöhe oder je nach Fallzeit so ist. Galilei kannte diese Vordebatte zum Teil. Die jeweils ›neuen‹ und ›richtigeren‹ Darstellungsformen konnten sich offenbar nur ganz langsam gegen die Autorität kanonisierter Formen eines üblichen, zum Teil gar nicht weiter durchdachten Bildes der Dinge durchsetzen, wie auch unser Sonnenbeispiel zeigt. Der Alltagsmensch interessiert sich offenbar wenig für kohärentes Denken. Heraklits oben erwähnte Sätze sind eben deswegen ironisch-dialektisch formuliert, weil dem Alltagsmenschen nicht auffällt, dass er über die Größe der Sonne, die Ursache der Nacht oder die sichelförmigen Verdeckungen des Mondes und der Sonne bei Mond- oder Sonnenfinsternissen etwas genauer nachzudenken hätte. 


Es ist vor diesem Hintergrund eine extrem vereinfachende Sicht, wenn man dem Selbstbild der Moderne nach dem 17. Jahrhundert folgt und meint, erst kürzlich habe die Verbindung von Handwerk und Theorie echte experimentelle Wissenschaft hervorgebracht. Es ist viel eher so, dass eine Verdichtung der sich lange hinziehenden Debatte um die Kanonisierung theoretischer Darstellungs- und Erklärungsformen notwendig war, also um die rechte Unterscheidung zwischen Normalfall und Sonderfall. Nur so konnte man in der Kinematik und Dynamik die zunächst beste Definition der ›Ruhe‹ in der inertialen oder kräftefreien Bewegung entlang einer geraden Linie ohne jede Richtungsbeschleunigung ›finden‹, d. h. setzen. Jede Abweichung vom Normalfall muss nach dieser (insgesamt äußerst günstigen) Setzung durch Beschleunigungskräfte kausaldynamisch ›erklärt‹ werden. Newtons Mechanik kanonisiert dabei ein in seinen mathematischen Prinzipien von Descartes erfundenes Schema der Darstellung und Erklärung von Bewegung – indem er die entscheidende Rolle der Masse von Sonne, Erde und Flugkörpern als Parameter erkannte und damit, wie Gottfried Wilhelm Leibniz (1646–1716) klar gesehen hat, Descartes’ noch naiven rein mathematischen Ansatz erst vom Boden hochbrachte.


5. Formentheoretische Gesellschaftswissenschaft 
bei Platon


Im Fall ethisch-politischen Denkens erkannte aber schon Platon unter dem Einfluss von Sokrates (469–399 v. Chr.) sich reproduzierende und zu reproduzierende ethische Formenin der menschlichen Handlungswelt.13 Sein Ziel war eine formentheoretische Verfassungsanalyse des gemeinsamen politischen Handelns und des einzelnen personalen Handelns, der politeia einer Gesellschaft und der psychē der Einzelnen. Dabei sollen sich Analogien als propor­tionale Verhältnisse zeigen. 


Die Innovation dieser Reflexion ist deswegen bis heute noch nicht in ­ihrer Kernbedeutung begriffen, weil man in der Lektüre und Betrachtung Platons auf einzelne und besondere utopische Beispiele fokussiert, etwa die sogenannte Weibergemeinschaft. Mit dieser Idee wollte er den griechischen Nepotismus eindämmen. Wenn niemand weiß, zu welcher Familie er gehört, weil es keine Familien mehr gibt, kann man Verwandte nicht mehr bevorzugen. Auch die berüchtigte Idee von den Philosophenkönigen bedeutet nur, dass einzig gebildete Leute als Politiker zu wählen sind. Wenn man Platon nicht so liest, übersieht man die zentralen Punkte, um die es ihm eigentlich ging, nämlich eine strukturtheoretische Gesellschaftswissenschaft, in welcher allgemeine Formen richtungsrichtiger Institutionen von ›falschen‹ Regelungen unterscheidbar werden, gerade im Blick auf die Idee des Guten, das Ziel eines guten Zusammenlebens.14

Platon erkannte schon, was nach Thomas Hobbes (1588–1679) immer wieder als allerneueste Einsicht hochgelobt werden wird, die kooperationstheoretischen Ursachen für die ›Tragik der Allmende‹ (tragedy of the commons). Sie ist Folge des Dilemmas, dass der eigeninteressierte homo rationalis, bei Platon der Typ des Gyges, des Usurpators mit einer politischen Tarnkappe, wie er von der Figur des Thrasymachos verteidigt wird, zwar behaupten muss, dass es ihm auch immer um ein Gemeinwohl geht, aber praktisch als Trittbrettfahrer (free rider) anderen Wasser predigt. Selbst Wein trinkend bringt er seine eigenen Schäfchen auf Kosten der Allgemeinheit ins Trockene. Sanktionsbewehrte staatliche Gesetze können eben daher für eine infrastrukturelle Kooperation durch Verschiebung der Auszahlungsmatrizen für alle nützlich sein. Im Kontrast zu Formen einer freien und sicheren Gesellschaft stehen Strukturen, die mit absehbarer Notwendigkeit zu bürgerkriegsähnlichen Revolten und einem Dauerkreislauf zwischen ›demokratischer‹ Pöbelherrschaft, diktatorischer ­Tyrannis, elitärer Plutokratie und anderen Formen von Oligarchien führen.15

Von zentraler Bedeutung in der platonischen Reflexion auf die Begriffe der Form und des Begriffs ist die Einsicht, dass es die gute Wahl von paradigmatischen Prototypen ist, die uns eine Form verstehen lässt. Wenn man daher ein gut gewähltes Ikon zeigt, kann man etwas allgemein zu verstehen geben. Das macht man sich sogar noch in der internationalen Symbolsprache der Piktogramme zunutze – womit wir in einem riesigen Sprung im 20. Jahrhundert landen, um in einer Art Zwischenschritt die allgemeine Bedeutung schnell und sicher wiederkennbaren Formen von einer anderen Ecke her zu betrachten.


6. Otto Neurath – ein praktischer Philosoph der Semiotik 


Die Reflexion darauf, wie man Zeichen verstehen kann unabhängig von den Konventionen einzelsprachiger Bedeutungen, wie man sie für normale definitorische Erläuterungen der Zeichen gebrauchen könnte, führte Otto Neurath (1882–1945), eines der wichtigsten Mitglieder des Wiener Kreises und Gründervater der gegenwärtigen Analytischen Philosophie, dazu, Piktogramme zu betrachten, zu bewerten und zu entwickeln.16 Man mag das nicht als Teil der Entwicklung der Wissenschaft verstehen, auch wenn Neurath selbst ganz anderer Meinung war, und zwar weil er eine angewandte Sozialwissenschaft forderte, deren Ergebnisse vom Bürger leicht verstanden werden können. Ein Bestandteil der Entwicklung der Darstellungsformen von Wissen ist es allemal, was Neurath hier erarbeitet hat. Denn die Symbolsprachen, die er entwickelte, sind international. So zeigen einige Bilder (Abb. 2 und 3), wie man Piktogramme in Landkarten wie Worte in Texte einbauen kann. Man kann dann die Karten entsprechend lesen, wobei quantitative Proportionen unmittelbar auffallen. Dabei stellt sich ein Zusammenhang mit den Innova­tionen der sogenannten Vorsokratiker auch dadurch noch einmal her, dass Anaximander angeblich einer der ersten war, der eine ›Erdkarte‹ entworfen hatte – die dann sein ›Nachfolger‹ Hekataios von Milet (~ 560/50–
480 v. Chr.) verbessert und mit einer literarischen Erdbeschreibung versehen hat, nachdem es schon in vorbabylonischer Zeit ›Stadtpläne‹ (etwa von Uruk) 
gibt.


Abb. 2 und 3: Beispiele für Piktogramme, wie sie in Landkarten vorkommen. Siehe: Otto Neurath, »Museums of the future«, in Survey Graphic 22/9 (1933), S. 458–463. Bildquelle: Otto Neurath Gesammelte bildpädagogische Schriften, hg. von Rudolf Haller und Robin Kinross, Wien 1991, S. 246 f. Abb. 2 und 3: Beispiele für Piktogramme, wie sie in Landkarten vorkommen. Siehe: Otto Neurath, »Museums of the future«, in Survey Graphic 22/9 (1933), S. 458–463. Bildquelle: Otto Neurath Gesammelte bildpädagogische Schriften, hg. von Rudolf Haller und Robin Kinross, Wien 1991, S. 246 f. Abb. 2 und 3: Beispiele für Piktogramme, wie sie in Landkarten vorkommen. Siehe: Otto Neurath, »Museums of the future«, in Survey Graphic 22/9 (1933), S. 458–463. Bildquelle: Otto Neurath Gesammelte bildpädagogische Schriften, hg. von Rudolf Haller und Robin Kinross, Wien 1991, S. 246 f.

Landkarten mit Piktogrammen können so ein plastisches Bild einer Landschaft ohne viele Worte vermitteln. Natürlich wurden manche ›Isotypen‹ später verbessert. 


Abb. 4 und 5: Beispiele für Landkarten mit Piktogrammen und Isotype-Symbole. Siehe Otto Neurath: »Visual Representation of Architectural Problems«, in Architectual Record 82/1 (1937), S. 57–61. Bildquelle: Otto Neurath, Gesammelte bildpädagogische Schriften, hg. von Rudolf Haller und Robin Kinross, Wien 1991, S. 415 f. Abb. 4 und 5: Beispiele für Landkarten mit Piktogrammen und Isotype-Symbole. Siehe Otto Neurath: »Visual Representation of Architectural Problems«, in Architectual Record 82/1 (1937), S. 57–61. Bildquelle: Otto Neurath, Gesammelte bildpädagogische Schriften, hg. von Rudolf Haller und Robin Kinross, Wien 1991, S. 415 f. Abb. 4 und 5: Beispiele für Landkarten mit Piktogrammen und Isotype-Symbole. Siehe Otto Neurath: »Visual Representation of Architectural Problems«, in Architectual Record 82/1 (1937), S. 57–61. Bildquelle: Otto Neurath, Gesammelte bildpädagogische Schriften, hg. von Rudolf Haller und Robin Kinross, Wien 1991, S. 415 f.

Wir betrachten nun noch einige weitere Beispiele für Innovationen durch begriffliche Reflexion auf Formen der Sprache und der Darstellung und auf Seinsformen verschiedener Arten von Wesen oder Dingen, wobei einerseits kategoriale Differenzen zu beachten sind, andererseits aber auch unter Umständen missachtet werden dürfen und müssen, um in der Technik der (mathematischen) Darstellung weiter zu kommen.


7. Formentheoretische Naturkunde bei Aristoteles


Dazu kehren wir erst noch einmal in die Antike zurück. Aristoteles entwickelte ganz offenbar Platons Einsichten in die Rolle von Formen weiter und zwar zunächst in der Form von Taxonomien von Arten mit einer generischen Ethologie. D. h., die Wissenschaften der Biologie und Zoologie beginnen mit einer Klassifikation. Es folgt eine Darstellung von typischem Verhalten, nicht zuletzt zur Prognose und ›Erklärung‹ von empirischen Einzelereignissen in der biologischen Welt. Die Grundform wissenschaftlich informierter Weltkenntnis blieb platonisch. Denn schon bei Platon bestand ein (einstelliger) Begriff aus mindestens drei Momenten, einer (kriterial) differenzierenden Klassifikation als Bestimmung einer Extension (horos), dem damit verbundenen Begriffs-Wort (logos) und der durch dispositionelle Inferenzerwartungen für hinreichend gute Normalfälle näher bestimmten Seinsform (eidos) des generischen Typs. Unter diesen werden die Einzelfälle empirisch subsumiert werden, wenn das Differenz- und Inferenzmoment des Begriffs hinreichend gut passen. Daher besteht eine Wissenschaft (wie z. B. die Biologie) zunächst aus Taxonomien und ethologischen Normaltypenbeschreibungen. 


Es sollte uns nun nicht erstaunen, dass für den Fall der Bewegungslehre (Kinematik und Dynamik) auf diese Weise zunächst bloß eine epiphänomenale Theorie entstehen konnte, nach welcher schwere Dinge zur Erde fallen, und das angeblich umso schneller, je näher sie der Erde sind. Leichte Dinge wie Feuer aber sollen nach oben steigen, und auch das umso schneller, je weiter weg von der Erde sie sich befinden. Aber schon der Enkelschüler des Aristoteles, Straton, schien zu ahnen, dass die Beschleunigung eine Frage der Zeit des Falles, nicht des Abstands von der Erde ist.


8. Innovation durch dimensionsmissachtende Identifikation 


Es war zunächst eine völlig richtige logische Einsicht, dass Proportionen unbenannte Größen sind und daher nicht mit Längen identifiziert werden dürfen. Die triviale Proportion a : a = 1 : 1 ist demnach als reine Eins etwas ganz anderes als eine ›Einheitslänge‹ e, die ohnehin rein konventionell gewählt werden kann. Descartes schaffte hier einen genialen Durchbruch, gerade indem er auf einen allzu wörtlichen bzw. formalistischen Umgang mit derartigen Kategorien und Dimensionen verzichtete. Er erkannte sogar die Weigerung, Dinge auch mal anders, durch neue Identifikationen, zu betrachten, als ›scholastische‹ Ursache für allerlei unfruchtbare Rechthabereien. 


Der cartesische Schachzug in der Begründung der linearen Algebra bestand also gerade in einem Bruch eines ›logischen Tabus‹. Denn erst durch die ›eigentlich falsche‹ Identifikation der ›reinen‹ Eins mit einer Länge e in der Pseudogleichung e = 1 kann man Längen nicht nur addieren und voneinander subtrahieren, sondern auch multiplizieren. Man erhält dabei statt Flächen (die als solche etwas ganz anderes sind als Längen) die Längen von Rechtecken mit Seitenlänge e. Man kann jetzt Längen auch dividieren und erhält dabei keine reinen Proportionen, sondern wieder Längen. 


Erst jetzt bedeutet a : b = c : d wirklich einfach dasselbe a/b = c/d und dieses gilt genau dann, wenn a · d = c · b gilt. Dabei ist 1/a rein geometrisch definierbar als Konstruktion eines Rechtecks mit Seite e, sodass 
a · (1/a) = e2 ist. 


Indem man dann noch positive von negativen Längen unterscheidet, also a und -a, und zwar sowohl auf der Abszisse als auch der Ordinate, erhält man algebraisch einen Längenkörper mit Assoziativ-, Kommutativ- und Distribu­tionsgesetzen. Es ergeben sich auch sofort die Rechenregeln mit der 1 oder der Länge e und der 0, also a · e = a, a : e = a, a · 0 = 0, und dass a : 0 nicht definiert ist, da 0 keine positive Länge ist (sondern eben nur die Null-Länge). Man beachte, dass dieses Rechnen mit Längen zunächst vollständig geometrisch definiert ist. Eine Einbettung in die Arithmetik ist also zunächst überhaupt nicht nötig. Damit verstehen wir übrigens auch erst die Bedeutung von ›Körpern‹ von Längen bzw. Größen in der (linearen) Algebra.


Ein erstes Ergebnis der cartesischen Innovation ist, dass man geometrische Konstruktionsaufgaben durch algebraische Rechnungen mit Buchstaben als Vertretern von Längen (bzw. mit sogenannten Vektoren) ersetzen kann. In einem weiteren Schritt lassen sich Längen als Grenzwerte von Folgen von rationalen Zahlen darstellen. Rein algebraisch ergeben sich aus den rationalen Größenproportionen oder ›Zahlen‹ die ›Erweiterungskörper‹ der pythagoräischen bzw. euklidischen Längen (und zwar je passend zu den Formeln √(1-xx) bzw. √(xx-yy).


9. Zur Bedeutung von Notation und Kalkül


Die Notation für Integrale ∫ fxdx als ›unendliche‹ Summe ›infinitesimaler‹ Produkte fx · dx (zwischen zwei Punkten) und die Notation eines Differenzial der Funktion f an der Stelle x in der Form eines Differenzialquotients df / dx statt als abgeleitete Funktion an der Stelle f´(x) sind höchst nützliche Großleistungen von Gottfried Wilhelm Leibniz. Hinzu kommt die Einsicht, wie sich Integral und Differenzial zueinander verhalten.


Da wir bei allen Polynomen über Stammfunktionen verfügen, haben wir sofort eine hinreichend große Klasse von differenzierbaren und integrierbaren Funktionen. Wir können daher Flächen unter den entsprechend gekrümmten Kurven ganz einfach berechnen. Entscheidend ist hier offenbar, dass Leibniz ganz ähnlich wie Descartes ›pragmatisch‹ oder ›opportunistisch‹ dachte und eine Notation und ein Kalkül für Berechnungen entwickelte, ohne sich zunächst allzu sehr um ›kleine Schlampereien‹ zu kümmern. Zu diesen gehört, dass es gar keine unendlichen Summe infinitesimaler Größen gibt, zumal vor der Nonstandard-Analysis Abraham Robinsons (1918–1974) in der 2. Hälfte des letzten Jahrhunderts infinitesimale Größen gar nicht wohldefiniert waren. Wenn man die Techniken richtig anwendet und damit angemessen deutet, sind solche Ungenauigkeiten (übrigens nicht nur in der Frühphase der Entwicklung des Kalküls) zu verschmerzen. Entsprechendes schrieb schon Leibniz selbst in seinen Briefen.


Übrigens scheint man bis heute in ähnlicher Weise zu verschmerzen, dass man noch nicht genau versteht, was es überhaupt heißt, sich ideale geometrische Formen intuitiv vorzustellen, obwohl man doch weiß, dass es in der realen Welt keine vollkommen geraden Linien oder vollkommenen Kreise gibt. Das aber bedeutet, dass man nicht weiß, wie die idealen Entitäten etwa der euklidischen Geometrie überhaupt abstraktions- und ideationslogisch konstituiert sind. Die Folge ist, dass man seit David Hilbert (1862–1943) einfach mit einer axiomatischen Geometrie rechnet und als deren Modell eine zwei- oder dreidimensionale arithmetische Struktur betrachtet, nämlich das System der Paare oder Tripel pythagoräischer, euklidischer, algebraischer oder reeller Zahlen. Doch eine solche algebraisierte bzw. arithmetisierte analytische Geometrie überspringt die Frage, wie denn die Punkte und Linien der reinen Geometrie im Kontrast zu bloßen Tupeln von Zahlen konstituiert sind. Den reinen Mathematiker braucht das nicht zu kümmern. Wohl aber sollte sich der Physiker dafür interessieren, da es ihm um die Projektion der Zahlangaben für Längen und Winkel auf eine real ausgemessene Welt ankommt – sodass die Frage absolut zentral wird, was man denn misst, wenn man Winkel und Längen misst. Leider kommentiert man die verwendeten Axiome und Rechnungen dann doch zumeist bloß vage. Das gilt gerade dann, wenn man im technischen Reden – etwa über Hilbert-Räume, bestehend aus Punktmengen mit Abstandnormen und inneren Produkten – die Frage nach dem externen, d. h. weltbezogenen, Sinn der gebrauchten mathematischen Begriffe zu klären vergisst. 


Das aber heißt am Ende, dass das Programm der klaren Fundierung der Differenzial- und Integralrechnung, wie es von Joseph-Louis de Lagrange (1736–1813) über Augustin-Louis Cauchy (1789–1857) zu Karl Weierstraß (1815–1897), Richard Dedekind (1831–1916), Georg Cantor (1845–1918) und Gottlob Frege (1848–1925) führt, keineswegs zu seinem Abschluss gekommen ist. Das ist so, weil Hilberts evasive Reaktion auf die Grundlagenprobleme, seine rein axiomatische Fundierung mathematischer Theorien die Debatte gewissermaßen willkürlich gestoppt hat, und das trotz der wichtigen Leistungen der ­sogenannten Beweistheorie und Meta-Mathematik, welche sich aus Hilberts Ansatz entwickelt haben. Wie Frege sollte die Philosophie der Mathematik an der sprachlogischen Grundlage der Möglichkeit sinnvoller deduktiver Beweise und dabei besonders an der Konstitution der Gegenstands- oder Variablen­bereiche der sogenannten Modelle formaler Axiomensysteme weiter interessiert bleiben.


10. Gottlob Freges ›Entdeckung‹ der logischen Syntax 


Gottlob Frege bemerkte in zuvor nie dagewesener Explizitheit, wie wichtig die logoi, also die Ausdrücke, zunächst für die Bestimmung eines mathematischen Begriffs (am Ende auch einer geometrischen Form) und dann auch für die Bestimmung der Mengen oder Begriffsextensionen als abstrakten Gegenständen schon in der elementaren und dann auch der höheren Arithmetik im Sinne einer reinen Mengenhierarchie sind. Frege definierte dazu auf der Basis elementarer Relationen der Art t < t* in den Zahlen über die Satz-Operatoren ›nicht‹, ›falls‹ und ›für alle‹ syntaktisch komplexe Aussageformen A(x) und die zugehörigen Wahrheitswertfestlegungen. Das geschieht im guten Fall (oder der Idee nach) so, dass die erläuterten Geltungsbedingungen den elementaren Aussagenbereich als Strukturmodell für diverse Axiome ausweisen, sodass etwa die natürlichen Zahlen zum Modell für das Peano-System werden. 


Entsprechendes sollte für die geometrischen Formen und die Axiome einer formalen Geometrie gelten oder für die reinen Mengen und die Axiome einer axiomatischen Mengentheorie. 


Es ist hier nicht der Ort, darüber zu diskutieren, warum Frege und dann auch seine Nachfolger, durchaus auch Bertrand Russell (1872–1970), in ihren Bemühungen um eine logische Grundlegung der reellen Analysis scheiterten. Es reicht zu bemerken, dass die Reflexion auf die Begriffe der reinen Zahl und der reinen Menge zur Einsicht in deren symbolsprachliche Konstitution führt. Das geschieht in einer mathematischen Logik der Definition logisch komplexer Prädikate in sortalen Gegenstandsbereichen (mit endlich oder unendlich vielen konkreten oder abstrakten Gegenständen oder Entitäten). Sortal heißt so ein Bereich, wenn ein für allemal für ein System semantisch wohlgebildeter namenartiger Terme t und t* festgelegt ist, dass t = t* gilt oder nicht, tertium non datur, d. h. jeder ›dritte Fall‹ ist ausgeschlossen, sodass wir alle t, t* oder t = t* ausschließen, welche sinn- oder bedeutungslos sind. Eben dadurch ›definieren‹ wir gewisse Bereiche von ›Repräsentationen‹ als mögliche Belegungen von Variablen gerade auch in Quantoren wie ›es gibt ein x mit der Eigenschaft E‹ und über diese dann auch die entsprechend ›benennbaren‹ Gegenstände. 


Eine fast unmittelbare Folge entsprechender Überlegungen Freges war Kurt Gödels (1906–1978) Unterscheidung zwischen berechenbaren und nicht berechenbaren Funktionen und Alan Turings (1912–1954) formale Explikation der Idee einer maschinellen Berechnung. Bei beiden spielte die Syntax der Benennung der Funktion bzw. die Codierung der Funktion eine zentrale Rolle.


Das Interessante an dieser Entwicklung der Logik ist, dass jetzt zugleich auch die Differenz zwischen dem Begriff der in den natürlichen Zahlen logisch wohldefinierten und dem Begriff der automatisch berechenbaren Funktion verstanden wird. Man kann jetzt auch nachweisen, dass sich nicht alle einstelligen berechenbaren Funktionen f(x) aus zweistelligen f(x,y) durch einfache Parametrisierung f(x,n0 ) erhalten lassen, oder was dasselbe ist, dass sich die rekursiven Funktionen nicht effektiv aufzählen lassen. Das wiederum bedeutet, dass es keine universale, überall definierte, also mit einem Auswurf eines Wertes nach endlich vielen Rechenschritten stoppende Turingmaschine gibt, aus der sich durch Parametrisierung alle (so stoppenden) Turingmaschinen ergeben würden. Anders gesagt, es gibt keine allgemeine Lösung des sogenannten halting problems, also eine Antwort auf die Frage, wie man vorab in endlich vielen Schritten berechnen könnte, ob ein Computerprogramm bei Eingabe eines bestimmten Wertes nach endlich vielen Schritten einen Wert findet, oder aber ewig nach einem Ergebnis sucht, also nie stoppt, weil es in einen unendlichen Suchregress gerät. Damit verwandeln sich Freges Überlegungen zur sprachtechnischen Grundlage der Gegenstände, Begriffe und Mengen der (reinen) Arithmetik in eine Grundlagentheorie automatischer Berechenbarkeiten und deren Grenzen, wie sie der modernen Informationstechnik zugrunde liegt.


  1. 1Siehe z. B. Michael Pauen und Gerhard Roth, Freiheit, Schuld, Verantwortung. Grundzüge einer naturalistischen Theorie der Willensfreiheit, Frankfurt a. M. 2008; Wolf Singer, »Verschaltungen legen uns fest. Wir sollten aufhören, von Freiheit zu sprechen«, in Christian Geyer (Hg.), Hirnforschung und Willensfreiheit. Zur Deutung der neuesten Experimente, Frankfurt a. M. 2004, S. 30–65; siehe auch die Beiträge in der Schriftenreihe Debatte der Berlin-Brandenburgischen Akademie der Wissenschaften mit dem Schwerpunkt »Zur Freiheit des Willens«, Ausgaben 1 (2004) und 3 (2006), https://edoc.bbaw.de/solrsearch/index/search/searchtype/collection/id/16299 (16.10.2016).

  2. 2Vgl. Bartel L. van der Waerden, Erwachende Wissenschaft, 2 Bde. (Wissenschaft und Kultur, Bde. 8 und 23), Basel/Stuttgart 1956 und 1968.

  3. 3Marshall Clagett, The Science of Mechanics in the Middle Ages, Madison, Wisc. 1959, vgl. etwa S. 258.

  4. 4Vgl. dazu ebd., bes. Kap. 9 und 12.

  5. 5Die Zahl 60 ist dabei im Kontrast zur ›Tetraktys‹, der Zahl 10 als Summe von 1, 2, 3 und 4, multiplikativ weit besser aufgestellt, weil sie sich durch 1, 2, 3, 4, 5 und 6 teilen lässt. Erst die ›heilige‹, unberechenbare, quasi irrationale, Zahl 7 macht Ärger. Bis heute ist eine Minute die Zerlegung einer Stunde in 60 Teile. Sekunden sind Zweiteinteilungen (pars minuta secunda) von Minuten in 60 Teile. Wir kaufen heute noch Eier im Dutzend und zählen nicht bloß bis ›zehn‹, sondern bis ›zwölf‹, um dann erst mit dem zusammengesetzten Zahlwort ›dreizehn‹ zu beginnen. Ein Viertelkreis hat 90, d. h. 3 × 30 Grad, ein Vollkreis 360 Grad.
  6. 6Vgl. Willard van Orman Quine, Word an Object, Cambridge, Mass. 1960.

  7. 7Nur in diesem Sinn ist die »Sonne so breit wie ein Menschenfuß«, wie Heraklit sagt: Heraklit, Fragmente, griech. und dt. hg. von Bruno Snell, 14. Aufl., Zürich/München 2007, Fragment B 3, S. 7.

  8. 8Zunächst klingt es unverständlich, warum und wie sich das wärmende Licht der Sonne jeden Tag neu entzünden soll, nachdem es abends verlöscht (ebd. Fragment B 6, S. 9), am Tag aber das Licht der viel weiter entfernten Sterne und auch des Mondes weit überstrahlt (ebd. Fragment B 99, S. 31). Das geschieht nach dem Modell des Heraklit bei Sonne, Mond und Sternen offenbar in riesigen Schalen, die mit ihrer Höhlung zu uns gekehrt sind: Es sammeln sich in den Schalen (helle) Dünste und werden zu Flammen, die wärmen und leuchten, im Fall der Sonne nachts aber dunkel (ebd., Fragment A 1, 9–10, S. 41–43). Wenn sich die Schalen nach oben, also von der Erde wegdrehen, entstehen Sonnen- bzw. Mondfinsternisse.

  9. 9Das Verfahren ist das der Suche nach einem größten gemeinsamen Maß für a und b, durch das sich beide am Ende ganzzahlig messen lassen. Unter der Annahme a > b fragen wir, wie oft b in a, der Rest in b, der Rest in den Rest usf. geht. a : b = c : d gilt genau dann, wenn die Vielfachheiten der Wechselwegnahmen gleich sind.
  10. 10Man beginnt also in der Geometrie, nach größen- und repräsentations-invarianten proportionalen Verhältnissen zu suchen und ›entdeckt‹ dabei z. B. die sogenannten Sätze des Thales (›der Winkel im Halbkreis ist eine rechter‹) und des Pythagoras, nach welchem a² + b² = c² gilt, wenn a, b die Katheten und c die Hypotenuse im rechtwinkligen Dreieck sind. Neben dem Strahlensatz ist das der zweite Fundamentalsatz der Verwandlung von geradlinigen Figuren in andere Figuren mit gleich großer Fläche.
  11. 11Henri-Irénée Marrou, Augustinus und das Ende der antiken Bildung, Paderborn u. a. 1981.

  12. 12Marrou schildert den ›Verfall‹ von Bildung durch Schematisierung und allzu oberflächliche Nützlichkeitserwägungen: »Leider bewegt sich schon Cicero auf derselben Talfahrt«, nämlich einer verkehrten Suche nach direkter ›Anwendbarkeit‹ der Wissenschaften, etwa der Geometrie zur »Bildung des rationalen Urteilsvermögens.« »Auch er hat die Rolle, die den mathematischen Wissenschaften zukommen konnte, nicht klar herausgestellt, und er empfiehlt das Studium der einen oder anderen Disziplin bereits um ihrer Nützlichkeit willen« (ebd., S. 104 ff.) Die Methode der Ausbildung »führte dazu, dass der Unterschied einen dogmatischen, formalen und starren Charakter annahm und zu einer Stilisierung in abstrakten Regeln und mit feststehenden Formeln tendierte« (ebd., S. 45).

  13. 13Vgl. Platon, Der Staat / Politeia.

  14. 14Es ging Platon nie um die allgemeine ›Richtigkeit‹ seiner Modelle mit ihren konkreten Vorschlägen von Formen, wie z. B. die Abschaffung der Familie. Die Ironie des Sokrates hält hier immer Distanz.
  15. 15Platon erkannte u. a. auch die kulturellen Vorteile einer gut funktionierenden Arbeitsteilung mit meritokratischen Elementen, die Notwendigkeit eines staatlichen Rahmens für Erziehung, Bildung und Wissenschaft, und, in seinem Spätwerk, Die Gesetze / Nomoi, die stabilisierende Rolle von Mythen und Religion zur Vertiefung der Bindung der Bürger an den Staat und für die Anerkennung seiner Gesetze samt einer professionellen Rechtspflege.

  16. 16Vgl. dazu Otto Neurath, Gesammelte bildpädagogische Schriften, hg. von Rudolf Haller und Robin Kinross, Wien 1991.
loading ....
Artikel Navigation
Heft 17 (2017)
Beiträge Diskussionen Berichte & Notizen
Footer - Zusätzliche Informationen

Logo der Sächsischen Akademie der Wissenschaften zu Leipzig Sächsische Akademie
der Wissenschaften

ISSN:
1867-7061

Alle Artikel sind lizensiert unter:
Creative Commons BY-NC-ND

Gültiges CSS 2.1
Gültiges XHTML 1.1