Probleme der Induktion und Deduktion

Zusammenfassung: Es werden Induktion und Deduktion bzw. Verifikation und Falsifikation als vermeintlich grundlegende Verfahren für die Begründung der Wissenschaft und damit den Erkenntnisgewinn untersucht. Der Schwerpunkt liegt auf der Kritik von Karl Poppers wissenschaftstheoretischen Ansichten. Dabei zeigt sich, dass weder Verifikation noch Falsifikation streng begründbar sind und die wissenschaftliche Forschungspraxis letztlich Regeln folgt, die (noch) nicht ganz verstanden sind. In einem letzten Schritt werden Argu­mente zu Gunsten eines extremen Nominalismus bei der Rekonstruktion der Begriffe der Erfahrungswissenschaften vorgebracht, der Erkenntnis un­möglich macht. Als Ausweg aus dieser Situation wird ein kon­ventio­nalist­ischer Standpunkt angeboten.

Seit den frühen Tagen der Philosophie, ansatzweise bereits bei Sokrates, aus­geprägter bei Demokritos und schon ziemlich ausgereift bei Aristoteles, definitiv aber seit Francis Bacon, dem Stammvater des Empirismus, galt die Induktion, der Schluss aus empirischen Einzelbeobachtungen auf allge­meine Sätze (Gesetze), als die grundlegende Methode in den Erfahr­ungs­wissenschaften. Bacon hatte allerdings bereits eine differenzierte Ein­stell­ung zur Induktion, da er zwischen „gewöhnlicher“ und „wahrer“ Induktion unterschied.

An einer Stelle in seinen berühmten „Philosophiae Naturalis Principia Mathematica“ erklärt auch der große Isaac Newton, dass nach seiner Auffassung die Induktion die Grundlage wissenschaftlichen Schließens bildet:

„In this philosophy particular propositions are inferred from the phenomena, and afterwards rendered general by induction.“ (1) John Stuart Mill vertrat eine radikale induktionstische Position („All­induk­tionismus“). Für ihn ist die Induktion die Grundlage allen Wissens.

David Hume erkannte als erster ganz deutlich, dass die Induktion als Schluss vom Besonderen zum Allgemeinen, als Aufstellung allgemeiner Gesetze und Theorien auf der Grundlage endlich vieler einzelner Beobachtungen in der Vergangenheit rational nicht zu rechtfertigen ist. Selbst wenn die Sonne bisher stets aufgegangen ist, besteht keine Gewähr, dass sie auch morgen aufgehen wird. Er bestritt in seinem Skeptizismus die Gültigkeit des Schlusses von der Vergangenheit auf die Zukunft und war sich dessen bewusst, dass Kausalität nicht aus der Er­fahrung abgeleitet oder durch diese bestätigt werden kann, weil sich Be­obachtungen lediglich auf die Vergangenheit beziehen können und keine Garantie für ihre Gültigkeit in der Zukunft gegeben ist. Andererseits jedoch erheben Naturgesetze gerade den Anspruch, vor allem Vor­hersagen über die Zukunft machen zu können. Ihre Funktion ist nicht vor­dergründig, die Vergangenheit zu erklären. Insofern transzendiert jedes allgemeine Gesetz die Erfahrung.

Man kann es auch so formulieren: Der tiefere Grund für die Unmöglichkeit der Induktion ist gewissermaßen die Struktur der Zeit mit der faktischen, der Erkenntnis zugänglichen Vergangenheit und der noch nicht einge­tret­enen, offenen und möglicherweise ganz anders gearteten Zukunft.

Dies hat aber sehr weitreichende Folgen für die Erkenntnis und die Wissenschaft. Bertrand Russell ging sogar so weit zu behaupten, dass, falls Hume Recht haben sollte, es keinen intellektuellen Unterschied zwischen Normalität und Wahnsinn geben könne.

Der logische Positivismus, wie er vor allem durch den heute fast legen­dären Wiener Kreis in den 20er und 30er Jahren des 20. Jh. ausgearbeitet wurde, forderte bekanntlich von der Philosophie strenge Wissen­schaft­lich­keit und verwarf jede Form von „Metaphysik“. Zentral war dabei das Prinzip der Verifikation, etwas später modifizert zur Verifizierbarkeit, laut welchem der Sinn einer (empirischen) Aussage in der Form ihrer Verifikation durch Beobachtung besteht. Um nicht als „Metaphysik“ zu gelten, muss demnach die Richtigkeit einer Aussage zumindest prinzipiell empirisch – durch Beobachtung – erweisbar sein. Das Verifikationsprinzip liefert demnach das Kriterium für die Abgrenzung sinnvoller Sätze von sinn­losen, „metaphysischen“ Sätzen. Dies hat Auswirkungen nicht allein auf Philosophie und Metaphysik, sondern besitzt auch weitreichende Folgen für die Wissenschaftstheorie. Es erhebt sich die Frage, inwieweit nicht nur philosophische Aussagen, sondern auch die allgemeinen wissen­schaft­lichen Gesetze verifizierbar und damit „sinnvoll“ sind.

Dabei zeigt sich, dass das Verifikationsprinzip unmittelbar mit dem In­duk­tions­problem zusammenhängt. Singuläre Aussagen (Existenzaussagen) können – zumindest potentiell – mit der Erfahrung verglichen und sozu­sagen „endgültig“ verifiziert werden. Dazu ist es erforderlich nachzu­schauen, ob der besagte Sachverhalt besteht bzw. zumindest einen speziellen Gegenstand zu finden, der die entsprechende Eigenschaft hat. Hin­gegen versagt dieses Verfahren bei allgemeinen (unbeschränkten) All­sätzen. Gerade letztere aber sind in der Wissenschaft häufig von besonderem Interesse, weil die Naturgesetze „gleichbleibende allgemeine Beziehungen – Gesetzmäßigkeiten – zwischen ausgewählten Bestandteilen der Realität“ darstellen und daher die Form von Universalaussagen haben. (2) Beim Versuch, einen allgemeinen Satz zu verifizieren, kommt un­weiger­lich die Induktion mit all den erwähnten Problemen ins Spiel.

Es gibt eine Reihe von Ansätzen zur Rechtfertigung der Induktion, die hier nicht im Detail dargelegt und diskutiert werden sollen. Erwähnt seien die Versuche von Rudolf Carnap, Carl Gustav Hempel, Hans Reichenbach u.a., eine besondere induktive Logik aufzubauen. Demnach können Allaussagen mehr oder weniger gut bestätigt sein, sie würden also mit einer gewissen Wahrscheinlichkeit gelten.

Peter Strawson setzte sich für eine „analytische“ Begründung der Induk­tion auf sprachphilosophischer Grundlage ein. Seiner Meinung nach ist es eine analytische Tatsache, dass induktive Schlüsse vernünftig und ge­recht­fertigt sind. Der gewöhnliche Sprachgebrauch von Worten wie „vernünftig“ und „gerechtfertigt“ impliziere die Anwendung induktiver Methoden.

Einen anderen Weg beschritt Karl Popper mit seinem kritischen Rationalismus. Popper, der Kontakte zum Wiener Kreis unterhielt, jedoch stets seine Opposition zu den Hauptthesen des Kreises herausgestellt hat, verwarf die Existenz eines allgemeinen Induktionsverfahrens. Nach seiner Ansicht ist Induktion nicht begründbar. Einschlägige Versuche führen ent­weder zum unendlichen Regress oder zu einem Apriorismus im Sinne Kants. Popper glaubte vielmehr, im Prinzip der Falsifikation einen Ausweg ge­funden zu haben: allgemeine Gesetze und Theorien können zwar nicht aus singulären Sätzen abgeleitet, wohl hingegen durch singuläre Sätze wider­­legt werden, sie können an der Erfahrung scheitern. Noch so viele Be­stätigungen können eine Theorie niemals völlig erhärten, hingegen kann aus logischen Gründen bereits ein einziges empirisches Gegen­bei­spiel (Beobachtungstatsache) die gesamte Theorie umstoßen. Worauf be­ruht die Möglichkeit der Widerlegung genereller Sätze? Popper schreibt dazu:

„…neben den Allsätzen sind vor allem Sätze der Form: „Es gibt einen schwarzen Raben“, die wir universelle Es-gibt-Sätze nennen, von Bedeutung. Negiert man einen Allsatz („Alle Raben sind schwarz.“), so erhält man einen universellen Es-gibt-Satz (und umgekehrt); z.B. „Nicht alle Raben sind schwarz“ ist äquivalent mit:

„Es gibt nichtschwarze Raben.“ Da die naturwissenschaftlichen Theorien, die Naturgesetze, die logische Form von Allsätzen haben, so kann man sie auch in der Form der Negation eines universellen Es-gibt-Satzes aussprechen, d.h. in der Form eines „Es-gibt-nicht-Satzes“.

So kann man den Satz von der Erhaltung der Energie auch in dieser Form aussprechen: „Es gibt kein Perpetuum mobile“(…) Aus diesen Formulierungen wird deutlich, dass man die Naturgesetze als „Verbote“ auffassen kann: Sie behaupten nicht, dass etwas existiert, sondern dass etwas nicht existiert. Gerade wegen dieser Form sind sie falsifizierbar: wird ein besonderer Satz erkannt, durch den das Verbot durchbrochen erscheint, der die Existenz eines „verbotenen Vorganges“ behauptet („Der dort und dort befindliche Apparat ist ein perpetuum mobile.“), so ist damit das betreffende Naturgesetz widerlegt.“ (3)

Damit rückt Popper an die Stelle der Verifizierbarkeit die Falsifizierbarkeit als neues Abgrenzungskriterium zwischen Wissenschaft und Nichtwissen­schaft bzw. zwischen empirischen und nicht-empirischen Aussagen nach vorn.1 Nach Popper geht man in der Wissenschaft deduktiv vor, d.h. man versucht nicht, Theorien zu bestätigen, sondern sie zu falsifizieren, zu wider­legen. Es erhebt sich allerdings die Frage, woher die Theorien – die fal­sifi­zierbaren Allsätze – kommen, da sie nach Popper nicht aus der Induktion stammen können.

Popper nimmt die wissenschaftlichen Theorien als etwas quasi Gegebenes hin. Auf jeden Fall sei es keine Aufgabe der Philosophie, das Zustand­kommen neuer Theorien zu untersuchen. Hierfür sei eher die Psychologie zu­ständig. Es gibt keinen rational rekonstruierbaren Weg von der Er­fahrung zur Theorie. Aufgabe der Wissenschaftslogik ist nicht, die Ab­leitung der Theorien aus der Beobachtung zu erklären, sondern Möglich­keiten für ihre Überprüfung aufzuzeigen. Das ist der Kern der hypo­thetisch-deduktiven Methodik, die postuliert, dass der Mensch fehlbar ist, in­folge­dessen unser Wissen stets hypothetischen Charakter trägt und jeder­zeit der Widerlegung unterliegt:

„Die übliche Ansicht von der menschlichen Erkenntnis ist die, dass sie mit Beobachtungen beginnt. Wir sollten sie durch die Ansicht ersetzen, dass Erkenntnis stets die Modifikation früherer Erkenntnisse ist. Auf den ersten Blick scheint diese Auffassung in einen unendlichen Regress zu führen. Ich glaube nicht, dass sie das in bedenklichem Maße tut (…) Erkenntnis geht letztlich auf angeborenes Wissen (…) zurück. Beobachtungen sind immer schon in Begriffen früherer Erkenntnis interpretiert; d.h. Beobachtungen selbst würden gar nicht existieren, wenn es kein früheres Wissen gäbe, das sie modifizieren oder auch falsifizieren könnten.“ (4) Auf dieser Grundlage errichtet Popper in seiner Werk „Logik der For­sch­ung“ ein der Tat imposantes wissenschaftstheoretisches Gedanken­ge­bäude. Mehr noch: Man kann sagen, dass das gesamte philosophische Lebenswerk Poppers mit der Falsifikation steht und fällt. Bei näherer Be­trachtung zeigt sich indessen, dass erhebliche Einwände gegen die Poppersche Methodologie geltend gemacht werden können.

Karl Friedrich von Weizsäcker sieht mindestens zwei Schwächen der Er­kenntnistheorie von Popper:

„1. Es ist auch nicht möglich, im strengen Sinne ein Gesetz empirisch zu falsifizieren.

2. Poppers Theorie erklärt nicht, warum es überhaupt Gesetze gibt, die überlebensfähig sind.

Popper ist sich im Prinzip der ersten Schwierigkeit bewusst. Er hebt selbst hervor, dass jede empirische Feststellung, wie z.B. „hier steht ein Glas Wasser“, den sinnvollen Gebrauch von Begriffen wie „Glas“ und „Wasser“ voraussetzt. Dieser Gebrauch ist nur im Kontext gewisser Gesetze möglich, z.B. der Gesetze, die das Verhalten von festen und flüssigen Körpern beschreiben. Man kann sagen: Wir wenden implizite Gesetze an, sooft wir explizite Gesetze falsifizieren. Aber diese Erfahrung schmälert den faktischen Wert der Falsifikation. Jedes Mal, wenn eine vorgebliche Erfahrung ein wohlbegründetes Gesetz als falsch zu erweisen droht, beginnen wir daran zu zweifeln, ob der Gebrauch der impliziten Gesetze in jener Erfahrung voll gerechtfertigt war. Historisch gesehen erweisen sich etablierte Theorien als äußerst unempfindlich gegen empirische Falsifikation; und genau das ist mein zweiter Einwand gegen Poppers Theorie, dass sie nicht erklärt, wie diese Stabilität von Theorien möglich ist … Aber wenn das stimmt, dann verstehen wir bisher in Wirklichkeit weder die Möglichkeit der Verifikation noch der Falsifikation einer Theorie durch Erfahrung.“ (6)

Der Falsifikationismus ist mit einer weiteren Schwierigkeit behaftet. Popper sagt, dass in der Logik eine Allgemeinaussage durch ein Gegen­bei­spiel falsifiziert wird. Hier ist es angezeigt, scharf zwischen der formalen Logik und ihrer Anwendung auf die empirische Realität zu unterscheiden. Logisch mag ein Gegenbeispiel genügen, um eine Generalisierung zu falsi­fi­zieren. In den empirischen Wissenschaften verfährt jedoch kein Wissen­schaftler so, dass er eine bewährte Theorie beim erstbesten Gegenbeispiel auf­gibt. Kein Wissenschaftler würde eine wohlbegründete Theorie auf­grund eines singulärenfalsifizierenden Ereignisses oder Experiments ein­fach verwerfen. In der Logik mag ein Gegenbeispiel genügen, in der empir­ischen Realität hat es wenig Aussagekraft. Die falsifizierende Beo­bachtung muss zunächst reproduziert werden. Das aber würde streng ge­nommen auch nicht genügen, um die Theorie zu verwerfen. All diese wieder­kehrenden falsifizierenden Beobachtungstatsachen beziehen sich nämlich auf die Vergangenheit. Um eine Theorie aufzugeben, muss man zeigen, dass sie die Tests auch in Zukunft nicht bestehen wird. Das vermag aber die Falsifikation nicht zu leisten, weil die Zukunft noch nicht eingetreten und daher offen ist. Um die Theorie als widerlegt zu be­tracht­en, muss vielmehr eine potentielle künftige Falsifizierbarkeit der Theorie vor­ausgesetzt werden. Damit wird aber wiederum induktiv die Er­fahrung trans­zendiert. Das Postulat der Reproduzierbarkeit der Falsifi­kation in der Zu­kunft ist nämlich eine induktive Schlussfolgerung.

Das hat Alfred Ayer erkannt. Er meint, dass es unklar ist, warum eine Theorie, die einen Test in der Vergangenheit nicht bestanden hat, zu verwerfen ist, es sei denn, wir nehmen an, daß sie denselben Test auch in Zukunft nicht bestehen wird. Das aber ist in induktiver Schluß. Und selbst wenn wir den Test nicht als induktive Verallgemeinerung interpretieren, sondern als analytische Aussage, bei der „derselbe“ nur bedeuten kann „derselbe in allen für den Testausgang relevanten Kriterien“, könnten wir alle Tests über die Zeit, die unterschiedliche Ergebnisse haben, verwerfen mit der Begründung, daß die Testbedingungen nicht identisch sind. Doch der Umstand, daß vergangene Tests auch in Zukunft unter denselben Bedingungen durchgeführt werden können, ist analytisch nicht wahr. Daher müßten wir unsere wissenschaftliche Theorien als zusammen­fassende historische Berichte betrachten, die keine Gültigkeit für die Zu­kunft beanspruchen können, was aber normalerweise nicht der Fall ist. Die Induk­tion kommt daher erneut ins Bild. (5)

Ähnliche Überlegungen äußert auch Robert Nozick:

„Popper is famous for saying that induction can't be justified, that the only inferences that data support are to deductive consequences of the data, and that by deducing some observational consequences of the hypotheses and checking to see if these hold, we test hypotheses, but we never have reasons for thinking that a hypothesis that has passed tests in the past will continue to pass those tests. We have no more reason for thinking it will than that it won't, or than that some other heretofore untested hypothesis will pass its future tests. Yet Popper does believe in the standard practice of testing hypotheses in a wide variety of circumstances. The degree of corroboration of hypotheses, according to Popper, is a historical statement about how severely that hypothesis has been tested.

There is no justifiable prediction about how the hypothesis will hold up in the future; its degree of corroboration simply is a historical statement describing how severely the hypothesis has been tested in the past. That's Popper's view.

What hadn't been realized in the literature until now is that merely to describe how severely something has been tested in the past itself embodies inductive assumptions, even as a statement about the past. Of course, Popper accepts the usual methodological maxims about testing. Testing a hypothesis in a variety of circumstances or under a variety of conditions constitutes a more severe testing than simply repeating the same type of test under very similar conditions. Suppose I look at a certain type of case: the color of animals of a certain sort in a geographical area. The hypothesis is that all animals of this sort have the same color. You say, „OK, let's check it again,“ and I look in the same place for another animal of the same species. You say, „Let's check it again,“ and I look in the same place. You say, „Let's check it somewhere else. “ And I say, „Why?“ A severe test is checking something in an area or arena where, if the hypothesis is false, it's most likely to show its falsity, given your background beliefs. The fact that we don't keep repeating tests in the same arena is not because the probability of the hypothesis showing its falsity in other arenas goes up after it has passed tests in one arena. It's that the probability of its showing its falsity in that arena goes down after it's been tested there. If that didn't happen, then the severest test would continue to be in the same arena… it's a reason for thinking that Popper's theory is incoherent.“ (6)

Weitere Einwände gegen Poppers Programm beziehen sich auf folgendes: In der Wissenschaft sind nicht allein Universalaussagen, sondern, wie weiter oben erwähnt, auch Existenzaussagen bedeutsam. Existenz­aus­sagen wiederum können singulär oder universell sein. Eine singuläre Ex­istenz­aussage wäre z.B. „Die Stadt Wittenberg liegt in Deutschland“. Diese Aussage ist sowohl verifizierbar als auch falsifizierbar, weil – in logischem Fachjargon ausgedrückt – ihre Extensionsmenge auf einen Einzel­fall beschränkt ist. Von besonderer Bedeutung in den empirischen Wissen­schaften sind aber zuweilen so genannte „universelle Existenz­aus­sagen“, bei denen theoretische Begriffe eine Rolle spielen, wie z.B. „Es gibt außer dem Sonnensystem andere Planetensysteme“. Während ein Verifikationist keine Probleme damit hat, weil derartige Sätze prinzipiell verifizierbar sind, bereiten sie einem konsequenten Falsifikationisten großes Kopfzerbrechen. Wie kann man eine universelle Existenzaussage widerlegen? Ihre Falsifikation würde ja voraussetzen, sämtliche Objekte des Bezugsbereiches zu untersuchen. In den meisten Fällen bedeutet das, sehr große Raum-Zeit-Gebiete oder gar die ganze Welt zu überprüfen, was natürlich nicht möglich ist. Popper hat dies gesehen, er schreibt dazu:

„Universelle Es-gibt-Sätze hingegen sind nicht falsifizierbar: Kein besonderer Satz (Basissatz) kann mit dem universellen Es-gibt-Satz: „Es gibt weiße Raben“ in logischem Widerspruch stehen (…) Wir werden deshalb auf Grund unseres Abgrenzungskriteriums die universellen Es-gibt-Sätze als nichtempirisch („metaphysisch“) bezeichnen müssen.“(8) Popper argumentiert weiter, dass universelle Existenzsätze in den empirischen Wissenschaften nicht isoliert sind, sondern als Folge von all­ge­meinen Theorien aufgestellt werden. Letztere jedoch sind falsifizierbare Allsätze. Festzuhalten bleibt nichtsdestoweniger, dass Existenzsätze sich nicht problemlos in die falsifikationistische Methodologie einfügen.

Noch komplizierter wird die Situation bei Aussagen, die die logische Struktur einer Kombination aus Existenzsätzen und Allsätzen besitzen. Solche Sätze kommen in der Wissenschaft vor und es liegt auf der Hand, dass sie weder verifizierbar noch falsifizierbar sind.

Endlich können gegen den Falsifikationismus auch (z.T. grotesk an­mutende) Argumente des „gesunden Menschenverstandes“ vorgebracht werden. Popper selbst hat die Rolle des gesunden Menschenverstandes in der Philosophie betont. Wir müssen uns freilich darüber im Klaren sein, dass bei weitem nicht alles, was uns intuitiv einsichtig erscheint, auch korrekt sein muss. Vielmehr hat gerade die Philosophie nachgewiesen, dass vieles nicht so ist, wie es zunächst erscheint. Dennoch: Kein Falsifikationist springt von einem Fernsehturm in der Hoffnung, ganz langsam zur Erde zu schweben und damit die Fallgesetze zu widerlegen. Im Allgemeinen nimmt auch niemand eine in der Vergangenheit als hochgiftig nachgewiesene Substanz ein in der Erwartung, nunmehr die chemischen und biologischen Gesetze zu entkräften und nicht zu sterben. Im Lichte dieser zwei Beispiele, die sich beliebig vermehren lassen, erscheint ein praktisches Leben im Einklang mit der falsifikationistischen Doktrin absurd.

Insofern sind Induktion und Deduktion problematisch. Man ist geneigt, Michael Polanyi Recht zu geben, dass es letztlich keine definitive Regel gibt, nach der Verifikation oder Falsifikation von Theorien möglich ist. Forschung, Verifikation und Falsifikation verfahren nach bestimmten Maximen, die nicht präzise gefasst werden können. Das nennt Polanyi unseren wissenschaftlichen Glauben, der aus der wissenschaftlichen Tradition kommt und nicht exakt formulierbar ist:

“I hold that the propositions embodied in natural science are not derived by any definite rule from the data of experience, and that they can neither be verified nor falsified by experience according to any definite rule. Discovery, verification and falsification proceed according to certain maxims which cannot be precisely formulated and still less proved or disproved, and the application of which relies in every case on a personal judgment exercised (or accredited) by ourselves.” (9) Unsere Darlegung war bislang eine negative in dem Sinne, dass Kritik an gängigen Forschungsprogrammen geübt wurde. Es stellt sich daher die Frage, ob überhaupt ein kohärentes positives Programm möglich ist, das diese Widersprüche und Schwierigkeiten vermeidet. Manche Autoren wie Paul Feyerabend bestreiten grundsätzlich die Möglichkeit rationaler Kriterien in der Wissenschaftstheorie. Das jedoch wäre Thema eines ge­sonderten Aufsatzes. An dieser Stelle mag lediglich gesagt sein: Be­dauer­licher­weise muss man trotz verschiedener hoffnungsvoller Ansätze fest­stellen, dass die wissenschaftliche Theorie und Praxis sich – derzeit zu­mindest – anscheinend nicht in ein rigides wissenschaftstheoretisches Korsett pressen lässt, weil sich letzteres stets als zu eng erweist, um der Reichhaltigkeit und Vielseitigkeit der Wissenschaft Rechnung zu tragen. Wir sind wohl gezwungen, uns zur traurigen Schlussfolgerung durchzu­ringen: Letztlich verstehen wir eigentlich noch immer nicht sehr gut, was wir eigentlich machen, wenn wir Wissenschaft betreiben.

Schließlich können aber auch weitere, und zwar nunmehr sehr grund­legende Einsprüche gegen die Möglichkeit von Induktion und Deduktion an­gemeldet werden. Man könnte nämlich das methodologische Prinzip auf­stellen, dass die philosophische Analyse zunächst stets auf der maximal fundamentalen Ebene mit der geringst möglichen Zahl an Vor­aus­­setz­ungen, Axiomen und Vorurteilen anzusetzen hat. (Freilich muss man sich dabei vor Augen halten, dass ein völlig ursprünglicher, vor­ur­teils­freier Standpunkt unmöglich ist.) Philosophie bedeutet nach dieser Auf­fassung, in einem ersten Schritt so prinzipiell und tief wie möglich denken.

Eine derartige fundamentale Analyse indes zeigt, dass alle Empiristen, aber auch die im weiteren Sinne zu ihnen gehörenden kritischen Rationalisten Popperscher Prägung streng genommen „zu weit oben“ angesetzt und zu viel als (in der Sinneserfahrung) gegeben angenommen haben. Die Struktur der Zeit verhindert nämlich nicht allein Induktions­schlüsse in einem weiteren Sinn, dass nämlich allgemeine Schlüsse un­möglich werden, sondern sie vereitelt gewissermaßen sogar singuläre Aus­sagen und sogar wissenschaftliche Basissätze und Begriffe. Denn jede noch so elementare Aussage und jeder Begriff enthält ein mehr oder weniger allgemeines Element. Um beispielsweise den Begriff „Sonne“ sinn­voll verwenden zu können, ist eine Invarianz des Begriffes über die Zeit nötig. Es gibt ja nicht „die Sonne an sich“ in der Erfahrung, sondern lediglich eine zeitliche Abfolge von Sinneseindrücken, die mit dem Begriff „Sonne“ umschrieben und unter diesem Begriff verallgemeinert werden. Wir wissen aber genau genommen nicht, ob hinter dem Konstrukt „Sonne“ tatsächlich etwas in der Zeit Beharrendes steht. Die Sinneserfahrung, die laut Empirismus die Grundlage allen Wissens bildet, zerfällt insofern in einzelne Eindrücke, die durchaus nicht „elementar“ oder „atomar“ im Sinne des logischen Atomismus zu sein brauchen. Es gibt nämlich keine reine Erfahrung, sämtliche Observationen sind „theorie-beladen“ (Sellars). Sinneseindrücke sind immer (hoch)komplex, aber nichtsdestoweniger singulär infolge der Struktur der Zeit, die von der Vergangenheit in die Zukunft fließt. Natürlich kann es sehr große Ähnlichkeit bis hin zur scheinbaren Identität zwischen den Sinneseindrücken geben. Auf logischer Ebene sind aber alle Sinneseindrücke einzigartig. Die Welt ist eine An­sammlung von losgelösten, unwiederholbaren, singulären Eindrücken, Er­lebnissen und mentalen Zuständen. Ob es objektive, in der Zeit be­harrende Gegenstände und ihnen korrespondierende Begriffe gibt, können wir nicht wissen. Das ist ein sehr extremer nominalistischer Standpunkt. Nun setzt aber geordnetes, strukturiertes Wissen in jedem Fall doch Wiederholungen voraus, denn ohne Wiederholung, die Identität der Objekte voraussetzt, lässt sich kein wissenschaftliches Fundament aus „Basis­sätzen“ konstruieren. Wenn es aber keine wie auch immer geartete Wieder­kehr und daher keine Begriffe gibt, wird Wissenschaft unmöglich.

Insofern sind sowohl der klassische als auch der logische Empirismus als auch der kritische Rationalismus von Popper zu wenig kritisch in der Prüf­ung ihrer eigenen Grundlagen. Nelson Goodman hat z.B. den Versuch unter­­nommen, die Wissenschaft auf der Grundlage eines starken Nominal­ismus („Partikularismus“), in dem lediglich Individuenvariablen vor­kommen, aufzubauen. Aber auch er ist sozusagen nicht hinlänglich konse­quent, weil er Wiederholungen zulässt, die die Identität der verwendeten Begriffe und damit der ihnen korrespondierenden empirischen Objekte über die Zeit voraussetzen. (10) Der tiefsinnige Kritiker der „Dogmen“ des Empirismus, Willard Van Orman Quine, setzt ebenfalls zunächst zu viel voraus und beginnt seine Analyse auf einer höheren Ebene als möglich und wünschenswert gewesen wäre. (11)

Im Übrigen sind diese Gedankengänge so neu nicht, wie so oft in der Philosophie sind bereits in der Antike solche oder ähnliche Überlegungen angestellt worden. Heraklit behauptete, dass alles im Fluß und der Veränderung begriffen sei und man deshalb niemals zwei Mal in denselben Fluß steigen könne. Noch radikaler soll sich Kratylos geäußert haben, weil er meinte, dass man noch nicht ein Mal in einen Fluß steigen könne, da er bereits während des einen Schrittes dem Wandel unterliege. Der Weltfluß kann nicht in Worte gefasst werden. Als Konsequenz daraus zog der Philosoph den Schluss, dass man allenfalls stumm dasitzen und ein wenig den Finger rühren könne.

Wir wollen aber nach Möglichkeit mehr als lediglich sitzen und ein bisschen den Finger bewegen und müssen uns demzufolge fragen, ob und wie, falls diese Analyse stimmt, Wissen und Wissenschaft doch noch möglich sind. Der einzige Ausweg scheint konventionalistischer Natur zu sein – wir postulieren, dass hinter unseren Begriffen, mit denen wir die Welt der Sinneseindrücke beschreiben, relativ stabile und in der Zeit beharrende Objekte stehen, die gewissermaßen mit sich selbst identisch sind. Das bedeutet aber nicht notwendigerweise, dass diese Begriffe willkürlich sind, noch dass die hinter ihnen stehende Realität ein Konstrukt unseres Verstandes darstellt. Es ist sehr wahrscheinlich, dass zumindest manche unserer Theorien zumindest Ausschnitte der Wirklichkeit wenigstens teilweise korrekt widerspiegeln. Es sollte lediglich darauf hingewiesen werden, dass die vertiefte kritische Prüfung der Grundlagen unseres Wissens überraschende Einsichten zu Tage fördern kann.

Literaturverzeichnis (1) Isaac Newton, Philosophiae Naturalis Principia Mathematica 1687, translated byAndrew Motte 1729,

http://members.tripod.com/~gravitee/genschol.htm

(2) Horst Meyer, Interview und schriftliche Befragung, Oldenbourg, S. 19

(3) Karl Popper, Logik der Forschung, Tübingen 1989, S. 39 f.

(4) ders., John Eccles, Das Ich und sein Gehirn, München Zürich 1982, S. 505.

(5) Carl Friedrich von Weizsäcker, Die philosophische Interpretation der modernen Physik, Nova Acta Leopoldina, Halle (Saale), 1986, S. 10.

(6) Vgl. G.H.R. Parkinson (Hrsg.), An Encyclopaedia of Philosophy, London 1989, S. 211.

(7) Robert Nozick, http://www.trinity.edu/rjensen/NozickInterview.htm

(8) Karl Popper, Logik der Forschung, Tübingen 1989, S. 40.

(9) Michael Polanyi, The Stability of Believes,

http://www.missouriwestern.edu/orgs/polanyi/mp-stability.htm

(10) Vgl. Nelson Goodman, The Structure of Appearance, Harvard UP 1951

(11) Williard Van Ormand Quine, Two Dogmas of Empiricism, http://www.ditext.com/quine/quine.html

Zum Autor: geboren 1963 in Sofia, Studium der Medizin, Pädagogik und Philosophie in Berlin und Sofia, zur Zeit wissenschaftlicher Mitarbeiter der Konrad-Adenauer-Stiftung in Sofia, zahlreiche eigene Veröffentlichungen zur Philosophie und Politikwissenschaft sowie diverse Übersetzungen.

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.