Kolonialisierung – neu betrachtet Aspekte einer Philosophie der technologischen Zivilisation

Der Felsen, an den unser Denken geschmiedet ist

Wenn es um das Verhältnis von Kolonialisierung und Aufklärung geht, gibt im 20. Jahrhundert der bekannte Eröffnungssatz der Dialektik der Aufklärung den Ton an: „Seit je hat Aufklärung im umfassendsten Sinn fortschreitenden Denkens das Ziel verfolgt, von den Menschen die Furcht zu nehmen und sie als Herren einzusetzen, aber die vollends aufgeklärte Erde strahlt im Zeichen triumphalen Unheils.“ Hier geht es von allem Aufklärungsanfang an um Kolonialisierung, und zwar gleichsam um eine gut gemeinte Kolonialisierung. Wir haben nämlich verges­sen, dass der Begriff „Kolonialisierung“ in seinem ursprünglichen Kontext eine ausge­sprochen positive Konnotation hatte, und zwar, bis die unbeabsichtigten unerwünsch­ten Nebenfolgen der Kolonialisierung bemerkt wurden.
Dieser ursprünglich positiv gemeinte Kolonialisierungsbegriff verkehrt sich nun aber durch seinen Erfolg ins Gegenteil. Das ist die Struktur, die insbesondere die Dekonstruktivisten in Bezug auf die wissenschaftlich oder „logozentrisch“ (Derrida) verstandene Aufklärung analysieren, und diesen Befund gilt es weiter zu differenzieren. Wir erleben, so behaupte ich, heute insofern eine zweite Dialektik der Aufklärung, als wir bemerken, dass alle Versuche, die erste Dialektik ihrerseits zu überwinden, das höchst interessante Charakteristikum der Unhintergehbarkeit aufweisen, das man als „transzendental“ bezeichnen kann. Selbst der vehemente Protest von Derrida gegen logozentrische Rekonstruktionen wird seinerseits logozentrisch. Man kann immer wieder beobachten, dass noch der entschiedenste Versuch, konstruktivistisch oder kulturalistisch eine vor- oder außersprachliche Kommunikation zu identifizieren, selber nur sprachlich kommunizierbar ist und sich deswegen der Fesseln oder der Grenzen der sprachlichen Kommunizierbarkeit nicht entschlagen kann. Rationalität – so will ich knapp und thesenhaft formulieren – bleibt der Felsen, an den unser Denken prometheisch geschmiedet bleibt, selbst wenn wir dieser Bindung zu entrinnen versuchen. Gewiss, man kann immer den Ausweg in die Irrationalität wählen; das aber wäre keine Lösung, und vor allen Dingen keine philosophische! Stattdessen gilt es, den erhobenen Befund zunächst einmal genauer zu differenzieren. Was meinen wir denn eigentlich, wenn wir von dieser Figur einer zweiten Selbstreflexion der ihrerseits selbst dialektisch reflektierten Aufklärung sprechen? Wir meinen damit, dass die Prinzipien der Moderne dadurch, dass sie kritisiert werden, nicht schwächer, sondern umgekehrt gerade stärker werden. Die Kritik des Logozentrismus bewirkt nicht eine Abschwächung des Logozentrismus, sondern umgekehrt dessen Intensivierung. Je massiver die Kritik ist, der er unterzogen wird, desto heller lodert er auf. Ob es sich dabei um ein Strohfeuer oder um eine nachhaltige Renaissance der Vernunft handelt, sei allerdings vorläufig dahingestellt.
Jedenfalls gilt fraglos: Wir sind weit davon entfernt, die Moderne ad acta gelegt zu haben, und das Aufklärungskonzept hat durch die mit der reflexiven Wendung einhergehenden Globalisierung de facto sogar eine Ausweitung erfahren. Das gilt auch auf dem Hintergrund einer stärker fundamentalistisch gefärbten, sich säkular oder missionarisch gerierenden Religionslandschaft. Selbst hier zeigt sich, dass die Globalisierung technologisch greift. Kurz und paradox: Es gäbe keine AL Kaida, wenn es kein Internet gäbe, jedenfalls keine erfolgreiche AL Kaida. Noch der Versuch, der Moderne zu entrinnen, funktioniert nur auf der Grundlage der technologischen Erfolge der westlichen Modernisierung. Noch die Suche nach einer Loslösung von der wissenschaftlichen Rationalität der Moderne ist selbst wissenschaftlich.

Die virtualisierte Technologie und die Kreativität des Denkens

Wo finden, so kann man fragen, denn eigentlich die bahnbrechenden Entwicklungen in den Wissenschaften, etwa in der Molekularbiologie, heute statt? Wo geschieht die Sequenzierung und Dekodierung der Genome von Lebewesen? Rein lebensweltlich und ohne Kenntnis des Wissenschaftssystems würden wir vermuten, dass das in Reagenzglas und Petrischale, jedenfalls aber in irgendeinem Kontext, der etwas mit Chemie oder Biowissenschaften zu tun hat, ge­schieht. Die Antwort ist aber: Nein, all das ereignet sich zum überwiegenden Teil auf dem Rechner, und das ginge auch aufgrund der erforderlichen Datenmenge und Kombinatorik gar nicht anders. Das heißt, die Weltrevolution der Molekularbiologie, die mit der Identifikation der Doppelhelixstruktur der DNA durch Watson und Crick begann, ist unterdessen längst eine nach Standardverfahren der Informationstechnologie millionenfach reproduzierte Weitrevolution.
Mit anderen Worten: Hier wird das Experiment und die damit zusammenhängende Idee einer empirischen Bewährung wissenschaftlicher Hypothesen z. T. virtualisiert und durch Produkte der virtualisierenden Technologie selbst übernommen, die auf diese Weise ihrerseits selbst als Beweise gelten. Kurz und pointiert formuliert: Die Lauffähigkeit eines Computerprogramms gilt gleichsam als der Beweis, den wir suchen, wenn wir nach empirischen Beweisen fragen. Man kann auch anders formulieren: Der Logozentrismus hat sich hinter dem Rücken der handelnden Akteure aufgrund der durch ihn entwickelten Modellierungs- und Simulationstechnologien als siegreich erwiesen. Das aber ist die Ablösung des platonischen Modells, das wir bis dahin von den Wissenschaften hatten und dem zufolge Theorien gleichermaßen als Kopfgeburten modelliert werden, die dann irgendwo in der Welt der Phänomene ihre lebensweltlich umsetzbare praktikable Bestätigung oder ihre Widerlegung finden.
Informationstechnologie als Fähigkeit des Umgangs mit Computern hat heute den Status einer Kulturtechnik erreicht. Alphabetisierung heißt aber nicht nur Computerfähigkeit, sondern Fähigkeit des Umgangs mit dem Netz, weswegen heute auch zu Recht von „Net Literacy“ die Rede ist. Neben der mündlichen Kommunikation und dem Rechnen sowie der verschriftlichten Form von Kommunikation und Rechnen als den Kulturtechniken, die unsere kulturelle Dynamik im engeren Sinne in Gang gesetzt haben, sind wir unterdessen in den Zustand der Entwicklung einer vierten Kulturtechnik eingetreten, die ebenso wie die Schrift und die mündliche Kommunikation auch das Rechnen überformt und in eine neue Leistungsdimension katapultiert hat bei Lichte besehen haben wir mit der Kulturtechnik der „Net Literacy“ etwas Fantastisches geschaffen, nämlich die Möglichkeit, die Routinen unserer Denkprozesse von Maschinen abarbeiten zu lassen, wodurch dann im Mensch-Maschine-Tandem eigentlich ein gewaltiges Kreativitätspotential freigesetzt werden müsste. Denn wir Menschen haben in dieser Kombination ja nun Zeit, da wir nicht mehr wie früher in 7 Durchschlägen radieren und dauernd in Bibliotheken auf die Fernleihen warten müssen, weil wir eben buchstäblich nun „the knowledge of the world at our fingertips“ haben. Das würde uns Menschen eigentlich ungemein viel Zeit geben, das zu tun, was wir besser können als Maschinen, nämlich eben gerade nicht die fehlerfreie Abarbeitung von Programmen, sondern die Entwicklung kreativer Ideen. Fakt ist allerdings, dass es sich nicht so verhält. Die Summe der menschlichen Kreativität scheint irgendwie konstant zu bleiben, gleichgültig, wie viel man sich bei seiner Arbeit von Maschinen abnehmen lässt – das allerdings ist keine empirisch gestützte These, sondern eine intuitive Behauptung.
Was aber ist es, was die Kreativität des menschlichen Denkens ausmacht? Es ist das, was ich gerne das „ungenaue Denken“ nenne. Wir haben uns ja in der Philosophie angewöhnt, Argumente im akademischen Diskurs nicht so sehr daraufhin zu gewichten und zu prüfen, ob sie plausibel oder wirkungsvoll oder gar erfolgreich sind, sondern danach, ob sie den Regeln einer aus vielen tausend Jahren Argumentationspraxis erst abstrahierten formalen Logik, also der analytischen Transformierbarkeit, entsprechen. Das allerdings hat zur Folge, dass wir, sobald wir diese Argumente außerhalb des philosophischen Seminars, also lebensweltlich, verwenden, immer wieder hören: Das mag ja sein; aber es ist völlig uninteressant, ob es logisch konsistent ist oder nicht. Was sollte eigentlich lebensweltlich problematisch an logischer Inkonsistenz sein? Logische Konsistenz ist – und das ist ein Gedanke der von Friedrich Nietzsche und dem Pragmatismus stark gemacht worden ist – eine eher moralische Forderung der Zuverlässigkeit, und diese hat der Kolonialisierung durch logische Quertechnologie gleichsam den Weg gebahnt: Alles, was logisch konsistent sein muss, können wir über unsere Rechnerprogramme prüfen lassen, dazu bedarf es eigentlich nicht der menschlichen Intelligenz. Was hingegen interessant ist, sind die zündenden Ideen, die innovativ sind, weil sie nicht der Aufarbeitung logischer Folgungsmengen entspringen.
Hierhin gehört zum Beispiel die ungeheure Bedeutsamkeit von Metaphern. Auch hier wiederum muss allerdings eingewandt werden, dass wir den Gebrauch von Metaphern und damit die Schulung von Metaphernfähigkeit eher verteufeln als befördern. Damit minimieren wir aber systematisch die Chance, den semantischen Reichtum unserer Zeichensysteme auszuschöpfen. Neben Metaphern sind es Analogieschlüsse, die durch unsere formale Logik eher unterdrückt als gefördert werden; das Mittelalter wusste es besser und hat die Analogien, nicht zuletzt auch aus theologischen Motiven, systematisch untersucht.
Kurz: Wir hätten eigentlich die Chance, all dieses kreative Potential weiter zu entwickeln, aber wir tun es nicht, oder jedenfalls nicht in dem Maße, in dem wir es tun könnten. Dabei sollten wir es schon aus einfachen informationstheoretischen Gründen stärker versuchen. Denn: „Net Literacy“ heißt eben auch zu verstehen, dass weder Computer noch Netze allein Informationen prozessieren, sie prozessieren nur Daten, und diese werden, wie der Name schon sagt („Datum“ = Gegebenes) gegeben; Informationen ent­stehen dagegen erst bei dem, dem gegeben wird oder der gibt, also bei der Input- oder Outputoberfläche. Damit es in einem Rech­ner überhaupt zu Informationen kommt, muss dasselbe gegeben sein wie zwischen einem Buch und einem Leser oder zwischen einem Sprecher und einem Hörer. Von Lich­tenberg stammt bekanntlich die schöne Formulierung, dass, wenn ein Buch und ein Kopf zusammenstoßen und es hohl klingt, es nicht unbedingt am Buch zu liegen braucht. Dasselbe gilt – mutatis mutandis – für Nutzer und Rechner oder für Nutzer und Netz. Die Vorstellung, dass die Technologie irgendwo in der Welt sozusagen nutzerunabhängig automatisierte Information generieren und überbringen könnte, ist falsch, und die Fehlerhaftigkeit dieser Annahme eröffnet eine Chance, nämlich diejenige, die Fähigkeit unseres plastischen Denkens, das nicht auf die formalen Transformationen analytischer Art reduziert ist, ins Spiel zu bringen. Das ist die Moral von der Geschichte der Kolonialisierung der Wissenschaft durch die Net Literacy-Quertechnologie.


Die Kolonialisierung der Lebensweit

Mit dem Gedanken, dass wir mit der Le­benswelt eine sozusagen systemunabhängige Größe vor uns hätten, liegen wir insofern zugleich richtig und falsch, als er zwar zutrifft, aber sich historisch in jeder Situation neu formieren muss. Auch die dem Gedankengang zu Grunde liegende Diagnose von Jürgen Habermas, „die Lebenswelt“ sei durch „das System“ kolonialisiert worden, erweist sich, so betrachtet, als zugleich zutreffend und irreführend. Im Grundsatz trifft zu, dass System und Lebenswelt in Konkurrenz zueinander stehen, aber wenn wir heute fragen, wie denn die derzeitige Lebenswelt systemisch überformt ist, dann kommen wir nicht umhin, den Aspekt, den ich gerade an­gesprochen habe, näher anzuschauen: dass und wie sich nämlich die heutige Lebens­welt, die sich nicht transzendieren lässt, selber schon gleichsam imprägniert erweist durch das, was man in einer analytischen Vorstufe „System“ nennen könnte.
Seit zwei Jahrzehnten lässt sich so etwas wie eine Hochkonjunktur des Denkens nicht mehr in Informations-, sondern in Netzwerkbegriffen konstatieren. Gewiss, das scheint zunächst einmal nur Rhetorik zu sein, aber diese Rhetorik hat einen interessanten Hintergrund, den man theoriehistorisch aufrollen kann. Wenn man sich fragt, wie denn diese Netzwerkmodellierung in unser lebensweltliches Weltverständnis kommt, sieht man folgendes: Im 10-Jahres-Abstand lassen sich neue Eroberungsfelder der Netzwerkmetapher in Bezug auf wissenschaftliche Diszip­linen beobachten. In den 60er Jahren kommt der Begriff des semantischen Netzwerks als Rekonstruktion von Erinnerungsleistungen über Netzwerkmodellierungen auf. In den 70er Jahren wird das auf soziale Kontexte übertragen: Netzwerke sind Träger derjenigen kommunikativen Strukturen, die sich vorher schwer identifizieren ließen und die nun „soziale“ und „ökonomische Netzwerke“ heißen. In den 80er Jahren zieht die Meta­pher in die Debatte um die Künstliche Intel­ligenz ein: An die Stelle der klassischen „starken“ KI-These der symbolischen Reprä­sentation treten nun plastische Modelle der neuronalen Netze; ich brauche nicht daran zu erinnern, dass dazu auch neurobiologische und neurophysiologische Inputs erforderlich waren. In den 90er Jahren schließlich finden wir die Übertragung der Netzwerkmetapher im Zusammenhang der Globalisierung auf ganze Gesellschaften.
Aber erst seit den 90er Jahren hat diese in der wissenschaftlichen Diskussion zu konsta­tierende Konjunktur der Netzwerkmetapher ihren faktischen Siegszug in der Lebenswelt begonnen, und die Begründung dafür ist die technologische Realität des World Wide Webs (WWW): Erst durch die Existenz eines weltweit realen und in der geschilderten Be­deutung der Quertechnologie sich überall durchsetzenden Netzes kann die Netzwerk­metapher ihre lebensweltliche Plausibilität gewinnen. Natürlich beginnt das – „polemos pater panton“, wie Heraklit sagt – im militä­rischen Sektor: das ARPANET ist das erste, gleichsam geheime Internet, bei dem die Großrechner von Universitäten in den USA miteinander verknüpft wurden. Dabei han­delte es sich um ein Experiment des Pentagon, das dazu dienen sollte, das US-amerikanische militärische Informationsübertragungsnetz durch Dezentralisierung der Ge­fahr einer Ausschaltung durch einen atomaren Erstschlag der Sowjets zu entziehen. Dies ist sozusagen die geheime Form des real existierenden Netzes; lebensweltlich be­deutsam aber wird dieses erst seit den 90er Jahren. Die Virtualisierung unserer Welt als Lebenswelt beruht in der Tat auf einer ganz gewaltigen, einer revolutionären Durchsetzung der Informationstechnologie als Quertechnologie. Schon Karl Marx hat im berühmten Kapitel 16 des ersten Bandes des Kapitals festgehalten, dass es die Technik selbst ist, die revolutionär wirkt. Das lässt sich auch an der Virtualisierung unserer Welt zeigen. Und erneut eröffnet sich hier eine andere Möglichkeit: Wenn, was ja unterdessen faktisch bereits der Fall ist, das World Wide Web noch intensiver mit individuellen Informations- und Kommunikationstechniken, etwa den Handys, gekoppelt wird, zeigt sich, dass hier noch einmal ein gewaltiger Schub wartet, weil die einzige Technologie, die sich lebensweltlich noch schneller als die Vernetzung von Rechnern durchgesetzt hat, die Verwendung von Handys ist. Fraglos wird sich hier eine weitere Bewährung des Moore'schen Verdopplungsgesetzes finden, die unsere Lebenswelt von den Füßen auf den Kopf stellen wird, um ein Marxsches Diktum zu variieren.


Natur als Kulturprodukt

Dadurch ist ein weiterer Bereich der Kolonialisierung erreicht. Dass die Technologie die Wissenschaft kolonialisiert hat, ist im Zusammenhang mit der Natur besonders deutlich im Bereich der Molekularbiologie und Gentechnologie zu sehen. Hier wird deutlich, dass die Natur Kulturprodukt wird. Unabhängig davon war Natur allerdings im­mer schon – und das wird gegenwärtig im­mer deutlicher – selbst Kulturprodukt. Das lässt sich durch empirische, erfahrungsgesät­tigte Befunde phänomenologisch unterlegen. Es lässt sich zeigen, dass (und warum) jeder Versuch von Menschen, unberührte Natur zu finden, – eine Absicht, die die Menschen in einer technologischen Zivilisation umtreibt – misslingen muss. Gesetzt den Fall, man hätte irgendeine Art von Naturreservat identifi­ziert, in dem einige Ureinwohner noch zivili­sationsunberührt leben, müsste man trotzdem desillusioniert sagen, dass man es technolo­gieunabhängig weder identifizieren noch er­reichen könnte. Das lässt sich an einem ande­ren Beispiel klar machen: Man möge nur an die ungeheuren Schwierigkeiten denken, die Kamerateams haben, technologiefreie Situa­tionen zu filmen, wenn man vortechnologi­sche Zivilisation darstellen will, und es gibt kaum eine Möglichkeit, dies anachronismus­frei zu realisieren. Kurz: Es gibt keine Natur. Wer das bezweifelt, soll nur einmal versu­chen, alle domestizierten Nutztiere freizulas­sen, um festzustellen, was passiert, wenn diese gezüchtete Form der Natur in der Natur überleben müsste. Sie würden alle in Kürze tot sein, weil sie für dieses Leben in einer nicht technologisch überformten Natur un­tauglich sind.
Natur ist eben ein Kulturprodukt, das wissen wir längst, und die Frage ist nicht, wie wir die Natur retten können, sondern wie wir die natürliche Umwelt so konstruieren können, dass sie dabei nicht völlig zerstört wird. Das ist der Ansatzpunkt für einen nachhaltigen Umgang mit Natur. Es gibt niemanden, der freiwillig zugeben würde, dass er nicht für ökologische, für nachhaltige Formen des Umgangs mit Natur einträte, aber die We­nigsten überlegen sich dabei, was das eigent­lich bedeutet Denn es bedeutet eben nicht Rettung oder auch nur Wiederherstellung, sondern Herstellung von Natur. Wie bauen wir eine nachhaltige Natur? muss die Frage lauten und nicht: Wie kommen wir zurück zur Natur? Es gilt hier sozusagen ein Unum- kehrbarkeitsprinzip der zivilisatorischen Thermodynamik: Eine Umkehr der techno­logischen Entwicklung ist unmöglich. Das zeigt ein einfaches Gedankenexperiment: Je­der Versuch, die technologische Zivilisation in Richtung auf einen wie auch immer gear­teten Naturzustand zu verlassen, macht sei­nerseits mehr Technologie erforderlich. Al­len Propheten asketischer Moral zum Trotz gibt es keine Möglichkeit, das durch Entsa­gung zu bewerkstelligen.
Dazu kommt ein weiterer Punkt, der mit einer Hybridisierung der Kolonialisierungs- bereiche zusammenhängt: Das, was wir heu­te konstruktiv als Natur verstehen, ist nicht nur im Sinne der Technik der Veränderung von Organismen, sondern auch im Sinne der Technik des Informationstransports techno­logisch gekoppelt In dem Maße, in dem man bemerkt, dass Lebensprozesse Informations­übertragungsprozesse sind, geschieht näm­lich plötzlich eine Art inverser Domestizie­rung oder besser: Kolonialisierung der wis­senschaftlich strukturierten Natur durch Her­meneutik. Hans-Georg Gadamer hatte in sei­ner Rezeption der Thesen von Thomas S. Kuhn darauf bereits hingewiesen: Wir reden wie selbstverständlich – und meinen es nicht nur metaphorisch – vom „Buch der Natur“. Heute allerdings sind wir etwas bescheidener geworden, wir reden von Textstücken oder noch genauen von Buchstaben der Natur. Aus vier Buchstaben können wir das Alpha­bet der Natur zusammensetzen, und der Kon­text, in dem dies alles erst Bedeutung an­nimmt, ist die Ebene der Expression von Ge­nen, also die Ebene der Phänomene der le­bensweltlich sichtbaren Effekte. Wenn wir etwa an die Debatte um gentechnisch veränderte Nutzpflanzen denken, stellen wir fest, dass das atomistische Informationsübertragungsmodell scheitert Es verhält sich eben nicht so, dass die Informationen kontextfrei übertragen würden, sondern auch die gentechnische Veränderung von Organismen ergibt erst im Kontext ihren Sinn. Außerdem überleben diese Veränderungen in der Regel nicht mehr ab drei oder vier Generationen. Mit anderen Worten: Der Kontext des Gesamtsystems muss berücksichtigt werden. Man kann sich vorstellen, dass sich das so ähnlich verhält wie beim Lesen eines Buches. Auch hier ergibt das einzelne Element erst Sinn im Kontext des Ganzen, der seinerseits sich erst aus dem Sinn des Einzelnen erschließt. Und dieser „hermeneutische Zirkel“ erstreckt sich wiederum weiter auf den Kontext der geistesgeschichtlichen und realgeschichtlichen Entstehung sowie der Rezeptionsgeschichte.
Hier öffnet sich das riesige „Buch der Natur“, das nach dem Muster der Informationstheorie und Informationstechnologie ver­standen wird: das „Buch der Natur“ lesen wir auf dem Rechner, und auf dem Rechner wird die Bedeutung des einzelnen Elements in seinen Kontext gerückt. Wir sprechen des­wegen zu Recht auch heute, ähnlich wie in der Chemie, von einer „synthetischen Biolo­gie“, also von der Herstellung von Organis­men und der Herstellung von Naturproduk­ten und damit von einer Einlösung des Vico- Axioms. Nach Vico kann man nur das, was man selber gemacht hat, richtig verstehen, nur das ist eigentlich richtige Wissenschaft. Damit hatte er sich gegen die gesamte epistemologische Tradition gestellt und wurde so zum Ahnvater der Selbstlegitimation der modernen Geisteswissenschaften. Aber die­ses Vico-Axiom erhält wenn man es gleich­sam selbstreferenziell in dem hier entwickel­ten Kontext liest, eine ganz andere Bedeu­tung, nämlich: Die Herstellbarkeit von etwas ist das Wahrheitskriterium der Theorie über etwas. In Bezug auf die Technik wussten wir allerdings bereits, dass „verum ipsum fac­tum“ zuweilen historisch gesehen auch in der umgekehrten Reihenfolge auftaucht: Die Technikgeschichte ist eine Erfolgsgeschichte von gelingendem instrumentellem Handeln, das erst nachträglich wissenschaftlich erklärt werden kann; im 19. Jahrhundert mit der dann einsetzenden Tendenz, Wissenschaft, wie es im Sozialismus hieß, als „Produktiv­kraft“ einzusetzen, fängt es an, sich zu wen­den. Erst von da an entsteht wissenschaftlich geleitete Technik.
Das Resultat ist, wie bereits angedeutet, syn­thetische Biologie, und diese fällt interessanterweise nicht schon als solche der Techno­logie- und Kolonialisierungskritik zum Op­fer. Gentechnisch veränderte Organismen etwa, so stark sie im Prinzip auch in der Kri­tik stehen, werden in dem Moment anders gewertet, in dem sie zur Unterstützung von Gesundheit und Bekämpfung von Krankheit verwendet werden. Bürgerbewegungsartige Proteste gegen gentechnisch veränderte Or­ganismen zur Insulinproduktion etwa sind völlig undenkbar, es gibt gar keine Debatte darüber. Das zeigt, dass die Kolonialisierung der Lebenswelt an dieser Stelle deutliche le­bensweltliche Argumentationsdifferenzen aufweist: Wenn es darum gehen soll, Hybri­den herzustellen, sieht die Diskussion anders aus, als wenn es darum geht, Insulin zu pro­duzieren, dessen Nützlichkeit für die Men­schen außer Frage steht. Dann verschwindet auch der Widerstand. Das erinnert in der Rückschau an den Verlust der Popularität der Argumente Joseph Weizenbaums. Weizen­baum hat eine, wenn auch nicht weltweit, so doch zumindest in Deutschland sehr wir­kungsvolle Kampagne gegen die flächende­ckende Einführung von Computern lanciert und dabei verschiedene, zum Teil interessan­te Argumente ins Spiel gebracht. Aber diese ganze Debatte ist heute nur noch von histori­schem Interesse; ihre lebensweltliche Bedeu­tung ist wie ein letzter Spuk verschwunden. Das heißt, die Kolonialisierung der Lebens­welt durch die Informationstechnologie hat dafür gesorgt, dass kritische Stimmen wie die von Weizenbaum zwar nicht argumenta­tiv widerlegt, aber einfach verstummt sind. Darin lässt sich ein weiteres Indiz für das Zu­treffen der These der sich durch Kolonialisie­rung selbst verkehrenden zweiten Dialektik der Aufklärung sehen.


Die Kolonialisierung des Transzendenta­len

Die Metapher, von der wir bei der Koloniali­sierung des Transzendentalen auszugehen haben, ist die vom „Schöpfer Mensch“. Da­bei geht es um die Selbstschöpfung des Men­schen durch die Schöpfung der Welt. Auch hieran lässt sich wiederum die kreative Be­deutung von Metaphern erkennen. Gewiss, die Selbstschöpfung des Menschen ist eine übertriebene Metapher, trotzdem ist sie aber so ganz abwegig nicht. Die Frage ist nämlich die, ob wir hinter unsere eigenen rationalen Argumentationsmuster zurückgehen können. Anders und in der Sprache der Evolutions­theorie formuliert: ob das Individualapriori ein Gattungsaposteriori ist.
Zwar ist die Frage in dieser Weise falsch ge­stellt, weil es selbstverständlich sein kann, dass etwas in einer Beschreibungsebene oder in einem Beschreibungssprachstil als unhinterfragbare transzendentale Voraussetzung verstanden werden muss, in einer anderen Beschreibungsebene und in einem anderen Sprachstil sich aber durchaus als evolutionär oder evolutionsbiologisch überlebenstauglich erweisen kann. Aber damit ist die eigentlich bewegende Frage noch nicht angesprochen, nämlich die Frage, ob wir mit den Argumen­ten, die uns etwa die Evolutionsbiologie frei­zügig liefert, irgendetwas Hilfreiches für die Unterstützung unserer transzendentalen Argumentationsstruktur finden können. Machen wir uns nichts vor: Die Transzendentalphilo­sophie, so groß und so prägend ihre Ge­schichte für uns zumindest in unserem Teil der Welt gewesen sein mag, beruht auf einer ganz einfachen logischen Figur, nämlich auf derjenigen der notwendigen Bedingungen oder der schwachen Kausalität. Es wird in der transzendentalen Frage nicht nach der Bedingung der Wirklichkeit oder nach den Ursachen, sondern nach der Bedingung der Möglichkeit gefragt. Das heißt: Ist etwas widerspruchsfrei denkbar oder nicht? Und schon die Widerspruchsfreiheit ist in Klam­mem zu setzen, weil sie allein als Aus­schlusskriterium offenbar nicht ausreicht. Es geht also um die Frage: Wer sind wir eigent­lich in der 1. Person-Perspektive angesichts der in der 3. Person-Perspektive gerade an­gesprochenen Befunde der Kolonialisierung der Lebenswelt durch Technologie, die auch eine Kolonialisierung der Wissenschaft durch Technologie ist?
Die Antwort lässt sich überall finden; sie ist nicht nur naturalistisch, sie ist sogar techno­logisch oder technologistisch. Wenn wir uns ansehen, wie die Neurobiologen unsere Na­tur verstehen, so stellen wir fest, dass sie er­staunlicherweise nicht nur jeweils immer den aktuellen Stand der Wissenschaft als dasje­nige, worauf die Evolution hinauslaufen muss, ausweisen, sondern noch schlimmer: den jeweils aktuellen Stand der Technik. Bis etwa in die 70er und 80er Jahre werden Ge­hirne in der Neurologie, aber dann auch in der Neurobiologie wie selbstverständlich nach dem Vorbild von Computern model­liert. Und seit dem Siegeszug der Netzwerk­metapher werden sie wie selbstverständlich nach dem Modell von Netzen modelliert. Die Aktivierungspotentiale, die auf Netzen lau­fen, werden wie Knoten modelliert, und die Synapsenfunktionen werden mit denjenigen der Knoten in unserer Kommunikations- und Informationstechnologie identifiziert. Mit an­deren Worten: Es sieht so aus, als ob dieses Apriori der Modellierung bei der Wissen­schaft seinerseits ein technologisches Aposteriori ist, so dass jeweils immer die letzte Form der Entwicklung der technologischen Mode sich in den Modellierungen von Natur findet Und da drängt sich natürlich die Frage auf, die zunächst noch durchaus kontrafak­tisch erscheint, aber vielleicht gar nicht mehr so lange kontrafaktisch sein muss, es sei denn, man tue etwas dagegen, nämlich die Frage: Wie versteht sich der Mensch als Homo sapiens, wenn er zugleich als Homo sapiens auch ein Homo faber ist der den Homo sapiens selbst verändert? Und damit meine ich nicht marginal, sondern essentiell verändert, das heißt durch genetische Modi­fizierung als genetisches Doping. Die Frage ist: Was spricht eigentlich dagegen außer ele­mentaren moralischen Intuitionen?
Als der südafrikanische Chirurg Christiaan Barnard die erste Herztransplantation vor­nahm, wurden analoge Argumente laut die sagten, hier werde das Zentrum des Menschseins tangiert. Kulturhistorisch lässt sich leicht aufklären, warum man so argu­mentiert hat und warum das biologischer Un­fug war, aber trotzdem war es eine sozusagen transzendentale Abwehrreaktion, die auf na­türlichen moralischen Intuitionen beruhte. Was sollte uns nun daran hindern, eine gene­tische Veränderung, eine Veränderung sozu­sagen der inneren natürlichen Programmie­rung wenn nicht unserer, so doch der näch­sten Generation vorzunehmen?
Die Antwort darauf ist relativ einfach: Daran hindert uns nichts, außer dass wir merken, dass wir hinter uns als Subjekt auch dadurch nicht zurückgehen können. Gewiss, wir könnten uns als Knoten im Netz modellieren, wir könnten auch im Reagenzglas oder im Rechner uns selber modellieren, und es gibt dazu faszinierende Texte, die allerdings mehr Fiction als Science sind – es sei etwa auf Ga- louyes „Welt am Draht“ verwiesen, eine wunderbare Science-Fiction-Modellierung, bei der die Menschen nichts anderes als Teile eines großen Gesamtprogramms sind, und zwar inklusive der Meinungen und Ansich­ten über ihre eigene Körperlichkeit Das alles lässt sich kontrafaktisch modellieren, aber die Frage ist, ob dadurch das cartesianische Modell, dieses, als was ich dabei immer in der 1. Person auftauche, hintergehbar wird? Und die Antwort auf die erste Frage: Was können wir eigentlich dagegen einwenden, dass wir die Menschen, dass wir uns selbst genetisch verändern?, lautet: Wir können nur versuchen, dagegen zu sein, es gibt aber kei­ne Argumente; wohl gibt es plausible War­nungen wie etwa das „Wehret den Anfän­gen!“ als „slippery-slope-Argument“ oder den Hinweis auf historische Parallelen in einer etwas simpleren sozial-darwinistischen Denkweise. Aber letztlich gibt es nur das Nein dagegen, und insofern steht am Schluss unserer Überlegungen doch wieder, dass das Ich unhintergehbar bleibt Aber wenn wir verhindern wollen, dass wir mit diesem Ich Dinge anstellen, die den Menschen, also die 3. Person-Perspektive verändern, dann müs­sen wir ohne weitere Argumente dagegen sein. Unhintergehbar in der Argumentation bleibt das Ich aber allemal.

Über Zimmerli Walther Ch. 9 Artikel
Prof. Dr. Dr. Walther Christoph Zimmerli, geboren 1945, studierte Philosophie, Germanistik und Anglistik in Göttingen und Zürich. Nach Professuren an der Technischen Universität Braunschweig und den Universitäten Bamberg und Erlangen-Nürnberg hatte er seit 1996 den Lehrstuhl für Praktische Philosophie der Philipps-Universität Marburg inne. Von 1999 bis 2002 war Zimmerli der Präsident der privaten Universität Witten/Herdecke, von 2002 bis 2007 Mitglied im Topmanagement und Präsident der AutoUni des Volkswagen Konzerns. Seit 2002 ist er Ehrendoktor der University of Stellenbosch (Südafrika) und seit 2007 Präsident der Technischen Universität Cottbus.

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.