Chris Boos im Interview mit Stefan Groß: „In Wirklichkeit sind diese Roboter nichts anderes als Toaster“

Chris Boos, Foto: Stefan Groß

Stefan Groß: Die Künstliche Intelligenz kann Menschen viel Arbeit abnehmen, denken wir im Haushalt an „Alexa“ oder in der Medizin an Pflegeroboter. Sie betonten einmal, das mit dem Einzug von KI 80% der traditionellen Arbeitsplätze wegfallen. Aber was passiert dann mit dem Menschen, der sich da über diese definiert, weil sie Sinn in seinem Leben stiftet?

Chris Boos: Nein nein, das ist viel schöner. Also wenn wir uns die Arbeit der Menschen beispielsweise in Frankfurts Büro-Außenstadt Eschborn-Süd ansehen, was sehen wir dann? Da spuckt die S-Bahn morgens früh um sieben 600 Leute aus und die gehen dann mit so einer Fresse in irgend so ein Büroraumhaus. Man kann sich dabei kaum vorstellen, dass sie glücklich sind und mit dieser Einstellung letztendlich mehr Glück oder womöglich einen noch größeren Schaden verbreiten. Ich glaube, das Schlimmste ist, dass so wenig Zufriedenheit in der Arbeit steckt, die wir verrichten. Es gibt ein paar Leute wie mich, die total in ihrer Arbeit aufgehen, aber das ist nicht die große Mehrheit. Und das liegt auch daran, weil viele nicht die Anerkennung verdienen, die sie mit ihrer Arbeit hervorbringen. Ich glaube, dass wir viel bedeutsamere Arbeit machen könnten, wenn die Maschinen erledigen, was wir jetzt selbst mühevoll und schlecht gelaunt erledigen.

Natürlich kommt sofort die Frage: Was kommt denn jetzt für die Arbeit? Das weiß keiner. Und da hat man dann eine schwierige Situation, weil wir die Zukunft nicht voraussagen können. Und dann kommt die Angst ins Spiel. Aber ich plädiere für einen Perspektivwechsel: Wenn wir all die Dinge betrachten, die wir nicht machen, Umweltschutz beispielsweise, Hilfe gegenüber Bedürftigen und Kranken, und selbst dabei nur schrittweise uns mit uns selbst beschäftigen, so sind das Dinge, die wir vielleicht in Zukunft besser ausfüllen können. Es gibt viele Dinge, die noch zu tun sind. Die ganze Angst, die geschürt wird, dass uns die Arbeit ausgeht, geht aber tatsächlich erst dann auf, wenn es tatsächlich nichts mehr zu tun gibt. Aber davon sind wir weit entfernt. Wer also heute behauptet, und ich habe noch keinen getroffen, der derart auf Drogen ist, dass die Maschinen die Zukunft übernehmen und uns damit der Arbeit entfremden, so ändert sich die Wirtschaft nicht. Menschen werden weiter, eben für andere Tätigkeiten bezahlt – und tun letztendlich Dinge, die ihnen Spaß machen. Aber jetzt erst kommen wir zum eigentlich spannenden Teil – und das hat auch etwas mit Pragmatismus zu tun: Der eigentlich spannendere Teil ist der Zukunftsteil. Ich nenne das Transitionsphase. Also wie kommt man zum nächsten Schritt? Wie kommt man von „Es sind alle Bauern“ zu „Die Menschen arbeiten in Fabriken.“ Wie kommt man zu „Die Menschen arbeiten in Fabriken“ zu „Die Menschen arbeiten in Büros.“ Die Transition ist das Spannende, weil sie das ist, was uns weh tut. Normalerweise werden zuerst alle gefeuert, irgendein paar wenige nehmen die Kohle vom Tisch und irgendwann später geben sie das Geld wieder aus und reinvestieren. Das dauert normalerweise so ein bis zwei Generationen. Diese Transitionsphasen sind meistens nicht angenehm. Also wenn man einen bösen Spruch machen möchte: Nach der industriellen Revolution haben wir zwei Weltwirtschaftskrisen und zwei Weltkriege gebraucht bis wir wieder ein stabiles System hatten. Dann kam das Wirtschaftswunder und alle hatten Arbeit. Wir sind jetzt in einer derartigen Situation, aber nicht wegen KI. KI gibt uns die Möglichkeit, quasi in diese nächste Stufe zu springen. Deshalb reden ja viele von der nächsten industriellen Revolution, ob das jetzt die vierte oder die fünfte ist, dies ist total egal. Die Frage, die dahinter steht ist: Warum sollte diesmal die Transitionsphase anders ausschauen als beim letzten Mal? Und ich glaube die Antwort hier ist relativ einfach: Weil es diese Plattform-Unternehmen gibt. Wir brauchen KI auch, um uns gegen die großen Plattform-Unternehmen zu wehren, die heute schon jedes einzelne andere Unternehmen angreifen können. Und wir müssen es, weil sie auch dem Wachstums-Diktat unterliegen. Warum macht Google selbstfahrende Autos? Weil sie in eine andere Industrie reinwachsen müssen. Warum ist Google da besser positioniert als jede andere Automobilfirma? Weil sie auch Fehlschläge ertragen können. Wenn das Auto von Google Auto nicht fährt, dann sagt der Verbraucher, na ja gut, es ist halt keine Autofirma. Wenn das Auto von BMW nicht fährt, dann lachen alle. Die haben viel bessere Chancen und die finanziellen Mittel das so oft zu machen bis es geht. Wenn wir also in dieser Welt KI vernachlässigen, dann gehören beispielsweise die nächsten Kraftwerkspatente nicht Siemens, sondern Google. Es gibt acht Plattform-Firmen in dieser Welt . Und wenn man nur drei von großen zusammennimmt, sieht man, das diese drei Firmen mehr wert  sind als alle Firmen in den Daxwerten. Also Dax, M-Dax, S-Dax zusammen. Nur drei Firmen. Das heißt, das Kapital hat seine Wette schon lange gemacht. In diesen drei Firmen steckt mehr Zukunft als in der ganzen deutschen Industrie. Und deswegen kann man es sich, wenn diese Industrie jetzt mit KI anfängt, gar nicht leisten, alle Leute vor die Tür zu setzen, sondern die einzelnen Industrien sind jetzt schon im Überlebenskampf mit den Plattformen. Die müssen das menschliche Kapital einsetzen, weil sich nur die Menschen um die Zukunft kümmern können. Maschinen kümmern sich immer nur um Status quo. Und machen den vielleicht noch ein bisschen besser, aber sie werden nie die Zukunft entwerfen.

Stefan Groß: In Sachen KI geschieht in Amerika und China sehr viel, in Deutschland nicht. Ist das eine Mentalitätsfrage?

Chris Boos: Weil wir es nicht gemacht haben. Es gibt sehr wenig Risikobereitschaft in unseren Unternehmen. Auch im Kapital gibt es wenig Risikobereitschaft. Bei uns gibt es zu wenig Gründungen. Denn man muss immer bedenken was es kostet in die Zukunft zu investieren. Das ist nicht unser Investitionsstil. Noch nicht. Aber ich glaube, das muss kommen. Und wir versuchen ja auch, so langsam aus diesem persönlichen Verantwortungsmodell zu kommen. Entscheidungen werden im Komitee getroffen. Und wir müssen uns alle einigen. Und wenn es eine schlechte Entscheidung war, muss man nicht das Ergebnis verbessern, sondern tritt, wenn man Fehler gemacht hat, einfach zurück. Diejenigen, die Fehler gemacht haben, sollten diese auch ausbaden. Aber auch hier werden wir lernen müssen, Verantwortung zu tragen und Pioniergeist wieder zu entwickeln. Deutschland war das Land mit den innovativsten Geistern, Entdeckern, Ingenieuren, weil diese Menschen Mut hatten, ihre Ideen voranzutreiben und Risiken eingegangen sind. So beispielsweise Robert Koch, der absolute Medizin-Star heute. Den würden wie heute sofort verhaften müssen.

Stefan Groß: Was macht einen KI-Pionier eigentlich aus?

Chris Boos: Am Ende des Tages ist KI ein High-Tech-Feld. Da beschäftigt man sich mit Informatik, mit Mathematik, mit Physik. Und man muss zu Lösungen kommen. Also ich verbringe noch einen sehr großen Teil meiner Zeit tatsächlich mit Algorithmen, Design und diesen Dingen. Und ich glaube, das ist auch richtig. Die Frage wäre wahrscheinlich interessanter gewesen: warum sitzt ein Mensch, der schon lange KI macht in Deutschland noch nicht im Silicon Valley? Das ist die spannendere Frage. Und ich war ja grade auf den Forschungsgipfeln, da gab es offensichtlich ein Managermagazin-Interview mit einem Gründer, der aus Deutschland nach den USA gegangen ist. Und der sagte, ich komme garantiert nicht zurück. Dort hat er einfach bessere Bedingungen. Man bekommt hier in Deutschland keine Anerkennung für sein Risiko, die Einwände sind immer „ja aber“ und dann kommt irgendwas, warum man es nicht machen kann. Es gibt sie nicht, die Freiheit tatsächlich voranzumarschieren. Auf der anderen Seite muss man sich auch überlegen, dass es hier besonders schön ist. Kinder gehen auf eine normale Schule ohne Millionäre. Wir haben hier eine unglaubliche Diversität und sind mobil schnell überall in der Welt. Es ist noch nicht alles komplett durchstandardisiert. Also das ist doch ein unglaublicher Wert, den wir haben. Und wir leben diesen nie aus und wir erzählen ihn auch niemandem.

Stefan Groß: Für die KI wird immer wieder eine Ethik gefordert. Sehen Sie das genauso oder anders gefragt: Müssen wir Roboter als ein menschliches Gegenüber anerkennen?

Chris Boos: Sie sind Philosoph oder? Würden Sie sagen, dass etwas, was keinen Willen hat, Ethik und Moral haben kann?

Stefan Groß: Naja die Frage ist doch: Wenn ich Maschinen entwickelt, die selbständig Entscheidungen treffen, dann stellt sich doch die Frage nach der Verantwortung, wenn es schief geht, wenn ein selbstfahrendes Auto beispielsweise jemanden tötet. Wer ist da verantwortlich – die Maschine?

Chris Boos: Der Hersteller ist doch klar, das finde ich ist völlig unstrittig. Aber wirklich ethisch moralisches Verhalten kann man doch von solchen Kisten gar nicht erwarten. Die machen das, was die Gesellschaft vorgibt. Ein Beispiel – das autonome Fahren. Da wird man immer gefragt: Wenn das Auto tötet, soll es lieber das Kind oder die Oma umfahren? Gehen wir zwei Schritte bei der Beantwortung der Frage zurück: Erstens, was würdest du machen, wenn du im Auto sitzt? Also dann haben die Leute die Ausrede, dass sie sagen, so schnell kann ich gar nicht reagieren. Und was man wirklich macht ist das, und dies ist vergleichbar mit einem Affengehirn, dass das schon seit tausenden von Jahren macht, was am unschädlichsten für einen selbst ist. Das ist nicht notwendigerweise richtig, aber so etwas wie ein antrainierter Instinkt. Aber interessanter wird die Frage, wen das Auto überfährt. Hier gibt es vor dem Hintergrund der Kultur betrachtet ganz  verschiedene Antworten, die für uns in Europa merkwürdig klingen, aber in anderen Kulturen völlig normal sind. Nehmen wir mal an, wir kommen aus Indien. Da ist die Entscheidung sehr einfach, da fährt man das Kind platt. Weil das Alter die Erfahrung hat und man immer genug Kinder hatte. Und das wird philosophisch dadurch begründet, dass man das Alter wertschätzt. Anders verhält es sich in Brasilien. Da fährt man die Oma platt. Warum? Weil man eine Philosophie der Nomaden hat und die Alten den Stamm behindern. Die Alten sind hinderlich, die müssen gehen und sie treten freiwillig ab. Und jetzt zu Europa. Hier dürfen wir diese Entscheidung gar nicht treffen, weil alles Leben gleich viel wert ist. Hilft nur noch eins, Immanuel Kant: Es gibt Zufall. Also wenn man das wirklich einmal durchdenkt, dann ist die korrekte westliche Moralvorstellung von einem selbstfahren Auto, was eine Entscheidung treffen muss, zufällig. Das wäre das einzig richtige. Wollen wir das aber, wenn der Zufall auch den Insassen treffen kann? Das ist eine andere Sache und das ist nicht etwas, das Maschinen entscheiden dürfen. Wir sind es, die die Entscheidung treffen.

Die Diskussion über Ethik und Moral ist hoch wichtig. Aber der Versuch, diese an ein paar Programmierer abzudrücken ist nicht legitim. Wir haben heute andere große Probleme: Fremdenhass, Umweltprobleme, eine Doppelmoral, die einerseits fremdenfeindlich ist, andererseits aber Mitleid empfindet, wenn Menschen im Mittelmeer ertrinken. Da tauchen wirklich moralische Fragen auf. Das können Maschinen nicht lösen. Maschinen haben keine Ziele. Die setzen um, was wir wollen. Und wenn wir wollen, dass sie alte Leute wie Meterware behandeln, dann machen die das auch. Ich persönlich bin kein Freund von Pflegerobotern. Das werden sie auch so nicht in Europa finden, weil wir Menschlichkeit mit Alter verbinden. In Japan zum Beispiel gibt es viele Freunde von Pflegerobotern, weil die Philosophie in Japan eine andere ist. Dort wollen die alten Leute den Jüngeren nicht zur Last fallen. Die finden Roboter ok. Übrigens ist es für die Pflege ganz interessant: Roboter erzeugen viel weniger Daten, die man mit Sinnesorganen aufnehmen kann als Menschen. Das heißt Leute, die geistige Schwierigkeiten haben, also bei Alzheimer oder Demenz, die wollen und können sich nicht überfordern lassen. Roboter machen sie nicht so aggressiv wie das Pflegepersonal, denn das Auge liefert mit gleicher Bandbreite, aber das Gehirn kann es nicht mehr verarbeiten. Sie haben lieber mit Robotern zu tun, weil die sie nicht so sehr überfordern. Aber in Wirklichkeit sind diese Roboter nichts anderes als Toaster.

Fragen: Stefan Groß

Finanzen

Über Stefan Groß-Lobkowicz 2127 Artikel
Dr. Dr. Stefan Groß-Lobkowicz, Magister und DEA-Master (* 5. Februar 1972 in Jena) ist ein deutscher Philosoph, Journalist, Publizist und Herausgeber. Er war von 2017 bis 2022 Chefredakteur des Debattenmagazins The European. Davor war er stellvertretender Chefredakteur und bis 2022 Chefredakteur des Kulturmagazins „Die Gazette“. Davor arbeitete er als Chef vom Dienst für die WEIMER MEDIA GROUP. Groß studierte Philosophie, Theologie und Kunstgeschichte in Jena und München. Seit 1992 ist er Chefredakteur, Herausgeber und Publizist der von ihm mitbegründeten TABVLA RASA, Jenenser Zeitschrift für kritisches Denken. An der Friedrich-Schiller-Universität Jena arbeitete und dozierte er ab 1993 zunächst in Praktischer und ab 2002 in Antiker Philosophie. Dort promovierte er 2002 mit einer Arbeit zu Karl Christian Friedrich Krause (erschienen 2002 und 2007), in der Groß das Verhältnis von Metaphysik und Transzendentalphilosophie kritisch konstruiert. Eine zweite Promotion folgte an der "Universidad Pontificia Comillas" in Madrid. Groß ist Stiftungsrat und Pressesprecher der Joseph Ratzinger Papst Benedikt XVI.-Stiftung. Er ist Mitglied der Europäischen Bewegung Deutschland Bayerns, Geschäftsführer und Pressesprecher. Er war Pressesprecher des Zentrums für Arbeitnehmerfragen in Bayern (EZAB Bayern). Seit November 2021 ist er Mitglied der Päpstlichen Stiftung Centesimus Annus Pro Pontifice. Ein Teil seiner Aufsätze beschäftigt sich mit kunstästhetischen Reflexionen und einer epistemologischen Bezugnahme auf Wolfgang Cramers rationalistische Metaphysik. Von August 2005 bis September 2006 war er Ressortleiter für Cicero. Groß-Lobkowicz ist Autor mehrerer Bücher und schreibt u.a. für den "Focus", die "Tagespost".