Rethinking Leibniz – Transhumanismus in der Dekonstruktion

Es folgt der gesamte Beitrag – vorab die bibliographischen Daten plus Bezugsquelle des Buches

jbpaed2014_400Rethinking Leibniz –
Transhumanismus
in der Dekonstruktion

in: Kluge, Sven; Lohmann, Ingrid; Steffens, Gerd (Red.) –
Jahrbuch für Pädagogik 2014
– Menschenverbesserung
– Transhumanismus,
Jahrbuch für Pädagogik (Band 29),
Verlag Peter Lang, Frankfurt a.M., Berlin, Bern, Bruxelles, New York, Oxford, Wien, 2014.
393 S.,  S. 191-204

Zusammenfassung: Der Beitrag versucht, die in einem Pro-und-kontra-Schema ge­fangene Debatte um das Verhältnis zwischen Humanismus und Transhumanismus zu dekonstruieren durch Infokusnahme eben dieses Gegensatzes und seiner Vor­aussetzungen. Der Transhumanismus und seine Ideen sind insbesondere verstrickt in die durch die westliche Schriftkultur vorgegebenen Konditionen des Humanen. Damit schlagen die Einschränkungen der positivsprachlichen Einschreibungsweisen als Einschränkungen zurück auf die grundlegende Idee einer technologiebasierten selbstgesteuerten Weiterentwicklung der Menschen. Als möglicher Ausweg aus dem Dilemma der Selbstgefangenheit wird ein Rückgriff auf das Leibnizsche Projekt einer Universalsprache identifiziert, jetzt bereichert um eine neuere Reflexion der wissenschaftslogischen und philosophischen Randbedingungen der Konstruktion einer formalen Sprache, die widerspruchsfreie Beschreibungen komplexer Zusam­menhänge nicht nur in den Lebenswissenschaften erlaubt. Dabei wird auch die inter­kulturelle und damit politische Dimension des Projekts Transhumanismus gestreift.

Abstract: The contribution tries to deconstruct the debate about the relationship between humanism and transhumanism, which is caught inside a scheme of pros and cons, by focussing on the very contradiction and its preconditions. Transhu­manism and its ideas are particularly mired in the conditions of Human purported by the Western culture of writing. Thereby the limitations of inscriptions based on positive languages as limitations strike back on the basal idea of a technolo­gy-based and selfcontrolled advancement of humans. As a possible way out of the dilemma of self-imprisonment a recourse of the Leibnizean project of a universal language is identified, now enrichened by a newer reflection of scientific-logic and philosophical boundary conditions of the construction of a formal language, which allows consistent descriptions of complex interrelations not only suited for life sciences. Thereby also the intercultural and therefore political dimension of the project transhumanism is touched.

Keywords: Dekonstruktion, Transhumanismus, Polykontexturalität, Universalsprache, Komplexität

In einem Interview mit Nick Bostrom und David Pearce, den Gründern der World Transhumanist Association, einer nicht-kommerziellen Organisation mit der Zielsetzung, die menschlichen Fähigkeiten mittels Technologie zu verbessern, fasst der Interviewer Andrés Lomeña den Diskurs zur Begriffsbestimmung dessen, was Transhumanismus sei und bedeute, und die Kritik daran reichlich verkürzt zwischen zwei Polen zusammen, deren unterschiedliche Ansätze er als optimistisch und pes­simistisch bzw. dystopisch bezeichnet (vgl. Bostrom, Pearce 2007). Optimistisch meint hier, dass der Mensch aus eigener Kraft als Homo technicus sich selbst und seine Umgebung – gewissermaßen jenseits der alle anderen Lebewesen betreffen­den natürlichen Evolution – bewusst und zielgerichtet weiterentwickelt und opti­miert. Unter den Adjektiven „pessimistisch“ und „dystopisch“ hingegen werden alle Positionen versammelt, die in den unter dem Titel Transhumanismus zusammenge­fassten Bestrebungen eine Gefahr sehen, angefangen von der Undurchführbarkeit über das Terminator-Argument, dass die Ängste vor Maschinenherrschaft bzw. der Überflüssigkeit des Menschen zum Ausdruck bringt, das Frankenstein-Argument der Unkontrollierbarkeit eines künstlichen Supermenschen bis hin zum ethisch-mo­ralisch motivierten „Gott-spielen“-Argument. Als häufiger Kritikpunkt, oft als Vor­wurf gegen transhumanistische Bestrebungen formuliert, wird im Zusammenhang mit dem „Gott-spielen“-Argument auch die „eschatologische Vision“ genannt (vgl. Bostrom, Pearce 2007). Damit unterstellen die Kritiker den Vertretern der optimis­tischen Sicht quasi-religiöse Züge. Des Weiteren zu bemerken ist, dass Lomeña der Struktur der Debatte um den Transhumanismus durch seine verkürzte Darstellung einen Dualismus gewissermaßen durch die Hintertür beschert.

Zum Zweck der Präzisierung und der Anschlussfähigkeit an andere, in ihrer Struktur sehr analoge Debatten der letzten drei Jahrzehnte wird daher vorgeschla­gen, die beiden Positionsfelder deutlich aufzuweiten, zu öffnen, und mit den tref­fenderen Adjektiven „technikeuphorisch“ und „kulturpessimistisch“ zu belegen (vgl. Paul 2005). Denn die Frage nach dem Transhumanismus berührt zweifellos direkt die Frage nach der Technik des Menschen, nach unserer Technik, und er­öffnet somit die Möglichkeit, das einfache duale Schema aufzubrechen bzw. zu­gunsten von Neuem zu verlassen.

Bereits 1951 schrieb der Semiotiker Max Bense zur anthropologischen und ontologischen Bedeutung der Technik in seinem Aufsatz Kybernetik oder Die Me­tatechnik einer Maschine: „Beide, Intelligenz und Welt, bedingen einander; und das ist ebenso ein kybernetischer wie auch ein anthropologischer Satz.“ Bense weist damit deutlich auf die Selbstrückbezüglichkeit bzw. die Möglichkeit der Selbstrückbezüglichkeit als eine Grundbedingung des Menschlichen hin. Sein Aufsatz endet mit der Formulierung eines Auftrags: „Der Mensch als technische Existenz: das scheint mir eine der großen Aufgaben einer philosophischen Anth­ropologie von morgen zu sein.“ (Bense 1999, S. 482f).

In der konkreten Debatte zur Provokation „Transhumanismus“ wäre damit – zunächst unter Rückgriff auf Bense – ein weiteres Mal die Frage nach der Technik aufzuwerfen, und zwar einer Philosophie der Technik, die jenseits der zwischen Kulturpessimismus und technischen Allmachtsphantasien verlaufenden Frontli­nien das Grundverhältnis zwischen Konstrukteur und Konstruiertem, die wechselseitige Bedingtheit von Mensch und Technik und damit die Stellung des Menschen im Kosmos thematisiert. Diese Ebene hat die bisherige Debatte um den Transhumanismus jedoch noch nicht erreicht. Hier verharrt man wie oben gezeigt undialektisch im einfachen dualen Schema von pro und contra und ist nicht in der Lage, diese Gefangenschaft zu sehen, geschweige denn zu verlassen.

Die Verbesserung des Menschen und seiner Umgebung durch den Menschen selbst – vermittels der eigenen technischen Potenz – bis hin zur Vision der Über­windung des Todes, ist das zentrale Narrativ, gewissermaßen der Gründungsmy­thos des Transhumanismus.

In der Regel werden dabei jedoch zumindest drei weitere Kontexte oder Berei­che übersehen. Ein erster Bereich hat sich mit auf die conditio humana bezogenen Fragen zu befassen. Ein weiterer hat neben den methodisch-philosophischen auch politische und politikhistorische sowie interkulturelle Implikationen zu berück­sichtigen. Das in alle drei Bereiche hineinspielende Methodisch-Philosophische gewinnt noch einmal eine besondere Bedeutung, wenn im dritten Bereich theore­tische Einschreibungsweisen zu diskutieren sind. Alle drei Kontexte liefern signi­fikante Beiträge, das oben genannte dichotome Positionsschema gewissermaßen zu transformieren. Denn eine Reflexion des dichotomen Schemas ist unmöglich, wenn innerhalb des Schemas verblieben wird. Aus diesem Grund muss metho­disch eine weitere zu leistende Denkbewegung eingefordert werden, die sich deutlich jenseits dieser Dichotomie von Technikeuphorie und Kulturpessimismus bewegt bzw. diese selbst mit in die Behandlung des Themas hinein nimmt. Eine solche Denkbewegung muss daher eine doppelte sein, um den Anforderungen ei­ner sinnvollen Dekonstruktion der Fragestellung genüge zu leisten. Sie wendet sich einerseits kritisch gegen die Gefangenschaft im dichotomen Schema und an­dererseits sowohl gegen den Technikskeptizismus eines Günther Anders – der Mensch wird nebengeschichtlich –, und den Heidegger’schen Vorwurf der Seins­vergessenheit gegenüber Wissenschaft und Technologie, als auch gegen kritiklose Phantasmen der technologischen Mach(t)barkeit.

Darüber hinaus schließen die schon als Ziel gefassten Begriffe der Weiter­entwicklung und Optimierung weitere Fragen mit ein, die die Fragenkontexte bereichern: Warum? Damit ist die Frage nach dem bzw. einem Zweck gestellt. In welche Richtung? Unter der Vorab-Annahme des technisch Machbaren muss gefragt werden: Wie groß und wie beschaffen ist eigentlich der Möglichkeitsraum der Richtungen? Optimierung? Nach welchen Kriterien? Wer fällt Entscheidun­gen über wen? Das heißt, wie verhalten sich die Subjekte, die Designierenden und die Objekte, die Designate der Entscheidungen? Jeweils zu sich selbst, also selbstreferentiell, sowie zueinander, also heteroreferentiell? Denn die Selbstan­wendung menschlicher Technologie durch den Menschen auf den Menschen verändert zwangsläufig die Selbstverhältnisse sowie die Fremdverhältnisse des Menschen.

Gerade zur Zeit besteht der berechtigte Verdacht, dass mit „Kriterien der Op­timierung“ vornehmlich ökonomische gemeint sein können, denn die Dominanz des orthodox ökonomischen Denkens ist weltweit allgegenwärtig und krisenhaft. Insofern ist „Optimierung“ schon zu kritisieren als ein von vornherein dem Ver­dacht eines Ideologie-unterworfenen Zwecks ausgesetzter Begriff. Ob er sich da­von durch andere Interpretationen befreien lässt, scheint fraglich.

Evolutionsprozessen hingegen – auch denen des Menschen – als Prozessen der Natur kann eine ganz prinzipielle Zweckfreiheit unterstellt werden. Zuletzt ist es der Philosoph Jean-Luc Nancy, der auf die „Zwecklosigkeit der Zwecke“ hinweist, die am Anfang aller unserer Technik steht (vgl. Nancy 2008; 2011). Oder anders gewendet: Die Zweckfreiheit in der Evolution des Menschen ist der Zweck der Freiheit.

Seit Paul Alsberg wissen wir zudem um eine weitere Möglichkeit unseres Blicks auf die techné. Der Arzt und Anthropologe führt in seinem 1922 erstmals erschienenen Werk Das Menschheitsrätsel den Begriff der Körperausschaltung ein und liefert damit neben Anpassung einen notwendigen zweiten Begriff, mit dessen Hilfe nun an eine Weichenstellung innerhalb der menschlichen Evolution gedacht werden kann (vgl. Alsberg 1922/1979). Sein gedankliches Konzept kann erfolgreich gegen die im 20. Jahrhundert sehr populäre und dominante Auffassung gewendet werden, die Technik in erster Linie als Mittel des Menschen sieht, einen Anpassungsmangel – und damit einen Zweck – gegenüber den optimal an ihre Umgebung angepassten Tieren zu kompensieren (vgl. Gehlen 1940).

Für die conditio humana ist festzuhalten, dass der Mensch im Rahmen des Humanen als sterbliches Wesen bestimmt ist. Wenn Transhumanismus nun nahe­liegenderweise das Ziel hat, eine Position zu entwickeln, die diese Bestimmung übersteigen soll, die neben Verbesserung sogar die Nicht- oder Unsterblichkeit adressiert, dann ergibt sich für die Dichotomie vom Leben und Sterben des Men­schen eine Paradoxie „insofern, als es weder dem Humanismus, der seine Kraft aus der Vergangenheit schöpft, noch dem Transhumanismus, der sich seiner Zu­kunft sicher wähnt, gelungen ist, zu bestimmen, was Leben und damit Sterben für den Menschen überhaupt bedeuten“ (Kaehr 2010a). In dieser Aussage des Philo­sophen und Logikers Rudolf Kaehr wird auf die ganz prinzipielle und nicht nur dem Zeitgeist geschuldete Verdrängung des Begriffs der Bedeutung hingewiesen und die Situation des Unfertigen, des nicht Abgeschlossenen thematisiert, in dem Sinne, dass der Humanismus seinen selbst gestellten Anspruch der Bestimmung des Menschen bislang nicht erfüllt hat, nicht vollständig erfüllen konnte.

Ganz analog kritisiert Stephen Toulmin in seiner Kosmopolis die unerkannten und daher nicht gelösten Aufgaben der Moderne und gelangt zu der Schlussfolge­rung, dass es einer neuen Humanisierung der Moderne bedarf. Seiner Auffassung nach „können wir uns weder an die Moderne in ihrer historischen Form klammern noch sie völlig ablehnen – und gewiss nicht verachten.“ Aufgabe sei es „vielmehr, unsere ererbte Moderne zu reformieren, ja richtig wiederherzustellen, indem wir sie humanisieren. Das ist keine leere Mahnung“ (Toulmin 1994, S. 288f). Eine Mahnung zu einer Re-Humanisierung also. Ganz offensichtlich stünde eine solche Rehumanisierung vor strukturell identischen Problemen wie eine Transhumani­sierung. Der Humanismus und dessen unerfüllter Anspruch verkörpert selbst das Dilemma, unter dem sich eben auch die Fragen nach Re- und Transhumanisierung versammeln.

Damit ist der Vollständigkeit halber des Weiteren für die politische Dimension unbedingt zu erwähnen, dass der Humanismus einen ideologischen Hegemoniean­spruch des Westens darstellt bzw. sich als ein solcher interpretieren lässt. Insofern ist die Frage berechtigt, ob – und wenn ja – was dieser Umstand für eine Bedeu­tung für den Transhumanismus und seine Ansätze haben könnte. Die dialektische Verschränkung von Identität und Differenz – Identität und Differenz bedingen einander – bildet das Grundmuster, über das die Selbsterfahrung des einzelnen Ich erst möglich wird, d.h. in einer Konkretheit des Beziehungsgeflechts zwischen uns Menschen. Hier bewegen wir uns mitten im politischen Raum, in dem wir „das Wir“ antreffen und damit die dynamischen Relationenfelder zwischen uns Menschen und Menschengruppen. Der Humanismus hingegen lässt diese Kon­kretheit vermissen, er setzt auf das abstrakte Prinzip Menschheit, auf eine quasi statische, von alten männlichen weißen Europäern des 19. Jahrhunderts konstru­ierte überhistorische Norm, von der aus das Wesen des Menschen bestimmbar sei. Als Momentaufnahme markiert der Humanismus somit den – nicht abgeschlos­senen – Abschluss einer historischen Entwicklung, an dessen logischem Ende ein Vorschlag für ein allgemein verbindliches ethisches Wertesystem steht. Zukünf­tigen Entwicklungen und Entfaltungen ist damit jedoch der Raum genommen. Der Humanismus mit seinem Anspruch, als denkerisches Metasystem über den Entwicklungen zu stehen, erweist sich als nicht mehr geschichtsfähig und damit nicht zukunftsfähig. Wird der Humanismus als Fanal der Freiheit zur Entfaltung des jeweils einzelnen menschlichen Individuums interpretiert, löst er sich sogleich auf in einem Selbstwiderspruch. Auch neuere, als evolutionärer Humanismus be­zeichnete Überlegungen ändern hieran nichts, denn eine Redynamisierung eines prinzipiell statischen Konzepts ist wenig mehr als Augenwischerei, sie verändert oder erweitert das Konzept als solches nicht (vgl. Paul 2013a). Der Humanismus kann die Konkretheit des Wir nicht kennen, die gerade aktuell durch das wel­tumspannende elektromagnetische Feld des Internet eine Entbindung von unserer biologisch bedingten optischen und akustischen Kommunikationsreichweite und damit eine völlig neue Qualität erfährt.

Der tiefere Grund liegt in der Konstruktion des Humanismus auf der Basis der strukturarmen klassischen Ontologie, die nur das einzelne Subjekt und die Welt kennt, jedoch nicht das Du und damit auch nicht die Verbindung von Ich und Du, das Wir. Vilém Flusser löst dies humoristisch auf, indem er dem Humanisten fol­genden Satz in den Mund legt: „Ich liebe die ganze Menschheit, es sind die Leut’, die mir auf die Nerven gehen!“ (Flusser 1999)

Dies soll hier jedoch nicht weiter verfolgt werden, da dieser Aspekt zweifellos eine ganz eigene detaillierte politologische und politikhistorische Analyse wert ist. Dennoch wird darauf zurückzukommen sein.

Darüber hinaus ist für den Raum der Einschreibungsweisen festzuhalten, dass sowohl die Theorien des Trans- und Posthumanismus als natürlich auch der Hu­manismus sich weiterhin als verstrickt in die Konditionen des Humanen erwei­sen, so wie sie durch die westliche Schriftkultur vorgegeben sind. Damit ist eine Einschreibungsweise vorbestimmt, die ganz allgemein Erörterungen aller Art in positivsprachliche Konzeptionen zwingt. Schon durch die auf den Axiomen der zweiwertigen Aristotelischen Logik basierende basale Trennung zwischen Signifikant und Signifikat, zwischen Designierendem und Designat, Operator und Operand, ist eine grundlegende hierarchische Struktur vorgegeben, die eine irreduzible Darstellung von Simultaneität und Parallelität ganz prinzipiell verun­möglicht und in die hierarchische Struktur der Sequenz, des Vorher und Nachher, der Linearität, der Linie zwingt. Erörterungen von Möglichkeitsräumen sowie die Erzeugung von Neuem sind hier verwehrt.

Dies ist nicht intuitiv und unmittelbar einzusehen, da unser Denken allzu sehr in Kausalitätsketten verhaftet ist. Zur Verdeutlichung der Problemstellung mag ein stark vereinfachter Zusammenhang aus der Biochemie der Lebensprozesse dienen. Die Erbsubstanz DNA dient der Information für die Synthese von Protei­nen aus den Aminosäuren. Es lässt sich also sagen, dass die DNA einen Opera­tor repräsentiert, der auf die Aminosäuren als Operanden prozesshaft einwirkt, so dass am Ende der Kette Eiweiße herauskommen. Umgekehrt wissen wir aber um die Möglichkeit der Reparatur des Genoms, etwa bei Schädigungen. Der Mecha­nismus des Gene-repair seinerseits besteht aus einem Einwirken von Proteinen auf die DNA-Sequenzen. Das Operator-Operanden-Verhältnis ist hier genau um­gedreht. Es gibt nun kein formal widerspruchsfreies Operator-Operanden-Modell, dass diese Vertauschung erlaubt bzw. das den Gesamtzusammenhang zwischen Genom und Proteinen umfassend beschreiben kann.

Ein gutes Beispiel für die Gefangenschaft des Denkens innerhalb dichoto­mer hierarchischer Strukturen ist die unter Transhumanisten diskutierte Idee des Transfer-Uploading. Unter Upload wird die Absicht verstanden, Geist oder Mind als die aktuellen Prozessdaten eines menschlichen Gehirns oder Nervensystems in toto auf eine z.B. siliziumbasierte Maschine zu übertragen unter Erhaltung der Identität der Person. Hier setzt man sich gleich drei Denkfallen aus.

Zunächst hierzu Nick Bostrom: „Ich denke, dass beim Uploading unter den richtigen Voraussetzungen sowohl das Bewusstsein als auch die persönliche Identität erhalten werden können. Aber ich würde mich nicht als Dualisten be­zeichnen. Ich denke, dass mein Geist derzeit auf einer Art Proteincomputer läuft. Wenn exakt die gleichen Prozesse auf einem Silikoncomputer ablaufen würden, könnte ich vermutlich überhaupt keinen Unterschied feststellen“ (Bostrom, Pe­arce 2007).

Denkfalle Dualismus: Bostrom würde sich nicht als Dualisten bezeichnen, je­doch das hier Gesagte weist ihn exakt als einen solchen aus, denn im Moment des Uploads auf die Maschine, im Moment der Übertragung wird schon zwischen dem alten Carrier, dem Körper, und dem neuen, dem Siliziumcomputer auf der einen sowie dem zu Übertragenden auf der anderen Seite getrennt. Das ist präzise der alte Leib-Seele- oder Geist-Körper-Dualismus durch die Hintertür, dieses Mal im Gewand von Software und Hardware. Die auch von Transhumanisten erklär­termaßen bevorzugte Idee des Materialismus ist hier nicht exakt durchgeführt, sondern verstrickt sich im Widerspruch. Zudem werden Identität und Materialität apriori voneinander separiert.

Denkfalle Digitalismus: Es ist von Siliziumcomputern die Rede, Maschinen also, die Analoges in digitale Codes übersetzen. Damit setzen sich die Autoren im­plizit dem Digitalismusvorwurf aus. Der Digitalismus als philosophische Schule, „digital philosophy“, deren prominenteste Vertreter die US-Amerikaner Gregory Chaitin, Rudy Rucker, Edward Fredkin und Stephen Wolfram sowie Konrad Zuse sind, postuliert, dass das Universum als ein gigantischer Turing-vollständiger zel­lulärer Automat verstanden bzw. beschrieben werden kann. Dies ist unter ver­schiedenen theoretischen Gesichtspunkten schwerlich haltbar, Fredkins Ansatz (vgl. Fredkin 1992) führt zu Widersprüchen gegenüber Einsteins allgemeiner Re­lativitätstheorie, die eine rein analoge Theorie ist, und Wolframs Ansatz benötigt sogenannte „weird universes“ (vgl. Wolfram 2002, Kap. 9). Dies soll hier aber nicht weiter ausgeführt werden.

Für die Diskussion transhumanistischer Ansätze ist insbesondere eine infor­mationstheoretische Betrachtung interessant, da sie tatsächlich mit Digitalem aus­kommt und schon dort zu Widersprüchen führt. Im Rückgriff auf die Hermeneutik Heideggers kritisierte Hubert Dreyfus in „Cybernetics as the Last State of Meta­physics“ bereits 1968 Marvin Minskys Statement „There is no reason to suppose machines have any limitations not shared by men“, indem er auf einen infiniten Regress bzw. einen circulus vitiosus hinwies (vgl. Dreyfus 1968; Kaehr 1980). Dreyfus’ Argumentationsgang kann wie folgt nachgezeichnet werden:

Nehmen wir an, dass unsere Welt aus einer indefiniten Mannigfaltigkeit von Informationseinheiten – also Bits – besteht, dann müssen auch Entscheidungen bzw. Kontexte anerkannt werden, die angeben, welche Informationen, welche Bits für bestimmte Berechnungen wichtig sind und welche nicht. Wird dies akzeptiert, dann besteht die Welt eben nicht mehr homogen nur aus Informationen, sondern auch aus Kontexten von Informationen. Dies steht im Widerspruch zur Ausgang­sannahme. Wird jedoch nun der Kontext selbst zur Information erklärt, so entsteht der Zirkelbezug, dass alles, was eine Information bestimmen soll, selbst wieder Information ist. Dies ist aber das Problem des Verhältnisses von Information und Bedeutung. Nach dem klassischen Paradigma wird nun Bedeutung auf Informa­tion reduziert, wodurch eine Binnenstruktur der Kontexte in sich zusammen fällt. Wiederum Kaehr wies deutlich darauf hin, dass jedoch „das transklassische Para­digma … auf der Irreduzibilität von Information und Bedeutung besteht.“ (Kaehr 1989) D.h. es gibt eine nichtklassische Forderung der Aufrechterhaltung der Kon­texte, wonach das Eine nicht auf das Andere zurückführbar ist. Soweit zum Ver­hältnis von Transklassik und Digitalismus (vgl. Paul 2013b).

Denkfalle Ortsinvarianz der Identität der Person: Diese dritte Denkfalle steht in mittelbarem Zusammenhang mit der zweiten und in unmittelbarem mit der ers­ten Denkfalle, mit der Frage nach Identität und Materialität des Menschen, sie kann jedoch separat diskutiert und verstanden werden. Im obigen Statement von Bostrom wird implizit ohne jedes Nachfragen angenommen, dass die Identität einer Person unabhängig von ihrem Ort in der Raumzeit sei. Denn eine Übertra­gung, ein Upload des Selbst vom biologischen Körper auf einen Siliziumcomputer bedeutet ja auch einen Ortswechsel. Nun ist Ort, Örtlichkeit etwas, das im line­aren Denken nur allzu leicht vernachlässigt wird, da gerade in der Physik recht häufig mit Ortsinvarianzen gerechnet wird. Und im Bereich der Computer ist es eine Selbstverständlichkeit, denn dem in Software gefassten Code ist es „egal“, auf welcher Hardware er abläuft. Verstehen wir ohne Rückgriff auf einen Dua­lismus die Identität einer Person als Eigenschaft oder Resultat der Physiologie eines bestimmten biologischen Körpers, dann ist es aber nicht selbstverständlich, davon zu abstrahieren. Diverse Untersuchungen haben gezeigt, dass ganz generell Individualität und damit Prozessidentität von Lebewesen bis „hinunter“ auf die physiologische Ebene reicht (vgl. Williams 1979).

Argumentationshilfen dazu könnten interessanterweise nicht nur aus der Bio­logie, sondern auch aus der hardwarenahen Informatik selbst kommen. Vor ei­niger Zeit stellte sich heraus, dass der von Leon Chua bereits 1971 geforderte vierte passive elektronische Baustein, der sog. Memristor (Chua 1971), technisch realisierbar ist. Der Memristor kann als geschichtsabhängiger elektrischer Wider­stand verstanden werden, er „erinnert“ sich an den Strom, der zuletzt durch ihn geflossen ist. Entwickler von Hewlett Packard sprechen nun zwar davon, dass bislang „Lernen“ nur über Software simulierbar war, es aber mit dem Memristor möglich sein soll, dass nun die Hardware selbst lernt. Dass damit aber ein Problem der Lokalisierung innerhalb der Hardware auftaucht, wurde noch nicht erkannt.

Jedoch wies Kaehr darauf hin, dass die „Materialität des Lernens“ ihre eigene Raum-Zeit-Struktur impliziere. Denn jedes Verhaltensmuster wie z.B. eine logi­sche Operation in einem solchen System ist dann auch gekennzeichnet durch den Platz im System, den es einnimmt. Insofern sind die strukturellen Gesetze durch die „memristive Materie“ gegeben und nicht etwa durch ein Programm eines the­oretischen formalen Systems „von außen“ (vgl. Kaehr 2010b, S. 6).

Nach der Betrachtung der vorderhändigen Problemstellungen und Denkfal­len ist nun zurückzukommen auf das Beschreibungsproblem und damit auf die etablierte Einschreibungsweise, so wie sie in der westlichen Schriftkultur entwi­ckelt wurde. In diesem Zusammenhang zwar implizit, aber noch nicht explizit in der Argumentation aufgetaucht ist das zentrale Problem der Selbstreferenz und ihrer formalen Beschreibung. Es wurde gesagt, dass die basale Unterscheidung zwischen Designierendem und Designat, zwischen Signifikant und Signifikat qua Struktur in die Heteroreferenz und darüber hinaus in die Hierarchie der Se­quenz, der Linie führt. Es erschließt sich unmittelbar, dass heteroreferentiell ope­rierende Systeme/Kalküle zu einer formal korrekten Behandlung von Selbstre­ferenz nicht geeignet sind. Damit ist selbst die klassische Logik hinfällig. Zur Rechtfertigung dieser Fragestellung gibt es eine ganze Reihe von Indizien aus verschiedensten Wissenschaften (vgl. Paul 2013c, S. 379ff). Stellvertretend sei hier der theoretische Physiker Walter M. Elsasser genannt, der speziell auf das bislang nicht behandelbare wissenschaftslogische Problem der formalen Unter­scheidbarkeit von Gleichheit und Selbigkeit – das Problem von Ort und Identität in anderem sprachlichen Gewand – in der Biologie in seinem Aufsatz A Form of Logic Suited for Biology hinwies (vgl. Elsasser 1981). Zu Lösungsansätzen lohnt eine Beschäftigung mit den umfangreichen Werken der Philosophen und Lo­giker Gotthard Günther und Rudolf Kaehr zum Thema Polykontexturalität, die sich allerdings einer detaillierten Behandlung in nur einem Aufsatz erfolgreich widersetzen.

Aus der neueren französischen Philosophie ist es neben dem „wilden Denker“ Deleuze vor allem Jacques Derrida, der mit einer ganz eigenen Sicht zu Serialität und Linie und ihrem Verhältnis zur Erkenntnis aufwartet und weitere Hinweise auf eine Strategie des Vorgehens auch zum Problem des Transhumanismus er­laubt: „Das rätselhafte Modell der Linie ist also gerade das, was die Philosophie, als sie ihren Blick auf das Innere ihrer eigenen Geschichte gerichtet hielt, nicht se­hen konnte. Diese Nacht hellt sich in dem Augenblick ein wenig auf, wo die Line­arität – die nicht der Verlust noch die Abwesenheit, sondern die Verdrängung des mehrdimensionalen symbolischen Denkens ist – ihre Unterdrückung lockert, weil sie allmählich die lange Zeit von ihr begünstigte technische und wissenschaftliche Ökonomie zu sterilisieren beginnt“ (Derrida 1974, S. 153).

Das Gegenteil von Sterilität ist Fruchtbarkeit, das von Verdrängung Entber­gung. Es geht also, folgen wir Derrida, um nicht mehr und nicht weniger als die Emanzipation von Wissen und Wissenschaft. Wäre das ein Weg zu einem Tran­shumanismus? Wie können wir dorthin gelangen?

Auf einen möglichen Zugang weist uns schon Ernst Cassirer hin: „Was die Loslösung des theoretischen Denkens von dem Untergrund des mythischen Be­wusstseins erschwert…, ist die Abhängigkeit, in der es sich von der Sprache be­findet… Seine volle Autonomie erlangt das theoretische Denken erst dann, wenn es sich entschließt, den letzten Schritt zu tun; wenn es sich in den Symbolen der Mathematik statt der ‚natürlichen‘ Sprache eine ‚künstliche‘ Sprache erschafft. Die natürliche Sprache bleibt immer wie mit unsichtbaren Fäden mit der mythi­schen Denk- und Vorstellungsart verknüpft“ (Cassirer 1939, S. 88).

Cassirer macht hier auch überdeutlich, dass es mit der Konstruktion einer Kunstsprache nicht um eine Entdeckung oder einen Existenzbeweis geht, sondern vielmehr um eine Willensentscheidung, um ein Entschließen, wenn man so will, um einen kreativen Akt. Die unmittelbare Assoziation hierzu ist die Leibniz’sche Konzeption einer characteristica universalis. Aber schon Leibniz erkannte unter dem Einfluß seiner Beschäftigung mit der chinesischen Kultur, dass „der Rechen­formalismus nur die äußere Seite einer viel tiefer gehenden Weltauslegung ist“ (Holz 1997, S. 122). Als Analytiker von Format kommt Leibniz zu dem Schluss, dass „über das rein zerlegende Denken […] die Einsicht in den Zusammenhang ei­ner Lebensganzheit“ zu setzen ist, „die allein mit den Mitteln der Analyse nicht zu erfassen ist. Dialektisch denken (wie wir heute sagen) heißt für ihn: die lebendige Ganzheit der Natur als Wirkungszusammenhang einsehen“ (Holz 2013, S. 32f).

Zu den Ermöglichungsbedingungen der Beschreibung solcher Wirkungszu­sammenhänge gehört aber notwendig die Option des Neuen, die in den positiv­sprachlichen Einschreibungsweisen der westlichen Schriftkultur aus ganz prin­zipiellen Gründen nicht enthalten sein kann. Mit dem Mathematiker Engelbert Kronthaler (1986) ist zu sagen, dass in der technikorientierten westlichen Zivili­sation „hauptsächlich nur ein Aspekt gesehen“ wird, der der „Wiederholung als Wiederkehr des ewig Gleichen“, der Aspekt der Iteration. Jenseits davon gibt es aber noch einen zweiten oft vernachlässigten Aspekt, den der Akkretion oder der Wiederholung des Neuen, dessen erste Ansätze in der zweiten Negation Hegels zu finden sind und die Gotthard Günther zum Anlass nahm, daraus einen Forma­lismus abzuheben.

Mit der Referenz auf die Leibniz’sche characteristica universalis und ihre Ermöglichungs-bedingungen ist parallel auch der Bogen zurück ins Po­litische geschlagen, denn: „Darin besteht heute in einer Welt, die ökonomisch, verkehrstechnisch und weltpolitisch zu einer eng vernetzten Einheit zusammen­gewachsen ist, die Aktualität des Leibnizschen Universalismus. Wir müssen ler­nen, aus verschiedenen Ursprüngen gewachsene Kulturen ineinander übersetzbar – oder genauer: aufeinander abbildbar – zu machen, gerade auch dann, wenn wir sie in ihrer Besonderheit nicht nivellieren, sondern ihre Vielfalt als den geistigen Reichtum unserer Welt erhalten wollen“ (Holz 1997, S. 122).

Der Beginn einer planetaren Zivilisation – mit anderen Worten der Geschichte der Menschheit als eines Ganzen – fiele also mit dem ersten Abschluss der Kon­struktion einer Kunstsprache zusammen, die nicht ausschließlich dem hierarchi­schen Gesetz der Serie verpflichtet ist. Denn dieses reicht, wie schon gezeigt, strukturell nicht aus. Und diese Sprache sollte in der Lage sein, strenges Denken, wie es Heidegger nennt, gleichzeitig exaktes Denken sein zu lassen. Bislang ken­nen wir nur das exakte Denken der Mathematik und der Naturwissenschaften, das jedoch nicht streng ist, im Gegensatz zu philosophischem Denken, das aber, wie Gotthard Günther es ausdrückt, zu früh von der Exaktheit dispensiert (vgl. Gün­ther 1978, S. 170).

Die Konstruktion einer solchen Kunstsprache setzt jedoch als Basis ein Vor­dringen mit dem Tastsinn des Geistes in den Raum des Nicht- oder Vorsprachli­chen voraus, in jene Räume, in denen Sprache verstummt. Hierzu bedarf es des Auslotens von Möglichkeitsräumen. Dies leisten nach Kenntnis des Verfassers bislang nur die Günther/Kaehr’schen Konzeptionen von Polykontexturalität, Kenogrammatik und Negativsprache (vgl. Günther 1973, 1979; Kaehr 2001), als konkludente Fortsetzung des Leibniz’schen Vorhabens und als notwendige Be­dingung für eine – diesmal konstruktive – Inangriffnahme des Projekts Transhu­manismus.

*****

Hier noch ein Link zu einem weiteren Beitrag aus dem Jahrbuch für Pädagogik 2014 – Transhumanismus:
Hans-Jürgen Krysmanski – Der ganz alltägliche Transhumanismus

Literatur

Alsberg, Paul: Der Ausbruch aus dem Gefängnis. Zu den Entstehungsbedingungen des Menschen. In: Das Menschheitsrätsel. (1922) Bearb. Neuaufl., hrsg. von Dieter Claes­sens, Gießen 1979.

Bense, Max: Kybernetik oder Die Metatechnik einer Maschine. (1951) In: Pias, Claus, et al.: Kursbuch Medienkultur, Stuttgart 1999, S. 472-484.

Bostrom, Nick; David Pearce: Interview von Andrés Lomeña, 2007, http://www.hedweb.com/transhumanism/deutsche.html.

Cassirer, Ernst: Axel Hägerström. Eine Studie zur schwedischen Philosophie der Gegen­wart, Göteborgs Högskolas Årsskrift XLV (1939) 1.

Chua, Leon O.: Memristor – The Missing Circuit Element; IEEE Transactions on Circuit Theory, Vol. ct-18 (1971) 5, S. 507-519; http://ieee-ghn.org/wiki/images/b/bd/Memris­tor_chua_article.pdf.

Derrida, Jacques: Grammatologie. Frankfurt a. M., 1974.

Elsasser, Walter M.: A Form of Logic Suited for Biology. In: Progress in Theoretical Bio­logy, Ed. Rosen, Robert; Vol 6 (1981), S. 23-62, http://www.vordenker.de/elsasser/we_logic-biol.pdf.

Flusser, Vilém: Die Informationsgesellschaft, Phantom oder Realität? Vortrag auf der Cul­Tec, Essen, 23.11.1991, Köln 1999, timecode 00:40:00ff.

Fredkin, Edward: Finite Nature. Proceedings of the XXVIIth Rencotre de Moriond (1992).

Gehlen, Arnold: Der Mensch. Seine Natur und seine Stellung in der Welt. Berlin 1940.

Günther, Gotthard: ‚Life as Poly-Contexturality‘, in: H. Fahrenbach (Hrsg): Wirklichkeit und Reflexion, Festschrift für Walter Schulz. Pfullingen 1973, S. 187-210. Abgedruckt in: Günther, Gotthard; Beiträge zur Grundlegung einer operationsfähigen Dialektik, Bd. 2, Hamburg 1979, S. 283-306, http://www.vordenker.de/gg- philosophy/gg_life_as_polycontexturality.pdf.

Günther, Gotthard: Idee und Grundriß einer nicht-Aristotelischen Logik, 2. Aufl. Meiner, Hamburg 1978.

Günther, Gotthard: Identität, Gegenidentität und Negativsprache, Vortrag, Int. Hegel-Kon­gress, Belgrad 1979, Hegeljahrbücher 1979, S.. 22-88, http://www.vordenker.de/gg-philosophy/gunther_identitaet.pdf.

Holz, Hans-Heinz: Characteristica universalis und Yijing in metaphysischer Perspektive. In: Wenchao Li & Hans Poser (Hrsg.): Das Neueste über China: G.W. Leibnizens No­vissima Sinica von 1697; Int. Symp, Berlin, 4.-7.10.1997, S. 105-124.

Holz, Hans-Heinz: Leibniz. Das Lebenswerk eines Universalgelehrten. Hrsg. von Jörg Zimmer, Darmstadt 2013.

Kaehr, Rudolf: Neue Tendenzen in der KI-Forschung. Metakritische Untersuchungen über den Stellenwert der Logik in der neueren Künstlichen-Intelligenz-Forschung, Stiftung Warentest, 1980, online: http://www.vordenker.de/ggphilosophy/rk_meta.pdf.

Kaehr, Rudolf: SUFI’S DRAI: Wozu Diskontexturalitäten in der AI? ÖGAI-Journal (Ta­gung der Österreichischen Gesellschaft für Künstliche Intelligenz) Bd. 8, Wien 1989, S. 31-38, http://www.vordenker.de/sufi/sufi.htm.

Kaehr, Rudolf: Skizze eines Gewebes rechnender Räume in denkender Leere. Glasgow 2001, http://www.thinkartlab.com/pkl/media/SKIZZE-0.9.5-Prop-book.pdf.

Kaehr, Rudolf: Memristik. Zur Technologie des Posthumanen? Ankündigungstext zur Keynote auf der Tagung der HfG Karlsruhe „Was wird Denken heißen?“ – Kognition und Psyche im Posthumanen Zeitalter,16.-18.07.2010 (a), http://www.hfg-karlsruhe.de/Memristik.

Kaehr, Rudolf: Memristics: Why memristors won’t change anything. Remarks to Todd Hoff’s „How will memristors change everything?“ Glasgow 2010 (b); http://memris­tors.memristics.com/Why-Not/Why-Not.pdf.

Kronthaler, Engelbert: Grundlegung einer Mathematik der Qualitäten – Zahl, Zeichen, Spur, Tao. Bern, New York 1986.

Nancy, Jean-Luc: Destruktion als Erinnerung oder Struktion der Techné, Vortrag am Bo­chumer Kolloquium Medienwissenschaften, 08.12.2008, http://www.ruhr-uni-bochum.de/bkm/archivseiten/12_nancy.html, Video timecode 01:15:00ff.

Nancy, Jean-Luc: Von der Struktion. In: Erich Hörl (Hrsg.), Die technologische Bedin­gung: Beiträge zur Beschreibung der technischen Welt. Berlin 2011.

Paul, Joachim: Medienphilosophie – ein interdisziplinäres Thema? (2005) In: ders., TRANS – Reflexionen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (a), S. 120-139.

Paul, Joachim: Zugänge – oder: Das Wir und unsere Technik. In: ders., TRANS – Reflexi­onen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (b), S. 16-38.

Paul, Joachim: Denken denken. In: ders., TRANS – Reflexionen über Menschen, Medien, Netze und Maschinen. Berlin 2013 (c), S. 225-391.

Toulmin, Stephen E.: Kosmopolis, Die unerkannten Aufgaben der Moderne; Frankfurt 1994.

Williams, Roger J.: Biochemical Individuality; Univ. of Texas Press 1979, Neuauflage 1998.

Wolfram, Stephen: A New Kind of Science. UK 2002.

Be Sociable, Share!

Tags: , , , ,

6 Responses to “Rethinking Leibniz – Transhumanismus in der Dekonstruktion”

  1. Oliver sagt:

    Das Neuron: überwiegend analog, nicht nur digital:

    THE THEORY OF THE NEURON
    An INTRODUCTION
    http://neuronresearch.net/neuron/neuronintro.htm

  2. Nick_Haflinger sagt:

    VIelen Dank, Oliver, für den Link.
    Und Deine Argumentation bringt es nochmal auf den Punkt.
    Bestes, J.

  3. Oliver sagt:

    Hi,

    zum Thema der Transhumanismus-Religion mit ihrem Maschine-Geist-Dualismus gibt’s hier noch einen interessanten Beitrag, der drauf eingeht, daß das Gehirn eben gerade nicht getrennt werden kann in Apparat auf dem der Geist implementiert ist und Geist, der auf einer Maschine läuft (und wo man einfach die Hardware austauschen kann):

    WDR 5 Neugier genügt – Redezeit
    Mit Neurobiologe Henning Beck: „Mythen rund um unser Gehirn“
    http://podcast-ww.wdr.de/medstdp/fsk0/70/704996/wdr5neugiergenuegtredezeit_2015-05-15_mitneurobiologehenningbeckmythenrundumunsergehirnsendungvom150515_wdr5.mp3

    (Ist eigentlich nichts Neues, aber schön, das mal von Forschern der neueren Generation auch so ausgesprochen zu bekommen 🙂 Die old-schooligen sehen das ja als ungeliebte Ketzerei an…)

    Interessant ist ja, daß der Transhumanismus von scheinbaren Anti-Dualisten vorgetragen wird (und klassische Religionen als Feindbild hat), aber doch selbst einem Techno-Dualismus anhängt. Erlösungslehren haben die Transhumanisten ja auch. Und Singularität, das ist wohl das Äquivalent des Todes und der Wiedergeburt! 😉 Oder ist es die Erleuchtung? Das Dharma-Tor?
    Erleuchtung durch einsteckbares Hirn?
    Genug dazu. Das Interview sich anzuhören ist wirklich eine Freude,
    besonders an dem Punkt Computer vs. Hirn.

    Ansonsten gibt es, thematisch nicht all zu weit weg, noch Andrei Sorin: Software and Mind – The Mechanistic Myth and its Consequences.

  4. […] sowie in meinem eigenen Blog, zuletzt ein Beitrag im Jahrbuch für Pädagogik 2014 zum Thema Transhumanismus. Darüber hinaus habe ich früher IT-Fachbücher geschrieben und jüngst eine Aufsatzsammlung […]

  5. Oliver B. sagt:

    Gordon Pask: „There are no Doppelgangers“
    https://en.wikipedia.org/wiki/Gordon_Pask#No_Doppelgangers

  6. Oliver B. sagt:

    Bostrom-Zitat:

    „Wenn exakt die gleichen Prozesse auf einem Silikoncomputer ablaufen würden, könnte ich vermutlich überhaupt keinen Unterschied feststellen“

    Ist ja ohnehin schon Blödsinn.
    Gleich vs. Selbst.

    Identität – man ist ohnehin so, wie man ist.

    Und wenn man anders wäre, als man jetzt gerade ist,
    auch dann wäre man auch immer wie man ist.
    In beiden Fällen ist man man selbst.
    Und hat das selbe erkenntnistheoretische Problem.

    Und wie sollte man einen Unterschied von sich und seiner „Kopie“ feststellen können?
    Kann man aufgrund des kopiert-worden-seins nun auf einmal Gedanken lesen?
    Oder Emotionen? Oder kann man gar der Andere sein?(?!?!)

    Um sich zu vergleichen, dazu müsste man doch der Andere sein, mal eben („on demand“),
    weil man sich dazu entschieden hat, um den Vergleich durchzuführen,
    und sich dann – als der Eine, nicht-Andere – vergleichen mit dem Anderen.

    Um diesen Vergleich zu machen zwischen dem Eigenen Selbst und dem Anderen
    Selbst (das MAN SELBST sein soll, obwohl’s doch der Andere ist), müsste es eine
    DRITTE Entität/Identität geben, eben die, die den Vergleich durchführt,
    die anderen Beiden zu vergleichen, und die MAN SELBST ist.
    (Wobei man dann anders ist, eben die Dritte Identität, aber auch als diese man nur man selbst ist.)

    Man selbst ist aber immer nur man selbst, kein Anderer, auch wenn man ein Dritter ist.
    Und das gilt eben genau für alle Selbste.
    Wären die Selbste andere Selbste, wären sie also also Andere – auch dann wären sie jeweils nur sie selbst.

    Man muss also, um einen Vergleich zu machen und eine Differenz festzustellen,
    die anderen beiden Selbste von Aussen sehen und kann dann zu beurteilen versuchen.
    Aber von Aussen kann man garnicht prüfen, ob DIE DA nur ähnlich sind, oder gleich oder selbst.
    Denn das kann man nur von Innen.

    So ein Vergleich verschiedener Zustände wäre allenfalls möglich,
    beim Vergleich verschiedener Zustände EINES Selbst.
    So, wie man seine Stimmungen beobachtet.
    Aber dieses Selbst – der Beobachter – ist eben nicht seine Stimmungen,
    er hat sie, und sie sind allenfalls Teile oder Aspekte von ihm.
    Sie sind auch Aspekte von allen Selbsten.

    Mit anderen Worten: das Selbst kann seine Differenz zu seiner Kopie nicht feststellen, sonst wäre es kein Selbst mehr.

    Dieser Vergleich widerspricht den eigenen Voraussetzungen.

    Davon abgesehen sind auch zwei Eineiige Zwillinge nach Kurzer Zeit schon Divergent….

Leave a Reply