vordenker news Dezember 2023

Unscharfe Begriffe – unscharfe Gehirne, J.Paul mit Leonardo Diffusion XL

Liebe Vordenkerinnen, liebe Vordenker,

das Thema Künstliche Intelligenz sowie nicht selten die Feuilletonproduktion dazu, so darf ich vermuten, kommt Ihnen inzwischen mehrheitlich zu den Ohren raus.

Vielleicht als Antidot nutzbar sind zwei ältere, nun hier republizierte Texte aus den Jahren 2005 und 2007, die ihrerseits u.a. auf noch ältere Arbeiten aus den Anfängen der Kybernetik und der Projekte und Forschungen zur sogenannten Künstlichen Intelligenz Bezug nehmen.

Der erste Beitrag „Die Computertechnik als Gegenstand philosophischer Reflexion“ stammt aus der Feder von Lutz Ellrich, bis 2014 Inhaber des Lehrstuhls am Institut für Medienkultur und Theater an der Universität zu Köln.

Der zweite von Eberhard von Goldammer und mir, „Die logischen Kategorien des Lernens und der Kommunikation — neu überdacht aus polykontexturaler Sicht„, erschien 2007 in der dem Gedenken an Gregory Bateson gewidmeten Jubiläumsausgabe zum 40-jährigen Bestehen der Fachzeitschrift KYBERNETES. Er liegt nun erstmals in deutscher Übersetzung vor, übersetzt mit Hilfe der KI von deepl.com und sorgfältig korrigiert.

Beiden Aufsätzen liegt ein Ringen um begriffliche Schärfe und sprachliche Präzision zugrunde, das – zugegebenermaßen subjektiv gesehen – heute mindestens 90 Prozent der im Rahmen des Hypes um das Thema Künstliche Intelligenz produzierten Essays und Arbeiten abgeht. Denn weitaus die meisten verfangen leider in der Polarität zwischen Technikeuphorie und damit verbundenem Marktgeschrei auf der einen und farbigen Warnungen vor Weltuntergangsszenarien auf der anderen Seite. Dazu wird das Ganze unterfüttert mit einer recht unreflektierten Vermenschlichung der Maschine. Und bemerkenswert an diesem Publikationsszenario ist die aktive Beteiligung vieler KI-Profis. Gerade hier könnte etwas mehr begriffliche Schärfe positiv zum Reflexionsniveau beitragen.

Das Thema KI verunsichert. Der sprachlichen Behandlung des Themas kommt daher – ganz im Sinne der Aufklärung – eine besondere Rolle zu, sie kann – entgegen dem Hype um Euphorie und Horror – einen wesentlichen Beitrag leisten zur Entwicklung einer individuellen und politischen Souveränität gegenüber den aktuellen Bestrebungen zur Künstlichen Intelligenz sowie allgemein zu einer reflektierte(re)n Haltung zu unseren Techniken und Technologien.

Die Computertechnik als Gegenstand philosophischer Reflexion
Lutz Ellrich 2005

Der eher nüchtern betitelte Text Lutz Ellrichs erfüllt diesen Anspruch voll und ganz. Der Autor sieht ein anstrebenswertes Ziel der Medienphilosophie darin, den Computer als etwas „grundlegend Anderes“ zu denken. Dazu sei ein „Perspektivenwechsel“ notwendig, der einherzugehen habe mit einer Demontage der in erster Linie mit Arnold Gehlen in Verbindung gebrachten Prothesen- oder Kompensationstheorie der Technik. Eben weil das technische Artefakt Rad „sich nur mit viel Fantasie“ auf die biologischen Fortbewegungarten des Menschen beziehen lässt, so sei auch der Begriff „Elektronengehirne“ für die ersten Rechenmaschinen im besten Sinne fragwürdig.

Folgt man der Aufforderung Vilém Flussers – der nebenbei bemerkt im Text von Ellrich einer deutlichen Kritik unterzogen wird –, dass, wenn wir etwas erfunden haben, wir erst einmal entdecken müssen, was wir da erfunden haben, dann lässt sich diese Fragwürdigkeit vielleicht derart rechtfertigen, dass der Begriff „Elektronengehirn“ zu einer ersten sprachlich-denkerischen Suchbewegung gehört, für das zunächst völlig Neue eine Bezeichnung zu finden. Nur darf man dort eben nicht anthropomorphisierend stehenbleiben. „Elektronengehirn“, das ist eine Metapher im besten Sinne, der Metaphorator ist das menschliche Gehirn und der Metaphorand eben die rechnende Maschine.

Hinzuzufügen ist heute, dass genau diese Anthropomorphisierung, die Ellrichs Beitrag u.v.a. ja kritisiert, sich mittlerweile – spätestens seit den Neunzigern – gewissermaßen festgefressen hat. Dabei hat sich die Metaphorisierungsrichtung umgekehrt, wir sprechen nun vom menschlichen Hirn als einem biologischen Computer. Metaphorator ist nunmehr die rechnende Maschine Computer, mit der wir unser Hirn zum Metaphoranden, oder wer es pathetischer mag, zum Opfer dieser sprachlichen Operation machen.

Halten wir mal vereinfacht und als Arbeitshypothese fest, dass das, was wir verkürzt und marktgerecht Künstliche Intelligenz nennen, etwas völlig Anderes ist als menschliche Intelligenz, die nach Jean Piaget immer dann zum Einsatz kommt, wenn wir nicht wissen, was wir tun sollen.

In Entgegnung zu den bereits genannten Prothesen- und Kompensationstheorien ist dann folgender Analogieschluss angebracht:

Künstliche Intelligenz verhält sich zur menschlichen Intelligenz wie das Rad zum Bein.

Ok, das klingt eher wie aus einem Werbespot, müsste aber in einschlägigen Debatten zum Thema als punch line ganz gut funktionieren.

Neben der hier herausgegriffenen Kritik der Anthropomorphisierung muss in dieser Anmoderation hervorgehoben werden, dass Ellrichs Beitrag einen Kurzabriss der Diskursgeschichte des Computers liefert, der von den Anfängen mit Wiener und der Kybernetik über die Berührungen zwischen dem kybernetischen und dem philosophischen Diskurs, hier sind Günther und Heidegger zu nennen, weiter zu Dreyfus, Putnam, Searle, Dennett usw. führt bis hin zur Kritik des Autors an den vollmundigen Versprechungen der KI-Apologeten Minsky, Moravec und McCarthy.

Ellrichs Aufsatz schließt mit fünf Aufgaben für eine zukünftige Medienphilosophie des Computers, für die er – als work in progress – Vorschläge zum Weiterdenken unterbreitet. Die erste Aufgabe wäre eine Klärung von Grundbegriffen. Mehr soll hier nicht verraten werden. Was die Grundbegriffe angeht, so scheint es, sind wir noch nicht viel weiter gekommen. Das belegen zahlreiche Feuilletontexte zum akuellen Themenfeld Künstliche Intelligenz.

Die Computertechnik als Gegenstand philosophischer Reflexion“ liefert einen profunden Debattenbeitrag zum Mensch-Maschine-Verhältnis. Der Essay ist anschlussfähig und kann direkt in Beziehung gesetzt werden auch zu neuen und neuesten, wichtigen Beiträgen, von denen hier stellvertretend zwei genannt sind.

Zwei Anregungen

In seinem, mit dem Titel „I’m sorry, HAL, I won’t let you do that.“ auf Stanley Kubricks Science Fiction Film „2001 – Odyssee im Weltraum“ Bezug nehmenden Vortrag auf der re:publica 2023 kritisiert der Informatiker Jürgen Geuter den Themenkomplex KI als „eine diffuse Menge von Narrativen“. Er hebt u.a. hervor, dass in den Debatten um Künstliche Intelligenz KI vom Objekt zum Scheinsubjekt erhoben wird durch Formulierungen wie „KI ersetzt X Jobs“, „KI lernt“, „KI halluziniert“, etc.

Link zum Video // Link zur Präsentation

Die im Kern politische Forderung Geuters, zu etwas Nein sagen zu können, die Berücksichtigung sozialer Aspekte, die explizite Kapitalismuskritik findet u.a. einen Anknüpfungspunkt im Text Ellrichs, wo über den moralischen Appell an Ingenieure, Softwareentwickler und reflektierte Nutzer durch Dreyfus, Winograd und Flores berichtet wird.

Geuter fokussiert sich auf diese gesellschaftlichen Aspekte und klassifiziert die Antworten auf die Frage „Was ist Bewusstsein und haben Maschinen das?“ als „langweilig und irrelevant“ sowie als „Beschäftigung für Mittelalter-Dudes mit zuviel Tagesfreizeit“, wohl, weil diese Frage inflationär in sehr vielen Medienbeiträgen zu Thema KI – meist als Horrorvorstellung – mitschwingt.

Da mutet es im Nachhinein geradezu prophetisch an, wenn Ellrich 2005, also vor 18 Jahren, in der Conclusio seines Aufsatzes schreibt: „Ob Denken, Fühlen, Wollen etc. etwas mit Berechnung im Sinne der Turing-Church-These oder mit den Formen der verteilten Berechnung zu tun haben, ist eine weitere Frage, die ihren Reiz (trotz vieler enttäuschender Studien zum Thema) sobald nicht verlieren wird.“

Auf die Hypothese vom Verhältnis von Rad zu Bein verweisend wage ich im Anschluss daran trotz und wegen ChatGPT die Prognose, dass es bei diesen Enttäuschungen bleiben wird – und dass stattdessen – etwas Anderes – geschehen wird.

Wie dem auch sei, wir sind damit auf der Höhe der Zeit und ich möchte anregen, einen Blick in einen im Juni auf netzpolitik.org veröffentlichten Text von Meredith Whittaker zu werfen, die ebenso wie Geuter auf der diesjährigen re:publica zu Gast war.

2019 schied die Informatikerin bei Google aus und ist heute Präsidentin der gemeinnützigen Signal-Stiftung, die den von Edward Snowden empfohlenen großartigen Messenger Signal mit Ende-zu-Ende Verschlüsselung bereitstellt. In ihrem Beitrag „Vermessung bis ins Innerste“ schiebt sie apokalyptische Szenarien beiseite und identifiziert KI als einen Marketing-Begriff, laut eines Interviews mit John McCarthy von eben jenem erfunden anlässlich einer Einladung zu der AI-Konferenz am Dartmouth College 1956, um sich von Norbert Wiener und seiner Kybernetik abzugrenzen. Künstliche Intelligenz, dieser Begriff ist also im Grunde der Ausfluss einer Konkurrenz um Forschungs- und Fördergelder.

Und heute, so Whittaker, „soll dieser Mythos die kommerzielle Überwachung vorantreiben, Regulierung unterbinden und die Ausbeutung von ArbeiterInnen verschleiern.“ U.v.a. berichtet Sie in ihrem Beitrag, dass der Journalist Billy Perrigo von TIME aufgedeckt habe, dass OpenAI und GPT auf kenianische ArbeiterInnen angewiesen sind, die weniger als 2 US$ pro Stunde verdienen für die Ausführung von, wie sie sagt, traumatisierenden Tätigkeiten. Die ArbeiterInnen müssen die zum Training von GPT vorgesehenen Daten sichten und manuell sämtlichen Dreck entfernen, also textuelle Inhalte mit Gewalt und Missbräuchen aller Art. Schon hier zeigt sich, dass Deep Learning, nimmt man das deep/tief wörtlich, eine bislang nicht erfüllbare Fiktion ist und nur rein quantitativ auf die zahlreichen inneren Layer des jeweiligen neuronalen Netzes verweist.

Dem Unternehmen OpenAI – und in Folge Microsoft mit seinen neuen GPT-ausgestatteten KI-Office-Copiloten – kommt dabei wirtschaftlich entgegen, dass Kenia ein relativ gutes Bildungssystem hat bei gleichzeitiger hoher Arbeitslosigkeit unter jungen gut ausgebildeten Menschen.

Also HRL, Human Reinforcement Learning. Ohne das geht es nicht. Womit wir – was für eine rumpelige Überleitung – beim zweiten Beitrag wären, denn der hat Lernen zum Thema, auf eine ganz prinzipielle Art und Weise.

Die logischen Kategorien des Lernens und der Kommunikation
— neu überdacht aus polykontexturaler Sicht

Eberhard von Goldammer & Joachim Paul 2007
Cover Sonderausgabe

Zum 40-jährigen Jubiläum der Zeitschrift Kybernetes erschien 2007 eine Sonderausgabe, für die die Herausgeber einen prägenden Kybernetiker der ersten Stunde zum Thema machten: Gregory Bateson.

Ausgehend von der einfachen Tatsache, dass Lernen selbst immer eine Veränderung des Verhaltens zur Folge hat, entwickelte Bateson eine Typologie des Lernens in dem Aufsatz „Die logischen Kategorien des Lernens und der Kommunikation“, enthalten als Buchkapitel in seiner Ökologie des Geistes. Der Fokus liegt hier nicht auf der Frage, wer oder was etwas wie lernt, vielmehr wird der Prozesscharakter des Lernens herausgeschält.

Wir steuerten einen Aufsatz bei, in dem wir Batesons Beitrag zunächst einem erneuten close reading unterzogen, um dann seine einzelnen Lerntypen zum 2007 aktuellen Vermögen der maschinellen Realisierung von Lernen in Beziehung zu setzen. Das war damals vor 16 Jahren der von Bateson mit Lernen I bezeichnete Typ, der über die in Donald Hebbs 1949 erschienenem Werk „The Organization of Behavior“ beschriebene sog. Hebbsche Lernregel in Simulationen neuronaler Netzwerke realisierbar ist und der auch als technische Implementation behavioristischen Lernens verstanden werden kann.

Wenn wir den Publikationen von OpenAI und anderen Produzenten von Large Language Models, LLMs, Glauben schenken können – nicht nur OpenAI ist da, im Widerspruch zum Namen, nicht sehr „offen“ – dann hat sich daran bis heute nichts geändert.

Einen vertrauenswürdigen Beleg dafür liefert der Mathematiker Stephen Wolfram in seinem sehr verständlich geschriebenen Buch „What Is ChatGPT Doing … and Why Does It Work?“. Die deutsche Ausgabe titelt etwas reißerisch mit „Das Geheimnis hinter ChatGPT – Wie die KI arbeitet und warum sie funktioniert“. Das tut dem Inhalt allerdings keinen Abbruch. Es wird klar belegt, das ChatGPT das Ergebnis einer Kombination ist aus leistungsfähiger Hardware, einem Multilayer Backpropagation Algorithmus, riesiger Trainingsdatensätze und unverzichtbarer menschlicher Feedback-Bewertungen, eben dem oben erwähnten HRL, dem Human Reinforcement Learning.

Technische Realisierungen weiterer Lerntypen nach Bateson lassen weiterhin auf sich warten.

Ein Lernen über das Lernen, also ein Lernen II, das nach Bateson Veränderungen im Verfahren von Lernen I ermöglichen sollte, verlangt eine technische Modellierung von Standpunktabhängigkeit. Wir begründen im Aufsatz, dass zur formalen Beschreibung der Relationen zwischen Batesons Lerntypen Gotthard Günthers Polykontexturalitätstheorie herangezogen werden kann und muss. Darüber hinaus müssen wir einräumen, dass auch hier technische Realisierungen, trotz existierender wichtiger formaler Arbeiten und Simulationen, bislang noch ausstehen.

Dennoch, es gibt Perspektiven jenseits des Diktats vorherrschender Narrative und der fortschreitenden Ökono(metri/mi)sierungen.

Viel Vergnügen beim Lesen und Denken
(und eine signifikante Abnahme der Krisen),
geruhsame Feiertage und einen unspektakulären Jahreswechsel
wünscht Ihnen, Ihr Nick H. aka Joachim Paul (Hg.)

Alle Links im Text

Lutz Ellrich: Die Computertechnik als Gegenstand philosophischer Reflexion

Eberhard von Goldammer & Joachim Paul: Die logischen Kategorien des Lernens und der Kommunikation
— neu überdacht aus polykontexturaler Sicht

Externe Links

Jürgen Geuter, Video: I’m sorry, HAL, I won’t let you do that.

Jürgen Geuter: Präsentation

Meredith Whittaker: Vermessung bis ins Innerste

Billy Perrigo, TIME: Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic

4 Gedanken zu „vordenker news Dezember 2023

  • 16. Dezember 2023 um 14:07 Uhr
    Permalink

    Lieber Oliver,

    stimmt, schön und prägnant. Interessant finde ich, dass die beiden, soweit ich sie verstanden habe, der analytischen Philosophie nahestehen.
    Ich bin mal gespannt – und noch nicht durch.

    LG, Joachim

  • 16. Dezember 2023 um 02:39 Uhr
    Permalink

    Guter Buchtip, besten Dank.

    Ein Buch, das ich hoffte schon lange mal irgendwo zu finden (vergeblich), sogar auch schon mal überlegte, es selber schreiben zu müssen. Als Erstlingswerk wäre das wohl ziemlich hoch gegriffen 😉

    Jedenfalls, was ich im Rahmen der Beschäftigung mit der Kybernetik (und Themen wie Systemtheorie, Selbstorganisation und angrenzenden Gebieten) für mich heraus fand, in Diskussionsforen zum besten gab, aber nie damit verstanden wurde (nie damit auf Verständnis traf), führen die beiden Autoren in einem auf Researchgate zu findenden pdf („Leseprobe“ des Buchs) in zwei einfachen Punkten auf:

    1. Human intelligence is a capability of a complex dynamic system—the human brain
    and central nervous system.

    2. Systems of this sort cannot be modelled mathematically in a way that allows them to
    operate inside a computer.

    Ja, genau! 🙂
    Wie schön prägnant auf den Punkt gebracht. 🙂

    Ich denke mal, das Buch bestelle ich mir in Kürze auch.

    Das pdf auf Researchgate gibt es hier:
    https://www.researchgate.net/publication/361508648_Why_Machines_will_Never_Rule_the_World_Artificial_Intelligence_without_Fear

  • 11. Dezember 2023 um 11:35 Uhr
    Permalink

    Lieber Herr Kramer,

    haben Sie besten Dank für diesen Vorschlag!
    Habe es mir besorgt und lese bereits …
    LG, Joachim Paul

  • 8. Dezember 2023 um 13:27 Uhr
    Permalink

    Als weiteren Literaturvorschlag hätte ich hierzu;

    J. Landgrebe, B. Smith: Why Machines Will Never Rule the World – Artificial Intelligence without Fear. Routledge, New York/London, 2023.

    Viele Grüße und frohe Feiertage

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.