„Kommt ein Schiff geladen …“ – das Flaggschiff der EU oder die Hybris einiger Hirnforscher

Gastbeitrag von Eberhard von Goldammer

Haben wir nicht schon Ende der 80er Jahre des vergangenen Jahrhunderts, als die neuronalen Netzwerke zum zweiten Mal in Mode kamen (für die Jüngeren: es gab in den USA diese Bewegung früher schon einmal, nämlich in den 50er und frühen 60er Jahren), in großen Tönen gehört, dass die Computer – basierend auf den wieder entdeckten netzwerkartigen neuronalen Strukturen – demnächst nicht nur die bis dahin relativ erfolglose KI-Forschung, sondern die gesamte Computer-Welt revolutionieren werden?

Wer also schon vor ca. 20-25 Jahren diese Versprechungen gehört hat, der kann sich heute nur wundern, wenn er von den Plänen der europäischen Flaggschiff-Initiative hört und/oder liest, dem so genannten „Human Brain Project“ [1] (abgekürzt: HBP). Nahezu alles, was in dieser Flaggschiff-Initiative angekündigt und versprochen wird – jedenfalls was die Künstlichen-Neuronalen-Netzwerkstrukturen und ihre Bedeutung für die KI-Forschung anbelangt –, sollte es eigentlich, wenn man an die großen Worte einzelner Protagonisten der 80er und 90er Jahre zurück denkt, längst geben.

Heute soll alles – offensichtlich viel gründlicher – noch einmal erforscht werden und zwar im Stil industriell-organisierter Forschung. D.h. alles, was den Protagonisten von heute an eigenen grauen Hirnzellen fehlt, soll nun im HBP mit viel Geld – ca. einer Milliarde Euro auf 10 Jahre verteilt, also mit einem gewaltigen Maschinenpark (fMRT, Supercomputer, etc.) sowie einer Heerschar von Messknechten, also Diplomanden und Doktoranden, die diese Maschinen bedienen – ausgeglichen werden.

Von den konzeptionellen – sehr grundsätzlichen – Problemen hört oder liest man allerdings nicht viel, um nicht zu sagen, man hört und liest in den Ankündigungen dieser Initiative nichts.

Eines dieser grundlegenden, bis heute nicht verstandenen Probleme ist das dialektische Wechselspiel analog-digitaler Prozesse in den Gehirnen lebender Organismen. Es ist nämlich nicht so einfach, wie manche vielleicht annehmen, dass ein neuronaler Prozess entweder digital oder analog – also sequentiell – abläuft, sondern dieser Prozess ist „weder digital noch analog UND sowohl digital als auch analog“; – wie eine derartige Prozessstruktur aussehen soll, darüber erfährt man in den vorgestellten Projektbeschreibungen natürlich nichts, außer, dass es sich um neuromorphe Rechnerarchitekturen handeln soll, die man entwickeln will; – das eigentliche, das konzeptionelle Problem wird nirgends thematisiert – im Gegensatz zu den Altvorderen, nämlich den Kybernetikern der 40er und 50er Jahre, die sich darüber noch Gedanken gemacht haben — siehe: Dokumentation über die Macy-Conferences [2] 1946-1953: Cybernetics – Kybernetik, herausgegeben von Claus Pias; aber auch Gregory Bateson, in: Steps to an Ecology of Mind, 1972. Heute wird dieses Problem einfach verdrängt, das ist auch eine Lösung, jedenfalls dann, wenn es darum geht, große Summen an Forschungsgeldern einzuwerben.

Ein anderes Problem, welches damit zusammenhängt, wird bereits 1720 von dem Urahn der heutigen Computer Gottfried Wilhelm Leibniz [3] gesehen, der in seiner Monadologie [4] (Meiner Verlag, 2002, S. 117) schreibt:

„Man muss im übrigen eingestehen, dass die Perzeption und was davon abhängt, durch mechanische Gründe, d.h. durch Gestalten und durch Bewegungen unerklär­bar ist. Wollte man vorgeben, dass es eine Maschine gäbe, deren Struktur Denken, Empfinden und Perzep­tionen haben lässt, könnte man dies unter Bewahrung derselben Proportionen vergrö­ßert begreifen, so dass man in sie wie in eine Mühle hin­eintreten könnte. Dies gesetzt, würde man beim Besuch im Inneren nur ein­ander stoßende Teile finden, niemals aber etwas, was eine Perzeption erklärt.“

Konzeptionell hat sich an dem heutigen Computer und der mechanischen Rechenmaschine [5], die Leibniz um 1670 herum gebaut hat, nicht viel verändert. Anstelle von „Zahn und Lücke“ ist heute im Zeitalter der Elektronik lediglich „Schalter-ein und Schalter-aus“ bzw. „Spannung-ein und Spannung-aus“ geworden – ein Vorgang, den Leibniz abstrakt in „De progressione Dyadica“ [6] (1679) oder „Explication de l’Arithmetique Binaire“ [7] (1703) als binäre Algebra in die abendländische Kultur einführt (siehe auch: Wikipedia [8]).

Heute werden uns von diesen HBP-Forschern des „Human-Brain-Projects“ neuromorphe Rechner angekündigt – ein Konzept, das aus den bildgebenden Verfahren – einer Klötzchen- oder Pixelzähl-Veranstaltung gepaart mit schlechter Hermeneutik – resultiert; ein Konzept, mit dem diese Yuppie-Forscher den Maschinen nun endlich Bewusstsein einhauchen wollen – GoLem [9,10] lässt grüßen.

Soweit Eberhard von Goldammer,

das aktuelle Fördergeschehen der EU setzt auf das, was Felix Hasler in seinem aktuellen Buch „Neuromythologie“ schreibt, noch kräftig einen drauf.
Vielleicht lässt sich bald vom Hirntod einiger Hirnforscher sprechen.

Liebe Grüße,
Nick H. aka Joachim Paul

Weitere Artikel zum Human-Brain-Project

1) The Human Brain Project ­ HBP
http://www.humanbrainproject.eu/index.html
2) Der Spiegel 6/2013 Seite 104: Johann Grolle, Aufruf zur Verschwendung
3) Tagesanzeiger (www.tagesanzeiger.ch): Ein Reisender durch den Kosmos des Gehirns
http://www.tagesanzeiger.ch/wissen/medizin-und-psychologie/Ein-Reisender-durch-den-Kosmos-des-menschlichen-Gehirns/story/22161837
4) Bild der Wissenschaft online 5/2012, Seite 40: Markrams Milliardenspiel
http://www.bild-der-wissenschaft.de/bdw/bdwlive/heftarchiv/index2.php?object_id=32973047
alternativ: Focus online
http://www.focus.de/wissen/bild-der-wissenschaft/tid-25520/hirnforschung-markrams-milliardenspiel_aid_738815.html

Im Text verlinkte Quellen

[1] The Human Brain Project ­ HBP
http://www.humanbrainproject.eu/index.html
[2] Dokumentation zu den Macy Conferences 1946-1953
http://www.asc-cybernetics.org/foundations/history/MacySummary.htm
[3] Gottfried Wilhelm Leibniz
http://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz
[4] Monadologie
http://de.wikipedia.org/wiki/Monadologie
[5] Rechenmaschine
http://de.wikipedia.org/wiki/Rechenmaschine
[6] De progressione Dyadica
http://www.leibniz-translations.com/binary.htm
[7] Explication de l’Arithmetique Binaire
http://ads.ccsd.cnrs.fr/docs/00/10/47/81/PDF/p85_89_vol3483m.pdf
[8] Gottfried Wilhelm Leibniz – siehe [3]
http://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz
[9] Golem
http://de.wikipedia.org/wiki/Golem
[10] Stanislaw Lem
http://de.wikipedia.org/wiki/Stanislaw_Lem

2 Gedanken zu „„Kommt ein Schiff geladen …“ – das Flaggschiff der EU oder die Hybris einiger Hirnforscher

  • 11. März 2013 um 09:04 Uhr
    Permalink

    @Jared:

    Hi,

    „interessant ist, wie die Vergabe reichlicher Forschungsmittel den Erkenntnisfortschritt bremsen kann.“

    Dieses Phänomen kennt die Organisationstheorie schon lange. Man könnte es in folgendem Theorem formulieren:

    „Willst du verhindern, dass für ein Problem jemals eine Lösung gefunden wird, so schaffe für seine Lösung eine eigenständige und institutiotionalisierte organisatorische Struktur.“

    Je mehr Arbeitsplätze an dieser Struktur hängen, desto sicherer ist es, dass für dieses Problem niemals eine Lösung gefunden wird.

    Beispiele dafür gibt es zuhauf, nicht nur im wissenschaftlichen Bereich – ich erinnere etwa an die Forschung im Bereich Kernfusion, deren Protagonisten seit Mitte der 60er Jahre funktionierende Kernfusionsreaktoren „in zehn Jahren“ prognostizieren -, sondern auch und gerade im politischen Bereich.

    NB:

    „Heute weisen zaghafte Ansätze auf Quantencomputer hin, die aus einer unendlich großen Menge möglicher Lösungen eines Problems eine optimale in endlicher Zeit ermitteln – das passiert bei jedem (guten) Dart-Wurf.“

    Das wiederum gelingt algorithmischen Ansätzen wie Genetischen Algorithmen oder „Simulated Annealing“ bereits seit den 80er Jahren, zumindest, wenn es um lokale Optima geht.

    Beide Ansätze wurden seinerzeit ohne gigantische Forschungsprogramme entwickelt.

  • 28. Februar 2013 um 15:01 Uhr
    Permalink

    Moin Mr. Nick und Mr. Eberhard,

    interessant ist, wie die Vergabe reichlicher Forschungsmittel den Erkenntnisfortschritt bremsen kann. Wir hatten das, denke ich, bei den String-„theorien“ in der Physik schon einmal, und auch jetzt besteht die Gefahr, dass es Forschungsgelder nur für das mechanistische binäre Klötzchenmodell des Gehirns gibt, weshalb dessen Einfluss über das Maß hinaus wächst, das ihm angesichts der bisherigen Erkenntnisse über die Hirnfunktion zukäme.

    Zu Zeiten Peter Henleins hielt man ein sehr kompliziertes Uhrwerk* für das Surrogat des Geistes – es war eben die komplizierteste Struktur, die man kannte. Dann folgten – zu Zeiten Gay-Lussacs und später Boltzmanns – thermodynamische Systeme, dann – Faraday und Maxwell – elektrische Felder, und schließlich Computer.

    Heute weisen zaghafte Ansätze auf Quantencomputer hin, die aus einer unendlich großen Menge möglicher Lösungen eines Problems eine optimale in endlicher Zeit ermitteln – das passiert bei jedem (guten) Dart-Wurf.

    Weiter noch gehen Roger Penrose und Stuart Hameroff,
    die mit guten Argumenten nicht berechenbare Quantendekorrelation für elementar für die Implementation höherer Hirnfunktionen halten.

    All dies würde weitere Forschungsfinanzierung gut vertragen können; ich fürchte aber, wir werden die nächsten sechs Jahre lang auf Klötzchenhirne fixiert!

    * A propos Mechanik:
    Vielleicht erínnert sich noch jemand an die alten „Aphraphulianischen Kästen“ aus „Spektrum der Wissenschaft“, Ausgaben aus den 80ern, die A.K.Dewdney erfunden hatte, um klar zu stellen, dass Logik auch mit mechanischen Bauelementen funktionieren kann. Zumindest theoretisch müsste, hätten die Klötzchen-Neurowissenschaftler recht, das Gehirn dann auf einen riesigen Haufen mechanischer NOR- und NAND-Gatter abbildbar sein!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.