Joseph Weizenbaums Kritik an Wissenschaft
Auf Golem.de ist ein überaus lesenswerter Artikel über die Kritik von Joseph Weizenbaum an Informatik und Wissenschaft allgemein erschienen.
Und das deckt sich genau mit meinen Beobachtungen und Erfahrungen: Es werden planlos formale Modelle ohne Realitätsbezug geschaffen, damit völlig willkürlich festgelegt, was „wahr” sein soll, und alles, was nicht in das Schema paßt, als falsch abgelehnt. Mangels Realitätsbezug ist „Wahrheit” damit letztlich willkürlich festgelegt.
Er erklärt(e) dies am Beispiel einer Spielerrunde, für die ein Spiel nur dann ein Spiel sei, wenn es Karten hat.
Einen solchen Effekt habe ich bei Informatikern (und auch anderen theoretisch orientierten Fächern) sehr häufig beobachtet. Die denken sich irgendein Modell aus und dann genügt es ihnen, daß man in diesem Kalkül irgendwie rechnen und in sich irgendwelche Schlußfolgerungen beweisen kann. Und schon allein, weil sie in einem willkürlichen Konstrukt irgendwelche geschlossenen und konsistenten Rechenregeln finden, stellen sie das als Wahrheit hin, obwohl es überhaupt keinen Bezug zur Realität hat.
Ein schönes Beispiel ist die BAN-Logik. Da hat jemand gezeigt, daß man da schöne Regeln ableiten und Formeln anwenden kann. Es geht um Authentifikationsprotokolle. Schon rennt eine Mehrheit los und hält es für „Sicherheit” oder eine Methode, Sicherheit nachzuweisen, wenn etwas innerhalb dieser BAN-Logik und unter Anwendung ihrer Regeln zu einem Ergebnis kommt. Daß die BAN-Logik aber in sich sicher ist, und daß sie Sicherheit überhaupt irgendwie beschreibt, was das überhaupt ist, hat man nicht definiert, nicht bewiesen, nicht nachgeprüft. Nicht das Modell bildet Sicherheit nach, sondern man baut sich irgendein Spielzeug mit hohem Spielwert und definiert dann kraft Hierarchie, daß das Sicherheit sein möge und alles falsch ist, was davon abweicht.
Nur an einer Stelle stimme ich mit Weizenbaum so gar nicht überein. Ausgerechnet Religion als Beispiel für eine solche „Wahrheit” zu bringen, die die Wissenschaften nicht anerkennen, halte ich schlichtweg für blöd. Nicht nur, weil es ein lausiges Beispiel ist, sondern weil es so angreifbar ist. Denn damit stellt man dieses Verhalten nicht in Frage, sondern leistet ihm noch Vorschub, denn man wird nicht ernstlich von einem Wissenschaftler erwarten, daß er die Religion als alternative Wahrheit anerkennt – denn das würde den Verzicht auf jegliche Wissenschaft bedeuten und nicht sie voranbringen oder verbessern.
13 Kommentare (RSS-Feed)
Die Schwächen der BAN-Logik werden auch von Theoretikern schon lange diskutiert. So ganz neu sind Modelltheorie und Kalküle für die mathematiker ja nun wirklich nicht. Realistischere Erweiterungen scheitern dann gern einmal an kombinatorischer Explosion oder gar an Unentscheidbarkeit.
So weit, so gut.
Nur erzählt man das den Studenten nicht. Die sollen den Umgang mit dem Kalkül lernen, damit sie was fürs Leben haben, damit sie sich für die Industrie als Sicherheitsfachleute qualifizieren. Das Verhältnis zwischen Theorie und Praxis der Informatik ist – nach unschuldigen Anfängen vor 50 Jahren – inzwischen völlig zerrüttet und destruktiv geworden. Ob eine Scheidung und ein Neuanfang helfen könnte?
Gibt es nicht ein mathematisches Konzept, dass sich ein System nicht vollständig selbst Beweisen kann?
Ich kann mich auch irren und Gödels Unvollständigkeitssatz passt hier nicht.
http://en.wikipedia.org/wiki/Incompleteness_Theorem
( http://en.wikipedia.org/wiki/The_Story_of_Maths#Hilbert.27s_second_problem )
Das ist das Problem in der Informatik:
Man denkt sich modelle aus und beweist damit irgendwelche ganz tollen Sachen. Und anschließend behaupten viele, damit die Wirklichkeit erschlagen zu können. ohne jemals angegeben zu haben, wie weit die Wirklichkeit mit Ihrem Modell übereinstimmt.
Physiker hingegen scheinen zumindest den Vor-/Nachteil zu haben, daß man meistens ihre Ergenbisse anhand von Experimenten überprüfen kann.
@yasar: Das geht mit Informatik eigentlich auch. Die realität in Form von real existierender Hardware ist ja vorhanden, da kann man ausprobieren. Wenn irgendein theoretisches Konzept nicht auf der Hardware umgesetzt werden kann – dann hat es sich ja eigentlich schon mit der Anwendbarkeit auf derzeitige Systeme. Muss ja nicht schlecht sein, sollte man nur evtl. auf vorhandene Systeme nicht anwenden. Ansonsten wird man ja sehen ob die Versprechungen Stimmen, bzw. ob neue Konzepte oder Methoden konkrete Verbesserungen bringen, bei dem, was man tut.
Wird nur scheinbar größtenteils in der Informatik nicht so betrachtet.
@Hanz Moser: Bei (theoretischen) Mathematik funktioniert es besser, weil dort die Anwendung zunächst keine Rolle spielt: Man entwickelt eine Methode, beweist deren Korrektheit, und macht sich Gedanken über deren Eigenschaften. Eine Anwendbarkeit spielt erst einmal keine Rolle. In der angewandten/numerischen Mathematik macht man sich dann Gedanken, unter welchen Annahmen man bestimmte strenge Voraussetzungen aufweichen kann, aber man ist immer noch auf der theoretischen Seite – man kümmert sich um das Modell, aber nicht darum, wie man es mit Beobachtungen zusammenbringt.
In der Physik ist es IMHO auch einfacher, weil man dort oft auch noch recht weit von der ganzen Komplexität der Welt entfernt ist, sondern einzelne Aspekte im Labormaßstab betrachtet – beispielsweise Elementarteilchenphysik, hier sind die Experimente zwar sehr aufwändig und auch die mathematischen Methoden, aber dafür muss die Theorie nur einzelne Aspekte einzelner Teilchen reproduzieren können (mehr Messdaten als z.B. Energieniveaus hat man eh nicht).
Ich bin Geowissenschaftler, und da ist das Problem, dass zwar die Physik der Entstehung der Erde sehr einfach ist, aber die Zusammenhänge komplex; man kann die Entstehung eines Gebirges nicht ohne Plattentektonik und Strömungen im Erdmantel beschreiben, zudem spielen noch Dinge wie Klima (Erosion!) hinein. Alles ist groß und erstreckt sich über extrem lange Zeiträume, das macht Experimente schwierig. Als Folge davon gibt es einerseits Geologen, die zwar sehr gute Beobachtungen machen, aber dazu Erklärungen abliefern, die zwar plausibel klingen, aber letztendlich physikalisch unmöglich sind. Und dann gibt es Geophysiker, die unglaublich raffinierte Computermodelle bauen, die halt nur nichts mit der Realität zu tun haben, oder wo es keine Daten gibt, um die Eingabeparameter festzulegen oder mit denen man die Ergebnisse vergleichen kann. Die Kunst ist hier, herauszufinden, was eigentlich gute Fragestellungen sind, die man mit den verfügbaren Daten überhaupt sinnvoll beantworten kann, und was geeignete mathematische Modelle ohne zu viele “fudge factors” sind oder wie man ein Laborexperiment machen kann, bei dem räumliche und zeitliche Größen richtig skaliert sind.
Und ich glaube, in der Medizin ist das noch viel schwieriger, weil man den Menschen immer als Gesamtheit betrachten muss und kaum etwas isoliert betrachten kann; alle paar Tage schreibt eine Zeitung, eine medizinische Studie habe dies und jenes herausgefunden, aber meist sind das statistische Korrelationen, bei denen man den eigentlichen Mechanismus gar nicht richtig kennt.
@Hadmut: Weizenbaum geht ja nicht darauf ein, was er mit “Religion” meint, aber was ich bisher von ihm gehört habe, bezweifle ich, dass er das im Sinne von “die Bibel/Thora hat recht” meint. Es gibt ja Dinge (z.B. philosophische Theorien), die nicht quantifizierbar sind und deshalb auch nicht naturwissenschaftlich untersucht werden können, und ich vermute, Weizenbaum meint, dass man Dinge, die sich der naturwissenschaftlichen Erkenntnis entziehen, nicht aus diesem Grund ablehnen sollte – es sind zwar keine “Kartenspiele” (entsprechend wäre es dumm, aus z.B. philosophischen oder religiösen Konzepten quantitative Voraussagen zu machen), aber doch “Spiele”; man sollte sagen “wir können es nicht wissen, das Konzept ist nicht falsifizierbar”, anstatt “wir können es nicht berechnen, also ist es falsch”.
@ Christoph Moder
Völlig richtig. Ich plädiere mehr oder weniger dafür, dass die Informatik zu ihren Wurzeln zurück findet. Die ersten Informatiker hatten ja eigentlich Mathematik studiert gehabt, weil es Informatik so richtig noch nicht gab.
Wenn man universitäre Forschung im Bereich Informatik daran zentriert, interessante mathematische Konzepte zu finden, die ordentlich auf Automaten laufen, also es wieder mehr zu einer Teildisziplin der Mathematik macht, könnte da was Sinnvolles rauskommen. Man muss die Praxis ja nicht ganz ausgliedern oder sie verdammen, aber das wäre auch besser, als, wie jetzt, immer damit zu wedeln und sie sich auf die Fahnen zu schreiben, wo man sie nicht mal kennt.
Um beim Vergleich mit Medizin zu bleiben ist der derzeitige Stand der Informatik als universitäterer Disziplin in etwa der, anhand von Studien mit 10 Teilnehmern ohne Verblindung und ungeprüften Theorien dauernd auszurufen, dass man endlich den Krebs besiegt hätte.
Weizenbaum war ja m.W. weder Religionswissenschaftler, noch Philosoph. Wieso, Christoph, soll er etwas anderes meinen, als er sagt?
Sowenig in den alten Kulturen die Wahrheit als Geheimwissen auf magische Weise finden ist, sowenig ist sie in einem alten Denker wie Weizenbaum zu finden.
Seine Aussage jetzt irgendwie hinzudrehen, damit sie mit dem eigenen Weltbild übereinstimmt, ist antiintellektuelles Harmoniestreben. Wenn er ein Unwohlsein hat, dass er nicht artikulieren kann, dann mag an seinem Unwohlsein was dran sein – was er sagt bleibt Humbug.
“In diesem Sinne verteidigt sich die Naturwissenschaft gegen fremde Wahrheiten, wie beispielsweise Religion” unterstellt ja, das Religion einen Sack Wahrheiten rumschleppt, die mit Naturwissenschaft inkompatibel ist. Was sollen das für Wahrheiten sein? Dass es ein ewiges Leben gibt? Dass ein übersinnliches Etwas uns liebt?
Es ist ja leider oft so, dass Naturwissenschaftler auf Geisteswissenschaftler herabsehen, und die Geisteswissenschaftler schauen auf die Naturwissenschaftler herab. So kann jeder der Idiot bleiben, der er schon immer war. Gleichzeitig bleibt das andere Fach ein Rätsel, und damit ein Quell für Phantasien.
@Stefan W.: Ganz genau das habe ich nicht gemeint.
Erstens: Mag sein, dass er kein ausgebildeter Philosoph war, aber trotzdem zeigen doch seine Reden, dass er ein vielseitig interessierter und gebildeter Mensch war, der die Dinge aus kritischer Distanz betrachten konnte. Und entsprechend konnte er über viele Dinge abseits der Informatik etwas Kluges sagen.
Zweitens: Ich habe kürzlich das Buch “Lila: ein Versuch über Moral” von Robert M. Pirsig gelesen. Darin geht es u.a. um einen Freund von ihm, den Anthropologen James Verne Dusenberry, der das Leben der Indianer untersuchte. Dieser litt massiv unter der damaligen Vorstellung, wie Anthropologie zu sein hat – nämlich streng naturwissenschaftlich, ausschließlich auf harten Fakten basierend. Und so wurden endlos Beobachtungen gemacht und Daten gesammelt, ohne daraus wirklich etwas zu lernen. Dusenberry hatten eine andere Herangehensweise, er versuchte nämlich, das Wertesystem der Indianer zu verstehen, also ihre Sichtweise der Welt kennen zu lernen. Das ist viel schwammiger, es ist sehr subjektiv, kaum quantifizierbar. Und trotzdem hat Dusenberry damit Zusammenhänge erkannt, die anderen Anthropologen entgangen sind, weil man die eben nicht mitbekommt, wenn man sich nur auf die harten Fakten stützt und alles andere ausblendet. Und das meinte ich damit, dass man sich als Naturwissenschaftler bewusst sein sollte, dass man nicht alles messen und falsifizieren kann, und dass solche subjektiven/philosophischen/… Denkmuster in diesen Fällen besser sein können als gar nichts. Denn letztendlich ist Wissenschaft ja genau das: die Welt gedanklich Strukturieren und Muster erkennen. Manche Muster kann man mathematisch ausdrücken und dann quantitative Vorhersagen machen, das ist die Naturwissenschaft. Manchmal geht das eben nicht.
@Hanz Moser: 🙂
“In diesem Sinne verteidigt sich die Naturwissenschaft gegen fremde Wahrheiten, wie beispielsweise Religion.”
Ich hätte den Satz jetzt anders verstanden als Hadmut. Nämlich: Wie auch beispielsweise Religion, verteidigt sich Naturwissenschaft gegen fremde Wahrheiten.
bei dem beispiel der religion habe ich auch kurz gestockt. aber religion als begriff muss man weiter sehen. wenn irgend jemand “religion” sagt, heißt das erst mal “spiritualität”. religion ist die institutionalisierte form von spiritualität. spiritualität ist ein glaube an ein höheres, besseres, schöneres, sinnvoll(er)es usw., man könnts auch einen glaube an den/einen sinn des lebens nennen. dass am ende nicht alles völlig sinnlos war, sondern irgend ein ziel erreicht hat, das bestenfalls auch noch “gut” oder “schön” ist. die hoffnung darauf, dass es so wird oder möglich ist usw.
kann man nennen wie man will. aber das impliziert der mit “religion”.
und er kritisiert, dass die wissenschaft auf so etwas absolut nichts gibt (wunsch nach längfristigem/höherem sinn ihrer eigenen tätigkeit/langfristiges ziel).
und weil sie von sowas keinen plan hat, dümpelt sie auch bloß vor sich hin, denkt in ganz kleinen schritten, schreit dementsprechend bei kleinsten dingen schon “revolution!”.
und beim ganzen revolutionsgeschrei kommt keiner dazu, sich mal ne ruhige minute hinzusetzen und mal zu überlegen, wie man jetzt mal was über zb. 100 Jahre erforschen könnte, also ein Ziel in 100 Jahren Entfernung setzen (wie die Philosophen das tun (“Im nächsten Zeitalter”) und in anderer weise die Theologen (“Am Ende aller Zeit”); hingegen Wissenschaft heute: “in drei Monaten”).
@Thomas Moder:
Und trotzdem hat Dusenberry damit Zusammenhänge erkannt, die anderen Anthropologen entgangen sind,
Das sagst Du, und sagst zugleich, man könne es nicht falsifizieren, aber wie kannst Du dann behaupten, dass es wahr ist? Das unterstellt doch eine Verifikation i.d. ein oder anderen Weise.
Kann ich am eigenen Leib nachvollziehen. Habe im Sektor künstliche neuronale Netze (KNN) promoviert. Was die Säulenheiligen definieren, muss man auch dort preisen, sonst gibt’s massiv Mecker. Jetzt hat aber niemand jemals bewiesen, dass die gängigen Maßzahlen die spätere Verwendbarkeit auch ausdrücken oder auch nur durch die gängigen KNN Lernverfahren angestrebt werden.
Ich sehe das eigentliche Problem nicht darin, dass man irgendwelche Modelle und Kalküle sucht, mit den man spielen kann und irgendwelche Aussagen darin beweisen. Das Problem ist, dass man meint dem sofort Praxistauglichkeit oder Anwendungsfelder zuschreiben zu müssen.
Mit der Mathematik und der Physik funktioniert es scheinbar besser. Die eine Disziplin denkt sich lustige Dinge aus und die andere kommt später drauf, dass das auch einen Bezug zu etwas Praktischerem haben kann.
In der Informatik scheint es aber so zu sein, dass man immer gleich proklamieren muss den Stein der Weisen gefunden zu haben. Irgendwas, das die halbe Welt umkrempeln könnte, weil alle anderen bisher doof waren.