Mediziner: “Has Modern Science Become Dysfunctional?”
Ich habe gerade über Slashdot einen hochinteressanten Artikel der American Society for Microbiology gefunden, der wiederum auf zwei Editorials des Journals Infection and Immunity beruht (der und der), die harsche Kritik am heutigen Wissenschaftssystem äußern, das sie – kurz gesagt – wohl als so ungefähr komplett zusammengebrochen ansehen.
Es bringt jetzt nichts, die da komplett abzupinnen, man sollte die beiden Editorials wirklich selbst lesen. Dennoch als kurze Zitate:
„By many measures, contemporary science has been a resounding success, particularly when one considers the impressive advances in technology and biomedicine. Yet this progress has come at a price, and one may still ask whether the scientific enterprise is healthy. […]
To be successful, today’s scientists must often be self-promoting entrepreneurs whose work is driven not only by curiosity but by personal ambition, political concerns, and quests for funding. Individual scientists intensively compete with other scientists for resources, and many scientists are dependent on grant funding to provide part or all of their salaries. Although scientists would prefer to follow wherever their data may lead, research funding is often restricted to specific topics believed to represent the most urgent social priorities. Scientists are expected to demonstrate consistent productivity in terms of manuscripts, on which their future funding, promotion, and tenure depend. The greatest value is placed on journals with high “impact” (and commensurately high rejection rates, as an indication of selectivity), and most of the glory goes to the first and last authors of a publication. In this environment, we see several problems with contemporary science. […]
Publish and still perish. The well-known “publish or perish” mentality can drive some scientists to write papers whether or not they have anything new and important to say. The result is an unwieldy scientific literature in which the most highly cited papers are concentrated in a small number of journals (19) while a large proportion of papers are cited infrequently or not at all (2). Jinha has estimated that 50 million scholarly articles have been published since 1665, when the first modern journal appeared, with more than half of these published during just the last 25 years (21). Much of the recent scientific literature is repetitive, unimportant, poorly conceived or executed, and oversold; perhaps deservingly, much of it is ignored. However, the sheer number of papers generates an enormous burden on the peer review system (9). As the pool of qualified peer reviewers is inadequate to meet demand, the critical role of peer review in screening and correcting manuscripts prior to publication cannot properly function. These factors, as well as the difficulty publishing negative results (publication bias), serve to undermine the reliability of the scientific literature (13, 18). ”
Und bemerkenswerterweise:
„Is science too masculine? […] Hence, it might be argued on more than one level that science is too “masculine.” A reform to the payoff system may also have other benefits in addition to reducing the incentives for cheating. Given the increasing connectivity between fields and specialties of science, there is an increasing need for collaboration, yet a system of winner-takes-all is inherently unfair to collaborators. A different reward system could promote team science and thus promote the overall progress of the scientific enterprise. A less “masculine” scientific culture could be a fairer, more honest, more cooperative, and more successful enterprise.”
Und im anderen Editorial:
„This is because, as we have already discussed, many dysfunctional aspects of science are rational responses by scientists to incentives presented by the current system. True reform will require changing these incentives by addressing fundamental structural aspects of the scientific enterprise that create the constraints under which science is performed. Since most science is supported by public funding, any structural reform will inevitably involve changes in the way governmental financial support is provided to scientists.”
Wie gesagt, sehr lesenswert.
8 Kommentare (RSS-Feed)
Die Publikationspraxis von Informatikern ist eigentlich der unwiderlegliche Beweis, daß sie von Infromatik keine Ahnung haben, sonst hätten sie es ja mal auf den Stand moderner Informatik gebracht.
>98% der Publikationen in Informatik sind sowieso nutzloser und überflüssiger Schrott, der nicht gelesen wird. Schade um die Bäume, die zu Papier verarbeitet und vergeudet werden.
Leider ist es aber so, dass eben nicht publiziert wird um der Welt etwas neues mitzuteilen bzw. einen wissenschaftlichen Diskurs zu führen sondern einzig und allein um Sichtbarkeit zu produzieren. Diese ist wieder für die Einwerbung von Drittmitteln wichtig.
Dementsprechend werden auf Konferenzen über Jahre die ewiggleichen Themen solange wieder hochgekocht bis das irgendjemand ein neues Buzzword in die Runde wirft.
So wird z.B. aus Grid mal eben schnell Cloud und das ganze Spiel kann mit den immergleichen Leuten wieder von vorne beginnen.
Solange BMBF/DFG und EU für Schlagwortforschung Geld rauswerfen, obwohl bereits z.T. kommerziell ausgereifte Lösungen auf dem Markt sind, solange ist für alle Beteiligten die Welt in Ordnung und solange wird sich an diesem absurden Zirkus, der sich da Wissenschaft schimpft nichts ändern.
Hier ein passender Artikel von Richard Ernst (Nobelpreisträger Chemie 1991) über den Wahnsinn von Impactfaktoren usw:
“The Follies of Citation Indices and Academic Ranking Lists”
http://www.cnrs.fr/aquitaine-limousin/IMG/pdf/Ernst_Chimia_10.pdf
Der Artikel von R. Ernst bezieht sich auf einen Artikel eines Kollegen, G. Bodenhausen (einer der Pioniere der NMR):
“Bibliometrics as weapons of mass citation”
Ich finde es gut, dass solche Koryphäen den Zusand der Wissenschaft anprangern. Beide Artikel sind sehr lesenswert!
Die, die wirklich was drauf haben, haben diesen ganzen Publikations- und Zitiermist normalerweise auch nicht nötig.
Zitat aus dem Artikel von R. Ernst:
“And as an ultimate plea, the personal
wish of the author remains to send all bibliometrics
and its diligent servants to the
darkest omnivoric black hole that is known
in the entire universe, in order to liberate
academia forever from this pestilence. –
And there is indeed an alternative: Very simply,
start reading papers instead of merely
rating them by counting citations!”
Dem ist nichts mehr hinzuzufügen.
Ich stimme Hans’ Kritik voll und ganz zu. Das bisherige Modell des Veröffentlichen in “Papers” und “Journalen” ist einfach nicht mehr zeitgemäß. Nun bin ich ja “nur” Physiker (mit starkem Informatik-Hintergrund, ist ja immerhin mein Nebenfach, mit Visualisierung, Betriebssystemen und Computerarchitektur in den Schwerpunkten), aber auch als solcher darf man sich Gedanken darüber machen (nicht zuletzt da Physiker auch einen großen Teil zur Informatik beigetragen haben).
Was mir persönlich vorschwebt ist eine Art verteiltes Versionsverwaltungssystem wie Git oder Mercurial, in dem Wissenschaftler ihre Veröffentlichungen publizieren. Angesehene Institutionen und Lehrstühle in bestimmten Forschungsbereichen würden aus diesen Quellen das Peer-Review an Fachkollegen verteilen und in über das selbe System verteilten Artikeln kommentieren und zu Journalen zusammenfassen. Aus diesen Journalen liesse sich dann ein querschnitt der interessantesten Artikel destillieren.
Das wäre so ähnlich wie das Entwicklungsmodell des Linux-Kernels. Jemand baut eine neue Funktion oder fixt einen Bug oder ähnliches und publiziert das in seinem eigenen Git-Fork. Die zuständigen Maintainer sehen sich das Zeug an und wenn es gefällt übernehmen die das in ihre Branches und leiten dass an die obersten Entwickler weiter die dann daraus ihre Entwicklerkernel bauen und veröffentlichen, die dann wieder getestet werden. Schließlich wird das Zeug, wenn es genügend gereift ist in den Mainline-Kernel übernommen.
Als Physiker finde ich es bedenkenswert, dass es nicht einmal sowas wie eine von Fachkollegen kollaborativ gepflegte Wikipedia, ehh Distripedia gibt, deren Querschnitt zitierfähig wäre. Stattdessen muss man sich durch zigfach redundantes Zeug wühlen und sich seine Quellen aus X Journalen zusammensuchen und oft genug die Kröte Elsevier schlucken (*würg*).
Sowas in der Art habe ich ja in früheren Blog-Artikeln schon vorgeschlagen.
Dass das Publikationswesen einfach inheränt kaputt ist, ist leider auch noch nicht so recht an den Unis angekommen.
Gerade bei der Informatik finde ich das grauenvoll debil. Wir leben in Zeiten des Internets aber publizieren wie vor 500 Jahren…
Anstatt Paper zu publizieren könnte man auch einfach mal anfangen, sich darüber Gedanken zu machen, eine Wissensbasis a la Wikipedia zu pflegen (nur ein bisschen professioneller und technisch ausgereifter vllt.).
Insbesondere frage ich mich, warum man immer gleich mehrere Seiten publizieren muss. Die Quintessenz der meisten Paper lässt sich auf 3-4 Absätze schrumpfen. Das ganze Beiwerk ist in Paperform sowieso wertlos. Die Introduction würde wegfallen, wenn man eine Wissensbasis aufbaut. Die Evaluation muss man sowieso maschinenlesbar machen – so wie es jetzt ist, ist sie nur nett formulierte Augenwischerei…
Anstatt auf Konferenzen zu fliegen, um Publikationen zu machen – kann man auch im Internet publizieren und Konferenzen dann wirklich auf das Socializing begrenzen oder weglassen.
Außerdem sollte Reviewing von Paper on-demand passieren. Wenn man einen Fehler entdeckt, soll man ihn online öffentlich machen und mit dem Autor online diskutieren. Anstatt etwas als ewige Wahrheit in irgendwelche gedruckten Proceedings zu pressen, wo es allenfalls verstaubt…