Martin Rost
Publikationen

Elektronische Foren als Medien wissenschaftlicher Diskurse

- Oder: Warum elektronische Foren in der vorliegenden Form nicht für den wissenschaftlichen Diskurs geeignet sind -

Martin Rost

(Erschienen ist dieser Text in Telepolis Aktuell vom 6.02.1998. Darüberhinaus ist dieser Text zu finden unter http://www.maroki.de/pub/sociology/mr_efmwd.html)

Mailinglists und Newsgroups sind attraktive Medien für wissenschaftliche Diskurse: Sie einzurichten und zu verwalten verursacht geringere Kosten und verlangt weniger Kompetenzen als eine Fachzeitschrift. Demokratietheoretisch bieten sie für Leser und Autor eine wünschenswert leichte Teilhabe und erreichen trotz weltweiten Zugangs eine hohe Umschlaggeschwindigkeit auch bei aufeinander Bezug nehmenden Texten. Diese Texte sind zudem maschinell zugänglich: Obwohl einzelne Computer ohne menschlich-semantische Intelligenz als triviale Syntaxmaschinen operieren, können sie im Netzverbund die Kommunikationen menschlicher Beobachter (im Unterschied zu deren weitaus weniger zugänglichen Mentalzuständen) verarbeiten und ihrerseits Kommunikationen anstoßen, die für menschliche Beobachter einen Sinngewinn abwerfen. Als Beispiele lassen sich in der netten Variante Personal Agents (vgl. Helmers/ Hoffmann 1996; Wagner 1997) und Groupware-Applikationen (Burger 1997) oder in der weniger netten Variante E-Mail-Schnüffelsoftware, wie sie staatliche Nachrichtendienste und auch Betriebe einsetzen (vgl. Schmitz 1996), anführen.

Trotz dieser Stärken eignen sich elektronische Foren derzeit nicht als Medien für relevante wissenschaftliche Diskurse, weil sie nicht direkt den zentralen Konflikt zur Reproduktion wissenschaftlicher Texte lösen. Dieser zentrale Konflikt zeigt sich bei den Verfahren zur Bewertung von Texten. Erst bestimmte Bewertungsverfahren lassen aus einem Angebot an Texten wissenschaftliche Texte werden. Solche Bewertungen sind strukturell unverzichtbar, weil durch sie spezifische, fein austarierte Erwartungsschemata entstehen, die potentielle Autoren mit (De)Motivation für das Anfertigen weiterer Beiträge von einer bestimmten Qualität versorgen. Vor allem lassen diese Schemata nur bestimmte, enggeschnittene kommunikative Anschlüsse zu, so daß wissenschaftliche Kommunikationen beispielsweise von ökonomischen oder politischen Kommunikationen unterscheidbar werden. Überzeugend gehaltvolle Bewertungen der Inhalte von Texten können Computer nicht liefern, wohl aber können Computer die Verfahren zur Bewertung von Texten, an denen menschliche Beobachter teilnehmen, unterstützen.

1.1 Beiträge bewerten

Für die traditionellen wissenschaftlichen Printmedien bemessen Redaktionen, Lektoren und speziell ausgewählte externe Gutachter die Qualität von Texten. Wie die Urteile dabei zustandekommen, ist für die Autoren in der Regel undurchsichtig: Ein Text wird dann publiziert, nachdem ein anerkannter Experte (oder eine anerkannte Gruppe anerkannter Experten) einen Text eben anerkannte. Den öffentlich zugänglichen elektronischen Diskussionsforen ist kein Bewertungsfilter diesen Zuschnitts vorgeschaltet. Das hat zur Folge, daß ein elektronisch publizierter Beitrag dem Autoren keine im etablierten Wissenschaftssystem verwertbare Anerkennung einbringt, entsprechend kleinformatig fallen die Beiträge in den Netzforen aus. Die selbstverständlich anzutreffende informelle Anerkennung kluger Autoren in den Netzforen trägt nichts zu deren existentiellen Sicherung bei. Wissenschaftlich gehaltvolle Ideen in elektronische Foren zu setzen hieße derzeit, diese zu verschenken.

Die Teilnehmer elektronischer Foren müssen sich regelmäßig mit programmatisch-selbstregulativen Beiträgen über Sinn und Zweck ihres Forums verständigen. Das ist ein wissenschaftstheoretisch begrüssenswert diskursives-, für alle Teilnehmer klar durchsichtiges Verfahren zur Regulierung der Themen und Qualität von Beiträgen. Doch erfahrungsgemäß reicht deren Zahl oftmals an die der Nutzbeiträge heran, sofern kein anerkannter Autor regelmäßig und dauerhaft mit guten Beiträgen auftritt, die aus sich heraus strukturbildend wirken.

Diesen Selbstverwaltungsoverhead und das zeitaufwendige Sichten der Beiträge nehmen Leser so lange in Kauf, solange sie von der fantastischen Möglichkeit dieser neuen Medien fasziniert sind, nunmehr auch als Autor zu agieren oder zumindest leicht an Autoren heranzukommen. Nachdem sie feststellen, nicht einfach alles lesen zu können, halten sie sich an Qualität versprechende Autorennamen. Insofern führt die Leichtigkeit der Teilhabe am Diskurs, die zu Beginn noch als Stärke elektronischer Foren ausgewiesen war, zur Regression auf eine wieder stark autor- statt textzentrierte Aufmerksamkeit.

Trotzdem zweifelt niemand daran, daß elektronische Foren alsbald für relevante wissenschaftliche Diskurse verbindlich in Gebrauch genommen werden und die papierenen Foren ablösen. Damit diese Ablösung stattfinden kann, muß das Problem gelöst sein, welche Formen der Bewertung den elektronischen Foren angemessen sind.

Die traditionelle Lösung zur Bewertung von Beiträgen bestünde darin, den allzu leichten Zugriff auf die elektronischen Kommunikationsforen hierarchisch legitimiert einzuschränken. Das geschieht auch. Vielen elektronischen Foren sind Moderatoren vorgeschaltet, die die Texte sichten, bevor sie ins Forum reingesetzt werden. Wissenschaftlich ist ein Moderator nicht akzeptabel, solange er weder aus dem Kreis der Teilnehmer demokratisch legitimiert ist noch, anders als die Gutachter der Zeitschriften, sich zumindest als thematisch kompetent ausgewiesen hat. Auch altehrwürdige wissenschaftliche Zeitschriften nutzen inzwischen das Internet als einen weiteren Vertriebsweg. Sie haben nach kurzem bangen Zögern entdeckt, daß ihre Funktion für die Wissenschaft und ihre ökonomische Basis nicht davon abhängen, das knappe Gut "bedruckbares Papier" zu verwalten. Nichts hält sie davon ab, ihre traditionellen Auswahl- und Bewertungsverfahren auf das neue Medium zu übertragen. Ihrem Selbstverständnis nach bieten sie im besten Falle einen Anlass, aber kein Forum für Diskurse. Sie verlautbaren unidirektional-autoritär, zunft-abgesicherte Erkenntnisse.

Eine Lösung, die den neuen Möglichkeiten der elektronischen Medien angemessener wäre, machte sich dagegen den Umstand zunutze, daß die technische Leichtigkeit der Publikation, Distribution und Konsumtion von Texten mit einer ebensolchen technischen Leichtigkeit bei der Bewertung von Texten, die im Kern aus einem Diskurs über den Diskurs besteht, verbunden werden kann.

1.2 Beiträge technisch gestützt bewerten

Die nachfolgenden Beispiele für technisch gestützte Bewertungsverfahren zeigen, daß eine Technisierung der Filterung mit einer Entmachtung der traditionellen Bewertungseliten einherginge. Deren Entmachtung wäre eine Folge der Technisierung, Arbeitsteilung und Demokratisierung (gleich: Industrialisierung?) nunmehr auch des akademisch-informationsverarbeitenden Sektors der Gesellschaft (vgl. Bultmann 1996; Rost 1997). Es steht die Modernisierung der Diskurs-Ökonomie an: Knapp ist nicht mehr länger der Platz zur Publikation, sondern die Aufmerksamkeit der Leserschaft (vgl. Rötzer 1996).

Als erstes Beispiel für ein technisch gestütztes Bewertungsverfahren möchte ich den Newsreader slrn ansprechen. Wie andere moderne Programme zum Lesen von Newsgroup-Artikeln bietet der slrn den Nutzern eine kill- bzw. hotfile-Option: Artikel, die bestimmte Bedingungen erfüllen, werden dem Leser vorgelegt oder nicht vorgelegt. Dafür untersucht der slrn in jedem Beitrag den Autorennamen, die Schlagzeile (das sogenannte "subject"), die Artikellänge oder Begriffe innerhalb des Textes. Der Leser, der den slrn benutzt, hat zuvor diesen Kategorien Werte (scores) zugeordnet. Ein Score beispielsweise von -10 für das Subject zeigt keinen Artikel dieses Subjects. Ein Score von +50 für den Autor eines solchen Artikels ergibt einen Gesamtscore von 40, also würde der Artikel angezeigt. Sollte ein weiterer Score von -50 bei Artikeln mit mehr als hundert Zeilen eingestellt sein, würden entsprechend lange Texte eines ansonsten als gut bewerteten Autoren nicht angezeigt werden. Bei einem Score von -9999 wird ein Text in keinem Falle, bei einem Score von 9999 dagegen auf jeden Fall angezeigt.

Das Problem eines solches Verfahrens besteht in der strukturellen Statik, weil es im besten Falle zwar perfekt strukturkonservativ Relevantes von Irrelevantem zu unterscheiden hilft, wobei aber zu wenig auch überraschend interessantes auf dem Bildschirm erscheint.

Als zweites Beispiel sei GroupLens genannt. GroupLens dynamisiert die Filterfunktion, wie sie eben anhand des slrn (der das GroupLens-Verfahren unterstützt) vorgestellt wurde. Die Kernidee besteht darin, daß die Mitglieder einer Gruppe Beiträge in den Foren bewerten und diese Bewertungen an einen zentralen Server schicken, von dem aus die Newsreader der anderen Mitglieder ihre Filter eingestellt bekommen.

Bei diesem Verfahren stellt sich das Problem des Zeitverzugs zwischen dem Eintreffen der Texte und deren Bewertungen. Es kommt derjenige in den Genuß bereits vorliegender Bewertungen, der vergleichsweise sehr viel später als die anderen liest.

Als drittes Beispiel möchte ich einen Scoring-Server vorstellen, an dessen Realisierung gerade gearbeitet wird. Wie GroupLens basiert dieser auf einer bewertenden Stimmabgabe durch Leser. Im Unterschied zu GroupLens sollte die Gruppe der Bewerter dabei aber nicht homogen zusammengesetzt sein. Die Kernidee besteht darin, daß Leser die Bewertungen von Beiträgen - in Form von Schulnoten - an den Scoring-Server schicken, der sie verarbeitet und in regelmäßigen Abständen in einem Report publiziert. Das Ziel dieses Verfahrens besteht darin, Autoren schlecht-bewerteter Texte mittelfristig zu entmutigen, weitere Texte anzufertigen und Autoren sehr guter Texte, deren Texte unkommentiert bleiben, zu ermutigen, weiterhin Beiträge anzufertigen. Die Bewertungen bieten selbst genügend Anlaß für Diskurse. Zusammen mit der Bewertung auch der Foren selbst noch trägt dies zur Ausdifferenzierung elektronischer Foren bei.

Ein Problem dieses Verfahrens besteht darin, die Integrität der Bewertungen und der Betreiber von Scoring-Server kontrollierbar zu halten. Anders als die beiden erstgenannten Beispiele wirkt ein Scoring-Server auf die Autoren ein und damit auf die Ursache des Textangebots.

1.3 Die Folgen

Bei den angeführten Beispielen wird die Variationsbreite des Textangebots nicht durch stellvertretende Bewertungsexperten patriarchial präventiv eingeschränkt. Gewagt-offensive Texte dürften auf diese Weise ebenso wie detailversessen-spezialisierte Texte eine größere Chance auf Aufmerksamkeit als bislang erhalten, ohne daß dadurch die konventionellen Texte in dem übergroßen Angebot untergehen müssten. Die Scoring- und Rankingreports dienen als Filter, die sich obendrein ebenfals technisch auswerten lassen. Wer es sich leisten möchte, wird sich nach wie vor Expertenfilter von Redaktionen einkaufen, die dann ihrerseits nicht darauf verzichten, technisch gestützte Selektionsverfahren zu nutzen.

Wissenschaftliche Kommunikationen operieren nach Maßgabe des Codes wahr/ unwahr (Luhmann 1992), für dessen Seitenwechsel praktische Bedingungen (Begriffe, Sätze, Modelle, Theorien) formuliert sind. Dabei unterstehen WissenschaftlerInnen zunehmend unabweisbar dem Zwang zur Kreativität, weil sie dasjenige ist, was ihnen die Computer übriglassen müssen. Genauer: WissenschaftlerInnen sind genötigt, mit Hilfe moderner Techniken unwahrscheinliche wissenschaftlich-kommunikative Anschlüsse bis knapp an die Grenze des Verständnisabrisses wahrscheinlich zu machen und prototypisch auszutesten. Liegen Texte durchgängig digitalisiert vor, ließen sich die Anschlüsse zwischen den Sätzen und Texten selbst noch explizit ausweisen und auch technisch kontrollieren, etwa in Form einer Diskurs-Markup-Language (vgl. Rost 1996). Dadurch wäre eine sehr hochauflösende Evolution wissenschaftlicher Kommunikationen möglich. Die derzeitige Bewertungselite, der bislang nichts anderes übrigbleibt, als sich anhand einer Metaphysik des enthobenen Expertums und des bevorzugten Zugangs zur Wahrheit durch Subjektivitäts-Adel zu legitimieren, kann daran kein Interesse haben. Entsprechend tief ist die Krise des Hochschulsystems.

1.4 Literatur

  • Bultmann, Torsten, 1996: Die standortgerechte Dienstleistungshochschule; in: Prokla 104, Zeitschrift für kritische Sozialwissenschaft, "Universität", 26. Jahrgang, 1996, Nr. 3: 329-355

  • Burger, Cora, 1997: Groupware - Kooperationsunterstützung für verteilte Anwendungen, 1. Auflage, Heidelberg: dpunkt-Verlag

  • Helmers, Sabine/ Hoffmann, Ute, 1996: Demokratische Netzpolitik - (k)ein Platz für Agenten; in: Bulmahn, Edelgard/ Haaren, Kurt van/ Hensche, Detlef/ Kiper, Manuel/ Kubicek, Herbert/ Rilling, Rainer/ Schmiede, Rudi (Hrsg.), 1996: Informationsgesellschaft - Medien - Demokratie. Kritik - Positionen - Visionen, 1. Auflage, Marburg: BdWi-Verlag

  • Luhmann, Niklas, 1992: Die Wissenschaft der Gesellschaft, Frankfurt am Main: Suhrkamp

  • Rötzer, Florian, 1996: Aufmerksamkeit - der Rohstoff der Informationsgesellschaft (Text)

  • Rost, Martin, 1996: Vorschläge zur Entwicklung einer Diskurs-Markup-Language; in: Heibach, Christiane/ Bollmann, Stefan (Hrsg.), 1996: Kursbuch Internet - Anschlüsse an Wirtschaft und Politik, Wissenschaft und Kultur: Bollmann-Verlag (Text)

  • Rost, Martin, 1997: Zur Krise der Hochschule - Die Informationsgesellschaft als Vollendung des industriellen Projekts (Text)

  • Schmitz, Ulrich, 1996: Liebesgrüße vom Chef - Automatisierte Emailkontrolle über MIMEsweeper; in: iX 1996/ 11: 80-85

  • Wagner, Gerd, 1997: Software mit Managerqualitäten. Agenten - Programme mit Überzeugungen und Absichten; in: ct 1997: 15: 234-243