“Nur dem, der das Glück verachtet, wird Erkenntnis”

Klassiker
24492 Aufrufe

Wiedergelesen von Jens Loenhoff

Klassiker
Was von Georg Trakl ernst gemeint aufs Leben bezogen, schien für Kommunikations- und Sprachwissenschaft lange nicht zu gelten, leistete diese sich doch das Glück der Entlastung vom Komplexen. Dazu verhalf ein Buch, das wie kaum ein anderes in den zuständigen Disziplinen Geschichte machte: The Mathematical Theory of Communication von Claude E. Shannon und Warren Weaver. An keiner naturwissenschaftlichen Theorie haben sich die Sozialwissenschaften nach dem zweiten Weltkrieg so stark orientiert, keine Theorie ist so sehr auf beliebige Gegenstände verallgemeinert und so ausgiebig popularisiert worden. Noch in einem 1956 erschienenen Artikel bekräftigt Claude E. Shannon seine Warnung, den Informationsbegriff nicht auf interpersonelle Kommunikation zu übertragen, doch diese Mahnung verhallte, wie wir heute wissen, ungehört – auch und gerade dort, wo man es hätte besser wissen können.

Vorgeschichten

Die Ur- und Frühgeschichte der Informationstheorie steht in engem Zusammenhang mit der Entwicklung der kinetischen Gastheorie und der damit verbundenen Wärmelehre. James C. Maxwell (1831-1879) sieht sich als erster Wissenschaftler genötigt, statistische Begriffe in die Physik einzuführen, da sich die Eigenschaften von Gasen aufgrund der starken Bewegung ihrer Moleküle nur stochastisch, das heißt durch Angabe von Wahrscheinlichkeiten mathematisch darstellen lassen. So kann die statistische Verteilung die vollständige Kenntnis des jeweiligen Ortes der Gasmoleküle ersetzen. Etwa zeitgleich formuliert Rudolf Clausius (1822-1888) im Kontext seiner mechanischen Wärmetheorie den 2. Hauptsatz der Thermodynamik und prägt den Terminus “Entropie” als Maß für die Unzugänglichkeit von Energie. Ludwig Boltzmann (1844-1906), der einige der Vorhersagen Maxwells experimentell hatte bestätigen können, gibt dann den zeitasymmetrischen kinetischen Gleichungen mit der “H-Funktion” eine wahrscheinlichkeitstheoretische Grundlage. Die die Thermodynamik bestimmenden beiden Hauptsätze, auf die sich fortan alle diesbezüglichen Beiträge beziehen, lauten schließlich: 1) “In jedem geschlossenen System bleibt die Energiemenge bewahrt”; und 2) “In jedem geschlossenen System bleibt die Entropie konstant oder verändert sich”. Minimale Entropie bedeutet folglich einen minimalen Grad von Unordnung (beziehungsweise einen maximalen Grad von Ordnung) und damit schließlich maximale Information über die Gruppierung der einzelnen Moleküle im System. Maximale Entropie bedeutet demgegenüber einen maximalen Grad von Unordnung (beziehungsweise einen minimalen Grad von Ordnung) und damit schließlich minimale Information über die Gruppierung der einzelnen Moleküle im System. Für den Zustand eines Gases bedeutet maximale Entropie folglich, dass überall die gleiche Wahrscheinlichkeit des Vorkommens bestimmter Moleküle besteht und keine Umkehr dieses Zustandes in ungleiche Wahrscheinlichkeiten möglich ist. Bereits hier drängt sich die Analogie auf: Wenn in den statistischen Gleichungen der Thermodynamik Entropie eine Wahrscheinlichkeitsfunktion der Partikel eines Gases ist, könnte dieser Ausdruck in der Kommunikationstheorie als Terminus für eine Wahrscheinlichkeitsfunktion der Zustände einer Nachrichtenquelle eingeführt werden.

Shannons Theorie und ihr Anspruch

Den ersten nachrichtentechnisch motivierten Ansatz zu einer mathematisch-statistischen Kommunikationstheorie unternahm Ralph V.L. Hartley (1888-1951). 1928 publiziert er eine Arbeit über die statistische Interpretation einer Nachricht als einer aufeinanderfolgenden Selektion aus einem festgelegten Signalvorrat.1 Zwar nimmt er Wesentliches der späteren Theorie vorweg, doch stellt sich aufgrund fehlender Rezeptions-bedingungen über sein nachrichten-technisches Umfeld hinaus keine Resonanz ein. Zehn Jahre später veröffentlicht der noch unbekannte Claude E. Shannon (1916-2001), ein Schüler Norbert Wieners (1894-1964) am Massachusetts Institute of Technology (MIT), in den Transactions of the American Institute of Electronic Engineers einen Beitrag über Möglichkeiten der Digitalisierbarkeit logischer Terme (vgl. Shannon 1938). Im Juli und Oktober 1948 folgen dann zwei Aufsätze im Bell System Technical Journal mit dem Titel “A Mathematical Theory of Communication”, in denen Shannon neben zahlreichen anderen Ableitungen eine mathematische Formel präsentiert, mit der sich die minimale Anzahl binärer Operationen zur Identifikation eines Elementes innerhalb eines stets von Elementen einer bekannten Verteilung genau berechnen lässt. Doch erst als ein Jahr nach Erscheinen von Shannons Aufsatz die University of Illinois Press eine erweiterte Fassung zusammen mit Warren Weavers (1894-1978) ungleich kürzerem, aber um so folgenreicherem Teil “Recent Contributions to the Mathematical Theory of Communication” herausbrachte, beginnt deren Erfolgsgeschichte.2

Shannons primäre Absicht war es zunächst, die Verhältnisse von statistischen Charakteristika eines Codes und dem Grad der Wahrscheinlichkeit, mit der Signale einen Kanal durchlaufen, genau zu bestimmen. Das mathematisch zu lösende Problem liegt in der Frage, wie durch Kenntnis der statistischen Eigenschaften der Quelle die Codierung von Nachrichten so optimiert werden kann, dass die benötigte Kanalkapazität reduziert werden kann (Shannon 1949: 10ff.). Folgende Aussagen bilden zunächst den systematischen Gehalt der Theorie Shannons:

  1. Es besteht eine endliche Zahl von (unterscheidbaren) Signalen, wobei jedem Signal eine mathematisch präzisierte Wahrscheinlichkeit seines Auftretens (beziehungsweise Gesendetwerdens) zugewiesen ist.
  2. Dem Empfänger ist die gesamte Menge der übertragbaren Signale einschließlich der Sendewahrscheinlichkeiten bekannt.
  3. Da eine vollkommen störungsfreie Übertragung der Signale technisch unmöglich ist, kann der Empfänger – abhängig von der Störanfälligkeit des Kanals (“noise”) – andere Signale als die gesendeten empfangen.
  4. Es lässt sich berechnen, wie sich Signale so codieren lassen, dass Störungen in einem Übertragungskanal auf ein Minimum reduziert bleiben. Alle definierten Informationsmaße sind auf Sendewahrscheinlichkeiten und diese Störungsminimierung bezogen.
  5. Es besteht ein inverses Verhältnis von Unsicherheit und Sendewahrscheinlichkeit, das heißt ein Signal hat einen umso größeren Informationswert, je kleiner die Wahrscheinlichkeit ist, dass es zu einem bestimmten Zeitpunkt gesendet wird.

Es sind also insgesamt drei Kernprobleme der Signalübertragung, die von der mathematischen Theorie der Kommunikation aufeinander bezogen und befriedigend gelöst werden sollten, nämlich 1) das Problem der Codierung, 2) das Problem der Kanalkapazität und schließlich 3) das Problem des “Rauschens”. Die Codierung legt als Zuordnung von Elementen nach einer entsprechenden Zuordnungsregel alle überhaupt möglichen Kombinationen fest. “Noise” beziehungsweise “Rauschen” kann dadurch die Signalübertragung beeinträchtigen, dass Elemente bei der Übertragung verloren gehen oder in andere Elemente transformiert werden. “Noise” entsteht immer nur dann, wenn die Fehler nicht systematisch und deshalb unvorhersagbar sind. Der Terminus “noise” bezieht sich ausschließlich auf zufällige Veränderungen des Signals. Rauschen erhöht zwar die Ungewissheit eines Beobachters hinsichtlich der Frage, welche Botschaft gesendet wird, hat aber keinen Effekt auf die Entropie (H) als der Verteilung der Elemente des Codes, aus denen sich die Botschaft zusammensetzt, und der mit diesem spezifischen Sachverhalt verbundenen statistischen Unsicherheit. Die mit den statistischen Eigenschaften des Codes verbundene Unsicherheit betrifft das erwartete Maß der Verteilung der Elemente in einer typisch codierten Nachricht. Die mit dem Rauschen im Übertragungskanal verbundene Unsicherheit betrifft hingegen die Wahrscheinlichkeit, mit der ein empfangenes Element einer Nachricht mit dem gesendeten identisch ist. Dies sind, wie unschwer zu erkennen ist, zwei vollkommen verschiedene Sachverhalte. Und was hinsichtlich der Rezeption von Shannons Theorie noch viel bedeutsamer ist: Bei dem, was informationstheoretisch “Unsicherheit” heißt, handelt es sich um die mathematisch-statistische Wahrscheinlichkeit des empfängerseitigen Auftretens von Signalen. Dies hat nichts zu tun mit Wissen, Erwartung, Hoffnung eines personalen Empfängers, dass gerade ein bestimmtes Signal empfangen wird.

Die bisher formulierten Aussagen gelten zunächst nur unter der Annahme der gleichen Auftretenswahrscheinlichkeit von Signalen. Diese kann allerdings differieren und vom Auftreten eines vorhergehenden Signals abhängen, sodass die entsprechenden Übergangswahrscheinlichkeiten (“transition probabilities pi (j)”) in die stochastische Berechnung des Informationsgehaltes einer Nachricht eingehen müssen. In der Telegrafie betrifft dies etwa Buchstabenfolgen, die schon deshalb nicht vollkommen zufällig auftreten, weil die Wahrscheinlichkeit, dass zum Beispiel in einer germanischen oder romanischen Sprache auf den Buchstaben V ein X oder ein Z folgt, geringer ist als die, dass ein Vokal folgt. Diesen Überlegungen ist schließlich die so genannte “Entropieformel” geschuldet, die auf der Basis einer logarithmischen Operation und anhand der Zahl der “bits” (H) die durchschnittliche Auftretenswahrscheinlichkeit eines Elementes aus dem Set angibt.3 Shannon definiert Entropie wie folgt:

“Quantities of the form H = – ∑ pi log pi (…) play a central role in information theory as measures of information, choice and uncertainty. The form H will be recognized as that of entropy as defined in certain formulations in statistical mechanics where pi is the probability of a system being in cell i of its phase space. H is then, for example, the H in Boltzmann’s famous H theorem. We shall call H = – ∑ pi log pi the entropy of the set of probabilities pi ּּּ, pn (…).

The quantity H has a number of interesting properties which further substantiate it as a reasonable measure of choice or information.” (Shannon 1949: 20)4


Informationsmaße betreffen mithin Wahrscheinlichkeitswerte des Eintretens spezifischer Ereignisse. Daraus ergibt sich zunächst, dass einer geringen Auftretenswahrscheinlichkeit ein hoher Informationswert und umgekehrt einer hohen Auftretenswahrscheinlichkeit ein geringer Informationswert zukommt. Der Informationsgehalt einer Nachricht entspricht folglich dem Maß für denjenigen Aufwand, der zur Klassifizierung der gesendeten Zeichen auf der Grundlage der Binärentscheidung (“ja/nein” beziehungsweise “an/aus”) erforderlich ist. Negative Entropie oder auch “Negentropie” bestimmt sich als Abstand von der aktuellen zur potenziell maximalen in einem geschlossenen System erreichbaren Entropie (-H = ∑ pi log pi).5

Ob allerdings Entropie überhaupt als Maß für den Grad an Ordnung (statt entropischer Unordnung) interpretiert werden kann, ist zunächst ausgesprochen fraglich. Die Ur- und Frühgeschichte der Vermutung einer Beziehung zwischen Entropie, Information und Wissen ist verschlungener, als große Teile der Sekundärliteratur in ihrer leichtfertigen Relationierung beider Größen suggerieren. Die übliche simplifizierende Gleichsetzung lautet zunächst wie folgt: Minimale Entropie bedeutet maximale Information. Ihr kognitives Korrelat auf Seiten des Beobachters ist als Wissen beziehungsweise Kenntnis bestimmbar. Maximale Entropie hingegen bedeutet minimale Information, ihr kognitives Korrelat auf Seiten eines Beobachters demgegenüber Unkenntnis beziehungsweise Unwissen. Was also vom Standpunkt des Beobachters als erhöhte Unkenntnis über Unterschiede erscheint, ist eine Wirkung der Zunahme von Entropie. Bereits im Kontext des Maxwell’schen Dämons war es zu einer Konfundierung von Entropie und Nichtwissen gekommen:

“The suggestion is that if only our senses were sharp enough, we would be able to watch the individual motions of molecules (ignoring the problems this raises in quantum theory) and thereby testify to the true reversibility of all processes on this microscopic level. This quickly leads to the notion of entropy as a measure of our ignorance of the precise details of a process, an idea that has been developed.” (Coveney/Highfield 1990: 177)


Im Zuge seiner Popularisierung erscheint das Konzept der Entropie, das sich ursprünglich auf die Unzugänglichkeit von Energie bezog, als a) Information beziehungsweise Unwahrscheinlichkeit des Eintretens eines Ereignisses, b) Nichtwissen und schließlich c) Komplexität. Vor allem ist der Begriff der Entropie nur von scheinbarer Einfachheit. Deskriptiv als Maß für Unordnung sei er, wie bereits Cherry anmerkt, als “negative” Entropie mit dem der Information lediglich vergleichbar:

“(…) the concept of entropy is one of considerable difficulty and a deceptively apparent simplicity. It is essentially a mathematical concept and the rules of its application are clearly laid down. (…) Information, then, is said to be ‘like’ negative entropy. But any likeness that exists, exists between the mathematical descriptions which have been set up; between formulae and method.” (Cherry 1966: 216)6


In der Tat kann Entropie (H) sehr Verschiedenes bedeuten. Sicher ist nur, dass ihr Wert mit der Zahl der Elemente zunimmt und am größten ist, wenn die Auftretenswahrscheinlichkeit eines jeden Elementes gleich groß ist, was zu verschiedenen Interpretationen von H als “Varianz”, “Information”, “Unvorhersagbarkeit”, “Bedeutung” bis hin zu “Komplexität” Anlass gegeben hat. Ordnung und Struktur verändern die Auftretenswahrscheinlichkeit. Insofern kann Entropie natürlich auch als ein Maß für Unordnung betrachtet werden, denn je organisierter das System, desto geringer wird der Wert von H. Entsprechend kommt Ritchie zu der Bewertung:

“The greatest successes have been achieved in projects in which H does not necessarily have anything to do with information (…). At the very least, more extensive discussion of information and wider use of H in communication research have been discouraged by the continuing expectation that information and H should be somehow connected to each other, as they are in signal transmission theory” (Ritchie 1991: 8).7


Wie immer man den Zusammenhang der Formalisierungen mathematisch interpretiert, ausschließlicher Bezugspunkt der Theorie Shannons ist die sukzessive Auswahl bestimmter Signale aus einem zuvor definierten (!) Signalvorrat. Die Abstinenz der Informationstheorie von der semantischen Ebene des Kommunikationsprozesses wird von Shannon denn auch explizit thematisiert:

“The fundamental problem of communication is that of reproducing at one point either exactly or approximately a message selected at another point. Frequently the messages have meaning; that is they refer to or are correlated according to some system with certain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem. The significant aspect is that the actual message is one selected from a set of possible messages.” (Shannon 1949: 3)


Weavers Kommentar

Ein Jahr nach Erscheinen der beiden Artikel von Shannon veröffentlicht Warren Weaver in Scientific American eine kürzere Fassung des kurz darauf in die gemeinsame Publikation mit Shannon eingehenden Beitrages. Unter dem Titel “The Mathematics of Communication” weitet er den Anwendungsbereich der Informationstheorie über den nachrichtentechnischen Bereich so weit aus, dass damit der Anspruch erhoben wird, die Beschreibung weitgehend aller Formen symbolischer Prozesse mit informationstheoretischen Mitteln bewältigen zu können. Diese betreffen das Problem der Bedeutung der Information für Sender und Empfänger, also semantische Fragen im weitesten Sinn, und schließlich das Problem der Wirkungen der Information auf das Verhalten des Empfängers, also die pragmatische Dimension des Kommunikationsprozesses. Bereits hier liegt die Quelle aller späteren Missverständnisse und Fehldeutungen, denen die mathematische Theorie der Kommunikation in ihrer Interpretation als Theorie zwischenmenschlicher Kommunikation ausgesetzt gewesen ist. Aber lassen wir Weaver zunächst selbst zu Wort kommen:

“The word communication will be used here in a very broad sense to include all of the procedures by which one mind may affect another. This, of course, involves not only written and oral speech, but also music, the pictorial arts, the theatre, the ballet, and in fact all human behavior.” (Weaver 1949b: 95)


Auf dieser Grundlage ordnet Weaver den Erklärungsanspruch der Theorie drei Ebenen zu, nämlich der Ebene A, die das technische Übertragungsproblem betrifft und die Frage aufwirft, wie genau Zeichen übertragen werden können; der Ebene B, die das semantische Problem betrifft und die Frage aufwirft, wie genau die übertragenen Zeichen der gewünschten Bedeutung entsprechen; und schließlich der Ebene C, die das Effektivitätsproblem betrifft und die Frage aufwirft, wie effektiv eine empfangene Nachricht das Verhalten in der (vom Sender) gewünschten Weise beeinflusst. Weaver weist darauf hin, dass sich Shannon nur auf das Problem der Ebene A beziehe, er aber noch ganz andere Zusammenhänge sehe:

“Part of the significance of the new theory comes from the fact that levels B and C, above, can make use only of those signal accuracies which turn out to be possible when analyzed at Level A. Thus any limitations discovered in the theory at Level A necessarily apply to Levels B and C. But a larger part of the significance comes from the fact that the analysis at Level A discloses that this level overlaps the other levels more than one could possibly naively suspect. Thus the theory of Level A is, at least to a significant degree, also a theory of Levels B and C.” (Weaver 1949b: 95f. ; Hervorhebung von mir, J.L.)


Mit der expliziten Übertragung des Modells auf den Bereich kommunikativer Sinnerzeugung erhebt Weaver schließlich den Anspruch, eine Theorie zwischenmenschlicher Kommunikation formuliert zu haben. Dazu wird das Modell von Shannon so erweitert, dass die Informationsquelle mit dem Gehirn eines Sprechers identifiziert wird, der “transmitter” mit den Sprechorganen, der Übertragungskanal mit dem Medium Luft, der Empfänger mit dem auditiven Wahrnehmungssystem beziehungsweise dem Ohr eines Hörers und schließlich “destination” mit dessen Gehirn.8 Zwei weitere Ergänzungen sind hinsichtlich der Veränderung des Informationsbegriffs noch von entscheidender Bedeutung, nämlich die Einführung der senderseitigen Größe “semantic noise” sowie die des empfängerseitigen “semantic receiver”, der die Nachricht einer zweiten Decodierung unterwirft, durch die diese dann ihre Bedeutung erlangt:

“This semantic receiver subjects the message to a second decoding, the demand on this one being that it must match the statistical semantic characteristics of the message to the statistical semantic capacities of the totality of receivers, or of that subset of receivers which constitute the audience one wishes to affect.” (Weaver 1949b: 115)


Zwar betont Weaver, diese Veränderungen stellten lediglich eine minimale Modifikation und keine wirkliche Korrektur der Modells dar, doch bedeuten sie die Überdehnung des Informationsbegriffs zu zwei unterschiedlichen Kategorien, da Weaver anhand der von ihm eingeführten Differenzierung zwischen “signal symbol” und “message symbol” (ebd. 1949b: 110ff.) es auch mit zwei Kategorien von Unwahrscheinlichkeit zu tun bekommt, von denen letztere auf den Prozess der Sinnverarbeitung bezogen ist. Hatte Shannon noch betont: “The concept of information developed in this theory […] has nothing to do with meaning” (Shannon 1949: 27), zeigt sich Weaver von dieser Beschränkung vollkommen unbeeindruckt und bemerkt hinsichtlich der explikativen Reichweite der Theorie euphorisch: “(…) one should say (…) that one is now, perhaps for the first time, ready for a real theory of meaning.” (Weaver 1949b: 116)

Vor allem leistet Weaver in seinem Kommentar der folgenreichen Interpretation statistischer Unwahrscheinlichkeit als kognitiver Ungewissheit Vorschub, indem er die statistische Varianz des Codes einfach mit der statistischen Varianz der Botschaft gleichsetzt und den Terminus “uncertainty” doppeldeutig verwendet:

“It is generally true that when there is noise, the received signal exhibits greater information – or better, the received signal is selected out of a more varied set than is the transmitted signal. This is a situation which beautifully illustrates the semantic trap into which one can fall if he does not remember that ‘information’ is used here with a special meaning that measures freedom of choice and hence uncertainty as to what choice has been made. It is therefore possible for the word information to have either good or bad connotations. Uncertainty which arises by virtue of freedom of choice on the part of the sender is desirable uncertainty. Uncertainty which arises because of errors or because of the influence of noise, is undesirable uncertainty.” (Weaver 1949b: 109)


Zur Kritik an Weavers Modifikationen

Aus systematischer Perspektive ist die von Weaver vorgenommene Übertragung des informationstheoretischen Modells auf den Prozess der zwischenmenschlichen Kommunikation zunächst wie folgt zu kritisieren:

  1. Die Theorie argumentiert durchgehend vom Standpunkt eines externen Beobachters. Einerseits wird die empirische Basis der Theorie auf extern beobachtbare und messbare Phänomene eingeschränkt, andererseits bleibt der geltungstheoretisch relevante Unterschied zwischen Beobachter- und Teilnehmerperspektive völlig unreflektiert.9
  2. Die empirischen Adäquatheitsbedingungen des Modells würden nur für den Fall gelten, in dem genau angegeben werden könnte, a) über welche Anzahl verschiedener Elemente ein Sprecher “verfügt” und b) welche Auftretenswahrscheinlichkeiten diesen Elementen jeweils zukommen. Gleiches müsste für den Hörer gelten.
  3. Das Modell ignoriert die Rekursivität des Kommunikationsprozesses, das heißt der wechselseitigen und gleichzeitigen Verhaltenssteuerung von Sprecher und Hörer; es ist ein eindimensionales und lineares, die Aktivitäten des Hörers und die Möglichkeit des Sprecherwechsels ausklammerndes Ausdrucksmodell. Die Information hängt ausschließlich von der Sendewahrscheinlichkeit ab, Entropie ist stets Quellenentropie.
  4. So wenig, wie die H-Funktion der Thermodynamik sich auf ein einziges Gasmolekül bezieht, sondern stets auf eine Menge von Daten, so wenig referiert die Entropieformel der Informationstheorie auf eine einzige Nachricht, sondern auf die Gesamtverteilung der Elemente des Codes und nicht auf die Verteilung in einer bestimmten Botschaft.
  5. Das Modell vernachlässigt den situativen Kontext und seine Relevanzstruktur als einer für den Mitteilungsprozess konstitutiven Größe. Von dieser Relevanz hängt ab, welche Ereignisse für die Beteiligten überhaupt Informationswert haben.
  6. Das Modell abstrahiert von der Zeit als einer für alle Kommunikation knappen Ressource und den damit verbundenen Steuerungs- und Strukturierungseffekten. Spezifische temporale Strukturen des Prozesses bleiben unerkannt, da die Informationstheorie suggeriert, die Zeit stünde still.
  7. Das Modell verfehlt die mit der prinzipiellen Interpretationsoffenheit symbolischer Ausdrücke verbundenen Charakteristika des Kommunikationsprozesses. Die diesbezüglich motivierte Einführung von “semantic noise” und “semantic receiver” hat in dieser Hinsicht keinen Aussagewert. Informationstheoretisch modellierte Kommunikationssysteme können sich nicht auf sinnverarbeitende Systeme und ihre konnotativ-selbstbezüglichen Strukturen beziehen.
  8. Durch die mangelnde Differenzierung zwischen fundierendem Signalprozess und emergierender Sinnebene beziehungsweise zwischen “Träger- und Hauptinformation” (Ungeheuer 1972) wird suggeriert, mit den Signalen könne auch semantische Information transportiert werden. Auftretenswahrscheinlichkeiten von Signalen und Auftretenswahrscheinlichkeiten von Bedeutungen werden unzulässig konfundiert. Dadurch wird auf der Ebene kommunikativer Sinnverarbeitung Information mit Reduktion von kognitiver (!) Unsicherheit auf Seiten des Empfängers identifiziert. Die hier entscheidende Frage nach dem supervenienten Verhältnis von Signal und Botschaft beziehungsweise von Signalverarbeitung und Sinnverarbeitung kann im Kontext der Informationstheorie nicht einmal formuliert, geschweige denn beantwortet werden.
  9. Durch seine Indifferenz gegenüber den semiotischen Spezifika der Kommunikationsmittel übersieht das Modell die mit der Materialität der Kommunikation verbundenen Varianzquellen.

Rezeption der Informationstheorie in der Kommunikationsforschung

Trotz Shannons gut begründeter Vorbehalte haben Weavers Ergänzungen zu zahlreichen Versuchen geführt, den Informationsbegriff als Fundamentalbegriff der Kommunikationstheorie im engeren Sinn zu gewinnen. Dazu dürfte vor allem auch der Umstand beigetragen haben, dass die meisten Sozialwissenschaftler die Informationstheorie überhaupt nur in ihrer Kommentierung durch Weaver zur Kenntnis genommen haben.10 Die Ausweitung der Informationstheorie über ihren konkreten Anwendungsbereich hinaus begann bereits mit einer folgenschweren Unklarheit durch Hartley, der sich zwar im Zusammenhang mit seinen statistischen Informationsmaßen von semantischen Konnotationen absetzen wollte, aber mit der Verwendung des Terminus “Informationsgehalt” den Eindruck entstehen ließ, es ginge um mitgeteilte Aussagen über reale Prozesse. Angesichts des Umstandes, dass der Informationsbegriff von Shannon, wie er in den Publikationen von 1948 und 1949 entfaltet wird, explizit die restriktiven Voraussetzungen seiner Anwendbarkeit benennt, ist die Popularität des informationstheoretischen Sender-Empfänger-Modells weniger der Effekt terminologischer Nachlässigkeit als vielmehr einer im Dienst programmatisch-theoriepolitischer Interessen stehenden “theoretischen Generalisierung”, wie Müller (1996) präzise herausgearbeitet hat. Gestützt auf ein Netz von Institutionen und eine spezifische Strategie begrifflicher Verallgemeinerungen konnte die Informationstheorie allerdings nur deshalb so stark an Bedeutung gewinnen, weil sie von den grundbegrifflichen und methodischen Verknüpfungsmöglichkeiten mit der Kybernetik und der allgemeinen Systemtheorie profitierte. Mithilfe der Informationstheorie konnte sich der Systembegriff überhaupt erst von den materialen Analogien der Biologie emanzipieren und seine Generalisierung betreiben. Umgekehrt erlaubte erst die Kybernetik eine Bezugnahme des mathematisch definierten Informationsbegriffs auf komplexere Formen von Kausalität, womit sie einen Anspruch als realwissenschaftliche Methodologie erheben konnte. Treffend formuliert denn auch Müller:

“Der Informationsbegriff wird hier nicht mehr im präzisen Sinn seiner Anwendungsbedingungen, sondern als metaphorisch überdehntes Konzept verwendet, von dem man sich interdisziplinäre ‚Abstraktionsgewinne’ erhofft, ohne noch die disziplinären – und das heißt wohl auch: die Disziplin theoretischer Vorleistungen aufbringen zu wollen.” (Müller 1996: 121)


Die Wirkungen der Informationstheorie vor allem auf den sprach- und kommunikationstheoretischen Diskurs sind kaum zu überschätzen, selbst wenn in der zeitgenössischen Forschung weitgehend Einigkeit über ihre mangelnde Leistungsfähigkeit für den Bereich zwischenmenschlicher Verständigung überwiegt. Zwar ist dem Potenzial der Resonanzerzeugung weitgehende Skepsis gefolgt (vgl. zum Beispiel Reddy 1979, Krippendorf 1994), doch fungiert das Sender-Empfänger-Modell Shannons immer noch als attraktivere Referenzgröße kommunikationstheoretischer Positionierungen als andere, der Beschreibung des Kommunikationsprozesses wesentlich angemessenere S-E-Modelle (etwa bei Bühler 1978).11 Andererseits folgt dem allenthalben verkündeten Credo, sich gegenüber dem informationstheoretischen Transportmodell abzugrenzen, seine nachgerade besinnungslose terminologische Ausbeutung. Diese ambivalente Haltung kennzeichnet sowohl die Rezeption bei Bateson (1963) oder Flusser (1992), den Radikalen Konstruktivismus und insbesondere die metaphorische Strapazierung informationstheoretischer Kategorien durch die Theorie sozialer Systeme und ihre Vertreter (Luhmann 1984; Baecker 1999).12 Neben die weitverbreitete vorbehaltlose Akzeptanz und ihre Artikulation durch zahlreiche Kongresse, die eine Art informationstheoretisches Delirium auslösten, gesellte sich denn auch Kritik. Vor allem angesehene Theoretiker wie Cherry (1955, 1961, 1966), Bar-Hillel (1953, 1955) oder MacKay (1969) zeigen sich nach anfänglicher Begeisterung skeptisch; im deutschen Sprachraum kritisiert Meyer-Eppler (1959) die Anwendung des Informationsbegriffs außerhalb mathematischer Zusammenhänge. Vor allem Ungeheuer führt in zahlreichen Aufsätzen die Informationstheorie als einen kommunikationstheoretisch insuffizienten Ansatz vor (vgl. Ungeheuer 1972, 1974, 1977, 2004). Wer unter Verweis auf naturwissenschaftliche Erklärungsprogramme die Dignität eigener Daten und Erkenntnisse ableiten will, muss in seinem Gegenstandsbereich auch entsprechende Kriterien von Eindeutigkeit, Lückenlosigkeit und Widerspruchsfreiheit garantieren können. Und er muss jene formalen Bedingungen erfüllen, die es überhaupt erlauben, ein Problem als informationstheoretisch lösbar auszuweisen. Daran mangelt es bei nahezu allen Beiträgen, die im weitesten Sinne sozialwissenschaftliche Erklärungsansprüche erheben. Dass insbesondere die empirischen Verwirklichungsbedingungen von Kommunikation und die Bestimmung ihrer funktionalen Merkmale sich auf diesem Wege würden erledigen lassen, wäre in der Tat ein Glück gewesen. Dem, der wenigstens die oberflächliche Lektüre verachtet, wird denn auch Erkenntnis.

Literatur:

  • Auer, P.: Sprachliche Interaktion. Eine Einführung anhand von 22 Klassikern. Tübingen [Niemeyer] 1999.
  • Baecker, D.: “Kommunikation im Medium der Information”. In: Maresch, R.; Werber, N. (Hrsg.): Kommunikation, Medien, Macht. Frankfurt am Main [Suhrkamp Verlag] 1999, S. 174-191.
  • Bar-Hillel, Y.: “An Examination of Information Theory”. In: Philosophy of Science 22 (1955), S. 86-105.
  • Bar-Hillel, Y.; Carnap, R.: “Semantic Information”. In: British Journal of the Philosophy of Science 4 (1953), S. 147-157.
  • Bateson, G.: “Exchange of Information about Patterns of Behavior”. In: Fields, W.S.; Abbott, W. (Hrsg.): Information Storage and Neural Control. Springfield [Thomas] 1963, S. 181ff.
  • Bühler, K.: Die Krise der Psychologie. Frankfurt am Main [Ullstein] 1927/1978.
  • Cherry, E.C. (Hrsg.): Information Theory: Proceedings of the Third London Symposium. London [Butterworths] 1955.
  • Cherry, E.C.: On Human Communication. A Review, a Survey, and a Criticism, Zweite Auflage. Cambridge/Mass. [MIT Press] 1966.
  • Cherry, E.C. (Hrsg.): Information Theory: Proceedings of the Fourth London Symposium. London [Butterworths] 1961.
  • Coveney, P.V.; Highfield, R.: The Arrow of Time: A Voyage through Science to Solve Time’s Greatest Mystery. Foreword by Ilya Prigogine, London [Allen] 1990.
  • Denbigh, K.G.; Denbigh, J.S.: Entropy in Relation to Incomplete Knowledge. Cambridge [Cambridge University Press] 1985.
  • Flusser, Vilém: Die Schrift. Hat Schreiben Zukunft? Frankfurt am Main [Fischer Verlag] 1992.
  • Hartley, R.V.L: “Transmission of Information”. In: Bell Systems Technical Journal 7 (1928), S. 535-563.
  • Krippendorf, K.: “Der verschwundene Bote: Metaphern und Modelle der Kommunikation”. In: Merten, K.; Schmidt, S.J. (Hrsg.): Die Wirklichkeit der Medien: Eine Einführung in die Kommunikationswissenschaft. Opladen [Westdeutscher Verlag] 1994, S. 79-113.
  • Luhmann, N.: Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main [Suhrkamp Verlag] 1984.
  • MacKay, D.M.: Information, Mechanism and Meaning. Cambridge/Mass. [MIT Press] 1969.
  • Meyer-Eppler, W.: Grundlagen und Anwendungen der Informationstheorie. Berlin, Göttingen, Heidelberg [Springer] 1959.
  • Müller, K.: Allgemeine Systemtheorie. Geschichte, Methodologie und sozialwissenschaftliche Heuristik eines Wissenschaftsprogramms. Opladen [Westdeutscher Verlag] 1996.
  • Reddy, M.: “The Conduit Metapher. A Case of Frame Conflict in Our Language about Language”. In: Ortony, A. (Hrsg.): Metaphor and Thought. Cambridge, London [Cambridge University Press] 1979, S. 284-324.
  • Ritchie, L.D.: Information. London [Sage] 1991.
  • Shannon, C.E.: “A Symbolic Analysis of Relay and Switching Circuits”. In: Transactions of the American Institute of Electronic Engineers 57 (1938), S. 1-11.
  • Shannon, C.E.: “A Mathematical Theory of Communication”. In: Bell System Technical Journal 27 (1948), S. 379-423 und S. 623-656.
  • Shannon, C.E.: “The Mathematical Theory of Communication”. In: Ders.; Weaver, W.: The Mathematical Theory of Communication. Urbana [University of Illinois Press] 1949, S. 31-125.
  • Shannon, C.E.; Weaver, W.: “Preface”. In: Dies.: The Mathematical Theory of Communication. Urbana [University of Illinois Press] 1949, S. v.
  • Ungeheuer, G.: “Grundriß einer Kommunikationswissenschaft”. In: Ders.: Sprache und Kommunikation. 2., erweiterte Auflage. Forschungsberichte des Instituts für Kommunikationsforschung und Phonetik 13. Hamburg [Buske] 1972, S. 213-271.
  • Ungeheuer, G.: “Der axiomatische Aufbau der Informationstheorie: eine vorläufige Übersicht”. In: Ders.: Kommunikationsforschung und Phonetik. Festschrift zum fünfzigjährigen Bestehen der IKP der Universität Bonn. Forschungsberichte des Instituts für Kommunikationsforschung und Phonetik 50. Hamburg [Buske] 1974, S. 165-182.
  • Ungeheuer, G.: “Einführung in die Informationstheorie unter Berücksichtigung phonetischer Prozesse”. In: Ders.: Sprache und Signal. Forschungsberichte des Instituts für Kommunikationsforschung und Phonetik 40, Hamburg [Buske] 1977, S. 7-18.
  • Ungeheuer, G.: “Sprache als Informationsträger”. In: Ders.: Sprache und Kommunikation. 3., erweiterte und völlig neu eingerichtete Auflage, hrsg. und eingeleitet von Karin Kolb und H. Walter Schmitz, Münster [Nodus] 2004, S. 13-21.
  • Weaver, W.: “Science and Complexity”. In: American Scientist 36 (1948), S. 536-544.
  • Weaver, W.: “The Mathematics of Communication”. In: Scientific American 181 (1949a), S. 11-15.
  • Weaver, W.: “Recent Contributions to the Mathematical Theory of Communication”. In: Shannon, C.E.; Weaver, W.: The Mathematical Theory of Communication. Urbana [University of Illinois Press] 1949b, S. 1-28.

Links:

  1. Im Zusammenhang mit der Signalanalyse und Problemen der Frequenzmodulation sowie der Bandbreite von Kommunikationstechnologien definiert Hartley Information als sukzessive Auswahl von Signalen aus einem feststehenden Inventar, wobei deren Bedeutung dezidiert nicht berücksichtigt werden soll. Dabei gelte, dass eine aus N Signalen bestehende Nachricht, die aus einem Inventar von s Zeichen ausgewählt wird, SN verschiedene Möglichkeiten hat und deshalb die Informationsmenge als Logarithmus dieser Möglichkeiten definiert werden könne (H = N log S). Zu weiteren historischen Quellen der Informationstheorie siehe Cherry (1966).
  2. Auch Weaver hatte eine kürzere Fassung seines Beitrages bereits im Juli 1949 im Scientific American publiziert, in der er schon die für die Rezeption so folgenreichen Erweiterungen der Theorie Shannons vornahm (vgl. Weaver 1949a und unten).
  3. Shannon begründet die Wahl der Maßeinhiet “bit” wie folgt: “The choice of a logarithmic base corresponds to the choice of a unit for measuring information (…). A device with two stable positions, such as a relay or a flip-flop circuit, can store one bit of information. N such devices can store N bits, since the total number of possible states is 2N and log22N = N.” (Shannon 1949: 4)
  4. In der Tat hat die von Shannon erstellte Formel Ähnlichkeit mit derjenigen Boltzmanns für die Entropie eines idealen Gases. Diese lautet nämlich: S = K log w, wobei die Entropie von S als einem physikalischen System (zum Beispiel eines Gases mit gegebenem Volumen und gegebener Energie) bestimmt wird durch den Logarithmus der thermodynamischen Wahrscheinlichkeit eines Systemzustandes w. Mithin gibt S den Grad der Unumkehrbarkeit eines physikalischen Prozesses an, was freilich nur für geschlossene physikalische Systeme Geltung beanspruchen kann.
  5. Entsprechend definiert Shannon die Differenz zwischen “maximaler Entropie” (H = 1) und “relativer Entropie” als Redundanz: “The ratio of the entropy of a source to the maximum value it could have while still restricted to the same symbols will be called its relative entropy. This, as will later appear, is the maximum compression possible when we encode into the same alphabet. One minus the relative entropy is the redundancy.” (Shannon 1949: 25)
  6. Zu einer ähnlichen Einschätzung gelangen Coveney und Highfield in ihrer Rekonstruktion: “Shannon’s mathematical formula looks rather like the one for entropy in statistical mechanics. Many people have concluded that this means there is a direct relationship between the two concepts.” (Coveney/Highfield 1990: 177)
  7. Über die Hintergründe der Einführung des Entropie-Begriffs in Shannons Theorieentwurf wird folgende Anekdote berichtet: “However, the close analogies which exist between entropy and information in no sense make either concept necessarily subjective. In fact, Shannon, the pioneer of information theory, was only persuaded to introduce the word ‘entropy’ into his discussions by the mathematician John von Neumann, who is reported to have told him: ‘It will give you a great edge in debates because nobody really knows what entropy is anyway!'” (Denbigh/Denbigh 1985: 104; vgl. auch Campbell 1982: 32)
  8. Explizit bezogen auf interpersonelle Kommunikation heißt es: “In oral speech, the information source is the brain, the transmitter is the voice mechanism producing the varying sound pressure (the signal) which is transmitted through the air (the channel).” (Weaver 1949b: 98) Allerdings hatte bereits Shannon missverständlich formuliert: “5. The destination is the person (or thing) for whom the message is intended.” (Shannon 1949: 6)
  9. Dabei stand ganz offensichtlich der bereits bei Wiener eingeebnete erkenntnistheoretisch wichtige Unterschied zwischen technisch-künstlich und natürlich-naturgesetzlich Pate.
  10. Die Verantwortlichen der 1976 erscheinenden deutschen Fassung fühlten sich motiviert, Weavers Kommentar an den Anfang des Buches zu stellen, wodurch diesem ein ganz anderer Stellenwert gegeben wird: man liest (wenn überhaupt noch) Shannon mit Weaver und nicht umgekehrt beziehungsweise Shannons Beitrag als mathematischen Anhang zu Weavers Ausführungen. Doch haben die Autoren schon mit dem Vorwort zu ihrer ersten Auflage dieser “Kehre” Vorschub geleistet, bemerken sie doch hinsichtlich des von Weaver beigesteuerten Teils: “In part, it consists of an expository introduction to general theory and may well be read first by those desiring a panoramic view of the field before entering into the more mathematical aspects. In addition, some ideas are suggested for a broader application of the fundamental principles of communication theory.” (Shannon/Weaver 1949: v)
  11. Dies gilt beispielsweise für Auer (1999: 7ff.), der seine ausschließlich auf Weaver gestützte Rezeption damit rechtfertigt, nur diese Interpretation sei von der Linguistik zur Kenntnis genommen worden. So kann er Shannon vorwerfen, sich auf technisch-mathematische Probleme beschränkt und die Erweiterungen Weavers nicht vorweggenommen zu haben, wobei es gerade Shannon war, der sich explizit von denjenigen Erklärungsansprüchen distanziert, die Auer in seiner Interpretation bei Shannon als nicht eingelöst betrachtet. Diese Art von “Theoriegeschichte” ist bestens geeignet, eigene Kriterien wissenschaftlicher Lektüre vorzuführen.
  12. Hinsichtlich seines Kommunikationsbegriffs und der darin entfalteten Einheit der Selektionen “Information”, “Mitteilung” und “Verstehen” meint Luhmann: “Der seit Shannon und Weaver übliche Informationsbegriff macht es leicht, dies zu formulieren. Information ist nach heute geläufigem Verständnis eine Selektion aus einem (bekannten oder unbekannten) Repertoire von Möglichkeiten.” (Luhmann 1984: 195)
Über das BuchClaude E. Shannon; Warren Weaver: The Mathematical Theory of Communication. Urbana [University of Illinois Press] 1949, 144 Seiten.Empfohlene Zitierweise“Nur dem, der das Glück verachtet, wird Erkenntnis”. von Loenhoff, Jens in rezensionen:kommunikation:medien, 16. Februar 2010, abrufbar unter https://www.rkm-journal.de/archives/1865
Getagged mit: , , , , , , , , ,
Veröffentlicht unter Klassiker