0 Seminararbeit Proseminar Wirtschaftspsychologie: Technikpsychologie I: Neue Technologien der Arbeitswelt Thema: INFORMATION UND KOMUNIKATION Wintersemester 2oo1 LV-Leiter: ao. Univ. Prof. Dr. M. Trimmel Eingereicht von Ingrid Bohrn 9207295
1 INFORMATION UND KOMMUNIKATION Wir leben in einer Informationsgesellschaft, in der Informationsaustausch immer abstrakter und komplexer wird. Information und Kommunikation bestimmen von Beginn an unser Leben, als Beispiel sei hier die Erbinformation genannt. Um mit dieser Fülle an Informationen umgehen zu können ist es wichtig einige Grundbegriffe zu definieren. INFORMATION Auch Menschen können als informationsverarbeitende Systeme gesehen werden, obwohl sie diesen durch Informationsinterpretation und Lösen von mehrdeutigen Aufgabenstellungen überlegen sind. Ein informationsverarbeitendes System (IPS information processing systems) besteht aus: -Eingangskanälen (Rezeptoren) -Verarbeitungselementen (Prozessoren und Speichern) -Ausgangskanälen (Effektoren und Aktoren). Der Mensch nimmt jede Information subjektiv auf und verarbeitet sie weiter. Um die Informationstheorie aus mathematischer Sicht betrachten zu können, sind zuerst einige Begriffe wie Signale, Daten, Information und Wissen zu erklären. Holzers Definition für Signale lautet: Signale sind durch akustische, optische oder andere physikalisch-technische Mittel (Signalmittel) gegebene Funktionen oder Zeichen zur Übermittlung von Daten. Also sind Signale physikalische Träger für Daten. Ein Mikrophon verwandelt beispielsweise ein Schallsignal in elektrische Signale. Weiters ist zwischen -analogen Signalen, bestehend aus kontinuierlichen Funktionen und -digitalen Signalen, bestehend aus diskreten (einzelnen)zeichen zu unterscheiden. In der Informatik sind Daten codierte Informationen, die in Computersystemen gespeichert sind. Holzer(2001) Eine andere Art der Unterscheidung von Daten lautet: -quantitative Daten, denen definierte numerische Werte zugeschrieben werden, -qualitative Daten sind nichtnumerische Merkmale wie z.b. weiblich und männlich. Aber auch diese können durch Codierung in quantitative Daten übergeführt werden (z.b. weiblich = 1, männlich= 2). Der Begriff Information wiederum wird in verschiedenen Disziplinen verschieden definiert. Holzer definiert: Information ist eine raum- oder zeitinvariante (veränderliche) Folge von physikalischen Signalen, bestehend aus dem physikalisch-materiellen Träger
2 und dem Informationsgehalt. Informationen sind demnach Aussagen oder Nachrichten, die etwas Neues bringen Wird nun die Information in unserem Gehirn verarbeitet und gespeichert, ist sie uns als Wissen zugänglich. Wissen ist (im menschlichen Gedächtnis) organisierte, verfügbare und anwendbare Information. Holzer (2oo1) Auch hier wird in verschiede Sparten unterteilt. Ein Mensch kann über kumuliertes, d.h. angehäuftes Wissen verfügen oder es kann das simulierte Wissen eines Expertensystems sein. Wissen wird als probabilistisch und vorausschauend bezeichnet, dessen Wert hoch ist, wenn die Aussagen korrekt sind. Im Gegensatz dazu steht der Wert der Information, der dann hoch ist, wenn die Zeichen am unwahrscheinlichsten sind. Information ist demnach possibilistisch. SIGNALE DATEN INFORMATION WISSEN physikalische Träger codierte Informationen Änderung von Signalen angewandte Information Informationstheorie Als Begründer der Informationstheorie gilt Claude E. Shannon, dessen Arbeiten die Grundlage der Informatik bilden. Er beschäftigte sich mit den mathematischen Seite der Informationssysteme. Ein Informationssystem unterliegt den Gesetzen der Nachrichtentechnik und kann das Kommunikationsmodell von SHANNON & WEAVER dargestellt werden. Holzer (2oo1) Informationsquelle Störungsquelle Informationssenke <-- Nachricht <-- Störsignal < -- Nachricht Quellencoder --------------- Übertragungskanal -------- Quellendecoder Signal Signal Auch für die Psychophysik und die psychologische Analyse von Kommunikation stellt die Informationstheorie die Grundlage dar. Der Informationsgehalt aus mathematischer Sicht betrachtet muss 3 Eigenschaften erfüllen:
3 - der Informationsgehalt I X einer Nachricht x muss umso größer sein, je kleiner - die Wahrscheinlichkeit p x ihres Auftretens ist - eine Nachricht mit der Wahrscheinlichkeit p x = 1 muss den Informationsgehalt I x = 0 haben. - Informationsgehalt von voneinander unabhängigen Nachrichten soll sich addieren. Als Einheit für die Informationsmenge gilt das bit, die Abkürzung für basic indissoluble unit. Ein bit ist die kleinste binäre Informationsmenge und beschreibt den logischen Zustand eines zweiwertigen Sytems. Holzer (2oo1) Ausgegangen wurde von der prinzipiell dualen Möglichkeit eines Ereignisses, wie etwa eines Münzwurfes. Diese wurden dann in o und 1 codiert. Wird bit in kleiner Schreibweise verwendet handelt es sich um die Einheit des Informationsgehaltes. Wir BIT jedoch in Großbuchstaben geschrieben, stellt es den Namen für eine binäre Stelle oder Ziffer dar. Bei der Berechnung des Informationsgehaltes ist es wichtig zu unterscheiden ob es sich um die Berechnung diskreter Zeichen mit gleicher Auftretenswahrscheinlichkeit oder um diskrete Zeichen mit unterschiedlicher Auftretenswahrscheinlichkeit handelt. Informationsgehalt diskreter Zeichen mit gleicher Auftrittswahrscheinlichkeit I = lb(s) Informationsgehalt diskreter Zeichen mit unterschiedlicher Auftretenswahrscheinlichkeit I xi = lb(1/p xi ) I Informationsgehalt in bit s... Anzahl der verschieden Zeichen (Zeichenvorrat) lb...binärer Logarithmus zur Basis 2 (auch logarithmus dualis od. logarithmus) p xi...wahrscheinlichkeit Die Basis 2 des Logarithmus wurde deshalb gewählt, weil er den einfachsten Fall einer symmetrischen binären Nachricht mit p x = 0,5 der Informationsgehalt eines Zeichens I x = 1 bit wird. Entropie Für weitere Berechnungen wird der mittlere Informationsgehalt einer Nachricht benötigt. Dieser wird als Entropie bezeichnet, dieser Name wurde der
4 Wärmelehre entnommen, wo er das statistische Maß an Unordnung in einem thermischen System bezeichnet wird. H bezeichnet die nachrichtentechnische Entropie, den mittleren Informationsgehalt einer Nachricht. Holzer(2ooo) Die Formel lautet: s H = i = 1 p xi lb(1/p xi ) Der Entscheidungsgehalt H 0 wird auch nachrichtentechnisch als maximale Entropie bezeichnet. Redundanz Eine Abweichung von der Gleichverteilung bewirkt eine Verringerung des mittleren Informationsgehaltes einer Nachricht. Diese Verringerung wir als Redundanz R bezeichnet. Holzer (2oo1) R= H o H und r = H o - H / H o R...Redundanz H o..entscheidungsgehalt (mittlere Entropie) r...relative Redundanz Am Beispiel der Berechnung der deutschen Sprache kommen diese mathematischen Formeln zur Anwendung. Unter Berücksichtigung dass ein e weit häufiger auftritt als ein x beträgt der Entscheidungsgehalt H o = 1,3 bit/symbol, die Redundanz R = 3,4 bit/symbol und die relative Redundanz r = o,73. Das bedeutet, dass die deutsche Sprache nur zu 27% informationstragend ist, 73 % davon sind redundand, sozusagen überflüssig. Diese verlängern und verlangsamen zwar die Information, jedoch sind gerade diese Elemente der Sprache nötig um eventuelle Fehler erkennen und korrigieren zu können. Informationsfluss Eine immer wichtiger werdende Größe in der Informationsübertragung ist der Informationsfluss, der sich durch die Formeln: F= H/t m t m = p x t x F...Informationsfluss in bit/s t m.. mittlere Zeitdauer für die Übertragung eines Symbols in s/symbol darstellt. Der Informationsfluss entspricht der Übertragungsgeschwindigkeit bleibt aber in der Praxis weit unter der Kanalkapazität. Kanalkapazität Die Kanalkapazität (channel capacity) ist der maximale Informationsfluss, der über einen Nachrichtenkanal (channel) fehlerfrei übertragen werden kann. Holzer(2oo1) lg( 1+ P S /P N )
5 P S... Signalleistung in W (S = signal) P N.. Rauschleistung in W (N = noise) ältnis (in db) dar, und wird als Störabstand bezeichnet, jedoch ist in den meistens das Signal größer als das Rauschen. Als Beispiel für unterschiedlich große Kanalkapazitäten kann das analoge Telefon mit einer Kanalkapazität von 5o kbit/s, Fernsehen mit 75 Mbit/s und das Auge mit 1o Mbit/s angeführt werden. Die berechneten Werte können als Informationsquader anschaulich dargestellt werden, indem die Breite als verfügbare Bandbreite B, die Höhe als Störabstand! " änge als die zur verfügungstehende Übertragungszeit t m beschrieben wird. KOMMUNIKATION Während die Informationstheorie nach Shannon & Weaver die Kommunikation nur von der mathematischen Seite aus betrachtete und die Bedeutung vollkommen wegließ, beschäftigten sich schon sehr bald Psychologen, Pädagogen und Kommunikationswissenschafter mit den Kommunikationsprozessen. Als Kommunikation, das Wort wurde aus dem lateinischen abgeleitet und bedeutet Mitteilung oder Unterredung, ist Informationsaustausch zwischen Menschen, aber auch zwischen Menschen und Maschinen zu bezeichnen. Werden diese Informationen als Text, Sprache, Bildern und in Kombination über Maschinen weitergegeben, wird von Telekommunikation gesprochen. Liegt die Möglichkeit einer Interaktion vor handelt es sich um Multimedia-Kommunikation. OSI ( Open Systems Interconnection) bezeichnet eine Arbeitsgruppe der ISO, diese stellt internationale Regeln auf, deren sich Benutzer bedienen um auch in unterschiedlichen Systemen kommunizieren zu können. Semiotik Um sich überhaupt verständigen zu können, Informationen weitergeben zu können musste in den Anfängen der Menschheit ein Übertragungssystem gefunden werden. Die ersten Menschen bedienten sich einfacher, gesprochene Laute, welche jedoch nur von Mensch zu Mensch weitergegeben werden konnten. Die nächste Stufe der Informationsweitergabe waren die Höhlenbilder, aus denen sich dann die ersten Bilderschriften und Ziffern in Ländern wie Mesopotamien, Ägypten und China entwickelten. Informationsübertragung ist demnach erst möglich, wenn sowohl der Sender als auch der Empfänger über die Bedeutung der Zeichen Bescheid wissen. Die Wissenschaft, die sich mit der Vielfalt der im Laufe der Menschheit entstandenen Zeichen und deren Deutung beschäftigt, bezeichnet man Semiotik, wo sie sich im 20.Jahrhundert etablieren konnte.
6 Die Semiotik wiederum unterteilt sich in die Sektoren: die Syntaktik, die Semantik und die Pragmatik. - Die Syntaktik analysiert die Beziehung zwischen den verschiedenen Zeichen und versucht sinnvolle und zulässige Zeichenketten festzustellen. - Die Semantik untersucht die Bedeutung und vor allem die Beziehung zwischen den Zeichen. Jedes Zeichen ist einem Objekt zugeordnet, wobei diese Objekte auch als nicht begriffliche Objekte definiert sind, wie Gedanken und Vorstellungen. - Die Pragmatik beschäftigt sich mit der Wirkung der Zeichen auf deren Benutzer, denn jedes Zeichen wird verwendet um etwas zu bewirken. Syntaktik Semantik Pragmatik Zeichen <--> Zeichen Zeichen <--> Objekt Zeichen <--> Subjekt Kommunikationsprozesse Zwischen Sender und Empfänger laufen die Kommunikationsprozesse auf drei Ebenen ab. Die unteste Ebene ist eine rein syntaktische, hier wird nur die physikalische Zeichenübermittlung durchgeführt. Die semantische Ebene betrifft bereits die Bedeutung und in der pragmatischen Ebene wird auch die Wirkung mit einbezogen. Diese Hierarchie lässt sich schematisch darstellen. 3 Ebenen der Kommunikation E <- Pragmatische Ebene -> M S Zeichen+Bedeutung+Absicht P E F N <- Semantische Ebene -> A D Zeichen+ Bedeutung E E N R <- Syntaktische Ebene-> G Zeichen E R Eine von vielen Kommunikationstheorien wurde von Watzlawick aufgestellt. Er ging hauptsächlich von der Forschung mit Geisteskranken und deren gestörter Kommunikation aus, übertrug diese Erkenntnisse in die Alltagskommunikation und kam zum Schluss, dass diese auch hier Anwendung fanden.
7 Fünf Thesen bilden den Kern der Theorie von Watzlawick: 1.Axiom: Es kann nicht NICHT kommuniziert werden. 2.Axiom: Jede Kommunikation besitzt Inhalt und Beziehung. 3.Axiom: Beziehung zwischen Kommunikationspartnern ist durch Interpunktion von Kommunikationsabläufen geprägt. 4.Axiom: Menschliche Kommunikation bedient sich digitaler und analoger Modalitäten. 5.Axiom: Kommunikation kann auf symmetrischen und komplementären Beziehungen beruhen. Die erste These soll besagen, dass selbst dann Kommunikation stattfindet, wenn man dem Gegenüber zum Ausdruck bringt, dass keine Kommunikation gewünscht wird. Im zweiten Axiom wird manifestiert, dass nicht nur der Inhalt einer Aussage, sondern auch die Art und Weise, wie sie übermittelt wird, wichtig für die Interpretation durch den Empfänger ist. Wird ein Inhalt inkongruent übermittelt kann die zu Interpretationsproblemen beim Empfänger führen, Im dritten Axiom wird auf die Natur der Beziehung eingegangen. Das eigene Verhalten definiert sich wechselseitig auf das Verhalten des anderen. Dieser Kreisprozess kann zu zunehmender Entfremdung mit pathologischen Auswirkungen führen. Das vierte Axiom weist auf die Unterscheidung zwischen analoger und digitaler Kommunikation hin. Digital bedeutet nach Watzlawick, dass die sprachlichen Zeichen wie Begriffe und Sätze unabhängig vom Inhalt sind. Als analog bezeichnet er die Kommunikationsformen wie die Körpersprache, Gestik oder Mimik. Als symetrische Kommunikation wird hier die Beziehung zwischen Gleichrangigen einer sozialen Position, etwa in der Ehe oder bei Freunden gesehen. Komplementär ist eine Kommunikation in vertikaler Ebene wie von Chefs zu Untergebeben. Digitale Kommunikation hat eine komplexe, vielseitige logische Syntax, aber eine auf dem Gebiet der Beziehungen unzulängliche Semantik. Analoge Kommunikation dagegen besitzt dieses semantische Potential, ermangelt aber die für eindeutige Kommunikationen erforderliche logische Syntax. Holzer(2001) In seiner Systemtheorie geht Watzlawick davon aus, dass in jeder Kommunikation ein ganzheitlicher Zusammenhang zu sehen ist. Dieses Sender- Empfänger-Schema kann nicht als linear betrachtet werden. Vielmehr muss die
8 Umwelt miteinbezogen werden, mit der sich die Kommunizierenden in Wechselwirkung befinden. Diese führen zu einem Feedback, welches im schlechtesten Fall zu pathologischen Kommunikationsbeziehungen führen kann. Watzlawick ist auch Vertreter des radikalen Konstruktivismus, eine Erkenntnistheorie, die besagt, es gäbe keine objektive Wirklichkeit, sondern das was wir glauben zu erkennen, sei das Ergebnis unserer subjektiven Zuschreibung. Nach Watzlawick lebt jeder in seiner eigenen, selbst konstruierten Welt, von der er annimmt, dass dies die Wirklichkeit sei und jeder andere diese Wirklichkeit ebenso auffasse. Holzer(2001) Diese unterschiedlichen Wirklichkeitsannahmen können unbemerkt zwischen den Kommunkanten zu Konflikten führen, die von ihnen selbst nicht mehr gelöst werden können. Holzer unterscheidet nun vier Arten der Kommunikation: -Mensch Mensch Kommunikation -Mensch Maschine Mensch - Kommunikation -Mensch Maschine Kommunikation -Maschine Maschine Kommunikation. Mensch Mensch Kommunikation Die Mensch-Mensch-Kommunikation wird als interpersonale Kommunikation bezeichnet und findet dann statt, wenn Menschen untereinander Informationen austauschen, diskutieren oder auch Konflikte zu lösen versuchen. Besonders wichtig ist sie für die soziale Interaktion. Die Struktur der menschlichen Kommunikation kann mit dem Mund als Effektor, als Übertragungsmedium die Luft und dem Ohr als Rezeptor dargestellt werden. Die menschliche Kommunikation läuft auf zwei verschiedenen Ebenen ab. Eine -verbal-sprachliche, die vocale bedient sich der Sprache, Lauten, Geräuschen, wie Lachen oder auch Schnarchen. Während die -nonverbal-nichtsprachliche, die nonvocale durch Signale wie mit Taschenlampen, Zeichen, Symbolen, Bildern Gebärden, Mimik und Gestik zum Ausdruck bringt. Auch Proxemics, kommunikative Dimensionen des menschlichen Raumverhaltens, das von Kultur abhängig ist, gehört zur nonverbalen Kommunikation. Darunter ist etwa das Trauerverhalten in verschiedenen Kulturkreisen zu verstehen. In Mitteleuropa ist die Trauerfarbe schwarz, in Japan jedoch weiss. Kommunikation von Mensch zu Mensch erfolgt unmittelbar durch interaktive Gestik, Mimik, Laute und Sprache. Sowohl Sender als auch Empfänger müssen aus dem gleichen Zeichenvorrat schöpfen- sich verstehen können. Holzer(2001) Wenn nun eine Maschine der Mensch-Mensch-Kommunikation zwischengeschaltet wird, ein Telefon oder ein Computer wir daraus die
9 Mensch Maschine Mensch - Kommunikation Dabei handelt es sich nun um indirekte Kommunikation. Die älteste indirekte Kommunikation geht auf die Höhlenbilder zurück, später bediente man sich der Briefe, Telefon wurde erfunden und nun die Computer. Dieser übernahm eine Vielzahl der Kommunikationsarten durch E-Mail, IRC ( Internet Relay Chat), Internet Telefonie und Telefonkonferenzen. Wieder eine andere Kommunikationsart ist die Mensch Maschine Kommunikation Hier bedient ein Mensch einen Computer, wird in der Informatik HCI (Human- Copmuter-Interaction) genannt und beschäftigt sich mit Gestaltung, Implementierung und Evaluation interaktiver Informationssysteme. Die häufigste Form dieser Kommunikationsart findet man Internet oder Intranet. Der Mensch fragt Datenbanken oder Intelligente Tutorielle Systeme (IST) ab. Er muss allerdings die Fähigkeit besitzen, die Frage dem System gerecht zu formulieren und die Antwort des Computers entschlüsseln zu können. Diese Art der Kommunikation ist aufwendig, weil die kommunikative Kompetenz bei Sender und Empfänger hoch sein muss. Die Benutzerschnittstelle zwischen Mensch und Maschine wird Computer- Human-Interface (CHI) genannt und sollte möglichst der menschlichen Arbeitsund Denkweise angepasst sein. An dieser Stelle scheint es passend sich die Überlegenheit der Menschen gegenüber den Computern ins Gedächtnis zurückzurufen: -Empfindlichkeit auch für schwache visuelle und auditorische Reize. -Erkennen von zeitveränderlichen, sowie komplexen und auch unscharfen Reizen. -und nicht zuletzt die Fähigkeit zu eigenständigem kreativen Problemlösen. Eine der entscheidenden Überlegenheiten des Computers gegenüber dem Menschen ist die Ermüdungsfreie Performanz, so wird die Geschwindigkeit und Qualität mit der ein Computer eine Aufgabe bewältigt, genannt, auch wenn die Dichte der Signale hoch ist und Ablenkungsreize bestehen. Zum Abschluss wäre noch die Kommunikation zwischen Maschinen als Maschine Maschine Kommunikation zu erwähnen, die sich ausschließlich auf die Kommunikation von zwei oder mehreren Computern zum Zweck des Austausches von Daten untereinander bezieht. Als Beispiel sei hier EDI (Electronic Data Exchange genannt), bei dem Computer ohne menschliches Zutun kaufmännische Dokumente wie Anbote oder Rechnungen austauschen. Literatur : Holzer, A. (2oo1): Basiswissen Multimedia 1 Technik Würzburg:Vogel