Seminararbeit. Proseminar Wirtschaftspsychologie: Technikpsychologie I: Neue Technologien der Arbeitswelt. Thema: INFORMATION UND KOMUNIKATION



Ähnliche Dokumente
Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Definition der Entropie unter Verwendung von supp(p XY )

Thema: Grundlagen der Kommunikationsund

Axiome der Kommunikation nach Watzlawick / Beavin / Jackson

Paul Watzlawick. Fünf kommunikationspsychologische Axiome

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.

TEIL 13: DIE EINFACHE LINEARE REGRESSION

Kapitel 9: Informationstheorie. 2. Entropie

Fehlererkennung und Fehlerkorrektur in Codes

Kommunikation (lat. Communicatio - Mitteilung) Verbindung, Zusammenhang; Verkehr, Umgang, Verständigung (zwischen

Information und Produktion. Rolland Brunec Seminar Wissen

Informatik I WS 07/08 Tutorium 24

Logik I. Symbole, Terme, Formeln

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Einführung Grundbegriffe

TEIL 13: DIE LINEARE REGRESSION

5 Kontinuierliches Wachstum

Formale Sprachen. Inhalte. Lehrplan. Hinweis

Guten Abend! Wie geht es Euch?

Die pragmatischen Axiome von Paul Watzlawick

2. Vorlesung. Die Theorie der schwarz-weissen Ketten.

Inhalt. 1. Was ist Information 2. Nachrichtentechnische Definition 3. Algorithmische Definition 4. Darstellung in der Informatik

Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient

Allgemeine Definition von statistischer Abhängigkeit (1)

CME Grundlagen der Kommunikation zwischen Arzt und Patient. Teil 1

Thema: Sprachprozesse Was ist Kommunikation?

Synchrone Linguistik

dbw und dbm dbw und dbm zur logarithmischen Darstellung einer Leistungsgröße P [W]:

Musterlösung zur Probeklausur zur Angewandten Diskreten Mathematik Dr. Hartmut Lanzinger, Hans- Peter Reck

Standardisierte kompetenzorientierte schriftliche Reifeprüfung AHS. 11. Mai Mathematik. Teil-1-Aufgaben. Korrekturheft. öffentliches Dokument

Aufgabe 01 IA/IV Spurensuche. Sonsalla, Thomas. Potsdam, den

Modelle der Kommunikation. 1. Technisches Kommunikationsmodell Shannon&Weaver 2. Eisbergmodell Sigmund Freud 3. 4 Seiten Modell Schulz von Thun

Wissenschaftliches Arbeiten

Diskrete und Kontinuierliche Modellierung

I: Daten und Codierung

Petra Buchwald. Einführung in die Allgemeine Didaktik und Unterrichtsforschung

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

1. Erläutern Sie die Aufgaben von Datentypen in der imperativen Programmierung.

Einführung in die Gesprächsführung und Gruppendynamik

Semiotik (= Zeichentheorie, Lehre der Zeichen)

Kriterien für die Auswahl des Transferweges im Rahmen des Wissenstransfers. im Rahmen des Wissenstransfers

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Willkommen zum Workshop Kommunikation im Netz

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Soziale Kommunikation Austausch, Vermittlung und Aufnahme

Bernard Favre-Bulle. Information und Zusammenhang. Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation

Kommunikation nach Luhmann

Einführung in die Programmierung

Interdisziplinäre Fachdidaktische Übung: Kommunikation in der Informatik

Wahrscheinlichkeitsverteilungen

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment

1.4 Gradient, Divergenz und Rotation

Im Vorlesungsskript (5) auf Seite 7 haben wir folgendes Bild:

Realität Virtualität Wirklichkeit

Wir sollen erarbeiten, wie man mit Hilfe der Mondentfernung die Entfernung zur Sonne bestimmen kann.

Syntax von Programmiersprachen

Diskrete Optimierungsverfahren zur Lösung von Sudokus

Grundlagen der Kommunikationspsychologie. Julia Lattner und Laura Hein

Exemplar für Prüfer/innen

Wie können wir entscheiden ob eine Person oder ein Wesen einen Geist hat?

Einführung in die Informatik

Verteilungsfunktionen (in Excel) (1)

Statistische Grundlagen I

Natürliche Zahlen. Wer kann alle möglichen Zahlen aus diesen Ziffern basteln und sie der Größe nach ordnen?

Kenngrößen von Zufallsvariablen

Die freie Energie wird also bei konstantem Volumen und konstanter Temperatur minimal

Randomisierte Algorithmen

Humanorientierung (HO) der IT Voraussetzungen

Soziale Kommunikation. Vorlesung Johannes-Gutenberg-Universität Mainz Sommersemester 2011 PD Dr. phil. habil. Udo Thiedeke. Kommunikationsprobleme

Gerd E. Schäfer ENTWICKLUNG UND SOZIALISATION IN DER KINDHEIT

Informationen und Fragen zur Aufnahme eines ausländischen Kindes

1 Grundprinzipien statistischer Schlußweisen

Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende

Personalmanagement: Übungsserie I

Eigene MC-Fragen LÜCK, Kapitel 1 Möglichkeiten & Methoden der Psychologiegeschichtsschreibung

2. Rechnen mit Wahrscheinlichkeiten

Digitaltechnik FHDW 1.Q 2007

2 Rationale und reelle Zahlen

3. Teil LV-Leiter: Peter Adler 2 Std., 3 ECTS-Punkte. Prüfungsimmanente Lehrveranstaltung

Mathematik: Mag. Schmid Wolfgang & LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 7-9. Was ist Wahrscheinlichkeit

Polizeidienst-Aufgabe Abiturprüfung Bayern LK 2003

Landau-Theorie. Seminar zur Theorie der Teilchen und Felder. Daniel Schröer

1 Das Kommunikationsmodell

Legt durch das Argument Dann bzw Sonst fest, wie nach einer Prüfung (Bedingung) verfahren werden soll.

Objektorientierter Software-Entwurf Ergebnisse der funktionalen Zerlegung 3 1. Die Zerlegungsmethoden sollen in zwei Dimensionen betrachtet werden:

Thomas Hofmann. Teil 1

Bildungsstandards Grundschule MATHEMATIK. Skriptum

Kompetenzen und Aufgabenbeispiele Englisch Schreiben Check S3

2. Digitale Codierung und Übertragung

Deskriptive Statistik

Vorläuferfertigkeiten ein Blick auf den Schulbeginn im Fach Mathematik

Mathematische und logische Grundlagen der Linguistik. Kapitel 3: Grundbegriffe der Aussagenlogik

Basisinformationstechnologie I

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus:

Mathematische und logische Grundlagen der Linguistik. Mathematische und logische Grundlagen der Linguistik. Karl Heinz Wagner. Hier Titel eingeben 1

Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße. x mod (lies: x-mod) Wofür? Lageparameter. Modus/ Modalwert Zentrum. Median Zentralwert

LAF Mathematik. Näherungsweises Berechnen von Nullstellen von Funktionen

Transkript:

0 Seminararbeit Proseminar Wirtschaftspsychologie: Technikpsychologie I: Neue Technologien der Arbeitswelt Thema: INFORMATION UND KOMUNIKATION Wintersemester 2oo1 LV-Leiter: ao. Univ. Prof. Dr. M. Trimmel Eingereicht von Ingrid Bohrn 9207295

1 INFORMATION UND KOMMUNIKATION Wir leben in einer Informationsgesellschaft, in der Informationsaustausch immer abstrakter und komplexer wird. Information und Kommunikation bestimmen von Beginn an unser Leben, als Beispiel sei hier die Erbinformation genannt. Um mit dieser Fülle an Informationen umgehen zu können ist es wichtig einige Grundbegriffe zu definieren. INFORMATION Auch Menschen können als informationsverarbeitende Systeme gesehen werden, obwohl sie diesen durch Informationsinterpretation und Lösen von mehrdeutigen Aufgabenstellungen überlegen sind. Ein informationsverarbeitendes System (IPS information processing systems) besteht aus: -Eingangskanälen (Rezeptoren) -Verarbeitungselementen (Prozessoren und Speichern) -Ausgangskanälen (Effektoren und Aktoren). Der Mensch nimmt jede Information subjektiv auf und verarbeitet sie weiter. Um die Informationstheorie aus mathematischer Sicht betrachten zu können, sind zuerst einige Begriffe wie Signale, Daten, Information und Wissen zu erklären. Holzers Definition für Signale lautet: Signale sind durch akustische, optische oder andere physikalisch-technische Mittel (Signalmittel) gegebene Funktionen oder Zeichen zur Übermittlung von Daten. Also sind Signale physikalische Träger für Daten. Ein Mikrophon verwandelt beispielsweise ein Schallsignal in elektrische Signale. Weiters ist zwischen -analogen Signalen, bestehend aus kontinuierlichen Funktionen und -digitalen Signalen, bestehend aus diskreten (einzelnen)zeichen zu unterscheiden. In der Informatik sind Daten codierte Informationen, die in Computersystemen gespeichert sind. Holzer(2001) Eine andere Art der Unterscheidung von Daten lautet: -quantitative Daten, denen definierte numerische Werte zugeschrieben werden, -qualitative Daten sind nichtnumerische Merkmale wie z.b. weiblich und männlich. Aber auch diese können durch Codierung in quantitative Daten übergeführt werden (z.b. weiblich = 1, männlich= 2). Der Begriff Information wiederum wird in verschiedenen Disziplinen verschieden definiert. Holzer definiert: Information ist eine raum- oder zeitinvariante (veränderliche) Folge von physikalischen Signalen, bestehend aus dem physikalisch-materiellen Träger

2 und dem Informationsgehalt. Informationen sind demnach Aussagen oder Nachrichten, die etwas Neues bringen Wird nun die Information in unserem Gehirn verarbeitet und gespeichert, ist sie uns als Wissen zugänglich. Wissen ist (im menschlichen Gedächtnis) organisierte, verfügbare und anwendbare Information. Holzer (2oo1) Auch hier wird in verschiede Sparten unterteilt. Ein Mensch kann über kumuliertes, d.h. angehäuftes Wissen verfügen oder es kann das simulierte Wissen eines Expertensystems sein. Wissen wird als probabilistisch und vorausschauend bezeichnet, dessen Wert hoch ist, wenn die Aussagen korrekt sind. Im Gegensatz dazu steht der Wert der Information, der dann hoch ist, wenn die Zeichen am unwahrscheinlichsten sind. Information ist demnach possibilistisch. SIGNALE DATEN INFORMATION WISSEN physikalische Träger codierte Informationen Änderung von Signalen angewandte Information Informationstheorie Als Begründer der Informationstheorie gilt Claude E. Shannon, dessen Arbeiten die Grundlage der Informatik bilden. Er beschäftigte sich mit den mathematischen Seite der Informationssysteme. Ein Informationssystem unterliegt den Gesetzen der Nachrichtentechnik und kann das Kommunikationsmodell von SHANNON & WEAVER dargestellt werden. Holzer (2oo1) Informationsquelle Störungsquelle Informationssenke <-- Nachricht <-- Störsignal < -- Nachricht Quellencoder --------------- Übertragungskanal -------- Quellendecoder Signal Signal Auch für die Psychophysik und die psychologische Analyse von Kommunikation stellt die Informationstheorie die Grundlage dar. Der Informationsgehalt aus mathematischer Sicht betrachtet muss 3 Eigenschaften erfüllen:

3 - der Informationsgehalt I X einer Nachricht x muss umso größer sein, je kleiner - die Wahrscheinlichkeit p x ihres Auftretens ist - eine Nachricht mit der Wahrscheinlichkeit p x = 1 muss den Informationsgehalt I x = 0 haben. - Informationsgehalt von voneinander unabhängigen Nachrichten soll sich addieren. Als Einheit für die Informationsmenge gilt das bit, die Abkürzung für basic indissoluble unit. Ein bit ist die kleinste binäre Informationsmenge und beschreibt den logischen Zustand eines zweiwertigen Sytems. Holzer (2oo1) Ausgegangen wurde von der prinzipiell dualen Möglichkeit eines Ereignisses, wie etwa eines Münzwurfes. Diese wurden dann in o und 1 codiert. Wird bit in kleiner Schreibweise verwendet handelt es sich um die Einheit des Informationsgehaltes. Wir BIT jedoch in Großbuchstaben geschrieben, stellt es den Namen für eine binäre Stelle oder Ziffer dar. Bei der Berechnung des Informationsgehaltes ist es wichtig zu unterscheiden ob es sich um die Berechnung diskreter Zeichen mit gleicher Auftretenswahrscheinlichkeit oder um diskrete Zeichen mit unterschiedlicher Auftretenswahrscheinlichkeit handelt. Informationsgehalt diskreter Zeichen mit gleicher Auftrittswahrscheinlichkeit I = lb(s) Informationsgehalt diskreter Zeichen mit unterschiedlicher Auftretenswahrscheinlichkeit I xi = lb(1/p xi ) I Informationsgehalt in bit s... Anzahl der verschieden Zeichen (Zeichenvorrat) lb...binärer Logarithmus zur Basis 2 (auch logarithmus dualis od. logarithmus) p xi...wahrscheinlichkeit Die Basis 2 des Logarithmus wurde deshalb gewählt, weil er den einfachsten Fall einer symmetrischen binären Nachricht mit p x = 0,5 der Informationsgehalt eines Zeichens I x = 1 bit wird. Entropie Für weitere Berechnungen wird der mittlere Informationsgehalt einer Nachricht benötigt. Dieser wird als Entropie bezeichnet, dieser Name wurde der

4 Wärmelehre entnommen, wo er das statistische Maß an Unordnung in einem thermischen System bezeichnet wird. H bezeichnet die nachrichtentechnische Entropie, den mittleren Informationsgehalt einer Nachricht. Holzer(2ooo) Die Formel lautet: s H = i = 1 p xi lb(1/p xi ) Der Entscheidungsgehalt H 0 wird auch nachrichtentechnisch als maximale Entropie bezeichnet. Redundanz Eine Abweichung von der Gleichverteilung bewirkt eine Verringerung des mittleren Informationsgehaltes einer Nachricht. Diese Verringerung wir als Redundanz R bezeichnet. Holzer (2oo1) R= H o H und r = H o - H / H o R...Redundanz H o..entscheidungsgehalt (mittlere Entropie) r...relative Redundanz Am Beispiel der Berechnung der deutschen Sprache kommen diese mathematischen Formeln zur Anwendung. Unter Berücksichtigung dass ein e weit häufiger auftritt als ein x beträgt der Entscheidungsgehalt H o = 1,3 bit/symbol, die Redundanz R = 3,4 bit/symbol und die relative Redundanz r = o,73. Das bedeutet, dass die deutsche Sprache nur zu 27% informationstragend ist, 73 % davon sind redundand, sozusagen überflüssig. Diese verlängern und verlangsamen zwar die Information, jedoch sind gerade diese Elemente der Sprache nötig um eventuelle Fehler erkennen und korrigieren zu können. Informationsfluss Eine immer wichtiger werdende Größe in der Informationsübertragung ist der Informationsfluss, der sich durch die Formeln: F= H/t m t m = p x t x F...Informationsfluss in bit/s t m.. mittlere Zeitdauer für die Übertragung eines Symbols in s/symbol darstellt. Der Informationsfluss entspricht der Übertragungsgeschwindigkeit bleibt aber in der Praxis weit unter der Kanalkapazität. Kanalkapazität Die Kanalkapazität (channel capacity) ist der maximale Informationsfluss, der über einen Nachrichtenkanal (channel) fehlerfrei übertragen werden kann. Holzer(2oo1) lg( 1+ P S /P N )

5 P S... Signalleistung in W (S = signal) P N.. Rauschleistung in W (N = noise) ältnis (in db) dar, und wird als Störabstand bezeichnet, jedoch ist in den meistens das Signal größer als das Rauschen. Als Beispiel für unterschiedlich große Kanalkapazitäten kann das analoge Telefon mit einer Kanalkapazität von 5o kbit/s, Fernsehen mit 75 Mbit/s und das Auge mit 1o Mbit/s angeführt werden. Die berechneten Werte können als Informationsquader anschaulich dargestellt werden, indem die Breite als verfügbare Bandbreite B, die Höhe als Störabstand! " änge als die zur verfügungstehende Übertragungszeit t m beschrieben wird. KOMMUNIKATION Während die Informationstheorie nach Shannon & Weaver die Kommunikation nur von der mathematischen Seite aus betrachtete und die Bedeutung vollkommen wegließ, beschäftigten sich schon sehr bald Psychologen, Pädagogen und Kommunikationswissenschafter mit den Kommunikationsprozessen. Als Kommunikation, das Wort wurde aus dem lateinischen abgeleitet und bedeutet Mitteilung oder Unterredung, ist Informationsaustausch zwischen Menschen, aber auch zwischen Menschen und Maschinen zu bezeichnen. Werden diese Informationen als Text, Sprache, Bildern und in Kombination über Maschinen weitergegeben, wird von Telekommunikation gesprochen. Liegt die Möglichkeit einer Interaktion vor handelt es sich um Multimedia-Kommunikation. OSI ( Open Systems Interconnection) bezeichnet eine Arbeitsgruppe der ISO, diese stellt internationale Regeln auf, deren sich Benutzer bedienen um auch in unterschiedlichen Systemen kommunizieren zu können. Semiotik Um sich überhaupt verständigen zu können, Informationen weitergeben zu können musste in den Anfängen der Menschheit ein Übertragungssystem gefunden werden. Die ersten Menschen bedienten sich einfacher, gesprochene Laute, welche jedoch nur von Mensch zu Mensch weitergegeben werden konnten. Die nächste Stufe der Informationsweitergabe waren die Höhlenbilder, aus denen sich dann die ersten Bilderschriften und Ziffern in Ländern wie Mesopotamien, Ägypten und China entwickelten. Informationsübertragung ist demnach erst möglich, wenn sowohl der Sender als auch der Empfänger über die Bedeutung der Zeichen Bescheid wissen. Die Wissenschaft, die sich mit der Vielfalt der im Laufe der Menschheit entstandenen Zeichen und deren Deutung beschäftigt, bezeichnet man Semiotik, wo sie sich im 20.Jahrhundert etablieren konnte.

6 Die Semiotik wiederum unterteilt sich in die Sektoren: die Syntaktik, die Semantik und die Pragmatik. - Die Syntaktik analysiert die Beziehung zwischen den verschiedenen Zeichen und versucht sinnvolle und zulässige Zeichenketten festzustellen. - Die Semantik untersucht die Bedeutung und vor allem die Beziehung zwischen den Zeichen. Jedes Zeichen ist einem Objekt zugeordnet, wobei diese Objekte auch als nicht begriffliche Objekte definiert sind, wie Gedanken und Vorstellungen. - Die Pragmatik beschäftigt sich mit der Wirkung der Zeichen auf deren Benutzer, denn jedes Zeichen wird verwendet um etwas zu bewirken. Syntaktik Semantik Pragmatik Zeichen <--> Zeichen Zeichen <--> Objekt Zeichen <--> Subjekt Kommunikationsprozesse Zwischen Sender und Empfänger laufen die Kommunikationsprozesse auf drei Ebenen ab. Die unteste Ebene ist eine rein syntaktische, hier wird nur die physikalische Zeichenübermittlung durchgeführt. Die semantische Ebene betrifft bereits die Bedeutung und in der pragmatischen Ebene wird auch die Wirkung mit einbezogen. Diese Hierarchie lässt sich schematisch darstellen. 3 Ebenen der Kommunikation E <- Pragmatische Ebene -> M S Zeichen+Bedeutung+Absicht P E F N <- Semantische Ebene -> A D Zeichen+ Bedeutung E E N R <- Syntaktische Ebene-> G Zeichen E R Eine von vielen Kommunikationstheorien wurde von Watzlawick aufgestellt. Er ging hauptsächlich von der Forschung mit Geisteskranken und deren gestörter Kommunikation aus, übertrug diese Erkenntnisse in die Alltagskommunikation und kam zum Schluss, dass diese auch hier Anwendung fanden.

7 Fünf Thesen bilden den Kern der Theorie von Watzlawick: 1.Axiom: Es kann nicht NICHT kommuniziert werden. 2.Axiom: Jede Kommunikation besitzt Inhalt und Beziehung. 3.Axiom: Beziehung zwischen Kommunikationspartnern ist durch Interpunktion von Kommunikationsabläufen geprägt. 4.Axiom: Menschliche Kommunikation bedient sich digitaler und analoger Modalitäten. 5.Axiom: Kommunikation kann auf symmetrischen und komplementären Beziehungen beruhen. Die erste These soll besagen, dass selbst dann Kommunikation stattfindet, wenn man dem Gegenüber zum Ausdruck bringt, dass keine Kommunikation gewünscht wird. Im zweiten Axiom wird manifestiert, dass nicht nur der Inhalt einer Aussage, sondern auch die Art und Weise, wie sie übermittelt wird, wichtig für die Interpretation durch den Empfänger ist. Wird ein Inhalt inkongruent übermittelt kann die zu Interpretationsproblemen beim Empfänger führen, Im dritten Axiom wird auf die Natur der Beziehung eingegangen. Das eigene Verhalten definiert sich wechselseitig auf das Verhalten des anderen. Dieser Kreisprozess kann zu zunehmender Entfremdung mit pathologischen Auswirkungen führen. Das vierte Axiom weist auf die Unterscheidung zwischen analoger und digitaler Kommunikation hin. Digital bedeutet nach Watzlawick, dass die sprachlichen Zeichen wie Begriffe und Sätze unabhängig vom Inhalt sind. Als analog bezeichnet er die Kommunikationsformen wie die Körpersprache, Gestik oder Mimik. Als symetrische Kommunikation wird hier die Beziehung zwischen Gleichrangigen einer sozialen Position, etwa in der Ehe oder bei Freunden gesehen. Komplementär ist eine Kommunikation in vertikaler Ebene wie von Chefs zu Untergebeben. Digitale Kommunikation hat eine komplexe, vielseitige logische Syntax, aber eine auf dem Gebiet der Beziehungen unzulängliche Semantik. Analoge Kommunikation dagegen besitzt dieses semantische Potential, ermangelt aber die für eindeutige Kommunikationen erforderliche logische Syntax. Holzer(2001) In seiner Systemtheorie geht Watzlawick davon aus, dass in jeder Kommunikation ein ganzheitlicher Zusammenhang zu sehen ist. Dieses Sender- Empfänger-Schema kann nicht als linear betrachtet werden. Vielmehr muss die

8 Umwelt miteinbezogen werden, mit der sich die Kommunizierenden in Wechselwirkung befinden. Diese führen zu einem Feedback, welches im schlechtesten Fall zu pathologischen Kommunikationsbeziehungen führen kann. Watzlawick ist auch Vertreter des radikalen Konstruktivismus, eine Erkenntnistheorie, die besagt, es gäbe keine objektive Wirklichkeit, sondern das was wir glauben zu erkennen, sei das Ergebnis unserer subjektiven Zuschreibung. Nach Watzlawick lebt jeder in seiner eigenen, selbst konstruierten Welt, von der er annimmt, dass dies die Wirklichkeit sei und jeder andere diese Wirklichkeit ebenso auffasse. Holzer(2001) Diese unterschiedlichen Wirklichkeitsannahmen können unbemerkt zwischen den Kommunkanten zu Konflikten führen, die von ihnen selbst nicht mehr gelöst werden können. Holzer unterscheidet nun vier Arten der Kommunikation: -Mensch Mensch Kommunikation -Mensch Maschine Mensch - Kommunikation -Mensch Maschine Kommunikation -Maschine Maschine Kommunikation. Mensch Mensch Kommunikation Die Mensch-Mensch-Kommunikation wird als interpersonale Kommunikation bezeichnet und findet dann statt, wenn Menschen untereinander Informationen austauschen, diskutieren oder auch Konflikte zu lösen versuchen. Besonders wichtig ist sie für die soziale Interaktion. Die Struktur der menschlichen Kommunikation kann mit dem Mund als Effektor, als Übertragungsmedium die Luft und dem Ohr als Rezeptor dargestellt werden. Die menschliche Kommunikation läuft auf zwei verschiedenen Ebenen ab. Eine -verbal-sprachliche, die vocale bedient sich der Sprache, Lauten, Geräuschen, wie Lachen oder auch Schnarchen. Während die -nonverbal-nichtsprachliche, die nonvocale durch Signale wie mit Taschenlampen, Zeichen, Symbolen, Bildern Gebärden, Mimik und Gestik zum Ausdruck bringt. Auch Proxemics, kommunikative Dimensionen des menschlichen Raumverhaltens, das von Kultur abhängig ist, gehört zur nonverbalen Kommunikation. Darunter ist etwa das Trauerverhalten in verschiedenen Kulturkreisen zu verstehen. In Mitteleuropa ist die Trauerfarbe schwarz, in Japan jedoch weiss. Kommunikation von Mensch zu Mensch erfolgt unmittelbar durch interaktive Gestik, Mimik, Laute und Sprache. Sowohl Sender als auch Empfänger müssen aus dem gleichen Zeichenvorrat schöpfen- sich verstehen können. Holzer(2001) Wenn nun eine Maschine der Mensch-Mensch-Kommunikation zwischengeschaltet wird, ein Telefon oder ein Computer wir daraus die

9 Mensch Maschine Mensch - Kommunikation Dabei handelt es sich nun um indirekte Kommunikation. Die älteste indirekte Kommunikation geht auf die Höhlenbilder zurück, später bediente man sich der Briefe, Telefon wurde erfunden und nun die Computer. Dieser übernahm eine Vielzahl der Kommunikationsarten durch E-Mail, IRC ( Internet Relay Chat), Internet Telefonie und Telefonkonferenzen. Wieder eine andere Kommunikationsart ist die Mensch Maschine Kommunikation Hier bedient ein Mensch einen Computer, wird in der Informatik HCI (Human- Copmuter-Interaction) genannt und beschäftigt sich mit Gestaltung, Implementierung und Evaluation interaktiver Informationssysteme. Die häufigste Form dieser Kommunikationsart findet man Internet oder Intranet. Der Mensch fragt Datenbanken oder Intelligente Tutorielle Systeme (IST) ab. Er muss allerdings die Fähigkeit besitzen, die Frage dem System gerecht zu formulieren und die Antwort des Computers entschlüsseln zu können. Diese Art der Kommunikation ist aufwendig, weil die kommunikative Kompetenz bei Sender und Empfänger hoch sein muss. Die Benutzerschnittstelle zwischen Mensch und Maschine wird Computer- Human-Interface (CHI) genannt und sollte möglichst der menschlichen Arbeitsund Denkweise angepasst sein. An dieser Stelle scheint es passend sich die Überlegenheit der Menschen gegenüber den Computern ins Gedächtnis zurückzurufen: -Empfindlichkeit auch für schwache visuelle und auditorische Reize. -Erkennen von zeitveränderlichen, sowie komplexen und auch unscharfen Reizen. -und nicht zuletzt die Fähigkeit zu eigenständigem kreativen Problemlösen. Eine der entscheidenden Überlegenheiten des Computers gegenüber dem Menschen ist die Ermüdungsfreie Performanz, so wird die Geschwindigkeit und Qualität mit der ein Computer eine Aufgabe bewältigt, genannt, auch wenn die Dichte der Signale hoch ist und Ablenkungsreize bestehen. Zum Abschluss wäre noch die Kommunikation zwischen Maschinen als Maschine Maschine Kommunikation zu erwähnen, die sich ausschließlich auf die Kommunikation von zwei oder mehreren Computern zum Zweck des Austausches von Daten untereinander bezieht. Als Beispiel sei hier EDI (Electronic Data Exchange genannt), bei dem Computer ohne menschliches Zutun kaufmännische Dokumente wie Anbote oder Rechnungen austauschen. Literatur : Holzer, A. (2oo1): Basiswissen Multimedia 1 Technik Würzburg:Vogel