Technische Grundlagen des Internet
|
|
- Hilko Fertig
- vor 8 Jahren
- Abrufe
Transkript
1 Univ.-Prof. Dr. Christoph Meinel HASSO-PLATTNER-INSTITUT für Softwaresystemtechnik GmbH an der Universität Potsdam Technische Grundlagen des Internet Vorlesung Sommersemester 2005 Dr. rer. nat. Harald Sack Friedrich Schiller Universität Jena Institut für Informatik Technische Grundlagen des Internet Vorlesung Nr Teil III: World Wide Web Technologien 12.URI und http-protokoll 13.HTML und CSS 14.XML und XML-Derivate 15.Webprogrammierung und WebServices 17.WWW-Groupware 18.P2P-Netzwerke und Gridcomputing 19.Semantic Web 2 Friedrich Schiller Universität Jena Technische Grundlagen des Internet - Vorlesung SS 2005 HASSO- PLATTNER- INSTITUT Prof. Dr. Ch. Meinel, HPI Potsdam, meinel@hpi.uni-potsdam.de Institut für Informatik für Softwaresystemtechnik GmbH Dr.rer.nat. Harald Sack, FSU Jena, sack@minet.uni-jena.de an der Universität Potsdam Teil III: WWW Technologien Das World Wide Web unendliche Weiten.. WWW bietet Zugriff auf eine gigantische Informationsfülle Schätzungen gehen von über Milliarden Dokumenten im WWW aus davon derzeit (07/2005) etwa 8 Mrd. in Google indiziert Dokumentenbestand im WWW verdoppelt sich etwa alle 6 Monate Ein Ende dieser Entwicklung ist zunächst nicht absehbar 3 4 um gezielt auf Informationen im WWW zugreifen zu können, muss der Nutzer durch geeignete Werkzeuge unterstützt werden Suchmaschinen Allgemeine Anforderungen an Suchmaschinen: Unterstützung des Nutzers bei der Informationsbeschaffung im WWW Erschließung eines möglichst vollständigen Datenbestands, der alle Dokumente des WWW einschließt Zuordnung der einzelnen Dokumente des WWW zu bestimmten Schlüsselbegriffen Wichtigste Kriterien für Nutzer und Anbieter: Vollständigkeit und Genauigkeit Jeder Informationsanbieter "möchte gefunden werden" 5 6 1
2 Grundtypen der WWW-Suchdienste: Grundtypen der WWW-Suchdienste: Webkataloge (katalogbasierte Suchmaschinen) (indexbasierte) Suchmaschinen Meta-Suchmaschinen Payed Placement-Suchmaschinen Themenbezogene Suchmaschinen Shopping Nachrichten Personen Computer / Internet Unterhaltung Business Wissenschaft. Regionale Suchmaschinen Blog- und RSS-Suchmaschinen 7 8 Webkataloge (katalogbasierte Suchmaschinen) Suchdienst, dessen Datenbestand von menschlichen Redakteuren zusammengestellt wird Redakteure stellen einen thematisch gegliederten Suchkatalog zusammen Web-Seiten werden dazu manuell geprüft redaktionell bewertet verworfen oder für Aufnahme in den Katalog akzeptiert Suche erfolgt durch Blättern des Suchkataloges Webkataloge (katalogbasierte Suchmaschinen) Pro: Intellektuelle Bewertung der Web-Seiten durch Menschen erhöht die Qualität (Präzision) der Suchergebnisse Contra: Relativ kleiner Datenbestand nur wenige Informationsangebote können berücksichtigt werden Problem: Aktualität Neue WebSites/Dokumente müssen stets angemeldet werden 9 10 Webkataloge (katalogbasierte Suchmaschinen) Wie werden die Einträge innerhalb des Katalogs sortiert? Manuell Redakteur ordnet WebSite/Dokument eine Gewichtung entsprechend seiner Relevanz zu Automatisch Sortierung innerhalb eines Themengebiets erfolgt alphabetisch/chronologisch Webkataloge (katalogbasierte Suchmaschinen) "Yet Another Hierarchical Officious Oracle" 1994 gegründet 201 Mio Unique Users 93 Mio Active Registered Users ~ 1.5 Mrd. Page Views pro Tag Servers 25 International Sites 13 Languages 8.1 Million Lines Of Code in C/C Million Lines Of Code in Perl mittlerweile Internet Portal-Site
3 Webkataloge (katalogbasierte Suchmaschinen) seit 1998 "Directory Mozilla" Open Directory Project Nichtkommerziell, jeder kann sich beteiligen > 4,6 Mio Sites im Katalog verzeichnet unterschiedliche Kategorien > freiwillige Editoren Index-Datenbestand wird vollautomatisch gewonnen und verarbeitet Basisfunktionen: Datenbeschaffung Dokumentenanalyse und Dokumentenbewertung Aufbau und Verwaltung von Index-Datenstrukturen Beantwortung von Suchanfragen unter Einbeziehung von Relevanzwerten Datenbeschaffung: Einsatz von speziellen, autonom arbeitenden Software- Werkzeugen (Robots, WebRobots) Robots können automatisch neue WebSites und Dokumente im WWW ausfindig machen bereits im Datenbestand vorhandene Dokumente müssen periodisch auf Konsistenz/Veränderungen überprüft werden Dokumentenananalyse und -bewertung: Einsatz von Software-Werkzeugen zur vollständig automatisierten Analyse und inhaltlichen Bewertung von Dokumenten (Information Retrieval Systeme) Manuelle Eingriffe erfolgen in der Regel nur bei Verstößen gegen die jeweilige Nutzungsordnung Aufbau und Verwaltung von Index-Datenstrukturen: Information Retrieval Systeme ermitteln inhaltliche Schwerpunkte der untersuchten Dokumente und legen die analysierten Dokumente entsprechend der relevanten Kategorien (Schlüsselworte) innerhalb einer Datenbank ab Einzelnen Dokumenten wird entsprechend ihrer Relevanz bzgl. der darin behandelten Themen eine Gewichtung zugewiesen Verfahren zur Erstellung eines durchsuchbaren Datenbestandes werden als Indexierung bezeichnet Beantwortung von Suchabfragen : Suche erfolgt durch Eingabe eines/mehrerer Suchbegriffe Automatische Relevanzbewertung der einzelnen Dokumente des Datenbestands führt zur Auswahl eines Ergebnisses entsprechend dem eingegebenen Suchbegriff Auswahl der Ergebnis-Dokumente erfolgt durch Query Processor (eigentliche "Suchmaschine") Anzeige der gefundenen Dokumente erfolgt entsprechend der Relevanzgewichtung
4 Pro: Automatische Datenbeschaffung ermöglicht möglichst aktuellen und vollständigen Datenbestand Contra: Zielgenauigkeit ist abhängig von den zur Relevanzbewertung eingesetzten Algorithmen Automatische Relevanzbewertung führt zu qualitativ minderwertigeren Ergebnissen von den Doktoranden Larry Page und Sergey Brin an der Stanford University entwickelt "Googol" mathematischer Ausdruck für > 8 Milliarden Dokumente und 1,3 Mrd. Bilder im Datenbestand (07/2005) 88 verschiedene Sprachversionen 82 Mio. unterschiedliche Nutzer pro Monat > 200 Mio. Suchanfragen pro Tag Automatische Relevanzbewertung (PageRank) sorgt für qualitativ gute Suchergebnisse Teil III: WWW Technologien Das WWW ist ein Graph Das WWW ist ein riesiger Graph, mit den WWW- Dokumenten als Knoten und den darin befindlichen Hyperlinks als Kanten Hyperlink-Graph C C A B A B Das WWW ist ein Graph Andere Interpretation: Zwei Knoten besitzen genau dann eine gemeinsame (ungerichtete) Kante, wenn beide auf dasselbe Dokument verweisen Cocitation-Graph C C Konnektivität Schwach verbundene Komponenten Hyperlinks werden als ungerichtete Kanten interpretiert Einzelne Komponente mit ca. 90% aller untersuchten Dokumente Stark verbundene Komponenten Hyperlinks werden als gerichtete Kanten interpretiert 28% der untersuchten Dokumente bilden eine stark verbundene Kernkomponente (SCC) A B A B Durchmesser SCC: > 27 Durchmesser des Gesamtgraphen: > 500 WS, dass zwischen zwei zufällig ausgewählten Dokumenten ein Pfad besteht: 0,
5 Teil III: WWW Technologien Die Struktur des WWW IN (44 Mio Knoten) SCC (56 Mio. Knoten) Fortsätze (44 Mio.Knoten) OUT (44 Mio Knoten) Tunnel unverbundene Komponenten Broder e.a.: Graph structure in the web, WWW9, Arbeitsweise einer Suchmaschine Datenbeschaffung - Was Problem 1: Datenvielfalt des WWW statische HTML-Dokumente dynamisch erzeugte HTML-Dokumente Bilder (JPG/GIF/PNG/) Postscript/PDF-Dokumente Word/Powerpoint-Dokumente etc Arbeitsweise einer Suchmaschine Datenbeschaffung - Wann Problem 2: das WWW lebt Daten und Dokumente im Wissensraum WWW haben nur eine "kurze" Lebenszeit unterliegen ständigen Veränderungen sind von anderen Dokumenten abhängig (Links) Festlegung, welche Datentypen archiviert werden sollen Erfasster Datenbestand muss periodisch gewartet werden Arbeitsweise einer Suchmaschine Datenbeschaffung Wie? Google verwendet WebRobots (Crawler) zur Erschließung des Datenbestands im WWW WebRobot arbeitet verteilt nach dem Client-/Server- Prinzip Erfassung neuer bzw. veränderter Ressourcen im WWW Anfrage HTTP-Request Ressourcen werden periodisch vom Robot erfasst, überprüft und analysiert Arbeitsweise eines WebCrawlers (vereinfacht) 1. Initialisiere Warteschlage mit zufällig gewählten URLs 2. Lade Dokument zur ersten URL in der Warteschlange 3. Finde alle Hyperlinks im untersuchten Dokument und hänge diese in die Warteschlange 4. Speichere das untersuchte Dokument 5. GOTO 2 Robot WebCrawler Spider Dokument HTTP-Response WebRobot WWW-Server
6 Komponenten eines WebCrawlers (vereinfacht) Komponenten eines WebCrawlers (vereinfacht) Gatherer Dokumentensammlung aus dem WWW Loader Organisation der Beschaffungsaufträge URL-Datenbank Verwaltung des gesammelten Datenbestands Checker Filterung der gesammelten Daten URL-DB Loader Gatherer Gatherer Checker Gatherer Information Retrieval WWW-Server Komponenten eines WebCrawlers (vereinfacht) Gatherer Ziel: Erfasse so viele Dokumente wie möglich und halte diesen Datenbestand möglichst aktuell Probleme: dynamische Ressourcen, Inseln, Dark Web HTTP GET-Request GET HTTP/1.1 User-Agent: Googlebot/2.1 Komponenten eines WebCrawlers (vereinfacht) Gatherer Identifikation im Logfile des WebServers [10/Dec/2004:09:09: ] "GET /~sack/ws0405/webtechnologien HTTP/1.0" "-" "Googlebot/2.1" WebServer kann WebRobots lenken über /robots.txt: User-agent: Googlebot Disallow: /~user/privat/ User-agent: * Disallow: / WebRobots Exclusion Protocol Komponenten eines WebCrawlers (vereinfacht) Gatherer HTML-Autor kann Robots über spezielles Meta-Tag steuern <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> Robot-Netiquette empfiehlt Beachtung des Robot Exclusion Standards aber nicht alle Robots halten sich daran... WebCrawler Implementierung Anforderung und Übertragung eines WWW-Dokuments ist ein zeitaufwändiger Prozess URL IP (DNS) TCP-Verbindung aufbauen Daten übertragen TCP-Verbindung abbauen Duplikate erkennen Hyperlinks aus Dokument extrahieren Parallelisierung der Einzelaufgaben
7 Server- WebCrawler Implementierung DNS-Cache Queues Load Monitor & Thread Manager DNS Resolver Warten auf DNS Warten auf HTTP Socket Page fetching thread Persistent URL- Pool & URL Metadata HTTP senden und empfangen URL besucht? Text Indizierung usw. Dokument bekannt? Text Repository & Index Links extrahieren normalisieren Spider traps robots.txt URL approval guard Komponenten eines WebCrawlers (vereinfacht) Checker entscheidet, welche Dokumente vom Gatherer an das Information Retrieval-System weitergegeben werden z.b. Auswahl nach Dokumententyp, syntaktischer Korrektheit, Verfügbarkeit entscheidet, nach welchen Links weiter gesucht werden soll Vermeidung von SPAM, defekten Links, Redirects, etc. eliminiert Duplikate Datenaufbereitung und -analyse Inhaltliche Erschließung von Textdokumenten Umwandlung der Dokumente in einheitlichen Dokumententyp (HTML, Postscript, PDF, DOC, PPT in Text umwandeln) effizient durchsuchbarer Datenbestand Auffinden relevanter Zeichenfolgen durch semantische Analyse der Textdatei Schlüsselworte, Überschriften, Aufzählungspunkte, analysieren) Zuordnung Schlüsselworte (Suchbegriffe) zu Dokumenten unter Berücksichtigung von Bewertungskriterien Rangfolge bilden Datenaufbereitung und -analyse Datennormalisierung Wortidentifikation Sprachidentifikation Word Stemming WebCrawler Deskriptoren Black List Information Retrieval Normalisierung und Analyse Teil III: WWW Technologien Datenaufbereitung und analyse Deskriptorengewinnung Schlüsselworte Ziel: Dokument soll durch wenige Schlüsselworte möglichst vollständig inhaltlich repräsentiert werden Anwendung von Keyword-Relevanzfiltern zur partiellen Kontextanalyse z.b. HTML <H>-Tags, Texthervorhebungen, etc z.b. Auslassen von Füllwörtern, Bindewörter, Pronomen, etc Häufigkeitsanalyse von Schlüsselwörtern Relevanz Zipf sches Gesetz: Für den Autor eines Textes ist es stets einfacher, bestimmte Wörter, die ein Thema beschreiben, zu wiederholen, als ständig nach neuen Begriffen zu suchen. George Kingsley Zipf ( )
8 Fskdfjhgsdfhskgd Dsfhgdshdg Sdhdsfhdshsfjsjgdgjhshdfg Sdhdfgdshgsgdf Sdgfhdshdsjhsfdjfsjhsf Sdgfdsgdfgsdg Sdhsfgjhzrujrthgfxbvh Srthbfgxbcvbxt Hxgbxfgjnxftkjzrhfgbx Xdfhbfgnbxgnxfgnx Rthxfgbnbvcgn Txhfgnbxvgnfxgnxf Fxgnhdrgfgfxbdbn Fdxgnfgndg Ndghndghmnmhggfm Dsfdfgsdfgdsfgdsfhsdhsdhsfghsfhd Sdhgsdfgdgdsgdsfhgsdhsdhds Dsfhgdsfgdsgds Gdshsdhdsfhsfdhsdfghsdhsdh Sdfgsdhsdhsfdjhsdjsdjsdg Sdhgdfghsdgfhsdtjsfjfdgr5esrgsreh Srthsfhbfsgnbhfgsnhfgs Hsfgbsfgbsfghbsf Bsfgbfgsbfgnbdfgndghn dfndfgnbdfgnghdmngdhmdghmh Datenaufbereitung und analyse Vektorraum-Modell Stammt aus Information Retrieval Idee: Dokument wird als Vektor in einem n-dimensionalen Vektorraum betrachtet jeweils eine Dimension für jedes mögliche Wort Länge eines Basisvektors entspricht der Anzahl des damit repräsentierten Wortes innerhalb des betrachteten Dokuments Vektor ergibt sich aus der Linearkombination der Basisvektoren Datenaufbereitung und analyse Index Dokument 0 Aachen 1 Altavista 0 Ananas 2 Buttermilch 3 Bratwurst 0 Chromatograph 0 Dynamik Anwendung von Methoden aus der Linearen Algebra 2 0 Zustand Zypern Teil III: WWW Technologien Datenaufbereitung und analyse Invertierter Index Erfordernis der schnellen Beantwortung von Suchabfragen macht spezielle Datenstrukturen erforderlich Invertiertes Dateisystem Umgekehrt werden zu einem Deskriptor eine Reihe von relevanten Dokumenten zugeordnet Index Aachen Altavista Ananas Zustand Zypern Invertierte Datei: Ananas DocId Pos Frequenz Gewicht ,5, , Direkte Datei: DocId 1234 Deskriptor Pos Frequenz Ananas 1,5, Datenaufbereitung und analyse Um qualitativ hochwertige Suchergebnisse zu erzielen, müssen die aus dem invertierten Index gewonnenen Dokumente entsprechend ihrer Relevanz gewichtet werden Was ist wichtig? Term Frequency Algorithmus (TFA) Zipf sches Gesetz: Je häufiger ein Schlüsselwort in einem Text vorkommt, desto wichtiger muss es sein. absolute Worthäufigkeit relative Worthäufigkeit TF( d, t) = n( d, t) n( d,τ ) τ Datenaufbereitung und analyse Was ist wichtig? Inverser Term Frequency Algorithmus (ITFA) um ein Dokument mit einem Schlüsselwort inhaltlich möglichst eindeutig kennzeichnen und von anderen Dokumenten abgrenzen zu können, muss die relative Worthäufigkeit das Vorkommen des Schlüsselwortes in anderen Dokumenten (D t ) mit einbeziehen ITF( d, t) = τ n( d, t) n( d, τ ) D Je mehr Dokumente das Schlüsselwort enthalten, desto schlechter charakterisiert es ein einzelnes Dokument t
9 Teil III: WWW Technologien Google Relevanz- und Gewichtungsmodelle Um qualitativ hochwertige Suchergebnisse zu erzielen, müssen die aus dem invertierten Index gewonnenen Dokumente entsprechend ihrer Relevanz gewichtet werden Relevanzgewichtung Google unterscheidet "wichtige" von "unwichtigen" Dokumenten "Wichtig": 1. ein Dokument ist um so "wichtiger", je mehr andere Dokumente auf dieses Dokument via Links verweisen 2. ein Dokument, auf das ein "wichtiges" Dokument via Link verweist, ist selbst "wichtig" 3. je mehr Links ein Dokument auf andere Dokumente enthält, desto "unwichtiger" ist ein einzelner Link Google Relevanz- und Gewichtungsmodelle aus 1-3 läßt sich eine Formel zur Berechnung der "Wichtigkeit" (PageRank, PR) eines Dokuments gewinnen sei PR(A) der zu ermittelnde PageRank des Dokuments A seien T 1 T n Dokumente, die einen Link auf A enthalten seien PR(T 1 ) PR(T n ) die PageRanks der Dokumente T 1 T n sei c(t i ) die Anzahl der ausgehenden Links in Dokument T i sei d ein Dämpfungsfaktor (0<d<1) c( A) PR PR( A) = ( 1 d) + d i= 1 c ( T ) i ( T ) i Google Relevanz- und Gewichtungsmodelle Beispiel für dir PageRank-Berechnung A 1.0 C 1.0 B 1.0 D 1.0 Berechnung wird iterativ durchgeführt, bis sich ein stabiler Zustand (Fixpunkt) ergibt. Nr n PR(A) 1,0 1,0 2,083 1,49 PR(B) PR(C) 1,0 1,0 0,575 2,275 0,575 1, ,7833 1,577 PR(D) 1, Google Relevanz- und Gewichtungsmodelle Beispiel für dir PageRank-Berechnung A 1.49 C 1,57 B 0,78 D Berechnung wird iterativ durchgeführt, bis sich ein stabiler Zustand (Fixpunkt) ergibt. Nr n PR(A) 1,0 1,0 2,083 1,49 PR(B) PR(C) 1,0 1,0 0,575 2,275 0,575 1,1912 0,7833 1,577 PR(D) 1,0 Andere Relevanz- und Gewichtungsmodelle Relevanz-Feedback direktes / indirektes Feedback Annahme: je häufiger ein Dokument aus einer Ergebnisliste einer Suchabfrage vom Nutzer ausgewählt wird, desto höher ist dessen Relevanz. zu berücksichtigen: junge vs. alte Dokumente Verweildauer im Indexdatenbestand Missbrauch verhindern registriere IP des Clients, Cookies Hohe Click-Popularität nur bei hinreichend guter Beschreibung des Inhalts in DESCRIPTON Meta-Tag des HTML-Headers verwenden
10 Andere Relevanz- und Gewichtungsmodelle Cluster-Verfahren ähnliche Dokumente werden zu Dokumenten-Clustern zusammengefasst Ähnlichkeitsanalyse und Clusterzuordnung während Index- Erstellung Analyse von Dokumenten-Deskriptoren mit Hilfe von Thesauri Andere Relevanz- und Gewichtungsmodelle Cluster-Verfahren - Ähnlichkeitsbestimmung Abfrage Q wird repräsentiert als Dokumentenvektor Berechne Ähnlichkeit des Dokumentenvektors Q mit allen Dokumentenvektoren D, der mit diesem Vektor gefundenen Ergebnisse Ähnlichkeit zwischen Q und D ergibt sich als sim( Q, D) = cos( Θ) Cosinus des Winkels Θ zwischen den beiden Dokumentenvektoren Q und D Andere Relevanz- und Gewichtungsmodelle Hubs und Authorities Hub Dokument mit überdurchschnittlich vielen Links auf andere Dokumente Authority Sehr viele für ein bestimmtes Thema relevante Dokumente zeigen auf dieses Dokument. Daher stellt Dokument eine Art "Autorität" zu diesem Thema dar. Andere Relevanz- und Gewichtungsmodelle Hubs und Authorities Gegenseitige Verstärkung Ein "gutes" Hub zeigt auf viele "gute" Authorities Eine "gute" Authority wird von vielen "guten" Hubs verlinkt HITS-Algorithmus (Kleinberg, 1997) Für jedes Dokument p wird ein Wert für Hub h(p) und Authority a(p) berechnet Werte werden mit Hilfe des Hyperlink-Graphen G=(N,E) berechnet Iterativer Algorithmus nutzt gegenseitige Verstärkung aus Andere Relevanz- und Gewichtungsmodelle Hubs und Authorities Hub h(p): ergibt sich aus der Summe aller Authority-Werte der verlinkten Dokumente q h( p) = ( p, q) E a( q) Authority a(p): ergibt sich aus der Summe aller Hub-Werte der Dokumente q, die auf dieses Dokument verweisen a( p) = ( q, p) E h( q) Wie Google eigentlich Geld verdient Google AdWords: Entsprechend der Suchabfrage des Nutzers werden zusätzliche, "bezahlte" Werbe-Links mit angezeigt AdWords
11 Teil III: WWW Technologien PageRank und darüber hinaus bei der Darstellung des Suchergebnisses erscheinen Dokumente mit hohem PageRank vor Dokumenten mit niedrigem PageRank Welche Probleme gibt es darüber hinaus? Synonyme und Homonyme (z.b. "Golf") Text in Grafiken Multimedia-Dokumente PageRank Manipulation Beurteilung der Qualität von Suchergebnissen Beurteilung der Qualität von Suchergebnissen Genauigkeit = Anteil der korrekt klassifizierten Ergebnisse Ist + als + klassifiziert a als - klassifiziert c a+c Anzahl der gefundenen, relevanten Dokumente im Verhältnis zu allen relevanten Dokumenten Recall a recall = ( a + c) Ist - b d a+b c+d ( a + d) genauigkeit = n b+d n Anzahl der gefundenen, relevanten Dokumente im Verhältnis zu allen gefundenen Dokumenten Precision a precision = ( a + b) Qualität der Suchergebnisse Qualität der Suchergebnisse ist auch von der Spezifikation der Suchanfrage abhängig Verfeinerung der Suchabfrage durch Angabe mehrerer, zutreffender Schlüsselworte Kombination von Schlüsselworten über logische Operatoren Bsp.: "Golf" UND "Sport" UND NICHT "Auto" Qualität der Suchergebnisse Zusätzliche Filteroperationen Sprachenfilter Domain- / IP-Filter Dokumententyp Erstellungs-/Änderungsdatum Dokumentengröße etc spezialisierte Suchdienste
12 Qualität der Suchergebnisse spezialisierte Suchdienste z.b. bei Google Qualität der Suchergebnisse spezialisierte Suchdienste z.b. bei Google Google Groups Google Scholar Froogle Google Labs Linux Microsoft Darstellung der Suchergebnisse Suchergebnisse werden üblicherweise als sortierte Liste dargestellt Alternative Darstellung: Deskriptoren Cluster Darstellung der Suchergebnisse Suchergebnisse werden üblicherweise als sortierte Liste dargestellt Alternative Darstellung: Deskriptoren Cluster / Hubs Darstellung der Suchergebnisse Suchergebnisse werden üblicherweise als sortierte Liste dargestellt Alternative Darstellung: Deskriptoren Cluster Darstellung der Suchergebnisse Alternative Darstellung: Topic Maps
13 Darstellung der Suchergebnisse Alternative Darstellung: Topic Maps Darstellung der Suchergebnisse Alternative Darstellung: Touch Graph Technische Grundlagen des Internet II. Internet Grundlagen Literatur Technische Grundlagen des Internet Ch. Meinel, H. Sack: WWW Kommunikation, Internetworking, Web Technologien, Springer, M. Glöggler: Suchmaschinen im Internet, Springer, Univ.-Prof. Dr. Christoph Meinel HASSO-PLATTNER-INSTITUT für Softwaresystemtechnik GmbH an der Universität Potsdam Dr. rer. nat. Harald Sack Friedrich Schiller Universität Jena Institut für Informatik Vorlesung Sommersemester
Ergänzungs-Studienangebot der Mediendidaktik für Lehramtstudenten Dr. Harald Sack Institut für Informatik FSU Jena Sommersemester 2007
Informatik der digitalen Medien Ergänzungs-Studienangebot der Mediendidaktik für Lehramtstudenten Dr. Harald Sack Institut für Informatik FSU Jena Sommersemester 2007 http://www.informatik.uni-jena.de/~sack/ss07/infod.htm
MehrSuchmaschinenalgorithmen. Vortrag von: Thomas Müller
Suchmaschinenalgorithmen Vortrag von: Thomas Müller Kurze Geschichte Erste Suchmaschine für Hypertexte am CERN Erste www-suchmaschine World Wide Web Wanderer 1993 Bis 1996: 2 mal jährlich Durchlauf 1994:
MehrWie Google Webseiten bewertet. François Bry
Wie Google Webseiten bewertet François Bry Heu6ge Vorlesung 1. Einleitung 2. Graphen und Matrizen 3. Erste Idee: Ranking als Eigenvektor 4. Fragen: Exisi6ert der Eigenvektor? Usw. 5. Zweite Idee: Die Google
MehrDavid Mika. Donnerstag, den 15. März 2012. Verein zur Förderung der privaten Internet Nutzung e.v. Suchen und Finden im Internet. david@ping.
Suchen im David Mika Verein zur Förderung der privaten Nutzung e.v. Donnerstag, den 15. März 2012 Themenüberblick 1 2 3 4 5 6 Informationsflut im Jeder kann schnell und einfach Dokumente publizieren Aktuell
MehrSemestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7.
Semestralklausur zur Vorlesung Web Mining Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7. 2004 Name: Vorname: Matrikelnummer: Fachrichtung: Punkte: (1).... (2)....
MehrWebalizer HOWTO. Stand: 18.06.2012
Webalizer HOWTO Stand: 18.06.2012 Copyright 2003 by manitu. Alle Rechte vorbehalten. Alle verwendeten Bezeichnungen dienen lediglich der Kennzeichnung und können z.t. eingetragene Warenzeichen sein, ohne
MehrSuchmaschinen und ihre Architektur. Seminar: Angewandtes Information Retrieval Referat von Michael Wirz
Suchmaschinen und ihre Architektur Seminar: Angewandtes Information Retrieval Referat von Michael Wirz Ziel Rudimentäre Grundkenntnisse über die Funktionsweise von Suchmaschinen und Trends Einführung in
MehrUnbeschränkter Zugang zu Wissen?
Unbeschränkter Zugang zu Wissen? Leistungsfähigkeit und Grenzen von Suchdiensten im Web. Zwischen informationeller Absicherung und manipulierter Information Joachim Griesbaum Informationswissenschaft Universität
Mehretutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche
etutor Benutzerhandbuch Benutzerhandbuch XQuery Georg Nitsche Version 1.0 Stand März 2006 Versionsverlauf: Version Autor Datum Änderungen 1.0 gn 06.03.2006 Fertigstellung der ersten Version Inhaltsverzeichnis:
MehrGesucht und Gefunden: Die Funktionsweise einer Suchmaschine
Gesucht und Gefunden: Die Funktionsweise einer Suchmaschine Prof. Dr. Peter Becker FH Bonn-Rhein-Sieg Fachbereich Informatik peter.becker@fh-bonn-rhein-sieg.de Vortrag im Rahmen des Studieninformationstags
MehrDokumentation. Black- und Whitelists. Absenderadressen auf eine Blacklist oder eine Whitelist setzen. Zugriff per Webbrowser
Dokumentation Black- und Whitelists Absenderadressen auf eine Blacklist oder eine Whitelist setzen. Zugriff per Webbrowser Inhalt INHALT 1 Kategorie Black- und Whitelists... 2 1.1 Was sind Black- und Whitelists?...
MehrOnline-Publishing mit HTML und CSS für Einsteigerinnen
mit HTML und CSS für Einsteigerinnen Dipl.-Math. Eva Dyllong Universität Duisburg Dipl.-Math. Maria Oelinger spirito GmbH IF MYT 07-2002 Grundlagen Frau erfahrt, wie das Internet aufgebaut ist, aus welchen
MehrDie Statistiken von SiMedia
Die Statistiken von SiMedia Unsere Statistiken sind unter folgender Adresse erreichbar: http://stats.simedia.info Kategorie Titel Einfach Erweitert Übersicht Datum und Zeit Inhalt Besucher-Demographie
MehrErfolgreich suchen im Internet
Erfolgreich suchen im Internet Steffen-Peter Ballstaedt 05.10.2015 Statistik Weltweit: etwa 1 Milliarde Websites BRD: 15 Millionen Websites Das Internet verdoppelt sich alle 5,32 Jahre Die häufigste Aktivität
MehrSuchmaschinen. Yeliz Güler. Proseminar Auszeichnungssprachen WS04/05 13.01.2005
Suchmaschinen Yeliz Güler Proseminar Auszeichnungssprachen WS04/05 13.01.2005 Übersicht Einleitung Was sind Suchmaschinen? Überblick Suchdienste im World Wide Web Webkataloge Suchmaschinen Metasuchmaschinen
Mehr2 Evaluierung von Retrievalsystemen
2. Evaluierung von Retrievalsystemen Relevanz 2 Evaluierung von Retrievalsystemen Die Evaluierung von Verfahren und Systemen spielt im IR eine wichtige Rolle. Gemäß der Richtlinien für IR der GI gilt es,...
MehrWeb Crawling Die Erschließung des Webs
Web Crawling Die Erschließung des Webs Ronny Harbich Otto-von-Guericke-Universität 5. Dezember 2007 1/24 Ronny Harbich Web Crawling Die Erschließung des Webs Übersicht 1 2 3 4 2/24 Ronny Harbich Web Crawling
MehrKonzepte der Informatik
Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 1 aus "Abenteuer Informatik" von Jens
MehrSuchergebnisdarstellung in Google, Bing, Cuil, etc. Christina Ficsor
Suchergebnisdarstellung in Google, Bing, Cuil, etc. Christina Ficsor Allgemeines zu Suchmaschinen Was ist eine Suchmaschine? Ein Programm das die Suche nach Dokumenten/Webseiten im Internet durch die Eingabe
Mehr1 topologisches Sortieren
Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung
MehrHyperlink-Erstellung in InDesign für
Hyperlink-Erstellung in InDesign für Übersicht Sie können in InDesign Hyperlinks erstellen, sodass nach einem Export in eine Adobe PDF- oder SWF-Datei die Benutzer über einen Klick auf den Link zu anderen
MehrWie funktioniert das WWW? Sicher im WWW
Wie funktioniert das WWW? Sicher im WWW Der normale Aufruf 1. Browserprogramm starten 2. Adresse eintippen, z.b. : ich-hab-doch-nichts-zu-verbergen.de 3. Der Browser ändert die Adresse auf: http://ich-hab-doch-nichts-zu-verbergen.de/
MehrÜbungsaufgaben. Aufgabe 1 Internetsuchmaschinen. Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie Karlsruhe
Otto-Friedrich-Universität Bamberg Lehrstuhl für Medieninformatik Prof. Dr. Andreas Henrich Dipl. Wirtsch.Inf. Daniel Blank Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie
MehrWeb Grundlagen zum Spidering
May 22, 2009 Outline Adressierung 1 Adressierung 2 3 4 Uniform Resource Locator URL Jede Seite im Internet wird eindeutig über eine URL identiziert, z.b. http://www.christianherta.de/informationretrieval/index.html
Mehr1. Dashboard. Neben der Anrede werden die Einstellungen angezeigt, die auf Seite 3 zu sehen sind.
1 1. Dashboard Neben der Anrede werden die Einstellungen angezeigt, die auf Seite 3 zu sehen sind. 2 2. Einstellungen Unter den Benutzereinstellungen kann z.b. festgelegt werden, welches Berichtsdatum
MehrWebhost Unix Statistik
Webhost Unix Statistik Für jeden Betreiber eines Webservers ist es natürlich auch interessant zu wissen, welchen Erfolg das eigene Angebot hat und welche Seiten denn am öftesten abgerufen werden. Da jeder
MehrLehrer: Einschreibemethoden
Lehrer: Einschreibemethoden Einschreibemethoden Für die Einschreibung in Ihren Kurs gibt es unterschiedliche Methoden. Sie können die Schüler über die Liste eingeschriebene Nutzer Ihrem Kurs zuweisen oder
MehrÜbersicht Die Übersicht zeigt die Zusammenfassung der wichtigsten Daten.
Webalizer Statistik Bedeutung der Begriffe Übersicht Die Übersicht zeigt die Zusammenfassung der wichtigsten Daten. Anfragen Gesamtheit aller Anfragen an Ihren Account. Jede Anfrage auf eine Grafik, eine
MehrUrbacher-Computer-Forum. Herzlich Willkommen!
Herzlich Willkommen! Wer suchet der findet!? Oder auch nicht! Überblick: Welche Suchdienste gibt es? Suchmaschinen Verzeichnisse Spezialsuchmaschinen Metasuchmaschinen Nachschlagwerke Welche Suchdienste
MehrMigration von statischen HTML Seiten
Migration von statischen HTML Seiten Was ist Typo3 Typo3 ist ein Content Mangement System zur Generierung von Internetauftritten. Dieses System trennt Inhalt, Struktur und Layout von Dokumenten und stellt
MehrGuideline. Facebook Posting. mit advertzoom Version 2.3
Guideline Facebook Posting mit advertzoom Version 2.3 advertzoom GmbH advertzoom GmbH Stand November 2012 Seite [1] Inhalt 1 Facebook Posting Schnittstelle... 3 1.1 Funktionsüberblick... 3 2 Externe Ressource
MehrMan unterscheidet zwischen LAN (Local Area Network) und WAN (Wide Area Network), auch Internet genannt.
Netzwerk Ein Netzwerk wird gebildet, wenn mehrere Geräte an einem Switch mit Netzwerkkabeln angeschlossen werden. Dabei können die einzelnen Geräte miteinander kommunizieren und über ein Netzwerkprotokoll
MehrAnmerkungen zur Übergangsprüfung
DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung
MehrWeb-Recherche WS 2015/2016 3. Veranstaltung 29. Oktober 2015
Web-Recherche WS 2015/2016 3. Veranstaltung 29. Oktober 2015 Philipp Mayr - philipp.mayr@gesis.org Philipp Schaer - philipp.schaer@gesis.org GESIS Leibniz-Institut für Sozialwissenschaften 2 Themen der
MehrUser Experience vs. Retrievaltests Wie lässt sich die Relevanz von Suchergebnissen bewerten?
User Experience vs. Retrievaltests Wie lässt sich die Relevanz von Suchergebnissen bewerten? Prof. Dr. Dirk Lewandowski Hochschule für Angewandte Wissenschaften Hamburg dirk.lewandowski@haw-hamburg.de
MehrSuchmaschinen. Anwendung RN Semester 7. Christian Koczur
Suchmaschinen Anwendung RN Semester 7 Christian Koczur Inhaltsverzeichnis 1. Historischer Hintergrund 2. Information Retrieval 3. Architektur einer Suchmaschine 4. Ranking von Webseiten 5. Quellenangabe
Mehr5. Vorlesung. Das Ranking Problem PageRank HITS (Hubs & Authorities) Markov Ketten und Random Walks PageRank und HITS Berechnung
5. Vorlesung Das Ranking Problem PageRank HITS (Hubs & Authorities) Markov Ketten und Random Walks PageRank und HITS Berechnung Seite 120 The Ranking Problem Eingabe: D: Dokumentkollektion Q: Anfrageraum
MehrIhr Benutzerhandbuch SAMSUNG SGH-V200 http://de.yourpdfguides.com/dref/459178
Lesen Sie die Empfehlungen in der Anleitung, dem technischen Handbuch oder der Installationsanleitung für SAMSUNG SGH- V200. Hier finden Sie die Antworten auf alle Ihre Fragen über die in der Bedienungsanleitung
MehrMatrix42. Use Case - Sicherung und Rücksicherung persönlicher Einstellungen über Personal Backup. Version 1.0.0. 23. September 2015 - 1 -
Matrix42 Use Case - Sicherung und Rücksicherung persönlicher Version 1.0.0 23. September 2015-1 - Inhaltsverzeichnis 1 Einleitung 3 1.1 Beschreibung 3 1.2 Vorbereitung 3 1.3 Ziel 3 2 Use Case 4-2 - 1 Einleitung
MehrKennen, können, beherrschen lernen was gebraucht wird www.doelle-web.de
Inhaltsverzeichnis Inhaltsverzeichnis... 1 Grundlagen... 2 Hyperlinks innerhalb einer Datei... 2 Verweisziel definieren... 2 Einen Querverweis setzen... 3 Verschiedene Arten von Hyperlinks... 3 Einfache
MehrGefunden werden im Internet - Einblick in die Suchmaschinenoptimierung
Barbara Schöne Espellohweg 33 22607 Hamburg Tel.: 040-82244963 kontakt@barbaraschoene.de www.barbaraschoene.de Gefunden werden im Internet - Einblick in die Suchmaschinenoptimierung Einführung Suchmaschinenoptimierung
MehrHandbuch für Redakteure
Handbuch für Redakteure Erste Schritte... 1 Artikel erstellen... 2 Artikelinhalt bearbeiten... 3 Artikel bearbeiten... 3 Grunddaten ändern... 5 Weitere Artikeleigenschaften... 5 Der WYSIWYG-Editor... 6
MehrWebtechnologien. Webtechnologien. Suchmaschinen, Groupware und P2P-Netzwerke
Vorlesung Informatik Dr. rer. nat. Harald Sack Institut für Informatik Friedrich Schiller Universität Jena Wintersemester 2004/2005 http://www.informatik.uni-jena.de/~sack/ws0405/webtechnologien.htm 1
MehrAlgorithmen II Vorlesung am 15.11.2012
Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrUm eine Person in Magnolia zu erfassen, gehen Sie wie folgt vor:
Personendaten verwalten mit Magnolia Sie können ganz einfach und schnell alle Personendaten, die Sie auf Ihrer Webseite publizieren möchten, mit Magnolia verwalten. In der Applikation Adressbuch können
Mehrmobifleet Beschreibung 1. Terminverwaltung in der Zentrale
mobifleet Beschreibung 1. Terminverwaltung in der Zentrale Die Termine werden wie bisher im Outlook verwaltet und erfasst. Der Außendienst selbst, wie auch andere Personen, die Termine für den Außendienst
MehrAccess 2010. Grundlagen für Anwender. Andrea Weikert 1. Ausgabe, 1. Aktualisierung, Juli 2012. inkl. zusätzlichem Übungsanhang ACC2010-UA
Andrea Weikert 1. Ausgabe, 1. Aktualisierung, Juli 2012 Access 2010 Grundlagen für Anwender inkl. zusätzlichem Übungsanhang ACC2010-UA 3 Access 2010 - Grundlagen für Anwender 3 Daten in Formularen bearbeiten
MehrInternetsuche und Google Page-Rank - Wie wird was durch wen gefunden? Woche 3
Internetsuche und Google Page-Rank - Wie wird was durch wen gefunden? Woche 3 Magnus Knuth & Nadine Steinmetz Hasso Plattner Institute for IT-Systems Engineering University of Potsdam Internetsuche und
MehrBetter Backlinking Semantische Kategorisierung von Websites
Better Backlinking Semantische Kategorisierung von Websites Stephan Sommer-Schulz info@nerdbynature.net Inhaltsübersicht 1. Ziel: Kategorisierung 2. Backlinks 3. Kategorien - Auswahl 4. Semantische Verfahren
MehrExtranet pro familia. Anleitung zur Nutzung Webseitenstatistik. Extranet pro familia... 1. Anleitung zur Nutzung Webseitenstatistik...
Extranet pro familia Anleitung zur Nutzung Webseitenstatistik Extranet pro familia.... 1 Anleitung zur Nutzung Webseitenstatistik.... 1 Erklärung und Anleitung Ihrer Webseitenstatistik (Awstats)... 2 1.
MehrHP Product Content Syndication Steigern Sie Ihre Add-to-Cart Rate in 3 einfachen Schritten
HP Product Content Syndication Steigern Sie Ihre Add-to-Cart Rate in 3 einfachen Schritten Möchten Sie die Add-to-Cart Rate, um bis zu 22 % steigern? Möchten Sie Ihren Kunden dabei jederzeit aktuelle Inhalte
MehrAnton Ochsenkühn. amac BUCH VERLAG. Ecxel 2016. für Mac. amac-buch Verlag
Anton Ochsenkühn amac BUCH VERLAG Ecxel 2016 für Mac amac-buch Verlag 2 Word-Dokumentenkatalog! Zudem können unterhalb von Neu noch Zuletzt verwendet eingeblendet werden. Damit hat der Anwender einen sehr
MehrWie kann ich in der Backstage-Ansicht eigene Dokumentationen einbinden?
Wie kann ich in der Backstage-Ansicht eigene Dokumentationen einbinden? Anforderung Durch die Bearbeitung einer XML-Datei können Sie Ihre eigenen Dokumentationen (z.b. PDF-Dateien, Microsoft Word Dokumente
MehrDrucken aus der Anwendung
Drucken aus der Anwendung Drucken aus der Anwendung Nicht jeder Großformatdruck benötigt die volle Funktionsvielfalt von PosterJet - häufig sind es Standarddrucke wie Flussdiagramme und Organigramme die
MehrVersion smarter mobile(zu finden unter Einstellungen, Siehe Bild) : Gerät/Typ(z.B. Panasonic Toughbook, Ipad Air, Handy Samsung S1):
Supportanfrage ESN Bitte füllen Sie zu jeder Supportanfrage diese Vorlage aus. Sie helfen uns damit, Ihre Anfrage kompetent und schnell beantworten zu können. Verwenden Sie für jedes einzelne Thema jeweils
MehrInformationen zum neuen Studmail häufige Fragen
1 Stand: 15.01.2013 Informationen zum neuen Studmail häufige Fragen (Dokument wird bei Bedarf laufend erweitert) Problem: Einloggen funktioniert, aber der Browser lädt dann ewig und zeigt nichts an Lösung:
MehrARCHITEKTUR VON INFORMATIONSSYSTEMEN
ARCHITEKTUR VON INFORMATIONSSYSTEMEN File Transfer Protocol Einleitung Das World Wide Web war ja ursprünglich als verteiltes Dokumentenverwaltungssystem für die akademische Welt gedacht. Das Protokoll
MehrWie Web 2.0 und Suche zusammenwachsen. Prof. Dr. Dirk Lewandowski dirk.lewandowski@haw-hamburg.de
Wie Web 2.0 und Suche zusammenwachsen Prof. Dr. Dirk Lewandowski dirk.lewandowski@haw-hamburg.de Web search: Always different, always the same AltaVista 1996 1 http://web.archive.org/web/19961023234631/http://altavista.digital.com/
MehrMS Access 2010 Kompakt
2 ABFRAGEN Eine Abfrage ist im Wesentlichen der Filterung eines Datenbestandes sehr ähnlich. Auch hier werden aus einer Menge von Informationen nur jene Datensätze ausgewählt, die einem vorher definierten
MehrSQL - Übungen Bearbeitung der Datenbank Personal (1)
Bearbeitung der Datenbank Personal (1) 1. Abfragen einer einzigen Tabelle 1.1. Zeigen Sie alle Informationen an, die über die Kinder der Mitarbeiter gespeichert sind. 1.2. Zeigen Sie aus der Tabelle stelle
MehrArtenkataster. Hinweise zur Datenbereitstellung. Freie und Hansestadt Hamburg. IT Solutions GmbH. V e r s i o n 1. 0 0.
V e r s i o n 1. 0 0 Stand Juni 2011 Freie und Hansestadt Hamburg Behörde für Stadtentwicklung und Umwelt IT Solutions GmbH Artenkataster Auftraggeber Freie und Hansestadt Hamburg Behörde für Stadtentwicklung
MehrKurzanleitung für Verkäufer
Kurzanleitung für Verkäufer Registrieren auf www.easybasar.de Einloggen Am Basar anmelden Artikel erfassen Artikel abgeben Artikel abholen Registrieren bei www.easybasar.de Sie sollten sich bereits vor
MehrSuchmaschinen- Optimierung Gestern heute - morgen
Internet-Stammtisch Suchmaschinen- Optimierung Gestern heute - morgen Uwe Stache http://www.ecomm-berlin.de/ Die Themen Die Basics OnSite / OffSite SEO & WEB 2.0 Outlook ein Versuch Vorspann Kein Werkzeug
Mehrschiller software vollkomm sachzwang Automatisierte Sachaufklärung Effektives Vollstreckungsmanagement!
schiller software sachzwang Automatisierte Sachaufklärung Über uns Software soll das Arbeitsleben leichter machen nicht komplizierter! Mit unseren Softwarelösungen unterstützen wir jeden Tag sehr viele
MehrWordpress: Blogbeiträge richtig löschen, archivieren und weiterleiten
Wordpress: Blogbeiträge richtig löschen, archivieren und weiterleiten Version 1.0 Wordpress: Blogbeiträge richtig löschen, archivieren und weiterleiten In unserer Anleitung zeigen wir Dir, wie Du Blogbeiträge
MehrAußerdem verwenden wir Cookies für andere Zwecke, wie zum Beispiel:
Version 16.01.2016 INFORMATION ZU COOKIES UND WERBUNG Besuchen Sie die Website von Smart Gourmet Spanien mit der Konfiguration Ihres Browser Cookies Annahme oder Verwendung der Geräte, mobile Anwendungen
Mehrkleines keyword brevier Keywords sind das Salz in der Suppe des Online Marketing Gordian Hense
Keywords sind das Salz in der Suppe des Online Marketing Keywords - Das Salz in der Suppe des Online Marketing Keyword Arten Weitgehend passende Keywords, passende Wortgruppe, genau passende Wortgruppe
MehrInformationsblatt Induktionsbeweis
Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln
MehrJederzeit Ordnung halten
Kapitel Jederzeit Ordnung halten 6 auf Ihrem Mac In diesem Buch war bereits einige Male vom Finder die Rede. Dieses Kapitel wird sich nun ausführlich diesem so wichtigen Programm widmen. Sie werden das
MehrDatenbanken Microsoft Access 2010
Datenbanken Microsoft Access 2010 Abfragen Mithilfe von Abfragen kann ich bestimmte Informationen aus einer/mehrerer Tabellen auswählen und nur diese anzeigen lassen die Daten einer/mehrerer Tabellen sortieren
MehrSEND-IT Bedienungsanleitung
SEND-IT Bedienungsanleitung 1 Allgemeine Konfiguration 1.1 Erfassen / Editieren 2 HTML Editor (EDIT-IT) 2.1 Editor starten 3 Newsletter 3.1 Verteiler erfassen 3.2 Verteiler editieren 3.3 Adressbuch 3.3.1
MehrSuchmaschinen im Internet
Michael Glöggler Suchmaschinen im Internet Funktionsweisen, Ranking Methoden, Top Positionen Mit 47 Abbildungen und 25 n Springer Inhaltsverzeichnis 1 Überblick Suchdienste im World Wide Web 1 1.1 Webkataloge
MehrMORE Profile. Pass- und Lizenzverwaltungssystem. Stand: 19.02.2014 MORE Projects GmbH
MORE Profile Pass- und Lizenzverwaltungssystem erstellt von: Thorsten Schumann erreichbar unter: thorsten.schumann@more-projects.de Stand: MORE Projects GmbH Einführung Die in More Profile integrierte
MehrDie treffende Auswahl anbieten: Im Internet (Referat 3a)
www.zeix.com Die treffende Auswahl anbieten: Im Internet (Referat 3a) Fachtagung: Suchfunktionen im Web Zürich, 26. Oktober 2006 Jürg Stuker, namics Gregor Urech, Zeix Bern, Frankfurt, Hamburg, München,
MehrOnline - Zusammenarbeit bei Google
Online - Zusammenarbeit bei Google www.google.at Ing. Elfriede Berger Erstellen Sie Ihre Arbeit online und nutzen Sie sie gemeinsam mit anderen Schnell erstellen, bearbeiten und hochladen Importieren Sie
MehrProtect 7 Anti-Malware Service. Dokumentation
Dokumentation Protect 7 Anti-Malware Service 1 Der Anti-Malware Service Der Protect 7 Anti-Malware Service ist eine teilautomatisierte Dienstleistung zum Schutz von Webseiten und Webapplikationen. Der
MehrDie Entwicklung eines Glossars (oder eines kontrollierten Vokabulars) für ein Unternehmen geht üblicherweise in 3 Schritten vor sich:
Glossare 1 Inhalt 1 Inhalt... 1 2 Prozesse... 1 3 Eine kleine Zeittabelle...... 1 4 Die ersten Schritte... 2 5 Die nächsten Schritte...... 2 6 Die letzten Schritte... 3 7 Das Tool...... 4 8 Beispiele...
MehrBackend 1.5. http://joomla.aps.it-betreuung.salzburg.at
Backend 1.5 http://joomla.aps.it-betreuung.salzburg.at Aktualisiert von Jörg Hanusch und Willi Koller Februar 2012 CMS Joomla Joomla! ist ein datenbankbasiertes Content Management System (CMS). Es bezieht
MehrHandbuch. NAFI Online-Spezial. Kunden- / Datenverwaltung. 1. Auflage. (Stand: 24.09.2014)
Handbuch NAFI Online-Spezial 1. Auflage (Stand: 24.09.2014) Copyright 2016 by NAFI GmbH Unerlaubte Vervielfältigungen sind untersagt! Inhaltsangabe Einleitung... 3 Kundenauswahl... 3 Kunde hinzufügen...
MehrDIRECTINFO 5.7 SICHERHEITSKONZEPTE FÜR BENUTZER, INFORMATIONEN UND FUNKTIONEN
DIRECTINFO 5.7 SICHERHEITSKONZEPTE FÜR BENUTZER, INFORMATIONEN UND FUNKTIONEN - Whitepaper 1 Autor: Peter Kopecki Version: 1.2 Stand: Mai 2006 DIRECTINFO 5.7... 1 SICHERHEITSKONZEPTE FÜR BENUTZER, INFORMATIONEN
MehrGoogle Earth und Telefonbücher im Internet
Merkblatt 80 www.computeria-olten.ch Monatstreff für Menschen ab 50 Google Earth und Telefonbücher im Internet Google Earth ist ein virtueller Globus. Das schreibt Google dazu: Die Welt entdecken ist jetzt
MehrNach der Installation des FolderShare-Satellits wird Ihr persönliches FolderShare -Konto erstellt.
FolderShare Installation & Konfiguration Installation Eine kostenlose Version von FolderShare kann unter http://www.foldershare.com/download/ heruntergeladen werden. Sollte die Installation nicht automatisch
MehrAngaben zu einem Kontakt...1 So können Sie einen Kontakt erfassen...4 Was Sie mit einem Kontakt tun können...7
Tutorial: Wie kann ich Kontakte erfassen In myfactory können Sie Kontakte erfassen. Unter einem Kontakt versteht man einen Datensatz, der sich auf eine Tätigkeit im Zusammenhang mit einer Adresse bezieht.
MehrGrundlagen, Informationen und Hintergründe von Wiki Systemen
Grundlagen, Informationen und Hintergründe von Wiki Systemen Was ist Wiki? Wikis, auch WikiWikis und WikiWebs genannt, sind im World Wide Web verfügbare Seitensammlungen, die von den Benutzern nicht nur
MehrGästeverwaltung. Gästestammdaten. Gäste verwalten. Hotelsoftware für Klein- und Mittelbetriebe
Gästeverwaltung Hotelsoftware für Klein- und Mittelbetriebe Gästestammdaten Gäste verwalten Gästeverwaltung für Windows ermöglicht Ihnen die komfortable Erfassung Ihrer Gästestammdaten und stellt diese
MehrRecherchieren im Internet
Recherchieren im Internet Proseminar 1 Physik für Studierende des Lehramts Übersicht 1. Allgemeines zur Lage 2. google und mehr 3. Kataloge und Metasuchmaschinen 4. Fachspezifische Suchdienste 1. Allgemeines
MehrDie Zukunft der Arbeit ist dabei. Your time, our technologies
Die Zukunft der Arbeit ist dabei Your time, our technologies ÜBER UNS Arca24 ist ein IT-Unternehmen, das sich auf Anwendungen im Human Resources Bereich spezialisiert hat. Dank der HR-Erfahrung seiner
Mehrejgp Webseite Kurzeinführung
ejgp Webseite Kurzeinführung Inhaltsverzeichnis 1.Einloggen...2 2.Beitrag bearbeiten...2 3.Beitrag hinzufügen...3 4.Bild hoch laden und einfügen...3 5.Link in Text einfügen...4 6.Bilder für die Galerie
Mehrwww.computeria-olten.ch Monatstreff für Menschen ab 50 Temporäre Dateien / Browserverlauf löschen / Cookies
www.computeria-olten.ch Monatstreff für Menschen ab 50 Merkblatt 42 Temporäre Dateien / Browserverlauf löschen / Cookies Im Internet-Explorer Extras / Browserverlauf löschen Jetzt entscheiden, was man
Mehr1. EINLEITUNG 2. GLOBALE GRUPPEN. 2.1. Globale Gruppen anlegen
GLOBALE GRUPPEN 1. EINLEITUNG Globale Gruppen sind system- oder kategorieweite Gruppen von Nutzern in einem Moodlesystem. Wenn jede Klasse einer Schule in eine globale Gruppe aufgenommen wird, dann kann
MehrWeb Data Mining. Alexander Hinneburg Sommersemester 2007
Web Data Mining Alexander Hinneburg Sommersemester 2007 Termine Vorlesung Mi. 10:00-11:30 Raum?? Übung Mi. 11:45-13:15 Raum?? Klausuren Mittwoch, 23. Mai Donnerstag, 12. Juli Buch Bing Liu: Web Data Mining
MehrAdvoware mit VPN Zugriff lokaler Server / PC auf externe Datenbank
Advoware mit VPN Zugriff lokaler Server / PC auf externe Datenbank Die Entscheidung Advoware über VPN direkt auf dem lokalen PC / Netzwerk mit Zugriff auf die Datenbank des zentralen Servers am anderen
MehrThematische Abfrage mit Computerlinguistik
Thematische Abfrage mit Computerlinguistik Autor: Dr. Klaus Loth (ETH-Bibliothek Zürich) Zusammenfassung Der Beitrag befasst sich mit dem Einsatz der Computerlinguistik bei der thematischen Abfrage einer
MehrOECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland
OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben
MehrThemenschwerpunkt Social SEO
Themenschwerpunkt Social SEO Der soziale Einfluss in die Ergebnisse der Google- Suche Definition Social SEO Social SEO bezeichnet Maßnahmen zur Steigerung der persönlichen bzw. emotionalen Ansprache der
MehrUniversal Dashboard auf ewon Alarmübersicht auf ewon eigener HTML Seite.
ewon - Technical Note Nr. 003 Version 1.2 Universal Dashboard auf ewon Alarmübersicht auf ewon eigener HTML Seite. Übersicht 1. Thema 2. Benötigte Komponenten 3. Downloaden der Seiten und aufspielen auf
MehrWas wir über das Internet wissen sollten. Fischen im Netz der Netze Zusammengestellt von Heinz-Arnold Schneider
Was wir über das Internet wissen sollten Fischen im Netz der Netze Zusammengestellt von Heinz-Arnold Schneider Geplanter Ablauf (1) 1. Überblick über die verschiedenen Suchmaschinen 2. Arbeitsblatt 1:
MehrDie Einfache Suche finden Sie auf den Onleihen in der linken oder in der rechten Spalte oder im Headerbereich bzw. im Kopf der Homepage.
Wie suche ich nach Medien auf der Stand: April 2016 Die fache Suche Wo finde ich die fache Suche? Die fache Suche finden Sie auf den Onleihen in der linken oder in der rechten Spalte oder im Headerbereich
MehrMit dem Tool Stundenverwaltung von Hanno Kniebel erhalten Sie die Möglichkeit zur effizienten Verwaltung von Montagezeiten Ihrer Mitarbeiter.
Stundenverwaltung Mit dem Tool Stundenverwaltung von Hanno Kniebel erhalten Sie die Möglichkeit zur effizienten Verwaltung von Montagezeiten Ihrer Mitarbeiter. Dieses Programm zeichnet sich aus durch einfachste
Mehr