SUCHE MIT Google
Web virtualuniversity.ch
HOME DIDAKTIK ECDL ELEKTRONIK GUIDES HR MANAGEMENT MATHEMATIK SOFTWARE TELEKOM
DIENSTE
Anmeldung
Newsletter abonnieren
Sag's einem Freund!
VirtualUniversity als Startseite
Zu den Favoriten hinzufügen
Feedback Formular
e-Learning für Lehrer
Spenden
Autoren login
KURSE SUCHEN
Kurse veröffentlichen

Suche nach Datum:

Suche mit Schlüsselwort:

Suche nach Land:

Suche nach Kategorie:
PARTNER
ausbildung24.ch - Ausbildungsportal, Seminare, Kursen... 

 
HTMLopen.de - Alles was ein Webmaster braucht

 
PCopen.de - PC LAN Netze und Netzwerke - alles was ein IT Profi und Systemtechnicker braucht

ECDL
 
Die Suchmaschine
 

EineSuchmaschine ist ein Programm zur Recherche von Dokumenten, die in einemComputer oder einem Computernetzwerk wie z. B. dem World Wide Web gespeichertsind. Nach Eingabe eines Suchbegriffs liefert eine Suchmaschine eine Liste vonVerweisen auf möglicherweise relevante Dokumente, meist dargestellt mit Titelund einem kurzen Auszug des jeweiligen Dokuments. Dabei können verschiedeneSuchverfahren Anwendung finden.

Die wesentlichenBestandteile bzw. Aufgabenbereiche einer Suchmaschine sind

Erstellung undPflege eines Indexes (Datenstruktur mit Informationen über Dokumente),
Verarbeiten vonSuchanfragen (Finden und Ordnen von Ergebnissen) sowie
Aufbereitung derErgebnisse in einer möglichst sinnvollen Form.
In der Regelerfolgt die Datenbeschaffung automatisch, im WWW durch Webcrawler, auf einemeinzelnen Computer durch regelmäßiges Einlesen aller Dateien in vom Benutzerspezifizierten Verzeichnissen im lokalen Dateisystem.

 
Arten von Suchmaschinen
 

Websuchmaschinen sind die bekannteste Form von Suchmaschinen. Sie durchsuchen das World Wide Web, das meistgenutzte Dateiformat ist hierbei HTML.

Metasuchmaschinen schicken Suchanfragen parallel an mehrere normale Suchmaschinen und kombinieren die Einzelergebnisse zu einer Ergebnisseite. Als Vorteil ist die größere (da kombinierte) zugrundeliegende Datenmenge zu nennen. Ein Nachteil ist die lange Dauer der Anfragebearbeitung. Außerdem ist das Ranking durch reine Mehrheitsfindung (welche Seite taucht in den meisten verwendeten Suchmaschinen auf?) von fragwürdigem Wert. Metasuchmaschinen sind vor allem bei selten vorkommenden Suchbegriffen von Vorteil.

Als Desktop-Suchmaschine werden neuerdings Programme bezeichnet, welche den lokalen Datenbestand eines einzelnen Computers durchsuchbar machen.

Wird die Datenbeschaffung manuell mittels Anmeldung oder durch Lektoren vorgenommen, handelt es sich nicht um eine Suchmaschine sondern um einen Katalog (auch Verzeichnis genannt). In solchen Verzeichnissen wie beispielsweise Yahoo! und dem Open Directory Project sind die Dokumente hierarchisch in einem Inhaltsverzeichnis nach Themen organisiert.

So genannte Echtzeit-Suchmaschinen starten den Indexierungsvorgang erst nach einer Anfrage. So sind die gefundenen Seiten zwar stets aktuell, die Qualität der Ergebnisse ist aber aufgrund der fehlenden breiten Datenbasis insbesondere bei weniger gängigen Suchbegriffen schlecht.

 
Ranking / Suchrang
 

Die Darstellung der Suchergebnisse geschieht sortiert nach Relevanz (Ranking bzw. Suchrang), wofür jede Suchmaschine ihre eigenen, meist geheim gehaltenen Kriterien heranzieht. Dazu gehören:

Häufigkeit und Stellung der Suchbegriffe im jeweiligen gefundenen Dokument.
Einstufung und Anzahl der zitierten Dokumente.
Häufigkeit von Verweisen anderer Dokumente auf das im Suchergebnis enthaltene Dokument sowie in Verweisen enthaltener Text.
Einstufung der Qualität der verweisenden Dokumente (ein Link von einem „guten“ Dokument ist mehr wert als der Verweis von einem mittelmäßigen Dokument).
Größere Bekanntheit erlangt hat PageRank, eine Komponente des Ranking-Algorithmus der erfolgreichen Suchmaschine Google.

Manche Suchmaschinen sortieren Suchergebnisse nicht nur nach Relevanz für die Suchanfrage, sondern lassen gegen Bezahlung auch Einflussnahme auf ihre Ausgabe zu. In den letzten Jahren hat sich allerdings bei den großen Anbietern eine Trennung zwischen Suchergebnissen und als "bezahlte Treffer" markierte eingeblendeter Werbung durchgesetzt. Die "bezahlten Treffer" werden kontextbezogen zur Suchanfrage ausgegeben.

 
Geschichte
 

Archie kann als ältester Vorfahre der heute allseits bekannten Suchmaschinen und Webverzeichnisse angesehen werden.

Der erste Vorläufer der heutigen Suchmaschinen war eine im Jahr 1991 an der University of Minnesota maßgeblich von Paul Lidner und Mark P. McCahill entwickelte Software namens Gopher. Sie wurde als Campuswide Information System (CWIS) zur Vernetzung der dortigen Informationsserver entwickelt und basiert auf dem Client-Server-Prinzip. Die Struktur von Gopher war für den damaligen Zeitpunkt richtungsweisend; alle Gopher-Seiten wurden katalogisiert und konnten vom Gopher-Sucher Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) komplett durchsucht werden. Allerdings verschwand Gopher schon einige Jahre später, vermutlich vor allem wegen der fehlenden Möglichkeit, Bilder und Grafiken einzubinden.

Mit der Freigabe des WWW-Standards zur kostenlosen Nutzung 1993 und einer handvoll Webseiten begann die einzigartige Erfolgsgeschichte des weltweiten Datennetzes. Der erste Webcrawler namens The Wanderer wurde im selben Jahr von Mathew Gray programmiert, einem Studenten des Massachusetts Institute of Technology (MIT). The Wanderer durchsuchte und katalogisierte von 1993 bis 1996 halbjährlich das zu dieser Zeit noch sehr übersichtliche Web. Im Juni 1993 wurden insgesamt 130 Websites gezählt. Im Oktober des gleichen Jahres wurde Aliweb (Archie-Like Indexing of the Web) entwickelt, bei dem die Betreiber von Webservern eine Beschreibung ihres Dienstes in einer Datei ablegen mussten, um so ein Teil des durchsuchbaren Index zu werden.

Im Dezember 1993 gingen die Suchmaschinen Jumpstation, WorldWideWeb Worm und RBSE Spider ans Netz. Die beiden erstgenannten waren Crawler, die Webseiten nach Titel und URL indexierten. RBSE Spider war die erste Suchmaschine, die ihre Ergebnisse nach einem eigenen Ranking-System sortiert anzeigte. Keine dieser Suchmaschinen bietet heute noch ihre Dienste an.

Im April 1994 ging eine weitere Suchmaschine namens WebCrawler online, die ebenfalls eine nach Ranking sortierte Trefferliste vorweisen konnte. 1995 wurde sie an AOL verkauft, ein Jahr später weiter an Excite. Im Mai begann die Arbeit von Michael Mauldins an der Suchmaschine Lycos, die im Juli 1994 online ging. Neben der Worthäufigkeit der Suchbegriffe innerhalb der Webseiten durchsuchte Lycos auch die Nähe der Suchbegriffe untereinander im Dokument.

Im selben Jahr riefen David Filo und Jerry Yang, beide damals Studenten des Fachbereichs Elektrotechnik an der Stanford University, eine Sammlung ihrer besten Web-Adressen in einem online verfügbaren Verzeichnisdienst ins Leben – die Geburtsstunde von Yahoo! (für Yet Another Hierarchical Officious Oracle).

Das Jahr 1995 sollte eine bedeutende Trendwende für die erst kurze Geschichte der Suchmaschinen werden: In diesem Jahr wurden erstmals Suchmaschinen von kommerziellen Firmen entwickelt. Aus diesen Entwicklungen entstanden Infoseek, Architext (wurde später in Excite umbenannt) und AltaVista. Ein Jahr später wurde Inktomi Corp. gegründet, deren gleichnamige Suchmaschine zur Grundlage von Hotbot und anderen Suchseiten wurde. Führend in dieser Zeit war der Verzeichnisdienst von Yahoo, aber AltaVista (der Name bedeutet „Blick von oben“, ist aber auch ein Wortspiel den Standort Palo Alto betreffend) wurde zunehmend populär.

1996 war das Startjahr von zwei Metasuchmaschinen. MetaCrawler erblickte in den USA das Licht der Welt und - in Deutschland - MetaGer. Bis zur Marktdurchdringung von Google galten Metasuchmaschinen als eine der interessantesten Informationsbeschaffer, da der Suchindex der Suchmaschinen meist nur Teilbereiche des Internets enthielt. Metasuchmaschinen leiten die Abfragen des Nutzers parallel an mehrere Suchmaschinen weiter und fassen die Treffer formatiert zusammen.

Ende 1998 veröffentlichten Larry Page und Sergey Brin ihre innovative Suchmaschinen-Technologie in dem Artikel The Anatomy of a Large-Scale Hypertextual Web Search Engine. Diese Arbeit stellte den Startschuss für die bisher erfolgreichste Suchmaschine der Welt dar: Google. Im September 1999 erreichte Google Beta-Status. Die geordnete Benutzeroberfläche, die Geschwindigkeit und die Relevanz der Suchergebnisse bildeten die Eckpfeiler auf dem Weg, die computererfahrenen Nutzer für sich zu gewinnen. Ihnen folgten in den nächsten Jahren bis heute Scharen von neuen Internetbenutzern. Doch Google dominiert den Suchmaschinenmarkt nicht allein, durch spektakuläre Aufkäufe im Frühjahr 2003 sicherte sich Yahoo! den Anschluss in diesem Marktsegment.

Seit 2004 gibt es nach einigen Firmenübernahmen nur mehr drei große (bezogen auf die Anzahl erfasster Dokumente) indexbasierte kommerzielle Websuchmaschinen. Neben Google sind dies Yahoo! Search und Microsofts MSN Search.

 
Herausforderungen
 

Mehrdeutigkeit – Suchanfragen sind oft unpräzise. So kann die Suchmaschine nicht selbständig entscheiden, ob beim Begriff Laster nach einem LKW oder einer schlechten Angewohnheit gesucht werden soll. Umgekehrt sollte die Suchmaschine nicht zu stur auf dem eingegebenen Begriff bestehen. Sie sollte auch Synonyme einbeziehen, damit der Suchbegriff Rechner Linux auch Seiten findet, die statt Rechner das Wort Computer enthalten. Weiterhin wird oft Stemming verwendet, dabei werden Wörter auf ihren Grundstamm reduziert. So ist einerseits eine Abfrage nach ähnlichen Wortformen möglich (schöne Blumen findet so auch schöner Blume), außerdem wird die Anzahl der Begriffe im Index reduziert.
Datenmenge – Das Web wächst schneller als die Suchmaschinen mit der derzeitigen Technik indexieren können. Dabei ist der den Suchmaschinen unbekannte Teil – das sogenannte Deep Web – noch gar nicht eingerechnet.
Aktualität – Viele Webseiten werden häufig aktualisiert, was die Suchmaschinen zwingt, diese Seiten immer wieder zu besuchen. Dies ist auch notwendig, um zwischenzeitlich aus der Datenbasis entfernte Dokumente zu erkennen und nicht länger als Ergebnis anzubieten. Das regelmäßige Herunterladen der mehreren Milliarden Dokumente, die eine Suchmaschine im Index hat, stellt große Anforderungen an die Netzwerkressourcen (Traffic) des Suchmaschinenbetreibers.
Spam – Mittels Suchmaschinen-Spamming versuchen manche Website-Betreiber, den Ranking-Algorithmus der Suchmaschinen zu überlisten, um eine bessere Platzierung für gewisse Suchanfragen zu bekommen. Sowohl den Betreibern der Suchmaschine als auch deren Kunden schadet dies, da nun nicht mehr die relevantesten Dokumente zuerst angezeigt werden.
Technisches – Suche auf sehr großen Datenmengen so umzusetzen, dass die Verfügbarkeit hoch ist (trotz Hardware-Ausfällen und Netzengpässen) und die Antwortzeiten niedrig (obwohl oft pro Suchanfrage das Lesen und Verarbeiten mehrerer 100 MB Index-Daten erforderlich ist), stellt große Anforderungen an den Suchmaschinenbetreiber. Systeme müssen sehr redundant ausgelegt sein, zum einen auf den Computern vor Ort in einem Rechenzentrum, zum anderen sollte es mehr als ein Rechenzentrum geben, welches die komplette Suchmaschinenfunktionalität anbietet.
Rechtliches – Suchmaschinen werden meist international betrieben und bieten somit Benutzern Ergebnisse von Servern, die in anderen Ländern stehen. Da die Gesetzgebungen der verschiedenen Länder unterschiedliche Auffassungen davon haben, welche Inhalte erlaubt sind, geraten Betreiber von Suchmaschinen oft unter Druck, gewisse Seiten von ihren Ergebnissen auszuschließen. Die deutschen Internet-Suchmaschinen wollen jugendgefährdende Seiten durch die Freiwillige Selbstkontrolle aus ihren Trefferlisten streichen.

 
Google
 

Google Inc. ist ein kommerzielles Unternehmen mit Hauptsitz im kalifornischen Mountain View. Es beschäftigte Ende September 2005 rund 5.000 Mitarbeiter. Im Jahr 2004 vollzog Google seinen lange erwarteten Börsengang (IPO). Google hat einen marktbeherrschenden Anteil an allen Suchanfragen im Internet (Stand 2005).

 
AdWords
 

Google verkauft für beliebige Suchbegriffe einen „Platz an der Sonne“. Diese reine Text-Werbung – so genannte „AdWords“ – ist aber speziell hervorgehoben, so dass die eigentlichen Suchergebnisse nicht beeinflusst werden. Wird ein Suchbegriff eingegeben, der zum Angebot eines AdWords-Teilnehmers passt, wird dessen Werbung angezeigt.

 
AdSense
 

Zusätzlich entstehen Gewinne durch das Google „AdSense“- Partnerprogramm; dies ist kontextabhängige Werbung, welche Webmaster auf ihren Webseiten einbinden können. Hierüber können seit Mai 2004 auch grafische Werbebanner in vier Standardgrößen platziert werden. Seit Juni 2005 können die Kunden über das „Site Targeting“ außerdem gezielt auf bestimmten Seiten werben, statische und animierte Werbebanner einsetzen und diese über die Zahl der Abrufe bezahlen. Bislang war nur eine Bezahlung pro Klick möglich.

 
Suchdienstleistungen für Portale
 

Googles Suchtechnik wird auch an Internetportale lizenziert, um dort eine Websuche anbieten zu können, ohne dass Benutzer das Portal verlassen müssten.

 
Google Appliance
 

Mit der Google Appliance verkauft Google seine Suchtechnologie an Firmen, die sie im eigenen Intranet einsetzen möchten. Bei der Appliance handelt es sich um einen Server mit vorinstallierter Software, der im firmeneigenen Netz dieselbe Aufgabe übernimmt, die Google für das World Wide Web leistet. Dokumente werden im Index vorgehalten und Suchanfragen beantwortet.

 
Manipulation der Ergebnisse von Google
 

Aufgrund seiner bedeutenden Marktposition ist Google Hauptziel von Suchmaschinen-Spamming. Dabei wird versucht, gute Positionen bei möglichst vielen Suchbegriffen zu erzielen. Diese Suchbegriffe haben oft nichts mit dem eigentlichen Inhalt der Seite zu tun. Es werden Techniken wie Doorway-Seiten, Linkfarmen oder Page-Cloaking eingesetzt.

Erstmals im größeren Umfang öffentlich wahrgenommen wurde die Möglichkeit der Suchmaschinenmanipulation im Zusammenhang mit einer Google-Bombe, die sich auf den amerikanischen Präsidenten George W. Bush bezog. Der Suchbegriff „miserable failure“ (zu deutsch: „klägliches Scheitern“ oder „jämmerlicher Versager“) wurde von Bush-Gegnern mit seiner offiziellen Biografie verknüpft. Im Gegenzug versuchten Bush-Unterstützer dasselbe mit Michael Moore. Die Plätze wechseln seither gelegentlich.

Manipulationen, die zum Zweck haben, das Ranking von Websites speziell bei Google zu verbessern, werden auch als Google-Spamming bezeichnet.

Google ändert seine Algorithmen zur Bestimmung des Rankings regelmäßig ab, um Missbrauch zu erschweren. Die Spammer ziehen stets nach und passen ihre Seiten entsprechend an.

 
Google in der Kritik
 

Zensur
Auf dem deutschen Ableger von Google sollen in Zukunft über eintausend Seiten mit „bedenklichem“, darunter jugendgefährdendem und rechtsradikalen Inhalt nicht mehr angezeigt werden. Kritiker sprechen auch hierbei von Zensur. Im Jahre 2002 wurde bekannt, dass scientologykritische Teile der Websites Xenu.net und clambake.org auf Verlangen Scientologys aus dem englischsprachigen Index entfernt wurden, wobei Google Copyright-Probleme als Grund hierfür angab.

 
Datenschutz
 

Die Geschäftsmethoden von Google geraten seit einigen Jahren unter Beschuss, weil unter die Weigerung der Firma, Interna preiszugeben, auch konkrete Aussagen zum von der Firma praktizierten Datenschutz fallen (bzw. ob dieser überhaupt existiert).

Erster Kritikpunkt war die Vergabe von individuellen Cookies durch die Suchmaschine an ihre Benutzer. Offiziell dienen diese Cookies nur dazu, Einstellungen zu speichern; warum dazu automatisch eine für jeden Browser eindeutige und über 30 Jahre gültige Nummer vergeben wird, und dies selbst, wenn keine Einstellungen vorgenommen wurden, will Google nicht klären. Technisch ist es unumstritten einfacher, anstatt der Identifikationsnummer die Einstellungen selbst im Cookie zu speichern. Interessant ist in diesem Zusammenhang, dass eine Möglichkeit, persönliche Einstellungen auch ohne Cookie zu nutzen, kurz nach ihrer Entdeckung durch Google Watch seitens Google wieder abgestellt wurde.

Es wird deshalb vermutet, dass diese Identifikationsnummer nicht nur den Einstellungen dient, sondern auch dazu, Suchanfragen jedes Benutzer zu protokollieren, zumindest um daraus Rückschlüsse auf Interessensgebiete zu ziehen. Diese Erkenntnisse können bei weiteren Suchen zur Verbesserung der Ergebnisse dienen.

Mit dem Webmaildienst GMail kam weitere Kritik auf. Google hatte angekündigt, die Inhalte der über GMail empfangenen E-Mails zu durchsuchen, in erster Linie um dazu passende Werbung einzublenden. Nachdem dieses Vorhaben sogar unter kalifornischen Abgeordneten auf Ablehnung stieß, rückte Google zumindest offiziell davon wieder ab.

Das soziale Netzwerk Orkut steht zu guter Letzt ebenfalls unter argwöhnischer Beobachtung, da jeder Teilnehmer vor Benutzung detaillierte Auskünfte über sich machen muss. Dies ist zwar prinzipbedingt, da andernfalls der Nutzen eines solchen Netzwerks eher gering ist, jedoch wäre Google mit Hilfe aller drei Dienste in der Lage, über einzelne Benutzer genaue Profile zu erstellen und sie somit zum „gläsernen Kunden“ zu machen.

Die Bürgerrechtsgruppe Public Information Research nominierte Google 2003 in den USA für den „Big Brother Award“.

 
Gebrauch
 

Einfache Benutzung
Neben der einfachen Suche steht noch eine weitere Suchmaske (erweiterte Suche) zur Verfügung, über welche bestimmte Filter angewendet werden können.

Die einfache Suche verwendet bei Eingaben standardmäßig die boolesche Operatoren UND beim Eintrag mehrerer Begriffe. Es wird dabei nach allen Dokumenten gesucht, in denen diese Begriffe vorkommen. Gewichtet wird, neben dem Page Rank, meist danach, wo die Begriffe stehen – ob im Titel einer Seite, dem Dokumenten-Namen oder Verzeichnis, einer Überschrift etc.

Neben der booleschen Standardverknüpfung UND kann auch ein boolesches ODER („OR“ wahlweise auch „|“) verwendet werden. Suchbeispiel: Strand OR Beach. Eine sowohl-als-auch Anweisung.

Um die Suche weiter einzugrenzen, kann man nach exakten Phrasen suchen. Die Suchbegriffe tauchen dann nicht wahllos im Dokument auf, sondern müssen in einer bestimmten Anordnung vorhanden sein. Exakte Suchphrasen werden mit Anführungszeichen kenntlich gemacht. Suchbeispiel: "Bearbeiten von Google". Es werden keine Dokumente gesucht, in denen irgendwo das Wort „Bearbeiten“ und irgendwo das Wort „Google“ steht, sondern nur solche, in denen die Wörter in dieser Reihenfolge vorkommen. Wahlweise kann auch für ein Wort ein Platzhalter, kenntlich gemacht durch ein Sternchen, gesetzt werden.

Als weiteres Ausschlusskriterium kann ein Minuszeichen „-“ Verwendung finden. Suchbeispiel: Hannibal -Lecter. Sucht nach einem antiken Feldherrn und schließt aber Seiten aus, in denen der Name in Verbindung mit einer Filmfigur namens „Lecter“ steht.

Die Suche erlaubt eine Abfrage mit bis zu 32 Suchbegriffen (auch als Phrase). Diese Option ist hilfreich für das Suchen nach Dubletten oder Zweitverwertungen eines Textes.

Hinweise:

Anhand dieser Verknüpfungen (die kombiniert angewendet werden können) sind schon sehr präzise Abfragen möglich.
Bei Eingabe einfacher mathematischer Schreibweisen wie z. B. 2+5(4/5)^8 gibt Google standardmäßig keine Seiten aus, in denen diese Formulierung vorkommt, sondern gibt das Ergebnis der Rechnung (= 2.8388608) zurück.
Google hat einen sehr großen Wortschatz. Vor allem bei Eigennamen, Marken und speziellen Fachbegriffen etc. empfiehlt sich Google als Rechtschreibhilfe. Beispiel: Schreibt man „DaimlerChrysler“ zusammen, auseinander oder mit Bindestrich? Google fragt bei einer unbekannten oder untypischen Eingabe: „Meinten Sie …“

 
Erweiterte Benutzung
 

Es kann zusätzlich zu dieser einfachen Such-Syntax eine erweitete Syntax in die Suchmaske eingegeben, bzw. größtenteils auch über die „erweiterte Suche“ zusammengeklickt werden. Folgende, teils undokumentierte Schlüsselbegriffe sind derzeit bekannt. Diese Schlüsselbegriffe werden durch einen Doppelpunkt „:“ gekennzeichnet.

cache: – gibt nur die von Google gespeicherten Seiten aus. Ist vor allem praktisch, wenn bei Portalen die Inhalte oft wechseln. Der Link, den man bei Google findet, führt aktuell oftmals auf eine Seite, deren Inhalte sich inzwischen geändert haben oder gar gelöscht wurden. Die Inhalte sind aber über einen bestimmten Zeitraum noch bei Google gespeichert und können dort gelesen werden.

daterange: – schränkt die Suche auf einen Datumsbereich ein, in dem die Seite von Google indexiert wurde. Als Zeitangaben müssen Zahlen bezogen auf das Julianische Datum eingegeben werden. Errechnet werden diese Zahlen aus der Anzahl der Tage, die seit dem 1. Januar 4713 v. Chr. vergangen sind. Beispiel: 30.06.2003-30.06.2004 = daterange:2452820-2453186 (Onlinehilfe). Vorteil für Computer: sie brauchen sich nicht um Formate oder Namen von Tag, Woche oder Jahr zu kümmern.
 
define: - Durchsucht Internet-Enzyklopädien wie Wikipedia und andere nach dem Suchbegriff.

filetype: – Sucht nach Dokumenten, mit bestimmten Dateiendungen. Beispiel: geschäftsbericht

filetype:xls . Möglich sind grundsätzlich alle Dateiendungen. Google kann derzeit aber nur in folgende Formate „reinschauen“: PS, PDF, AI, DOC, PPT, XLS, sowie alle textbasierten Dateien wie RTF, TXT, ASP, PHP, CGI, HTM, LOG, INI, JS usw.

inanchor: - Sucht nach den Begriffen nur in Links. Oftmals führt ein Link mit einer bestimmten Bezeichnung präziser zu einem Ziel, als wenn die Bezeichnung irgendwo im Text vorkommt.

inurl: – gibt Seiten zurück, bei denen der Suchbegriff in der URL auftaucht. Beispiel: "Karl Müller"

inurl:impressum

intitle: – Sucht nach Dokumenten, bei welchen der oder die Suchbegriffe nur im Titel der Datei vorkommen. Beispiel: intitle:"Bearbeiten von Google"
link: – Gibt alle Seiten aus, die auf eine bestimmte Seite verlinken. Beispiel: link:wikipedia.org . Diese Ausgabe kann etwa wichtig sein, um den Page Rank zu optimieren oder verwandte Seiten zu finden.

site: – mit diesem Schlüsselbegriff lässt sich die Suche auf eine bestimmte Domain eingrenzen. Praktisch vor allem dann, wenn eine Homepage keine eigene Suchfunktion hat. Beispiel: Desoxyribonukleinsäure site:wikipedia.org
uvm.

Die angewendeten Suchformeln lassen sich auch in Form der URL, die Google bei einer Suche ausgibt, speichern bzw. wiederholen und verlinken.

 
DIPLOMARBEITEN UND BÜCHER

Diplomarbeiten zum Runterladen:

Suche im Katalog:
Architektur / Raumplanung
Betriebswirtschaft - Funktional
Erziehungswissenschaften
Geowissenschaften
Geschichtswissenschaften
Informatik
Kulturwissenschaften
Medien- und Kommunikationswissenschaften
Medizin
Psychologie
Physik
Rechtswissenschaft
Soziale Arbeit
Sozialwissenschaften


JOBS
HOME | E-LEARNING | SITEMAP | LOGIN AUTOREN | SUPPORT | FAQ | KONTAKT | IMPRESSUM
Virtual University in: Italiano - Français - English - Español
VirtualUniversity, WEB-SET Interactive GmbH, www.web-set.com, 6301 Zug

Partner:   Seminare7.de - PCopen.de - HTMLopen.de - WEB-SET.com - YesMMS.com - Ausbildung24.ch - Manager24.ch - Job und Karriere