Gefunden werden – nur wie?

Manchmal hilft aber auch der gesunde Menschenverstand. So sollte das Luxushotel ‘Bayerisher Hof’ in München wohl unter den Schlagworten ‘Hotel’ oder ‘First-Class Hotel’  in Kombination mit München zu finden sein. Schlechte Karten dagegen haben die Commerzbank und die Credit Suisse. Denn die Finanzhäuser nutzen aus Sicherheitsgründen das abhörsichere Netzwerkprotokoll Hypertext Transfer Protocol Secure (HTTPS), bei dem die Daten über Secure Sockets Layer/Transport Layer Security  (SSL/TLS) verschlüsselt werden. Das soll die Seiten unter anderem vor Phishing-Attacken schützen. Bis vor kurzem waren solche Sites für Suchmaschinen völlig unzugänglich.

Bauchweh und Blähungen bei den Such-Robotern

Doch HTTPS gehört nur zu den nachrangigen Problemen, mit denen sich die Suchmaschinen-Anbieter konfrontiert sehen. Das Qualitätskriterium schlechthin ist derzeit die Anzahl der Spam-Einträge in den Ergebnissen, sagt der Suchmaschinen-Guru Danny Sullivan. Er ist Autor und Herausgeber zahlreicher Bücher zum Thema sowie bei Jupitermedia zuständig für die Suchmaschine auf der amerikanischen Website der Company. Zudem ist er maßgeblich an dem Suchmaschinen-Codex beteiligt, den die Branche pflegt. Als Spam klassifiziert er eine Seite, die keinen eigenen informativen Inhalt besitzt oder sonst irgendeinen Nutzwert hat.

“Große Suchmaschinen gleichen einerseits einem Buch mit 8 Milliarden Seiten. Andererseits nehmen sie eine Qualifizierungsfunktion wahr. Sie vermerken auf welcher Position sich ein Suchwort befindet und registrieren, wie häufig und von wo auf eine Seite verlinkt wird”, beschreibt Sullivan. Spam-Autoren machen sich das zunutze. ‘Info-Klone’ etwa spiegeln Originalseiten mehrfach, Shop-Klone wiederholen Sonderangebote. Beim so genannten “Cloaking” bauen findige Spammer zwei Seiten unter derselben Adresse, eine für die Suchmaschine und eine für den Nutzer. Die Suchmaschine identifiziert eine Info-Seite, der Nutzer erhält Werbung. Mit manipulierten Keywords gelangt der Suchende ausgerechnet zur Website des Wettbewerbers statt zum Marktführer.

Um solche, sowie etwa rassistische Seiten herauszufiltern, schafft sich jeder Anbieter eigene Regeln, die mit Hilfe von Algorithmen aber auch händisch agierender Redaktionen umgesetzt werde. An dieser Stelle setzen neue Suchmaschinen an. Ihre Betreiber, wie zum Beispiel Neomo, sehen eine Chance, qualitativ bessere, passendere Ergebnisse liefern zu können. Das soll insbesondere für nationale Einträge unter Berücksichtigung des Jugend- und Datenschutzes sowie der Datensicherheit gelten.

Dasselbe versprechen die Großen der Branche aber auch, und zwar durch die Eingrenzung der Suche auf Interessen. Laut Guru Sullivan aber besteht darin die größte Herausforderung der Suchmaschinen-Anbieter. Sie müssen ihre Nutzer davon überzeugen, dass eine solche eingeschränkte Suche die bessere ist. Die auf das gesamte Web ausgedehnte Suche könne gar keine besseren Ergebnisse liefern als die spezifische, so der Experte von Jupitermedia.

Suchmaschinen sind Dummchen

Ohnehin sind die Suchmaschinen stark verbesserungsbedürftig. Der Wissenschaftler Dirk Lewandowski von der Universität Düsseldorf hält geradezu Sprengstoff parat – vor allem für all die Website-Optimierer. Die Abteilung Informationswissenschaft der nordrhein-westfälischen Hochschule untersucht permanent die Qualität von Suchmaschinen. Das Ergebnis: Alle schneiden kläglich ab. Nur maximal sechs Treffer von zehn haben überhaupt Relevanz für eine Abfrage. “Oder andersherum: Mindestens 4 von 10 Treffern sind irrelevant”, erklärt Lewandowski.

Ein ähnlich katastrophales Bild ergibt sich bei der Abdeckung. Das deutsche Web besteht aus rund 4 Millionen Domains mit 320 Millionen Seiten. Die Suchmaschinen jedoch decken hier gerade einmal 50 bis höchstens 60 Prozent ab. Dagegen werden US-Sites zu mehr als 80 Prozent indiziert bei einer Tiefe bis zu 90 Prozent. Außerhalb Amerikas werden zum Teil nicht einmal 50 Prozent der tiefer liegenden Seiten erwischt.

Auch die Aktualität lässt stark zu wünschen über. Obwohl die Suchmaschinenbetreiber angeben, es finde alle 30 Tage eine komplette neue Indexierung statt, sind die Einträge vielfach älter: “Oft sind keine klaren Intervalle erkennbar”, so Lewandowski. Den aktuellsten Index weise noch Google auf, dann MSN Search und Yahoo. Umso wichtiger erscheint eine Einschränkung der Abfrage nach Datum. Doch auch da versagen die Suchmaschinen. Nur vier bis sechs Dokumente werden richtig zugeordnet.

Angesichts der boomenden Industrie rund um die Suchmaschinenoptimierung stellt sich die Frage, ob die Bemühungen überhaupt Erfolg garantieren können. Die Antwort des Wissenschaftlers ist knapp: “Hier wird viel Geld verbrannt.”

Page: 1 2

Silicon-Redaktion

Recent Posts

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

5 Tagen ago

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

1 Woche ago

Siemens automatisiert Analyse von OT-Schwachstellen

Bedienpersonal von Fertigungsanalagen soll mögliche Risiken auch ohne Cybersecurity-Fachwissen erkennen und minimieren können.

1 Woche ago

Cyberabwehr mit KI und passivem Netzwerk-Monitoring

Schiffl IT: Anomalien im Netzwerkverkehr und in den Systemen in Echtzeit identifizieren.

1 Woche ago

Zero Trust bei Kranich Solar

Absicherung der IT-Infrastruktur erfolgt über die Zero Trust Exchange-Plattform von Zscaler.

1 Woche ago

KI in der Medizin: Mit Ursache und Wirkung rechnen

Maschinen können mit neuen Verfahren lernen, nicht nur Vorhersagen zu treffen, sondern auch mit kausalen…

2 Wochen ago