Nicht nur hier haben in der Vergangenheit Content-Management-Systeme (CMS) die Optimierer vor Probleme gestellt. Inzwischen jedoch arbeiten die gängigen Systeme suchmaschinenfreundlich. Lediglich bei wenig verbreiteten CMS oder Eigenentwicklungen können Probleme auftreten. Zusatzmodule zum Beispiel für das URL-Rewriting helfen bei der Optimierung zusätzlich.
Größter Trumpf ist und bleibt guter Content. Die Suchdienste arbeiten nach wie vor hauptsächlich textbasiert und lesen den Quelltext von Seiten aus. Wenn dort nur Links zu Flashobjekten, Bildern und anderen Multmedia-Objekten zu finden sind, ist eine erfolgreiche Optimierung aussichtslos. Im Text sollten die Keywords möglichst weit vorne stehen. Die Keywords dürfen aber auch nicht zu häufig genannt werden, sonst werten Google und Co. das als Spamming.
Nach dem Relaunch sollten die Webmaster die Site wachsam, aber ruhig im Auge behalten: “Wir beobachten immer wieder das Phänomen, dass Seiten nach einem Relaunch in den Ergebnislisten sehr schnell nach oben kommen, aber nach einer gewissen Zeit wieder abfallen”, so Mauer. Tatsache ist, dass vor allem Google neue Seiten kurzzeitig anders bewertet. Ein Fazit, ob die Optimierung erfolgreich ist, kann frühestens nach drei bis sechs Monaten erfolgen.
Page: 1 2
Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…
Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.
Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.
Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.
Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.
DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…