Wie Matt Cutts, Chef des Web-Spam-Teams bei Google vergangene Woche in einem Blog erklärte, arbeitet Google daran, Spam einzudämmen. Bei den Spam-Maßnahmen, scheint es aber auch einen kleinen Nebeneffekt zu geben.
Seit vergangener Woche, so Cutts in einem neuen Beitrag, arbeitet ein neuer Algorithmus für die Google-Suche und der unterscheidet offenbar besser zwischen Seiten, die Texte liefern und denen, die sie einfach kopieren.
“Das war ein ziemlich begrenztes Update: Knapp über 2 Prozent aller Suchen ändern sich dadurch, aber nur ein halbes Prozent der Nutzer wird überhaupt einen Unterschied bemerken”, so Cutts in seinem Beitrag. “Der Endeffekt ist der, dass Suchende eher auf die Seiten stoßen, die den Original-Content eingestellt haben als diejenigen, die diese Texte geklaut oder kopiert haben.”
Der Prozentsatz mag gering erscheinen, jedoch greifen Millionen Menschen auf Google zu. Die Änderungen dürften also dennoch zahlreiche Personen betreffen.
Zudem lässt Cutts Eintrag zahlreiche Fragen offen. Was passiert mit all den Blogs, die eine Textvorlage auf ihre Seite stellen und diese kommentieren. Was ist mit Seiten, die völlig legal einen Text mehrfach verwerten? Zudem hält Google den Algorithmus geheim. Für die Betreiber von Seiten ist es also kaum nachvollziehbar, wie Google die Unterscheidungen trifft.
Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.
Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…
Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…
Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…
Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…
Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.