Die meisten deutschsprachigen Webseiten kümmern sich nicht um die Standards des World Wide Web Consortium ‘W3C’. Das hat eine umfangreiche technische Studie des Webseiten-Validators Validome ergeben. Demnach entsprechen nur 3,9 Prozent diesen Standards.
Sie sollen browser- und herstellerübergreifend Inhalte im World Wide Web sicherstellen und so einerseits die Entwicklung der Seiten, andererseits auch deren Nutzen – vor allem für sehbehinderte Personen – optimieren. Obwohl diese Standards bei Entwicklern nicht umstritten sind, scheinen sie in der Realität kaum zum Einsatz zu kommen.
Insgesamt wurden über 300.000 Webpräsenzen untersucht, die aus dem freien Webverzeichnis ‘Open Directory Project’ entnommen wurden. Dabei wurden auch einige andere Daten erhoben. Auf der Technologieseite zeigte sich beispielsweise, dass der freie Webserver Apache bei den deutschsprachigen Websites mit über 80 Prozent Marktanteil unangefochten führt. Microsofts Internet Information Server kommt auf knapp über 10 Prozent Marktanteil.
Des weiteren berichtet Validome, dass die durchschnittliche Größe eines Dokuments im deutschsprachigen Web 11,4 KB beträgt. Der größte Ausreißer nach oben war eine Seite für Online-Predigten mit der beachtlichen Größe von 16,6 MB reinem Text.
Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…
Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.
Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.
Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.
Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.
DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…