Der Mythos des unverwundbaren Apple-Betriebssystems ‘OS X’ ist schon länger überholt, doch die Gefahr, dass sich Hacker ihren Weg durch die Systeme bahnen, könnte mit dem Support für die x86-Prozessoren von Intel weiter steigen.
“Ich glauben, dass die Mehrzahl der Hacker einfach besser an die Intel-Prozessoren gewöhnt ist als an den PowerPC”, erklärte Kevin Finisterre, ein Sicherheits-Experte, der zum Beispiel einen Proof-of-Conzept geschrieben hat, der eine Schwachstelle in der Unterstützung für Bluetooth im OS X ausnützt.
Alleine die Tatsache, dass die Instruktionen nicht mehr in 4-Byte, sondern mit 1-Byte codiert sind würde die Hürde für Exploits herabsetzen, glaubt Finisterre. Denn die so genannten Buffer-Overflows, über die Intel-Rechner oft angegriffen werden, basieren auf Unicode. Diese Gefahr könnte die Intel-Technologie ‘XD’ (Execute Disable) jedoch einschränken. Dieses Feature verhindert die Ausführung bestimmter Code-Abschnitte und könnte damit manchen Virus deaktivieren.
Auch die Tatsache, dass Apple mit der Intel-CPU voraussichtlich mehr Rechner absetzen wird, könnte die Aufmerksamkeit von Hackern auf sich ziehen. Gefahren bergen auch Programme, die für Windows geschrieben wurden und über Emulationen auf OS X laufen. Wird die Windows-Anwendung, die über Virtual PC auf dem Mactel läuft, angegriffen, könnte der Hacker auch dem Mac-Rechner schaden.
Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.
Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…
Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…
Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…
Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…
Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.