- silicon.de - http://www.silicon.de -

Fake News, Profiling, autonome Maschinen: Ethik-Standards für IT kommen

Wer bekommt eigentlich das Patent, wenn gemeinsam mit Spezialisten aus vielen Bereichen ein neuronaler Algorithmus entwickelt wird, dessen Ergebnisse aber nur so intelligent sind wie der Daten-Input, der zu ihnen geführt hat? Wer hat den größten Anteil an einer neuen intelligenten Maschine, die patentiert werden soll? Der Maschinenbauer? Das Softwareentwicklungsteam? Oder gar der Algorithmus, der seinerseits den intelligenten Algorithmus der Maschine entwickelt hat?

Patente (Bild: Shutterstock/Olivier Le Moal) [1]

Ist das derzeitige Patentrecht, das die Zuschreibung des Patentschutzes nur für Personen, nicht aber Gruppen oder gar Maschinen respektive Algorithmen erlaubt, überhaupt noch zeitgemäß? Francesco Zaccà, Direktor ICT des europäischen Patentamtes, zeigte sich in seinem Referat davon überzeugt, man werde bald eine Mediations- und Schiedsstelle brauchen, um festzustellen, wer welchen Anteil an Erfindungen hatte. Dabei ist die Betrachtung von IT-Patenten nach ethischen Gesichtspunkten noch so neu, dass man zurzeit erst einmal beginnt, Standpunkte aller Betroffenen zu sammeln. Damit beschäftigt sich Prof. Dr. Knut Blind [2] von der TU Berlin, Fakultät für Ökonomie und Management.

Und die bevorstehenden Veränderungen im Patentwesen war nur eine der vielen Fragen, die vergangene Woche auf dem Kongress “Innovation 4.0: Gestaltung einer menschlichen vierten industriellen Revolution” im Deutschen Patent- und Markenamt in München von einem internationalen, hochkarätigen Publikum diskutiert wurden.

Weiter ging es auf der Münchner Veranstaltung um den Umgang mit Fake News [3], mit Profiling, mit autonomen Maschinen und Maschinennetzen. Kurz, um alle Diskussionen hinsichtlich der ethischen Fragen, die die forcierte Verzahnung von IT und menschlicher Lebenswelt mit sich bringt.

Bezüglich des Gesetzentwurfes von Innenminister Heiko Maas (“Netzwerkdurchsetzungsgesetz [4]“), der soziale Plattformen mit hohen Strafen bedroht, sofern sie entsprechende Inhalte nicht umgehend löschen, monierte Prof. Dr. Josef Drexl [5], Direktor des Max Planck Instituts für Innovation und Wettbewerb, dass der Rechtsstaat die Aufgabe, zu entscheiden, was gelöscht werden müsse, an die Plattformen delegiere [6]. So erweitere er erstens deren Kompetenz auf originäre Aufgaben der staatlichen Organe und verursache andererseits dadurch möglicherweise unerwünschte Einschränkungen der Meinungsfreiheit aus vorauseilendem Gehorsam seitens der Plattformen.

Alte Verbindungen werden durchtrennt

Dass die Regulierung einer durchdigitalisierten Welt schwierig ist, wundert nicht. Laut Prof. Luciano Fioridi, unter anderem Direktor des Digital Ethics Lab [7] am Oxford Internet Institute der Universität Oxford, durchschneidet die IT bisher übliche Verbindungen, beispielsweise die zwischen Anwesenheit und Aufenthaltsort, zwischen Aufenthaltsort und Rechtsordnung, zwischen Nutzung und Eigentum und so weiter. Das müsse sich in veränderten Regeln niederschlagen. Das bisherige Recht und bisherige Regulierungen bildeten nur die bisherigen, nicht mehr validen Bezüge ab.

Mehr zum Thema

IoT: Eine neue Standard-Welt entsteht

Im Bereich IoT gibt es zahlreiche Initiativen und Konsortien, bislang laufen diese Bestrebungen jedoch überwiegend parallel nebeneinander her. Doch damit dies alles überhaupt funktionieren kann, braucht man neben neuen Produkten auch neue Standards – insbesondere für die Kommunikation der Geräte untereinander und für die Sicherheit. silicon.de gibt einen Überblick.

Unternehmen hingen, so Fioridi, weichen immer stärker von sogenannten Werten ab. Im Jahr 2015 habe bei den Fortune-500-Unternehmen, den größten der Welt, 84 Prozent der Bewertung auf immateriellen Vermögensgegenständen basiert – 1978 seien es erst 17 Prozent gewesen. Dies zeige, wie wichtig Ethik und geistige Eigentumsrechte in Zukunft würden. Niemand könne sie ignorieren – auch Google nicht. Gegen das Unternehmen war gerade von der EU-Wettbewerbskommission eine Strafe von 2,4 Milliarden Euro wegen Wettbewerbsverzerrung [8] durch Bevorzugung der eigenen Preisvergleichsmechanismen vor anderen in der Suchmaschine verhängt worden.

Am interessantesten für technologische Praktiker waren sicher die Themen, in denen es um die Regulierung und Standardisierung rund um ethische Fragen ging. Dass diese notwendig ist, darüber waren sich zumindest die Referenten einig. Inzwischen gibt es erste Ansätze, die Aufgabe praktisch anzugehen. So hat die weltweite Standardisierungsorganisation IEEE inzwischen mit IEEE P7000 eine neue Gruppe von Standards begründet, die sich mit diversen ethischen Fragen rund um die Informationstechnik beschäftigen.

Am weitesten ist bereits die Arbeit am Standard P7001 - Transparenz autonomer Systeme - , gediehen. Er soll sicherstellen, dass Anwender verstehen können, was autonome Systeme tun und warum sie es tun - etwa in autonomen Fahrzeugen (Bild: Shutterstock/Andrey VP) [9]
Am weitesten ist bereits die Arbeit am Standard P7001 gediehen. Er soll sicherstellen, dass Anwender verstehen können, was autonome Systeme tun und warum sie es tun – etwa in autonomen Fahrzeugen (Bild: Shutterstock/Andrey VP)

Wie Kay-Firth Butterfield, stellvertretende Vorsitzende der IEEE-Initiative “Global Initiative for Ethical Considerations in the Design of Autonomous Systems” berichtete, steigt das Interesse seit Aufnahme der Arbeit 2015/16 kontinuierlich. “Zuerst waren wir nur 12, inzwischen über 200“, sagte sie. Nachdrücklich forderte sie alle Experten in Bereichen mit IT- und Ethik-Bezug zur Teilnahme an der Standardisierung auf, insbesondere jüngere Spezialisten – hier werde schließlich deren Zukunft entworfen. Butterfield: “Jeder Technologe ist ausgebildet, trainiert und ermächtigt, ethische Erwägungen ins Design einzubeziehen.”

Zehn Standardisierungsgruppen

Bisher sind zehn Gruppen gegründet worden, von denen man bereits über sechs Informationen im Internet findet (siehe Bild) – von IEEE P7000, der eine Methode beschreibt, wie ethische Werte beim Designprozess berücksichtigt werden können, bis hin zu IEEE P7010, wo es um die Schaffung von “Tokku”-Gebieten geht. Das sind abgegrenzte Regionen, wo neuartige Roboter im “echten Leben” eingesetzt werden dürfen, um sie zu testen.

Eine weitere in Arbeit befindliche Norm aus der Serie, die sich mit Datenschutz von Mitarbeiterdaten beschäftigt (P7005), wird sich die im Mai 2018 in Kraft tretende Europäische Datenschutzverordnung zum Vorbild küren – ein Beweis dafür, dass sich das Beharren auf hohen Standards in diesem Bereich langsam global als Vorbild erweist.

Die Liste der Standards, an denen die IEEE-Gruppe P7000 derzeit arbeitet (Bild: Rüdiger) [10]
Die Liste der Standards, an denen die IEEE-Gruppe P7000 derzeit arbeitet (Bild: Rüdiger)

Am weitesten ist derzeit die Arbeit am Standard P7001 – Transparenz autonomer Systeme – , gediehen. Die Relevanz dieses Themas liegt angesichts der Perspektive autonomer maschineller Fortbewegung nicht nur in Lagerhallen, sondern auch auf öffentlichen Straßen, Schienen oder im Luftverkehr auf der Hand. “Anwender sollen auf jeden Fall verstehen, was Systeme tun und warum”, betont Butterfield.

Vorschläge, eine weitere autonome Intelligenz für die softwaregestützte Überwachung der autonomen Fahrmechanismen in Autos zu nutzen, gingen in die Irre. Vielmehr müsse die Leistung und das Verhalten autonomer Systeme für Menschen mess- und testbar sein, so dass man sie objektiv bewerten könne. “Wir denken an die Festlegung unterschiedlicher Tranzparenzlevel, so dass Designer und auch Nutzer das Transparenzniveau solcher Geräte selbst einschätzen und gestalten könnten”, erklärte Butterfield.

Tipp der Redaktion

EU-Datenschutzgrundverordnung (DSGVO)

Im Mai 2018 endet die Übergangsfrist für die neue EU-Datenschutzverordnung. Welche Neuerungen sie bringt, was passiert, wenn sich Firmen nicht daran halten und wie sich Unternehmen vorbereiten können, erfahren Sie im Special auf silicon.de.

Unterschiedliche Eingriffstiefen erfordern allerdings ein unterschiedliches Regulierungsniveau, ist Dr. Alex Walz, Senior Research Fellow am Max-Planck-Institut für Innovation und Wettbewerb, sicher. Der Wissenschaftler hat ein mehrstufiges Modell entwickelt, bei dem die Regulierungsform ansteigt, je mehr Menschen und je intensiver Menschen von einem Eingriff durch intelligente Algorithmen oder autonome Gerätschaften betroffen sind. Geht es um individuelle Werte und persönliche Überzeugungen, reichten, so Walz, Verträge und Zertifizierungen. Seien aber Kernwerte wie die Menschenwürde oder das Leben betroffen, müssten Gesetze oder gar internationale Vereinbarungen getroffen werden, denen ein demokratischer Konsensfindungsprozess voranzugehen habe.