Anzeige

Autorin Yvonne Hofstetter "Algorithmen schaffen ein neues Recht"

Die Initiative Algorithmwatch nimmt Facebook, Google und die Schufa ins Visier. Vor der zunehmenden Macht geheimer Software warnt die Autorin und Unternehmerin Yvonne Hofstetter schon lange.

Die neue Iniatiative AlgorithmWatch fordert keine Offenlegung von Algorithmen. Gehen Sie da mit?

Im Prinzip ja, Algorithmen müssen nicht offengelegt, ihre Geschäftsgeheimnisse nicht preisgegeben werden. Denn Wissenschaftler können Algorithmen auch testen und ihre Funktionsweise verstehen, ohne dass sie den Programmcode kennen. »Black Box Testing« nennt sich das. Die Hersteller von Algorithmen müssen einen Testdatensatz liefern und beschreiben, wie sich ihr Algorithmus statistisch verhält. Danach können Wissenschaftler den Datensatz austauschen und nachprüfen, ob der Algorithmus auch mit anderen Daten denselben "statistischen Fußabdruck" aufweist.

Eine völlige Transparenz wird also es nicht geben?

Wenn es sich bei einem Algorithmus um Künstliche Intelligenz handelt, die selbstständig Programme in Echtzeit erzeugt und ausführt, ist der vom Menschen gar nicht mehr lesbar.

Yvonne Hofstetter

Yvonne Hofstetter ist Autorin von "Sie wissen alles – Wie Big Data in unser Leben eindringt und warum wir um unsere Freiheit kämpfen müssen"

Ihr neues Buch "Das Ende der Demokratie - Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt“ erscheint Ende September. Sie ist Geschäftsführerin der Teramark Technologies GmbH, eines Unternehmens, das auf die intelligente Auswertung großer Datenmengen für staatliche Kunden und aus der Industrie spezialisiert ist.

Das müssen Sie erklären...

Moderne Algorithmen, von Künstlicher Intelligenz erzeugt und ausgeführt, sehen visualisiert aus wie eingefärbte Gehirnscans eines MRT, die sich noch dazu in Echtzeit verändern – ganz wie das menschliche Gehirn. Der "Trick" ist das richtige statistische Testen solch moderner Algorithmen.

Wer hat denn den Hut auf, wenn Maschinen selbst Algorithmen schreiben?

In Bezug auf die Forderung von Verantwortung bei der Erzeugung von Algorithmen würde ich weitergehen als AlgorithmWatch, die Programmierer nicht haftbar machen will. Ich würde zuerst definieren, wer an der Erzeugung und am Einsatz moderner Algorithmen beteiligt ist. Je mehr der Akteur vom operativen Einsatz eines Algorithmus versteht, desto größer wird seine Verantwortung, desto eher haftet er.

Können Sie das an einem Beispiel erläutern?

Nehmen Sie das autonome Auto: Haftet der Autokäufer oder der Hersteller? Der Verbraucher ist nicht in der Lage zu verstehen, warum ein Roboterauto diese oder jene Entscheidung im Straßenverkehr trifft. Aber der Hersteller kann das. Deshalb wäre die Haftung des Herstellers zu erwägen. Und vielleicht sogar des Subunternehmers, dem "Algorithmen-Zulieferer" eines Roboterautos.

Wie kann man Werte in Algorithmen einbauen?

Theoretisch könnte man versuchen, Werte in Software hinein zu programmieren. Dazu müsste man sie aber in mathematische Formeln verwandeln. Aber, Dämonie der Zahl: Kann ich wirklich "weiche" Werte wie Empathie, Toleranz, Freundschaft usw. als mathematische Formel ausdrücken? Nein.

...und wie verhält es sich mit dem Übersetzen von Vorschriften in Software?

Selbst wenn man einen Juristen neben einen Mathematiker setzen würde, der Mathematiker würde nie genau dasselbe als "Recht" formulieren, was der Jurist in Worten ausdrückt. Im algorithmischen Weltmodell geht immer etwas verloren oder wird vom ursprünglichen Sinn abweichen. Denn ein klassisch programmierter Algorithmus ist viel strikter als das geschriebene Gesetz. Das ist auslegungsfähig, dehnbar. Algorithmen schaffen ein neues Recht, ein anderes Recht als das geschriebene und demokratisch verfasste Recht unserer Gesetzbücher.

Könnte denn eine künstliche Intelligenz Werte erlernen?

Das wäre schon eher denkbar, aber eine große mathematische Herausforderung. Denken Sie darüber nach, wie wir Menschen Werte erlernen. Unser soziales Umfeld und die Interaktion mit anderen Menschen formt unser Verhalten. Eine Künstliche Intelligenz könnte unsere Gesellschaft beobachten – "überwachen" –, um zu lernen, welche Ziele wir verfolgen, welchen Nutzen wir für uns selbst maximieren. Die Technologien dazu haben wir heute schon.

Wann kann es also damit losgehen?

Für Nick Bostrom, Physiker, Philosoph und Kenner der Künstlichen Intelligenz ist das "eine würdige Herausforderung für die besten Mathematiker der nächsten Generation".

Was muss sich in der Ausbildung von Informatikern ändern?

Programmierer müssen darauf geschult werden, dass ihre Algorithmen unmittelbar handlungsleitend wirken und so gestaltend in die Gesellschaft eingreifen. Programmierern muss hingegen klar sein, dass ihre Algorithmen die Gesellschaft unmittelbar verändern – ohne dass demokratisch abgestimmt worden wäre, ob die Gesellschaft die digitalen Eingriffe in die Rechte der Menschen auch mitträgt.

...und was muss sich bei Juristen ändern?

Die müssen lernen, dass das geschriebene Recht alleine nicht mehr ausreicht, die Gesellschaft zu regulieren – denn das tun auch Algorithmen, etwa bereits dann, wenn sie die Kreditwürdigkeit einer Person beurteilen und so unmittelbar in die finanzielle Souveränität eines Menschen eingreifen. In den letzten Jahren gab es zwei höchstrichterliche – aus meiner Sicht – grandiose Fehlurteile zur Digitalisierung, weil Juristen noch nicht verstehen, warum wir alles digitalisieren und welche Folgen die Digitalisierung nach sich zieht.

Wie bewerten Sie das Positionspapier der Bundesregierung für die EU zu einem "digitalen Ordnungsrahmen"?

Information aus dem Internet hat die größte Breiten- und Suggestivwirkung aller Massenmedien überhaupt – wer Information, darunter News Feeds sozialer Netzwerke oder Suchergebnisse bereitstellt, hat enorme öffentliche Verantwortung, unterliegt aber keiner derartigen Regulierung. Von Selbstregulierung halte ich nichts. Sie drückt sich in schier endlosen Nutzungsbedingungen aus, formuliert von den amerikanischen Juristen aus dem Silicon Valley. Wer europäische Werte will, muss europäisch, nicht nur national regulieren.

...und was fehlt in den Vorschlägen?

Etwa das Internet der Dinge. Alles wird mit einer IP-Adresse versehen. Der ICE-Sitz, der Brandmelder in Ihrer Wohnung, Ihr Wecker, Ihre Kaffeemaschine, Ihr T-Shirt. Plötzlich spuckt alles Daten, was sich heute noch still verhält. Unsere zunehmend vernetzte Umgebung erstellt Verhaltensprofile von uns, ist uns immer einen Schritt voraus im Sinne der "globalen Konsumentensteuerung". Doch wer Konsumenten steuert, steuert gleichzeitig auch Bürger, die Rechte haben. Die Politik überlässt der Industrie, wie die vernetzten Dinge um uns herum Informationen über uns austauschen werden.

Wie ließe sich das besser regeln?

Tatsächlich ist bereits ein Krieg zwischen den Wirtschaftsakteuren um die Zukunft des Internets ausgebrochen. Mehrere Industrieverbände kämpfen um die Standardisierung des Internet der Dinge. Dabei sollten diese Standards demokratisch sein. Sonst liefern wir unsere Zukunft Internetkonzernen wie Google aus, die noch viel tiefer in das Leben der Menschen eindringen wollen.

Wie können sich Menschen im Alltag vor möglicherweise für sie nachteiligen Algorithmen schützen? 

Praktisch gar nicht mehr.

Das klingt hoffnungslos. Müssen wir uns kampflos ergeben?

Die Bürger müssen Forderungen stellen. Die Grundrechte müssten gegenüber den Technologiegiganten forciert werden. Wir Bürger müssen unsere Bequemlichkeit überwinden. Wir müssen uns politisieren und dürfen die Gestaltung der Digitalisierung nicht nur an die Gewählten delegieren. Die Demokratie muss für die digitale Ära ganz neu errungen werden, sonst steht sie ernstlich auf dem Spiel.

 

Mehr zum Thema im stern Nr. 25/2016:

Interview: Dirk Liedtke

Mehr zum Thema

Newsticker

VG-Wort Pixel