Zum fairen Gestalten fairer Algorithmen Stakeholder-Verfahren und die Korrektur des machine bias Einleitung Algorithmen wird sowohl als Lösung wie auch als Problem sehr viel zugetraut. Manche sind sogar bereit, von einer Algokratie zu sprechen, von einer Herrschaft der Algorithmen (vgl. Aneesh 2009). Doch Algorithmen wird nicht nur Einflusspotential zugeschrieben, dieses sei auch noch in bestimmter Weise voreingenommen. Zu dieser Debatte hat die Machine Bias-Studie von ProPublica viel beigetragen. Mit ihr wurde es möglich, algorithmischer Entscheidungsassistenz, bezogen auf strafrechtliche Urteile, diskriminierende Voreingenommenheit öffentlich zu attestieren. Erst als mit dem gleichen Datensatz andere Resultate -insbesondere Diskriminierung betreffendbelegbar wurden, ließ sich mathematisch zeigen, dass es unterschiedliche und obendrein miteinander inkompatible Verständnisse algorithmischer Fairness gibt (Kapitel 2). Aus unterschiedlichen Richtungen sind seither Forderungen zu vernehmen, Fragen der Fairness nicht der Informatik oder der Technikentwicklung zu überlassen. Teile der Informatik könnten dem kaum deutlicher zustimmen. Sie erklären Fairness zu einer wissenschaftlich oder mathematisch nicht entscheidbaren Frage (vgl. Berk et al. 2018). Über Fairness solle stattdessen im Sinne einer Wertfrage im Recht bzw. im politischen Prozess befunden werden. Damit ist eine Verfahrensfrage aufgeworfen. Womöglich auch weil in Politik und Recht bisher kaum Ansätze erkennbar geworden sind, auf welchem Wege zu Wertentscheidungen zu kommen wäre, liegen inzwischen durchaus diskussionswürdige Verfahrensvorschläge aus der Informatik vor (Kapitel 3). Die Suche nach fairen Verfahren zur Gestaltung fairer Algorithmen hat vielleicht die empirisch vorfindliche Kontrollarchitektur aus dem Blick geraten lassen. Es existiert eine ganze Reihe an (zivilgesellschaftlichen) Initiativen, die die Entwicklung von gesellschaftlich relevanten Algorithmen akribisch verfolgen. Gut möglich also, dass Algorithmen unter intensiverer Kontrolle und Beobachtung stehen als viele andere Regulierungsgegenstände. Kapitel 4 zielt dennoch darauf ab, die Community der Technikfolgenab-1.