Algorithmen beeinflussen längst weite Teile des Alltags: Welche Inhalte wir in den sozialen Medien sehen, mit wem wir online in Kontakt kommen und mit welchen Meinungen wir konfrontiert werden – oder eben nicht. Für die Ausgestaltung unserer Demokratie im Digitalen liegt darin ein großes Risiko, denn durch Algorithmen können sich Vorurteile verstärken, Hassrede und Desinformation verbreiten und die gesellschaftliche Polarisierung voranschreiten. Die fehlende Transparenz über ihre Funktionsweise, insbesondere in den sozialen Medien, macht Algorithmen zu einer Black Box, die sich bislang externer Prüfung und demokratischer Kontrolle weitestgehend entzogen hat. Die wenigen vorhandenen Richtlinien sind bisher unverbindlich und meist nicht weitreichend umgesetzt. Der Digital Services Act der EU erlaubt der Wissenschaft und Zivilgesellschaft seit 2022 das sogenannte „Algorithmen Auditing“, wobei der direkte Zugriff auf KI-Systeme durch Dritte erstmals ermöglicht wird.
Hier setzt das Projekt von AlgorithmWatch an: Durch sogenannte Audits sollen Machine-Learning-Modelle analysiert und systemische Risiken erkannt werden. Im Laufe des Projekts sollen auf Basis erster Erkenntnisse Methoden und Governance-Vorschläge abgeleitet werden, die das „Algorithmen Auditing“ großflächiger ermöglichen können. Ziel ist es, daraus ein effektives Tool zu machen, das die Transparenz und die Rechenschaftspflicht der Plattformen erhöht. Das Projekt ist damit ein wichtiger Baustein, um Plattformen zur Verantwortung zu ziehen und die Demokratie zu schützen.