Berlin (epd). Die Antidiskriminierungsbeauftragte des Bundes, Ferda Ataman, fordert gesetzliche Regelungen zum Schutz vor Diskriminierung durch digitalisierte Verfahren. „Digitalisierung, künstliche Intelligenz und Algorithmen machen vieles leichter - leider auch Diskriminierung“, erklärte Ataman am Mittwoch in Berlin. Die Bundesregierung müsse die geplante Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) nutzen, um Menschen vor den Gefahren digitaler Diskriminierung zu schützen, forderte die Beauftragte.
Künftig würden automatisierte Systeme oder Künstliche Intelligenz immer häufiger Entscheidungen treffen, die für Menschen im Alltag wichtig seien. Als Beispiele nannte Ataman Bewerbungen, Kredite, Versicherungen oder staatliche Leistungen. Was auf den ersten Blick objektiv wirke, könne tatsächlich aber Vorurteile und Stereotype verfestigen, warnte sie und stellte ein Rechtsgutachten vor, das in der Fehleranfälligkeit automatisierter Entscheidungen ein großes Problem sieht und vor „Diskriminierung durch Statistik“ warnt.
Der Studie zufolge hängt die Qualität automatisierter Entscheidungen von den Daten ab, die in ein System eingespeist werden. Ob diese fehlerfrei oder überhaupt geeignet sind, können die Menschen, über deren Anträge entschieden wird, nicht nachvollziehen - und die Anwender der Programme in der Regel auch nicht. Menschen müssten aber darauf vertrauen können, dass sie durch Künstliche Intelligenz (KI) nicht benachteiligt werden, forderte Ataman, „und sich wehren können, wenn es doch passiert.“
Beispiel aus anderen Ländern zeigten, was passieren könne. In den Niederlanden wurden Ataman zufolge 20.000 Eltern zu Unrecht und unter Strafandrohungen aufgefordert, Kindergeld zurückzuzahlen. Mitverantwortlich war ein diskriminierender Algorithmus in der Software: Betroffen waren vor allem Eltern mit Migrationshintergrund. Sie wurden als Betrüger dargestellt und sollten teils Zehntausende von Euro zurückzahlen.
Ataman forderte, das „Handeln durch automatisierte Entscheidungssysteme“ als Benachteiligung in das Antidiskriminierungsgesetz aufzunehmen. Betreiber von KI-Systemen müssten verpflichtet werden, Auskunft über die genutzten Daten und die Funktionsweise ihrer Systeme zu geben und im Zweifelsfall vor Gericht beweisen, dass dies nicht zu Benachteiligungen führe. Heute ist es so, dass Betroffene, die vor Gericht ziehen, die Diskriminierung ihrerseits nachweisen müssen.