Wiesbaden (epd). Künstliche Intelligenz schafft nach den Worten des Osnabrücker Philosophen und Mathematikers Rainer Mühlhoff neue Gefahren für den Datenschutz. „Die Privatheit einer Person wird verletzt, wenn sensible Informationen ohne ihr Wissen und gegen ihren Willen über sie vorhergesagt werden“, betonte der Leiter des Forschungsbereichs Ethik der Künstlichen Intelligenz an der Universität Osnabrück am Donnerstag in Wiesbaden. Vorhersagen mittels Künstlicher Intelligenz führten dazu, dass das überkommene Konzept von Datenschutz den Einzelnen nicht mehr hinreichend schütze, sagte er auf der Jahreskonferenz des „Forums Privatheit“ von Datenschützern und Wissenschaftlern.
„Es sollte verboten werden, Informationen über Menschen abzuschätzen“, forderte Mühlhoff. Zumindest sollte zuerst die Erlaubnis eingeholt werden müssen. Für die Daten, die sich schon in den Händen von Unternehmen befinden, sollte eine Regulierung bei der Verwendung ansetzen: „Man muss nicht nur den Input, man muss auch den Output regulieren“, sagte der Wissenschaftler.
Bisher regele der Datenschutz den Umgang mit personenbezogenen Daten von Einzelpersonen. Eine der größten Anwendungen der Künstlichen Intelligenz derzeit sei aber die „prädikative Analytik“, also das Verfahren, Eigenschaften von Personen abzuschätzen durch den Vergleich mit großen Datensätzen. Wenn etwa nur fünf Prozent der Facebook-Nutzer in ihrem Profil Angaben zu Einkommen, Krankheiten, sexueller Identität oder politischen Ansichten machten, könne Künstliche Intelligenz diese Informationen bei den anderen 95 Prozent der Nutzern (2,8 Milliarden Menschen) abschätzen. Banken oder Versicherungen könnten durch derart gewonnene Informationen Anträge auf Kredite oder Versicherungen ablehnen, ohne vorher die Antragsteller persönlich befragt zu haben.
Der Schutz der Privatsphäre könne deshalb im Zeitalter der Künstlichen Intelligenz nicht mehr als individuelles Anliegen jedes Einzelnen aufgefasst werden. „Datenschutz ist keine private Entscheidung“, betonte der Wissenschaftler. Er schlug vor, Informationen der Vorhersage rechtlich personenbezogenen Daten gleichzustellen: Grundsätzlich solle ein Verarbeitungsverbot gelten.
Die Künstliche Intelligenz werde sonst Diskriminierungen in der Gesellschaft verstärken, warnte Mühlhoff. Wenn technische Systeme Menschen in Prognosegruppen etwa für Einkommen oder Gesundheit einteilten, könne es etwa geschehen, dass jemandem beim Onlinekauf bestimmte Bezahlmöglichkeiten verweigert werden, weil er in einem armen Stadtteil wohnt. „Durch die Künstliche Intelligenz kann eine gesellschaftliche Spaltung katalysiert werden.“