Halle (epd). Die Nationale Akademie der Wissenschaften Leopoldina sieht in der Weiterentwicklung und Nutzung von Künstlicher Intelligenz (KI) große gesellschaftliche Risiken. Jede generative KI wie ChatGPT oder Dall-E sei ein Abbild der ihr zugrunde liegenden Trainingsdaten und der vorher festgelegten Ziele ihrer Entwicklung, heißt es in einem am Donnerstag in Halle veröffentlichten Leopoldina-Diskussionspapier zur verantwortungsvollen Entwicklung und Nutzung generativer KI. Beides entziehe sich derzeit der Kontrolle durch Institutionen und Normen, warnt die Akademie.
Für Nutzerinnen und Nutzer sei oft nicht nachvollziehbar, wie generative KI arbeite. Ohne aktives Gegensteuern spiegelten KI-Systeme die jeweiligen gesellschaftlichen und kulturellen Verhältnisse ihrer Datenbasis und die darin enthaltenen Wertvorstellungen und Ungleichheiten wider. Deshalb sollte generative KI dort, wo Transparenz unverzichtbar sei, beispielsweise im juristischen Kontext, nur mit „äußerster Vorsicht“ eingesetzt und entwickelt werden.
Inzwischen gebe es zwar erste Ansätze, der Intransparenz oder der Nichtobjektivität, der sogenannten Bias, generativer KI entgegenzuwirken. Allerdings warnen die Autorinnen vor überzogenen Erwartungen an diese Ansätze.
Ob und auf welche Weise der Intransparenz oder der Nichtobjektivität in der Programmierung aktiv entgegengewirkt werden soll, sei keine triviale Entscheidung, heißt es. Sie sollte deshalb nicht allein den Entwicklerinnen und Entwicklern überlassen werden, sondern erfordere auch politisch-ethische Expertise.