Wie viel Vertrauen verdient Künstliche Intelligenz? Neue Studie liefert Antworten

Wie lässt sich erkennen, ob man einer Künstlichen Intelligenz vertrauen kann? Diese Frage haben Wissenschaftlerinnen und Wissenschaftler der TU Dortmund und der Ruhr-Universität Bochum gemeinsam untersucht – und einen Kriterienkatalog entwickelt, mit dem sich die Vertrauenswürdigkeit von KI-Systemen systematisch beschreiben lässt. Das Konzept wurde im internationalen Fachjournal Topoi veröffentlicht.
Das interdisziplinäre Team um Prof. Dr. Emmanuel Müller (TU Dortmund), Dr. Carina Newen (TU Dortmund) und Prof. Dr. Albert Newen (Ruhr-Universität Bochum) schlägt sechs Dimensionen vor, anhand derer Vertrauen bewertet werden kann: objektive Funktionalität, Transparenz, Unsicherheit zugrunde liegender Daten und Modelle, Verkörperung, Unmittelbarkeit sowie Verpflichtung gegenüber dem Vertrauenden.
„Unsere Kriterien machen sichtbar, wo aktuelle KI-Systeme wie ChatGPT oder autonome Fahrzeuge noch Nachholbedarf haben“, erklärt das Forschungsteam. Besonders bei Transparenz und Datensicherheit bestehen große Herausforderungen: Deep-Learning-Verfahren liefern beeindruckende Ergebnisse – bleiben aber oft schwer nachvollziehbar. Gleichzeitig können Vorurteile in Trainingsdaten Entscheidungen verzerren.
Aus philosophischer Sicht betonen die Forschenden zudem die Notwendigkeit eines kritischen Umgangs mit KI-Systemen: Sie können wertvolle Informationswerkzeuge sein – doch Vertrauen sollte stets reflektiert bleiben.
Die Studie entstand im Rahmen des Ruhr Innovation Lab, der Kooperation von Ruhr-Universität Bochum und TU Dortmund, mit der sich die beiden Hochschulen um eine Förderung innerhalb der Exzellenzstrategie die Bundes bewerben. Ziel ist es, Grundlagen für eine zukunftsfähige digitale Gesellschaft zu schaffen – in der technische Leistungsfähigkeit ebenso zählt wie ethische Verantwortung.




