Cookies

Wir setzen auf unserer Website Cookies ein. Einige von ihnen sind für den Betrieb der Seite technisch oder rechtlich notwendig. Andere helfen uns, unser Onlineangebot stetig für Sie zu verbessern oder den Seitenbesuch für Sie komfortabler zu gestalten, indem Ihre Einstellungen gespeichert werden. Sie können Ihre Auswahl der akzeptierten Cookies individuell treffen und die Einstellungen jederzeit ändern. Weitere Informationen erhalten Sie unter Details.

Diese Cookies sind für den Betrieb der Seite technisch oder rechtlich notwendig.
*Sie können daher nicht abgewählt werden.

Um unsere Webseite für Sie weiter zu verbessern, erfassen wir anonymisierte Daten für Statistiken und Analysen.

Diese Cookies sollen Ihnen die Bedienung der Seite erleichtern. So können Sie beispielsweise Ihre Einstellungen 30 Tage lang speichern lassen.

Metzler meets Fraunhofer - Interview - 25.9.2025

Alles fake? Verifikation von Daten und Informationen im KI-Zeitalter

Jens Strüker, Fraunhofer-Institut für Angewandte Informationstechnik (FIT) und Pascal Spano, Metzler Capital Markets

Bislang wurden Daten vor allem innerbetrieblich oder bilateral zwischen Unternehmen geteilt. Unternehmen im KI-Zeitalter stehen nun vor der Frage, ob Verifikation von Daten und Datensouveränität zu den betriebswirtschaftlichen Notwendigkeiten zählen, oder lediglich ein moralischer Anspruch sind.  Wie sich Daten validieren und verifizieren lassen, um so das Vertrauen in diese zu schaffen, das unerlässlich für die Wirtschaft und deren Geschäftsmodelle ist, darüber sprach Pascal Spano, Leiter Research von Metzler Capital Markets, mit Professor Jens Strüker vom Fraunhofer-Institut für Angewandte Informationstechnik (FIT).

 

Pascal Spano: Digitalisierung und KI – die benötigten und gesammelten Datenmengen wachsen nahezu exponentiell. Wie lässt sich Transparenz bei der Datenherkunft und -nutzung gewährleisten, um Vertrauen in digitale Informationen zu schaffen? 

Jens Strüker: Die Verifizierbarkeit von Daten ist ein Weg, um die Vertrauenslücke bei Input-Daten von KI-Modellen zu schließen und das Risiko von KI-basierten Ergebnissen zu minimieren. Letztlich geht es bei Informationssystemen immer um die Schutzziele der Informationssicherheit: Vertraulichkeit, Integrität und Verfügbarkeit. Und das ist bei der Nutzung von Large Language Models, den sogenannten LLMs, nicht anders. 

Pascal Spano: Was bedeutet dies konkret?

Jens Strüker: Übertragen auf LLMs sehe ich eine Vertrauenslücke bei den Stamm- und Bewegungsdaten hinsichtlich Herkunft und Qualität. Ebenso intransparent sind die Modellgrundlagen bezüglich Trainings- und Testdaten und möglichen Verzerrungen. Damit bleibt aber die Risikoeinstufung des Outputs eher „nebulös“, sodass eine betriebswirtschaftlich zweckmäßige Steuerung für Unternehmen kaum möglich ist. Die digitale Verifikation von Daten verspricht hier Abhilfe zu schaffen.

Pascal Spano: Welchen Stellenwert räumen Sie der Validierung von Daten im Spannungsfeld zwischen KI-Systemen, Datenschutz und Informationssicherheit ein?

Jens Strüker: Im Zeitalter von LLMs, Agentic AI und bald vielleicht der General Artificial Intelligence – also eine KI, die lernt und denkt wie ein Mensch – rückt die digitale Verifikation von Daten und Informationen in den Mittelpunkt allen Internet-basierten Wirtschaftens und Handelns. Aktuell sind bedingt durch die marktbeherrschenden Internetplattformen wie Microsoft/OpenAI, Meta oder Google die Daten wertvoller als die KI-Modelle selbst. Aber die Geschäftsmodelle geraten im Internet unter Druck: Das zeigt sich an den dramatischen Einkommenseinbußen von Inhalteanbietern im Internet durch ein verändertes Suchverhalten der Nutzer. Es wird beispielsweise zunehmend über ChatGPT statt Google Search gesucht. Das erhöht den Anreiz, Instrumente zu nutzen, um die Hoheit über Daten nicht zu verlieren bzw. diese gezielt gegen Entgelt freizugeben. Beispiele hierfür sind die Sperrung von Webseiten für Webcrawler. Datensouveränität kann auf diese Weise insgesamt zur kontrollierten Bereitstellung von riesigen, neuen Datenmengen führen – und somit relativ betrachtet Modelle wertvoller als die Daten machen. Und dies ist sicherlich keine ausschließlich europäische Wunschvorstellung, sondern wird auch von vielen Start-ups in den USA angestrebt. Volkswirtschaftlich wäre dies sicherlich wünschenswert. 

Pascal Spano: Welche Technologien lassen sich einsetzen, um regulatorische Anforderungen an Sicherheit und Validierung von Daten umzusetzen? 

Jens Strüker: Technologische Lösungen wie selbstsouveräne Identitäten, Blockchains, Zero-Knowledge-Proofs und Datenräume versprechen die regulatorischen Anforderungen sicher und wirtschaftlich umzusetzen. Häufig werden diese und weitere dezentrale Technologien unter dem Sammelbegriff Web3-Technologien gefasst.

Pascal Spano: Wie kann der Gesetzgeber dazu beitragen, Standards für die Validierung von Daten im digitalen Zeitalter zu etablieren? 

Jens Strüker: Bestehende regulatorische Rahmenwerke stellen heute bereits Leitplanken für die Nutzung von sensiblen Daten zur Verfügung. So ist eIDAS 2.0 ein einzigartiger, europaweiter digitaler Vertrauensrahmen für Personen, Maschinen und Organisationen. Konkret können hiermit eindeutige, kryptografisch abgesicherte Identitäten erstellt werden, die Gültigkeit in ganz Europa besitzen. 

Pascal Spano: Wie könnte ein Anwendungsbeispiel für solche digitalen IDs aussehen? 

Jens Strüker: Die Identitätsprüfung bei einer Datenverknüpfung kann Ende-zu-Ende digital erfolgen: Das macht es dann möglich, dass ein Unternehmen mit Sitz in Dänemark wirtschaftlich in Österreich tätig werden kann, ohne dort ein Tochterunternehmen gründen zu müssen, was heute der Regelfall ist. Entsprechend kann eine Geschäftsführerin auch Grundbesitz im Auftrag des Unternehmens in Österreich erwerben. Wenn die Mitgliedsländer eIDAS 2.0 schnell genug umsetzen, kann mittelfristig hieraus ein dynamisches Identitätsökosystem für verifizierbare Stammdaten von Maschinen, Unternehmen und Menschen entstehen – und so unter anderem die datensouveräne Bereitstellung von Unternehmensdaten zum Training von KI-Modellen vereinfachen.

Pascal Spano: Mit Blick auf die europäische Regulierung und Gesetzgebung bei Daten und KI stellt sich die Frage, ob sich Europa hier – wieder einmal – selbst im Weg beim technologischen Fortschritt steht. 

Jens Strüker: Die Europäische Union hat faktisch die erste umfassende und bislang beste KI-Regulierung der Welt. Wie schon beim Thema Datenschutz spricht viel dafür, dass dieses Regulierungsartefakt erneut zum Vorbild der ganzen Welt werden wird. Und ein gut definierter Regelrahmen ist für die wirtschaftliche Entwicklung und den Wohlstand unzweifelhaft ein großer Beitrag. Aus meiner Sicht gerät hier aber die Reihenfolge aus dem Blick: Europa hat einen massiven Rückstand beim Anbieten von proprietären wie offenen KI-Modellen gegenüber den USA und auch China. In dieser frühen Phase wäre es aus meiner Sicht wichtiger gewesen, die Rahmenbedingungen für europäische KI-Anbieter gezielt zu verbessern. Die Befürchtung ist, dass die umfassende KI-Regulierung ihnen nicht hilft, sondern sie mit Auflagen belastet werden. Regulierung hätte auch lernend über die Zeit weiterentwickelt werden können.

Pascal Spano: Je „intelligenter“ die KI, desto leichter sollte es gerade ihr fallen, Fehler und Täuschungen zu erkennen bzw. aufzudecken. Ist das Problem der Verifikation von Daten möglicherweise nur temporär? Oder ist eher zu befürchten, dass durch eine mit gefälschten Daten trainierte KI Fehler weiterverbreitet werden? 

Jens Strüker: Nein, ich denke die digitale Verifikation von Daten wird über die Zeit sogar noch wichtiger werden. Bild und Ton können heute schon nicht mehr für Menschen unterscheidbar kopiert werden. Dies wird unter anderem erhebliche Auswirkungen auf Ident-Verfahren im Internet haben. Hier kann beispielsweise die digitale Signierung von Inhalten mit nachweisbaren digitalen Identitäten helfen. Darüber hinaus ist bei komplexen Modellen wie Deep Learning die Entscheidungslogik grundsätzlich schwer nachvollziehbar, es handelt sich hierbei um die sogenannte Black-Box-Problematik. In der Relation wird es also wichtiger werden, zu wissen, woher die Trainingsdaten kamen, ob diese verändert wurden und ob man überhaupt mit einer KI interagiert hat.

Pascal Spano: Wie können Unternehmen verhindern, dass sie ihre Datensouveränität verlieren, wenn große Datenmengen zu KI-Trainingszwecken verwendet werden?

Jens Strüker: Ein vielversprechender Weg ist das Teilen von Daten über sogenannte Data-Spaces, d.h. über föderative Clouds. Datenräume sind digitale Infrastrukturen, die den sicheren, dezentralen und souveränen Austausch von Daten zwischen Organisationen ermöglichen. Sie basieren auf gemeinsamen Standards, Regeln und Technologien, wobei die Daten an ihrer Quelle verbleiben und nicht zentral gespeichert werden. Ziel ist es, Datensouveränität zu wahren, Vertrauen zu schaffen und sektorübergreifende Innovationen zu fördern. Datenräume sind oft domänenspezifisch, können sich aber auch föderieren, um größere Datenökosysteme zu bilden. Der EU-Data Act hat einen rechtlichen und technischen Rahmen für solche Systeme geschaffen, und es existieren mittlerweile zahlreiche Umsetzungen, beispielsweise das Datenökosystem (vgl. Catena-X für die Automobilindustrie).

Pascal Spano: Welche weiteren Möglichkeiten werden verfolgt?

Jens Strüker: Ein anderer Ansatz für mehr Datensouveränität besteht darin, Large Language Models (LLMs) nicht zentral, sondern dezentral mit verteilten Datenquellen zu trainieren. Statt alle Daten in einem zentralen Rechenzentrum zu sammeln, verbleiben sie bei den jeweiligen Dateninhabern – etwa Unternehmen oder Institutionen – und das Modelltraining erfolgt koordiniert über verteilte Knoten. Dies reduziert Datenschutzrisiken und ermöglicht die Nutzung sensibler Daten, etwa in Medizin oder Industrie, ohne sie preiszugeben. Zero-Knowledge Proofs (ZKPs) spielen auch hierbei eine Schlüsselrolle: Sie erlauben es, die Korrektheit von Berechnungen oder Datenbeiträgen zu verifizieren, ohne die zugrunde liegenden Daten offenzulegen. So kann ein Teilnehmer beweisen, dass er korrekt zum Modelltraining beigetragen hat, ohne seine Daten preiszugeben. In verteilten Trainingsszenarien ermöglichen ZKPs also eine vertrauenswürdige Zusammenarbeit, selbst zwischen Parteien, die sich nicht kennen oder vertrauen. Nach bemerkenswerten Fortschritten geht es aktuell darum, diese Konzepte in skalierbare Systeme zu überführen – etwa durch Kombination von ZKPs mit verteilten Rechenarchitekturen und kryptografischen Protokollen.

Pascal Spano: Vielen Dank für das Gespräch.


Jens Strüker ist Professor für Wirtschaftsinformatik und Digitales Energiemanagement an der Universität Bayreuth, Ko-Leiter des Fraunhofer Blockchain-Labors sowie stellvertretender Leiter des Institutsteils Wirtschaftsinformatik des Fraunhofer FIT. Als habilitierter Wirtschaftsinformatiker und Ökonom forscht er mit seinem Team zum Einsatz von Web3-Technologien wie Blockchains, digitalen Maschinenidentitäten und Datenräumen für die Dekarbonisierung der Wirtschaft.

Pascal Spano ist seit 2017 bei Metzler tätig und leitet den Bereich Research im Geschäftsfeld Capital Markets. Vor seiner Tätigkeit bei Metzler war er von 2013 bis 2017 Geschäftsführer des von ihm mitgegründeten FinTech-Unternehmens PASST Digital Services GmbH in Köln. Davor leitete Herr Spano zwei Jahre den Bereich Cash Equities bei der UniCredit Group in München und Frankfurt am Main. Für die Credit Suisse Ltd. verantwortete er von 2007 bis 2010 als Head of German Research die Analyse deutscher Aktiengesellschaften. Zuvor war Herr Spano über zehn Jahre bei der Deutschen Bank im Bereich Global Markets Research tätig und baute für ABN Amro die deutschen Research-Aktivitäten aus Frankfurt und London mit auf. 

Weitere Beiträge