Inhaltsverzeichnis
< Alle Themen
Drucken

Die Architektur-Entscheidung: Wie Private Markets Zeit abbilden sollten

In der Architektur von Private-Market-Systemen wird häufig über Oberflächen, Schnittstellen oder Hosting-Modelle gesprochen. Die eigentliche Systemfrage lautet jedoch: Wie wird Zeit abgebildet? – als fortlaufende Ereigniskette oder als aggregierte Momentaufnahme? In klassischen Fonds-Systemen dominiert das Batch-Prinzip. Doch illiquide Assets, Kapitalabrufe und komplexe Bewertungszyklen folgen keiner festen Taktrate. Hier stoßen Batch-Modelle an ihre schmerzhaften Grenzen: Ein Capital Call trifft um 10 Uhr morgens ein – der für das Portfoliomanagement kritische „Unfunded Commitment“-Report bleibt bis zum nächsten Tag veraltet. Eine wichtige Stammdatenänderung eines Investors wird erst nach dem nächtlichen Lauf wirksam. Manuelle Korrekturen und operative Workarounds sind die unausweichliche Folge.

Haftungsausschluss: Dieser Artikel dient ausschließlich Informationszwecken und stellt keine Anlageberatung, Rechtsberatung oder verbindliche Handlungsempfehlung dar. Die Ausführungen basieren auf meiner Erfahrung als unabhängiger Senior Business Consultant und Analyst.

Titelgrafik: Batch- versa Event-Driven
Titelgrafik: Batch- versa Event-Driven

Batch vs. Event: Zwei grundlegend verschiedene Welten

Das Batch-Prinzip stammt aus einer Zeit, in der Datenverarbeitung teuer war. Daten wurden gesammelt und in nächtlichen Läufen verarbeitet, um Rechenzeit zu bündeln. In modernen, event-driven Architekturen wird jedes geschäftliche Ereignis sofort erfasst und verarbeitet, sobald es eintritt.

VergleichBatch-drivenEvent-driven
VerarbeitungPeriodisch (z.B. täglich, monatlich)Sofort, bei Eintreten eines Ereignisses
DatenmodellSnapshot-orientiert (der Zustand am Ende der Periode)Chronologisch, transaktional (die Kette der Ereignisse)
TransparenzBegrenzt auf die letzte Periode, „Intra-Day“ blindJede einzelne Veränderung ist in Echtzeit nachvollziehbar
FehlerbehandlungManuelle Korrektur der Daten, erneuter Batch-LaufAutomatisches „Reprocessing“ eines Korrektur-Events

Ein Praxisbeispiel: Die Anatomie eines Capital Calls

Nichts illustriert den Unterschied besser als der alltägliche Prozess eines Kapitalabrufs. Betrachten wir denselben Vorgang in beiden Welten.

Szenario 1: Die fragmentierte Batch-Welt

Das Portfolio Management entscheidet um 11:00 Uhr, einen Capital Call durchzuführen. Der Abruf wird im Kernsystem erfasst, aber die entscheidenden Kennzahlen (z.B. Unfunded Commitment, Liquiditätsplanung) aktualisieren sich erst im nächtlichen Batch-Lauf. Das Investor-Relations-Team hat bis zum nächsten Morgen keine validierte Sicht auf die neuen Stände. Ein besorgter Investor ruft an und fragt nach seinem aktuellen Unfunded-Stand – die Antwort lautet oft: „Die validen Zahlen sehen wir erst morgen im System.“ Das Treasury kann die Liquiditätswirkung nicht in Echtzeit einplanen. Der gesamte Prozess ist intransparent, weil die Wahrheit auf den nächsten Verarbeitungslauf „wartet“.

Szenario 2: Die chronologische Event-Welt

In einer Event-driven-Architektur löst die Entscheidung des Portfolio Managements eine Kette von Geschäftsereignissen aus, die sofort verarbeitet werden:

  • 11:01 Uhr – Event: CapitalCallInitiated
    Das System erfasst den Abruf. Sofort wird das „Unfunded Commitment“ für alle betroffenen Investoren neu berechnet und ist systemweit sichtbar. Das Treasury sieht die erwartete Liquiditätswirkung in Echtzeit. Alle nachgelagerten Systeme (Reporting, Risk Management, Liquidity Planning) erhalten unmittelbar konsistente Daten.
  • 11:05 Uhr – Event: InvestorNoticesDispatched
    Das System bereitet die Capital Call Notices vor und markiert jeden Investor als „Notice Pending“. Der Status ist sofort nachvollziehbar.
  • Tage später – Event: FundsReceived
    Für jeden Zahlungseingang wird ein Event erzeugt. Das System aktualisiert sofort den Cash-Bestand des Fonds und den bezahlten Anteil des Investors.

Jeder Schritt ist ein unveränderliches, zeitgestempeltes Ereignis. Das System ist zu jeder Sekunde konsistent und transparent. Ein Anruf des Investors kann sofort mit dem exakten, aktuellen Stand beantwortet werden, inklusive der vollständigen Historie, die zu diesem Stand geführt hat. Der entscheidende Unterschied liegt nicht in der Automatisierung von Workflows, sondern in der Echtzeit-Konsistenz aller finanziellen Kennzahlen.

Events als „Source of Truth“: Die Storyline des Fonds

Die entscheidende Idee hinter einer Event-driven-Architektur ist, dass nicht der aktuelle Zustand (z.B. der aktuelle Commitment-Stand), sondern die gesamte Historie der Änderungen die Wahrheit bildet. Aus dieser Chronologie kann der Zustand zu jedem beliebigen Zeitpunkt reproduziert werden – konsistent und auditierbar. Typische Events in Private Markets sind jede Zusage (Commitment), jede Bewertung (NAV), jeder Kapitalfluss (Cashflow) und jede Währungsänderung (FX). Die Chronologie dieser Events bildet die wahre, lückenlose „Storyline“ des Fonds.

Praktische Umsetzung: Vom Strangler-Pattern zum Technologie-Stack

Die Migration von Batch zu Event-driven muss kein „Big Bang“ sein. Ein bewährter Ansatz ist das Strangler Fig Pattern (eine Methode, bei der neue Funktionalität das Altsystem schrittweise „umwuchert“ und ersetzt, bis dieses abgeschaltet werden kann). Technologisch basiert eine solche Architektur typischerweise auf einem zentralen Event Store.

KomponenteOptionenEinsatz in Private Markets
Event StoreApache Kafka, AWS EventBridge, Axon Framework, Azure Event Hubs, EventStoreDBZentrale, unveränderliche Speicherung aller Geschäftsereignisse.
Stream ProcessingKafka Streams, Apache FlinkKorrelation und Aggregation von Events in Echtzeit (z.B. Berechnung des Gesamt-NAVs).
State ManagementPostgreSQL, In-Memory-DBsSpeicherung des abgeleiteten, aktuellen Zustands für schnelle Abfragen.
API LayerGraphQL, RESTZugriff auf die aktuellen Zustände für Frontends und BI-Tools.

Herausforderungen und Wirtschaftlichkeit

Die größten Herausforderungen bei der Implementierung sind die Handhabung von Änderungen im Event-Schema über die Zeit (Schema Evolution, also die Notwendigkeit, das Format von Events über Jahre hinweg versionieren zu können, ohne die Historie zu brechen) und der Umgang mit verteilten Systemen (Eventual Consistency, dem Umstand, dass nicht alle Systemteile zum selben Millisekunden-Zeitpunkt konsistent sein müssen, solange sie es nach kurzer Zeit werden).

Fehlerbehandlung: Compensating Events statt Batch-Reruns

Ein wesentlicher Vorteil zeigt sich in der Fehlerkorrektur. In Batch-Systemen führt ein Fehler oft zum Rollback und Neustart des gesamten Laufs. In Event-Architekturen wird ein Compensating Event erzeugt – ein Korrektur-Ereignis, das den Fehler rückgängig macht. Beispiel: Wurde ein Capital Call mit falschem Betrag erfasst (CapitalCallInitiated mit 1.000.000 statt 100.000), wird ein CapitalCallCorrected-Event nachgeschoben, das automatisch alle nachfolgenden Berechnungen neu anstößt. Die fehlerhafte Historie bleibt sichtbar und auditierbar, wird aber durch die Korrektur überschrieben. Dies ist wesentlich effizienter als ein kompletter Batch-Neustart.

Wirtschaftlichkeit und ROI

Dem höheren initialen Setup-Aufwand stehen erhebliche langfristige Gewinne gegenüber:

  • Reduzierte Betriebskosten: Manuelle Eingriffe zur Korrektur von Daten, die „zwischen“ zwei Batches geändert wurden, entfallen.
  • Automatisierte Fehlerbehandlung: Compensating Events heilen Fehler automatisch, ohne den gesamten Batch-Lauf wiederholen zu müssen.
  • Lineare Skalierbarkeit: Das System wächst mit der Anzahl der Events, nicht mit der Größe der Snapshots, was die Performance bei steigendem Volumen verbessert.
  • Hundertprozentige Audit-Fähigkeit: Statt nur das Endergebnis zu prüfen, können Auditoren die gesamte Kette der Ereignisse nachvollziehen, die zu diesem Ergebnis geführt hat.

Der Break-Even-Point liegt typischerweise bei Multi-Fund-Strukturen mit komplexen Interdependenzen (z.B. Fund-of-Funds, Co-Investments, Cross-Fund-Cashflows) oder bei Organisationen mit mehr als 50 Fonds und hohen Intraday-Informationsbedarf (Treasury, Risk Management). Je höher die Frequenz von geschäftskritischen Entscheidungen, die auf aktuellen Daten basieren müssen, desto schneller amortisiert sich die Investition.

Fazit: Architekturfragen im PMI beginnen mit der Zeit

Die wichtigste Designentscheidung im Private Markets Umfeld ist nicht Cloud vs. On-Prem, sondern Event vs. Batch. Wer Ereignisse als Quelle der Wahrheit akzeptiert, schafft die Grundlage für skalierbare, nachvollziehbare und automatisierbare Systeme. In einer solchen Architektur sind Batches kein Architektur-Dogma mehr, sondern lediglich eine bewusste Entscheidung der Präsentationsschicht für regulatorische Reports mit festen Stichtagen. Die Migration kann schrittweise erfolgen und ermöglicht es Organisationen, die Fesseln der periodischen Verarbeitung abzulegen und in eine Welt der Echtzeit-Transparenz einzutreten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

dreizehn − 12 =