Anders als andere Workflow-Engines, die rein ephemer sind, baut dataflows einen persistenten „Kontext“ aus deinen Unternehmensdaten auf. Das ermöglicht historische Auswertungen, Time-Travel-Debugging und echten Kontext für KI.
Das Core-Schema ist flexibel gedacht, aber strikt da, wo es zählt.
service_clients)Verwaltet die Identität externer Systeme.
connections)Speichert die tatsächlichen Credentials (Tokens), die einen User oder Account mit einem Service-Client verbinden.
executions)Das Audit-Log von allem, was im System passiert.
dataflows ist darauf ausgelegt, Daten aus externen Systemen in die eigenen Warehouse-Tabellen zu synchronisieren.
// Beispiel: ClickUp-Tasks ins lokale Warehouse synchronisieren
export const syncClickUpTask = defineWorkflow({
id: 'sync-clickup-task',
trigger: clickup.onTaskUpdated(),
async run({ event, step }) {
const task = event.payload
// Jedes Upsert ist ein durabler Schritt – bei Fehler wiederholt,
// beim Replay übersprungen, falls bereits erfolgreich.
const project = await step.run('upsert-project', () =>
db.projects.upsert({
clickup_id: task.project.id,
name: task.project.name
})
)
await step.run('upsert-task', () =>
db.tasks.upsert({
clickup_id: task.id,
project_id: project.id,
name: task.name,
status: task.status
})
)
}
})
So kannst du deine Daten mit Standard-SQL abfragen – auch wenn die Quell-API gerade langsam oder down ist.
Die eigentliche Stärke des dataflows-Warehouses: Es verwandelt rohe API-Daten in handlungsleitende Business-Intelligence.
Wir kippen nicht nur JSON in die Datenbank. Wir erstellen strukturierte SQL-Views, die Daten über verschiedene Services hinweg verknüpfen.
Weil die Daten in Standard-PostgreSQL liegen, kannst du jedes Visualisierungs-Tool anbinden: