Der Data Analyst Agent, auch bekannt als DANA (Data ANAlyst), ist eine spezialisierte Version von Devin, die für Datenbankabfragen, Datenanalysen und die Erstellung von Visualisierungen optimiert wurde. Er ist darauf ausgelegt, schnell zu sein, prägnante Ergebnisse zu liefern und speziell auf Datenanalyse-Workflows abgestimmt zu sein.Documentation Index
Fetch the complete documentation index at: https://docs.devin.ai/llms.txt
Use this file to discover all available pages before exploring further.
Wann Sie den Data Analyst Agent einsetzen sollten
- Datenbanken abfragen: SQL-Abfragen auf Ihren angeschlossenen Datenquellen schreiben und ausführen
- Daten analysieren: Muster untersuchen, Kennzahlen berechnen und Trends in Ihren Daten analysieren
- Visualisierungen erstellen: Professionelle Diagramme und Grafiken mit seaborn erzeugen
- Fragen zu Daten beantworten: Schnell präzise Antworten auf Fragen zu Ihren Daten erhalten
- Erkenntnisse gewinnen: Muster, Auffälligkeiten und umsetzbare Erkenntnisse entdecken
Zugriff auf den Data-Analyst-Agenten
Über die Web-App
- Navigiere zur Devin-Startseite
- Klicke auf das Agenten-Auswahlmenü
- Wähle Data Analyst aus dem Auswahlmenü
- Starte deine Sitzung mit einer datenbezogenen Frage oder Aufgabe
In Slack
!dana:
Voraussetzungen
- Database MCPs: Redshift, PostgreSQL, Snowflake, BigQuery und andere SQL-Datenbanken
- Analytics MCPs: Datadog, Metabase und andere Observability-Plattformen
MCP-Integrationen einrichten
Erfahren Sie, wie Sie Datenbanken und andere Datenquellen über MCP anbinden
So funktioniert es
Database Knowledge
Beispiel-Prompts
Einfache Abfragen
- „Wie viele aktive Nutzer hatten wir letzte Woche?“
- „Wie sieht unser täglicher Umsatztrend für den letzten Monat aus?“
- „Welche Kunden weisen die höchste Nutzung auf?“
Aggregationen und Metriken
- „Wie ist die durchschnittliche Sitzungsdauer nach Tarifstufe für die letzten 30 Tage?“
- „Zeige mir den Gesamtumsatz nach Region und Produktlinie gruppiert für Q4“
- „Berechne das 95. Perzentil der Antwortzeiten für jeden API-Endpunkt in dieser Woche“
Joins und tabellenübergreifende Analysen
- „Verbinde unsere
users-Tabelle mit derorders-Tabelle und zeige die Top 20 Kunden nach Lifetime Value“ - „Setze die Anmeldungsquelle mit der 30-Tage-Retention in Beziehung – welche Akquisekanäle haben die besten Retentionsraten?“
- „Kombiniere Sitzungsdaten mit Abrechnungsdaten, um Konten mit hoher Nutzung, aber geringen Ausgaben zu finden“
Filterung und Segmentierung
- „Zeige mir nur Enterprise-Kunden, die sich nach Januar 2025 angemeldet haben und mehr als 100 Sitzungen haben“
- „Filtere Fehlerprotokolle nach 5xx-Fehlern des Payment-Service in den letzten 48 Stunden“
- „Teile den Verbrauch nach Enterprise- im Vergleich zu Self-Service-Kunden auf, wobei Testkonten ausgeschlossen werden“
Zeitreihenanalyse
- „Stelle die wöchentlich aktiven Nutzer der letzten 6 Monate in einem Diagramm dar – hebe alle Wochen mit mehr als 10 % Veränderung hervor“
- „Zeige mir einen Monat-zu-Monat-Vergleich der Anmelderaten für 2025 im Vergleich zu 2024“
- „Wie sieht der tägliche Trend der API-Aufrufe in den letzten 90 Tagen aus? Überlagere ihn mit einem 7-tägigen gleitenden Durchschnitt“
Untersuchungen und Anomalieerkennung
- „Warum sind die Anmeldungen letzten Dienstag zurückgegangen? Prüfe, ob es dazugehörige Störungen oder Deployments gab“
- „Gibt es diese Woche Anomalien in unseren Fehlerraten?“
- „Vergleiche die Kennzahlen dieses Monats mit demselben Zeitraum im letzten Jahr und markiere signifikante Abweichungen“
Mehrstufige Analyse
- „Analysiere die Nutzerbindung nach Kohorten für Q4, identifiziere anschließend die Kohorten mit dem stärksten Einbruch und schlage mögliche Ursachen vor“
- „Finde die 10 Nutzer mit den meisten Sitzungen, zeige ihre Aktivität im Zeitverlauf und markiere alle, bei denen ein potenzielles Abwanderungsrisiko erkennbar ist“
Unterstützte Datenquellen
SQL-Datenbanken
| Datenquelle | MCP-Name | Einrichtung |
|---|---|---|
| Amazon Redshift | Redshift | Verbindungszeichenfolge + Zugangsdaten |
| PostgreSQL | PostgreSQL | Verbindungszeichenfolge |
| Snowflake | Snowflake | Konto + Zugangsdaten |
| Google BigQuery | BigQuery | OAuth oder Dienstkonto |
| MySQL | MySQL | Verbindungszeichenfolge |
| SQL Server | SQL Server | Verbindungszeichenfolge |
| Neon | Neon | OAuth |
| Supabase | Supabase | Persönliches Zugriffstoken |
| Cloud SQL (PostgreSQL, MySQL, SQL Server) | Cloud SQL | OAuth |
Analytics- und Observability-Plattformen
| Datenquelle | MCP-Name | Einrichtung |
|---|---|---|
| Datadog | Datadog | API key + App-Key |
| Metabase | Metabase | OAuth |
| Grafana | Grafana | URL + Service-Account-Token |
| Sentry | Sentry | OAuth |
Eine Datenquelle verbinden
- Navigieren Sie zu Settings > MCP Marketplace
- Suchen Sie Ihre Datenquelle und klicken Sie auf Enable
- Geben Sie alle erforderlichen Zugangsdaten an (Connection-Strings, API keys oder OAuth)
- Starten Sie eine Data-Analyst-Session – der Agent erkennt Ihre verbundenen Datenquellen automatisch
MCP-Integrationen einrichten
Vollständige Einrichtungsanleitungen für jede Datenquelle
Sie können mehrere Datenquellen gleichzeitig verbinden. Der Data-Analyst-Agent verwendet die passenden MCP-Tools basierend auf dem Kontext Ihrer Anfrage.
Bewährte Praktiken
Seien Sie bei Metriken konkret
Zeiträume angeben
Spezifische Ausgabeformate anfordern
Geschäftslogik vorab definieren
Vergleiche und Kontext anfordern
Ergebnisse iterativ verfeinern
- Beginnen Sie breit: „Wer sind unsere 10 umsatzstärksten Kunden in diesem Quartal?“
- Verfeinern Sie: „Zeigen Sie mir für die Top 3 deren monatliche Umsatzentwicklung im vergangenen Jahr“
- Untersuchen Sie: „Kunde X hatte im März einen Umsatzsprung – wodurch wurde der ausgelöst?“
SQL validieren
Ausgabeformate
Tabellen
Diagramme und Visualisierungen
- Liniendiagramme — Zeitreihen-Trends, Vergleiche über die Zeit
- Balkendiagramme — kategoriale Vergleiche, Rangfolgen
- Heatmaps — Korrelationsmatrizen, Aktivitätsmuster
- Streudiagramme — Analyse von Zusammenhängen zwischen zwei Kennzahlen
Zusammenfassungen und Erkenntnisse
- Zusammenfassung der Analyse – eine Antwort in klarer Sprache auf Ihre Frage
- SQL-Abfrage – die genau verwendete Abfrage, damit Sie die Logik überprüfen können
- Schlüsselzahlen – die wichtigsten hervorgehobenen Kennzahlen
- Datenerkenntnisse – Muster, Auffälligkeiten oder andere bemerkenswerte Befunde
- Metabase-Link – wenn Ihre Organisation Metabase über MCP angebunden hat, kann der Agent einen Link zu einem interaktiven Dashboard für weitergehende Analysen einfügen
Knowledge-Management
- Neue Schema-Informationen oder Tabellenbeziehungen
- Business-Logik oder Metrik-Definitionen
- Muster oder Besonderheiten zur Datenqualität
Weitere Informationen zu Knowledge
Erfahren Sie, wie das Knowledge-System von Devin funktioniert
Unterschiede zu Standard-Devin
| Funktion | Data Analyst Agent | Standard Devin |
|---|---|---|
| Ausführung von SQL-Abfragen | Optimiert | Unterstützt |
| Datenvisualisierungen | Integrierte Unterstützung für seaborn | Manuelle Einrichtung |
| Kenntnis des Datenbankschemas | Vorab geladenes Wissen | Exploration bei Bedarf |
| Antwortstil | Prägnant, kennzahlenorientiert | Ausführliche Erklärungen |
| Codeänderungen | Nicht primärer Schwerpunkt | Umfassende Unterstützung |
| MCP-Integrationen | Erforderlich | Optional |
