Skip to main content
1

Rédiger un prompt de recherche selon un modèle cohérent

La clé d’une recherche parallèle efficace est de donner à chaque session la même checklist. Chaque session étudie une bibliothèque indépendamment, donc le modèle garantit que les résultats sont directement comparables une fois fusionnés.Ouvrez une nouvelle session Devin depuis la page d’accueil de Devin, ou utilisez la page Explore Advanced Capabilities de la page d’accueil de Devin pour accéder à un modèle de prompt de recherche parallèle.
2

Passez en revue et approuvez les sessions proposées

Une fois envoyée, Devin analyse votre liste et propose une session par bibliothèque. Vous verrez un aperçu semblable à :
Proposed sessions (30):
  1. Research Datadog Logs — pricing, SDKs, retention, alerting...
  2. Research Grafana Loki — pricing, SDKs, retention, alerting...
  3. Research AWS CloudWatch Logs — pricing, SDKs, retention, alerting...
  ...
Passez la liste en revue et cliquez sur Approve pour lancer toutes les sessions simultanément. Chaque session s’exécute indépendamment : navigation sur le site de la bibliothèque, lecture de la documentation, consultation des forums pour développeurs et remplissage du modèle.Si vous souhaitez ignorer ou ajouter des bibliothèques, modifiez la liste avant d’approuver. Vous pouvez aussi associer un playbook afin de vous assurer que chaque session applique la même méthodologie de recherche.
3

Rassembler et comparer les résultats

Une fois toutes les sessions terminées, Devin fusionne automatiquement les rapports individuels en une seule comparaison. Le résultat suit le format que vous avez demandé — voici à quoi ressemble la comparaison compilée sous forme de feuille de calcul :
## Logging Library Comparison (Node.js + Python, 2 TB/day)

| Library           | Type       | $/mo (2 TB/day) | Retention       | Node SDK | Python SDK | Query Lang   | Alerting     |
|-------------------|------------|-----------------|-----------------|----------|------------|--------------|--------------|
| Datadog Logs      | SaaS       | ~$5,400         | 15d hot, archive| 5/5      | 5/5        | Custom DSL   | Yes + anomaly|
| Grafana Loki      | Self-host  | Infra only      | Configurable    | 4/5      | 4/5        | LogQL        | Via Grafana  |
| Axiom              | SaaS       | ~$1,200         | 30d hot, 1yr    | 4/5      | 4/5        | APL          | Yes          |
| Better Stack      | SaaS       | ~$890           | 30d default     | 5/5      | 4/5        | SQL-like     | Yes          |
| Elastic Cloud     | SaaS/self  | ~$3,600         | ILM policies    | 5/5      | 5/5        | KQL / Lucene | Yes + ML     |
| Signoz            | Self-host  | Infra only      | Configurable    | 4/5      | 4/5        | ClickHouse SQL| Yes         |
| Coralogix         | SaaS       | ~$2,100         | Hot/warm/cold   | 4/5      | 3/5        | Lucene / SQL | Yes + anomaly|
| ...               |            |                 |                 |          |            |              |              |

### Top 3 for a 50-service Node.js + Python stack:
1. Axiom — lowest cost at scale, fast APL queries, solid SDKs
2. Grafana Loki — zero license cost, pairs with existing Grafana dashboards
3. Datadog Logs — best SDK auto-instrumentation, but expensive at 2 TB/day
Vous pouvez poser des questions complémentaires dans la même session — elle dispose du contexte de toutes les sous-sessions.Une fois que vous avez choisi un gagnant, vous pouvez lancer une session Devin directement depuis la même session pour configurer la bibliothèque dans votre dépôt :
4

Approfondissez la présélection

Une fois que vous avez une liste restreinte, commencez des sessions de suivi ciblées pour une évaluation plus approfondie.
5

Conseils

Ce modèle fonctionne pour toute évaluation technique

La recherche en parallèle ne se limite pas aux outils de journalisation. Utilisez-la pour toute évaluation où vous avez besoin des mêmes indicateurs pour de nombreuses options — plateformes CI/CD, services de feature flags, ORM, fournisseurs cloud ou cadres de conformité. Exemple : « Étudie ces 20 plateformes CI/CD et compare la vitesse de build, la tarification, les options auto‑hébergées et la qualité de l’intégration GitHub. »

Limitez chaque session à 15 à 30 minutes

Si une seule bibliothèque nécessite des heures d’analyse approfondie, c’est le signe qu’elle devrait faire l’objet de sa propre session dédiée plutôt que de faire partie d’une exécution parallèle. Les sessions parallèles fonctionnent mieux lorsque chaque élément demande à peu près le même niveau d’effort.