Documentation Index
Fetch the complete documentation index at: https://docs.devin.ai/llms.txt
Use this file to discover all available pages before exploring further.
Não quer configurar isso manualmente? Cole um link para esta página em uma sessão do Devin e peça que ele configure tudo para você.
Escreva um prompt de pesquisa usando um modelo padronizado
A chave para uma pesquisa paralela útil é dar a todas as sessões a mesma checklist. Cada sessão pesquisa uma biblioteca de forma independente, então o modelo garante que os resultados sejam diretamente comparáveis quando forem consolidados.Abra uma nova sessão do Devin a partir da página inicial do Devin ou use a página Explore Advanced Capabilities na página inicial do Devin para obter um template de prompt de pesquisa paralela. Revise e aprove as sessões propostas
Após o envio, o Devin analisa sua lista e propõe uma sessão para cada biblioteca. Você verá uma prévia como:Proposed sessions (30):
1. Research Datadog Logs — pricing, SDKs, retention, alerting...
2. Research Grafana Loki — pricing, SDKs, retention, alerting...
3. Research AWS CloudWatch Logs — pricing, SDKs, retention, alerting...
...
Revise a lista e clique em Approve para iniciar todas as sessões simultaneamente. Cada sessão é executada de forma independente — navegando no site da biblioteca, lendo a documentação, consultando fóruns de desenvolvedores e preenchendo o modelo.Se quiser pular ou adicionar bibliotecas, edite a lista antes de clicar em Approve. Você também pode anexar um playbook para garantir que todas as sessões sigam a mesma metodologia de pesquisa. Colete e compare resultados
Depois que todas as sessões são concluídas, Devin mescla automaticamente os relatórios individuais em uma única comparação. O resultado segue o formato que você solicitou — é assim que fica a comparação consolidada em formato de planilha:## Logging Library Comparison (Node.js + Python, 2 TB/day)
| Library | Type | $/mo (2 TB/day) | Retention | Node SDK | Python SDK | Query Lang | Alerting |
|-------------------|------------|-----------------|-----------------|----------|------------|--------------|--------------|
| Datadog Logs | SaaS | ~$5,400 | 15d hot, archive| 5/5 | 5/5 | Custom DSL | Yes + anomaly|
| Grafana Loki | Self-host | Infra only | Configurable | 4/5 | 4/5 | LogQL | Via Grafana |
| Axiom | SaaS | ~$1,200 | 30d hot, 1yr | 4/5 | 4/5 | APL | Yes |
| Better Stack | SaaS | ~$890 | 30d default | 5/5 | 4/5 | SQL-like | Yes |
| Elastic Cloud | SaaS/self | ~$3,600 | ILM policies | 5/5 | 5/5 | KQL / Lucene | Yes + ML |
| Signoz | Self-host | Infra only | Configurable | 4/5 | 4/5 | ClickHouse SQL| Yes |
| Coralogix | SaaS | ~$2,100 | Hot/warm/cold | 4/5 | 3/5 | Lucene / SQL | Yes + anomaly|
| ... | | | | | | | |
### Top 3 for a 50-service Node.js + Python stack:
1. Axiom — lowest cost at scale, fast APL queries, solid SDKs
2. Grafana Loki — zero license cost, pairs with existing Grafana dashboards
3. Datadog Logs — best SDK auto-instrumentation, but expensive at 2 TB/day
Você pode fazer perguntas adicionais na mesma sessão — ela mantém o contexto de todas as subsessões.Depois de escolher a melhor opção, você pode iniciar uma sessão do Devin diretamente a partir da mesma sessão para configurar a biblioteca no seu repositório: Aprofunde a análise dos finalistas
Depois que você tiver uma lista de selecionados, inicie sessões de acompanhamento direcionadas para uma avaliação mais aprofundada.
Dicas
Esse padrão funciona para qualquer avaliação técnica
Pesquisa em paralelo não se limita a ferramentas de logging. Use essa abordagem para qualquer avaliação em que você precise dos mesmos dados sobre muitas opções — plataformas de CI/CD, serviços de feature flag, ORMs, provedores de nuvem ou frameworks de conformidade. Exemplo: “Pesquise essas 20 plataformas de CI/CD e compare velocidade de build, preços, opções self-hosted e qualidade da integração com o GitHub.”Mantenha cada sessão limitada a 15-30 minutos
Se uma única biblioteca demandar horas de investigação profunda, isso é um sinal de que ela deveria ter sua própria sessão focada, em vez de fazer parte de uma execução paralela. Sessões paralelas funcionam melhor quando cada item exige aproximadamente o mesmo nível de esforço.