Metodologia Quick Wins DataSpoc - 102 - BUILDING & SUSTENTAÇÃO

Metodologia Quick Wins DataSpoc - 102 - BUILDING & SUSTENTAÇÃO

Recurso

🎯 PRINCÍPIOS DE EXECUÇÃO

PRINCÍPIO 1: Tempo Fixo, Escopo Variável

Shape Up (Basecamp):

Conceito central:

  • Definimos APPETITE (apetite de tempo)
  • Escopo se adapta ao tempo disponível
  • Circuit breaker: prazo acabou = entregar o que tem

Aplicação DataSpoc:

APPETITE FIXO:
- 2 semanas (Premium): Score 85-100
- 4 semanas (Standard): Score 70-84
- 6 semanas (Extended): Score 50-69 após preparação

ESCOPO VARIÁVEL:
- Must-have: Core que SEMPRE entregamos
- Nice-to-have: Se der tempo
- V2: Próxima iteração (não agora)

Exemplo prático:

APPETITE: 2 semanas

MUST-HAVE (core):
✓ Forecast para top 10 produtos
✓ MAPE <15%
✓ CSV semanal por email

NICE-TO-HAVE (se der tempo):
~ Dashboard visual
~ Intervalo de confiança
~ Integração com ERP

V2 (próxima iteração):
✗ Top 50 produtos
✗ Forecast diário
✗ API real-time

No dia 14:

  • Must-have pronto? → Entregar ✓
  • Nice-to-have não deu tempo? → OK, é v2
  • Não estender prazo “só mais uma semana”

PRINCÍPIO 2: NASA 70/20/10

Analogia do foguete:

Engenheiros NASA gastavam:

  • 70% do tempo no combustível (qualidade, pureza)
  • 20% do tempo no motor (otimização)
  • 10% do tempo na carenagem (estética)

Tradução para IA:

COMBUSTÍVEL = DADOS (70%)
- Sem dados de qualidade, IA não funciona
- EDA profundo, limpeza, feature engineering
- Maior ROI de tempo aqui

MOTOR = MODELO (20%)
- Com dados excelentes, modelo médio funciona
- 2-3 algoritmos, tuning básico
- Não gastar 80% do tempo aqui

CARENAGEM = UI (10%)
- CSV funciona, dashboard bonito é opcional
- Primeiro funcionar, depois embelezar

Distribuição de tempo:

Ciclo 2 semanas (10 dias):

  • 7 dias: Dados (EDA, limpeza, features, validação)
  • 2 dias: Modelo (treino, tuning, validação)
  • 1 dia: UI (CSV, dashboard básico, entrega)

Ciclo 4 semanas (20 dias):

  • 14 dias: Dados
  • 4 dias: Modelo
  • 2 dias: UI

Ciclo 6 semanas (30 dias):

  • 21 dias: Dados
  • 6 dias: Modelo
  • 3 dias: UI

Mantras:

  • “Dados excelentes + modelo médio > Dados médios + modelo excelente”
  • “Se modelo não funciona, primeiro suspeite dos dados”
  • “CSV feio que funciona > Dashboard lindo que não funciona”

PRINCÍPIO 3: Press Release First

Working Backwards (Amazon):

Conceito:

  • Antes de escrever 1 linha de código, escrever o Press Release
  • Como se já tivesse lançado e sido sucesso
  • Força clareza sobre valor, cliente, problema, solução

Aplicação DataSpoc:

ANTES de começar semana 1, escrever:

  1. Press Release (futuro, 90 dias após lançamento)
  2. FAQ (antecipa objeções)
  3. Pitch Técnico (conecta PR com implementação)
  4. Rabbit Holes (o que NÃO vamos fazer)

Por que funciona:

  • Força clareza de valor ANTES de construir
  • Evita “fazer IA por fazer”
  • Alinha expectativas stakeholder
  • Facilita decisão de escopo (must vs nice)

📅 JANELAS DE DESENVOLVIMENTO

2 SEMANAS (Premium) — Score 85-100

Para:

  • Dados prontos (sample em 24h)
  • Problema cristalino
  • Processo completo (Predição→Ação)
  • OKR crítico
  • Sponsor forte

Estrutura:

  • Semana 1 (Dia 1-7): 70% dados + checkpoint
  • Semana 2 (Dia 8-14): 20% modelo + 10% UI + handoff

Taxa de sucesso: 90-95%


4 SEMANAS (Standard) — Score 70-84

Para:

  • Dados existem mas precisam trabalho
  • Problema claro mas amplo
  • Processo parcial (precisa refinar)
  • OKR importante (não crítico)
  • Sponsor médio

Estrutura:

  • Semana 1-2 (Dia 1-14): 70% dados + checkpoint dia 10
  • Semana 3 (Dia 15-21): 20% modelo
  • Semana 4 (Dia 22-28): 10% UI + handoff

Taxa de sucesso: 75-85%


6 SEMANAS (Extended) — Score 50-69 + Preparação

Para:

  • Dados parciais (precisa consolidar)
  • Problema vago (fez discovery antes)
  • Processo incompleto (definir durante)
  • Sem OKR formal (mas sponsor forte)

Estrutura:

  • Semana 1-3 (Dia 1-21): 70% dados intensivos
  • Semana 4 (Dia 22-28): 20% modelo
  • Semana 5-6 (Dia 29-42): 10% UI + handoff + docs

Taxa de sucesso: 60-70%


📄 DOCUMENTOS OBRIGATÓRIOS (Pré-Building)

DOCUMENTO 1: PRESS RELEASE

Template obrigatório:

=== PRESS RELEASE INTERNO ===
[Data: 90 dias no futuro]

HEADLINE:
[Nome do Projeto] reduz [métrica ruim] em X% e gera R$ Y em [impacto]

SUBHEADLINE:
Time de [área] agora usa IA para [ação específica] com [resultado mensurável]

PROBLEMA:
Até [data início], [stakeholder] enfrentava [problema específico] que
custava [valor quantificado] por [período]. O processo manual de
[ação atual] levava [tempo] e tinha erro de [%].

SOLUÇÃO:
Hoje, lançamos [nome do projeto], um modelo de IA que [predição específica]
com [% de acurácia]. Quando o modelo prediz [evento], [pessoa] toma
[ação específica] em [tempo de resposta].

QUOTE DO STAKEHOLDER:
"[Nome] mudou completamente [processo]. Antes eu [dor antiga]. Agora eu
[benefício novo]. Em [período], conseguimos [resultado mensurável]."

COMO FUNCIONA (para o usuário):
1.[Stakeholder] recebe [output] toda [frequência] via [canal]
2.[Stakeholder] vê [predição] com [intervalo de confiança]
3.[Stakeholder] decide [ação] baseado em [critério]
4.Sistema [automação/manual] executa [ação]

RESULTADOS (primeiros 90 dias):
-Métrica 1: Melhorou de X para Y (+Z%)
-Métrica 2: Economizou R$ W
-Métrica 3: Reduziu tempo de [processo] em [%]
-Adoção: [%] dos [usuários] usando diariamente

PRÓXIMOS PASSOS:
Expandir para [escopo maior], adicionar [feature], integrar com [sistema]

Exemplo real:

=== PRESS RELEASE: FORECAST AI ===
01/04/2025

HEADLINE:
Forecast AI reduz ruptura de estoque em 35% e economiza R$ 2M no trimestre

SUBHEADLINE:
Time Comercial agora prevê demanda dos top 10 produtos com 88% de acurácia

PROBLEMA:
Até 01/01/2025, CFO enfrentava ruptura de R$ 6M/ano nos top 10 produtos.
Forecast manual (Excel) tinha erro de 35% e levava 3 dias/mês.

SOLUÇÃO:
Hoje, lançamos Forecast AI que prediz vendas mensais com 88% acurácia.
Comprador recebe alerta 7 dias antes e decide quanto comprar baseado em
forecast, margem e lead time.

QUOTE DO CFO:
"Forecast AI mudou nosso planejamento. Antes descobria ruptura quando cliente
reclamava. Agora sei 7 dias antes. Em 60 dias, ruptura caiu 35% e economizamos
R$ 700k."

COMO FUNCIONA:
1.Comprador recebe CSV toda segunda via email
2.Vê forecast de cada produto ± intervalo confiança
3.Decide quanto comprar (forecast + margem + lead time)
4.Coloca pedido no ERP (manual)

RESULTADOS (90 dias):
-Ruptura: 15% → 9.8% (-35%)
-Erro forecast: 35% → 12% MAPE
-Economia: R$ 2.1M em vendas não perdidas
-Adoção: 100% compradores usando semanalmente

PRÓXIMOS PASSOS:
Top 50 produtos, sazonalidade regional, integração compras automática

DOCUMENTO 2: FAQ

Perguntas obrigatórias:

=== FAQ - [NOME PROJETO] ===

P1: Por que não fazer manualmente?
R: [Limitação manual: tempo, erro, escala]

P2: E se o modelo errar?
R: [Humano sempre decide. Guardrails. Monitoring.]

P3: Quanto vai custar manter?
R: [Re-treino X horas. Infra R$ Y. Total < economia]

P4: Quanto tempo até ver resultado?
R: [PoC 2 sem, produção 4 sem, ROI 90 dias]

P5: E se dados mudarem?
R: [Monitoring drift. Alerta se accuracy cai. Re-treino.]

P6: Precisa de equipe dedicada?
R: [Não. Stakeholder usa. DataSpoc mantém. X h/mês]

P7: O que pode dar errado?
R: [Listar 3 riscos + mitigações]

P8: Como saber se está funcionando?
R: [Dashboard 3 métricas. Review mensal.]

P9: E se stakeholder não usar?
R: [Piloto 30 dias. Se não usar = cancelar. Sem lock-in]

P10: Qual critério de sucesso mínimo?
R: [Métrica X melhorar ≥Y% em 90 dias. Se não = revisar/cancelar]

Exemplo FAQ (Forecast):

P1: Por que não melhorar Excel?
R: Excel limitado: só linear, não captura sazonalidade, erro 35%.
   IA testa múltiplos padrões, aprende, erro <15%.

P2: E se forecast errar?
R: Comprador SEMPRE decide. IA sugere "1000 ± 10%", comprador valida
   com margem, lead time, promoções. Não é automático.

P3: Quanto custa manter?
R: Re-treino mensal 4h DataSpoc = R$ 2k. Infra R$ 500.
   Total R$ 2.5k/mês vs economia R$ 700k/tri = ROI 93x.

[etc...]

DOCUMENTO 3: PITCH TÉCNICO

=== PITCH TÉCNICO: [NOME] ===

PRESS RELEASE (resumo 1 parágrafo):
[Copiar headline + problema + solução]

APPETITE:
☑ 2 semanas (dados prontos, problema claro)
☐ 4 semanas
☐ 6 semanas

SOLUÇÃO TÉCNICA:

INPUT:
-Dados: [Fonte, tabela, volume]
-Features: [Principais variáveis]
-Período: [Janela temporal]

PROCESSAMENTO:
-Algoritmo: [Prophet / XGBoost / etc]
-Abordagem: [Série temporal / Classificação / etc]
-Complexidade: [Simples / Média / Alta]

OUTPUT:
-Formato: [CSV / API / Dashboard]
-Frequência: [Diário / Semanal / Mensal]
-Consumidor: [Quem usa]

DEPLOY:
-Onde: [Cowpilot / GCP / Cliente]
-Como: [Batch / Real-time]
-Monitoring: [Métricas principais]

BASELINE:
-Método atual: [Excel / Manual / etc]
-Métrica: [MAPE / Accuracy / etc]
-Valor atual: [X%]
-Meta IA: [Y%]
-Melhoria mínima aceitável: [Z%]

RABBIT HOLES (O QUE NÃO VAMOS FAZER):
-❌ [Coisa que parece necessária mas NÃO é]
-❌ [Feature complexa que pode esperar v2]
-❌ [Integração que demora muito]

NO-GOS (LIMITES CLAROS):
-Top 10 produtos apenas (não todos)
-Forecast mensal (não diário/semanal)
-CSV simples (não dashboard web interativo)

RISCOS & MITIGAÇÕES:
1.Risco: [Descrição]
   Prob: [Alta/Média/Baixa]
   Impacto: [Alto/Médio/Baixo]
   Mitigação: [O que fazer]

CRITÉRIO DE SUCESSO (90 dias):
-Métrica principal: [Nome] melhora ≥[X%]
-Adoção: ≥[Y%] dos usuários usando
-ROI: ≥R$ [Z] economizado


📅 CRONOGRAMA DETALHADO: 2 SEMANAS

PRÉ-BUILDING (1-2 dias ANTES da semana 1)

DIA -2 a -1: Press Release + FAQ + Pitch

Atividades:

  1. Escrever Press Release completo
  2. Responder 10 FAQs
  3. Montar Pitch Técnico
  4. Listar Rabbit Holes
  5. Validar com stakeholder

Output:

  • 4 documentos completos
  • Stakeholder aprovou direção
  • Escopo claro (must / nice / v2)

Checkpoint:

  • PR soa realista e desejável?
  • FAQs respondem objeções reais?
  • Rabbit holes bem definidos?
  • Stakeholder validou?

SEMANA 1: DADOS (70%)

Seg-Ter (Dia 1-2): EDA com Cowpilot

DataSpoc Cowpilot acelera:

  • EDA automático: 10 min (vs 1-2 dias manual)
  • Relatório completo: Gerado automaticamente
  • Problemas identificados: Outliers, missing, drift

Atividades:

  1. Upload dados para DataSpoc Cowpilot
  2. Rodar análise automática
  3. Revisar relatório gerado
  4. Validar problemas com stakeholder
  5. Aprovar plano de limpeza

Entregáveis:

  • Relatório EDA completo
  • Lista de problemas validada
  • Plano de tratamento aprovado

Checkpoint:

  • Dados são viáveis (<20% missing)?
  • Problemas têm solução conhecida?
  • Stakeholder confirmou outliers?

Qua-Qui (Dia 3-4): Limpeza + Feature Engineering

DataSpoc Cowpilot acelera:

  • Limpeza automática: Executa plano aprovado
  • Feature engineering: Gera features de domínio
  • Qualidade: Testes automáticos

Atividades:

  1. DataSpoc Cowpilot executa limpeza
  2. Validar dataset limpo
  3. Feature engineering automático com o DataSpoc Cowpilot
  4. Revisar features geradas
  5. Adicionar features de negócio (stakeholder sugeriu)

Entregáveis:

  • Dataset limpo
  • Features criadas e documentadas
  • Correlação features vs target

Sex (Dia 5): Baseline

Atividades:

  1. Treinar modelo baseline (média móvel, regressão linear)
  2. Medir performance baseline
  3. Documentar métricas

Entregáveis:

  • Baseline model
  • Métricas baseline (MAPE, Accuracy, etc)
  • Benchmark para comparar IA

Checkpoint:

  • Baseline > 50% accuracy (ou MAPE <40%)?
  • Há margem para IA melhorar?

Sáb-Dom: (Opcional trabalho) ou Descanso


Seg (Dia 8): Validação de Qualidade

Atividades:

  1. Rodar checklist de qualidade completo
  2. Validar train/test split
  3. Verificar data leakage
  4. Aprovar dataset final

Checklist:

☐ Missing < 10%?
☐ Outliers tratados?
☐ Features fazem sentido negócio?
☐ Sem data leakage?
☐ Train/test temporal (não random)?
☐ Distribuições similares?
☐ Volume suficiente (5k+)?
☐ Stakeholder aprovou?

Entregáveis:

  • Dataset FINAL production-ready
  • Checklist preenchido e assinado

CHECKPOINT DIA 7 (Segunda-feira semana 2) 🚨

Reunião obrigatória 1h com stakeholder:

Avaliar 3 perguntas:

1. DADOS OK?

  • Qualidade boa (<15% missing)?
  • Features validadas?
  • Dataset production-ready?

2. BASELINE RAZOÁVEL?

  • Baseline > 60% accuracy (ou MAPE <30%)?
  • Margem para IA melhorar?

3. STAKEHOLDER ENGAJADO?

  • Participou de reuniões?
  • Respondeu dúvidas?
  • Aprova direção?

DECISÃO:

3 SIM → CONTINUAR semana 2

  • Go para modelagem
  • Timeline mantém

⚠️ 2 SIM → CONTINUAR COM ALERTA

  • Monitorar risco identificado
  • Plano B se necessário

<2 SIM → PARAR

  • Reunião post-mortem (1h)
  • Decisão: Cancelar / Pivotar / Extender +2 semanas
  • Se cancelar: Sem custo para cliente
  • Documentar learnings

SEMANA 2: MODELO + UI (30%)

Ter-Qua (Dia 9-10): Modelagem com Cowpilot

DataSpoc Cowpilot acelera:

  • Testa 5-10 algoritmos em paralelo
  • Otimização automática hiperparâmetros
  • Cross-validation automática
  • Escolhe melhor modelo

Atividades:

  1. DataSpoc Cowpilot roda experimentação
  2. DS valida abordagens
  3. Escolhe modelo vencedor
  4. Validação em test set (UMA VEZ)
  5. Análise de erros

Entregáveis:

  • Modelo final treinado
  • Métricas performance (vs baseline)
  • Feature importance
  • Análise onde modelo erra

Checkpoint:

  • Performance > baseline?
  • Atinge meta (MAPE <15%)?
  • Erros explicáveis?

Qui (Dia 11): Deploy

Atividades:

  1. Preparar script de deploy
  2. Deploy em produção (DataSpoc ou cliente)
  3. Testes end-to-end
  4. Monitoring básico (email alerts)

Entregáveis:

  • Modelo em produção
  • Script de deploy documentado
  • Monitoring funcionando

Sex (Dia 12): Output + Validação

Atividades:

  1. Gerar predições para próximo período
  2. Criar output (CSV / integração)
  3. Validar com stakeholder (fazem sentido?)
  4. Ajustar se necessário

Entregáveis:

  • Predições próximo mês
  • CSV ou output definido
  • Stakeholder validou

Seg-Ter (Dia 13-14): Handoff + Docs

3 documentos obrigatórios:

Doc 1: User Guide (para stakeholder) Doc 2: Run Book (para operação) Doc 3: Handoff Técnico (para DataSpoc futuro)

(Templates abaixo)

Atividades:

  1. Escrever 3 docs
  2. Training 2h stakeholder
  3. Gravar vídeo de uso
  4. Handoff final

Entregáveis:

  • 3 documentos completos
  • Vídeo gravado
  • Stakeholder sabe usar

# RUN BOOK — [NOME PROJETO]

**Projeto:** [Nome]  
**Dono:** [Nome Cliente] | [Email] | [Tel]  
**DataSpoc:** [Nome DS] | [Email] | [Tel]  
**Criado:** [DD/MM/AAAA] | **Atualizado:** [DD/MM/AAAA]

---

## 🎯 O QUE FAZ

[1 frase]
**Exemplo:** Prevê vendas mensais dos top 10 produtos com 88% acurácia para evitar ruptura de estoque.

---

## ⚙️ COMO RODAR

### Automático (normal):

Agenda: Toda segunda 6am Ferramenta: [Airflow/Cron/Cowpilot] Logs: [URL ou /path/logs] Email: Envia CSV automático para [email]


### Manual (se necessário):
```bash
ssh [user]@[server]
cd /path/to/project
python run_model.py
# Valida: python validate.py
# Envia: python send_email.py

📊 MÉTRICAS

MétricaBaselineMetaAtualAlerta
MAPE25%<15%[X%]Se >20%
UsoManualSemanal[X%]Se <80%
EconomiaR$ 0R$ 200k/tri[R$ X]-

Dashboard: [URL]


🔴 QUANDO PEDIR AJUDA

ALERTA VERMELHO (ligar 24h):

  • ❌ Modelo não rodou (sem output esperado)
  • ❌ Accuracy caiu >5% (ex: 88% → 83%)
  • ❌ Erro crítico (sistema quebrado)

ALERTA AMARELO (email 48h):

  • ⚠️ Accuracy caiu 3-5% (ex: 88% → 85%)
  • ⚠️ Dados faltando (missing >20%)
  • ⚠️ Uso baixo (ninguém abrindo CSV)

Contato:

  • Email: support@dataspoc.com
  • Emergência: [Tel DataSpoc]
  • SLA: [Básico 48h / Standard 24h / Premium 4h]

🔧 TROUBLESHOOTING

Problema 1: Modelo não rodou

Como sei: Sem email segunda de manhã
Causa comum: Dados não disponíveis ou sistema offline
O que fazer:

  1. Checar logs: [URL ou path]
  2. Se dados offline: Esperar voltar, rodar manual
  3. Se erro sistema: Ligar DataSpoc (vermelho)

Problema 2: Predições parecem erradas

Como sei: Números muito fora (ex: previu 10k, vendeu 100)
Causa comum: Dados novos diferentes ou evento especial
O que fazer:

  1. Validar dados: Teve promoção? Feriado? Black Friday?
  2. Se evento: Normal, modelo não sabia
  3. Se sem evento: Ligar DataSpoc (amarelo)

Problema 3: Não estou usando

Como sei: CSV acumula sem abrir
Causa comum: Difícil de entender ou não confio
O que fazer:

  1. Por que não uso? [Anotar razão]
  2. Falar com DataSpoc: Re-training ou ajustes
  3. Avaliar: Vale continuar?

🔄 RE-TREINO

Quando:

  • Mensal: Primeiro dia útil (automático)
  • On-demand: Se accuracy cai >5%
  • Evento: Mudança grande (novo produto, promoção recorrente)

Como:

  1. DataSpoc coleta dados novos (último mês)
  2. Treina novo modelo
  3. Valida (novo melhor que atual?)
  4. Deploy (se sim) ou Investiga (se não)

Tempo: 2-4 horas
Você faz: Nada (DataSpoc cuida)
Custo: Incluso se plano Standard/Premium, R$ 5k avulso se Básico


🚨 ROLLBACK

Se novo modelo piorou:

  1. DataSpoc reverte para versão anterior (<30 min)
  2. Você recebe email: "Voltamos para versão estável"
  3. DataSpoc investiga problema

Você faz: Nada (automático)


📞 CONTATOS

QuemNomeEmailTelefoneQuando
Dono (você)[Nome][email][tel]Decisões
DataSpoc DS[Nome][email][tel]Dúvidas técnicas
DataSpoc SupportSupportsupport@dataspoc.com[tel]Emergências

📝 HISTÓRICO

DataO que mudouPor quem
01/01/25Criado v1.0[Nome]
[DD/MM][Mudança][Nome]

💡 DICAS RÁPIDAS

✅ BOM:

  • Olhar CSV toda semana (uso regular)
  • Reportar se predições muito erradas
  • Avisar se processo mudou (novo produto, promoção)

❌ EVITAR:

  • Ignorar alertas vermelhos
  • Mudar dados sem avisar DataSpoc
  • Assumir que modelo sabe de eventos futuros

🎯 LEMBRE:

  • Modelo prevê baseado no passado
  • Eventos novos (Black Friday primeira vez) = modelo erra
  • Normal: Accuracy varia ±3% mês a mês
  • Anormal: Accuracy cai >5% = investigar

🔚 DESLIGAMENTO

Se precisar parar temporário:

  1. Avisar DataSpoc 48h antes
  2. DataSpoc pausa scheduler
  3. Re-ativar quando quiser

Se cancelar definitivo:

  1. Reunião final (post-mortem)
  2. DataSpoc arquiva tudo
  3. Sem custo adicional


---

## 📊 CHECKLIST FINAL DE ENTREGA

**Antes de considerar quick win completo:**

**TÉCNICO:**
- [ ] Modelo em produção (não notebook)
- [ ] Performance atinge meta
- [ ] Monitoring configurado
- [ ] Alertas funcionando
- [ ] Código versionado (Git)

**DOCUMENTAÇÃO:**
- [ ] Press Release escrito (pré-building)
- [ ] FAQ respondido (pré-building)
- [ ] Pitch Técnico (pré-building)
- [ ] Rabbit Holes documentados (pré-building)
- [ ] Run Book completo (pós-building)
- [ ] User Guide criado
- [ ] Handoff Técnico criado

**TRANSFERÊNCIA:**
- [ ] Training 2h realizado
- [ ] Vídeo gravado
- [ ] Stakeholder sabe usar
- [ ] Stakeholder testou e validou

**SUSTENTAÇÃO:**
- [ ] Plano de re-treino definido
- [ ] Dono de operação definido
- [ ] Contrato de sustentação assinado
- [ ] SLA acordado

---

## 💡 REGRAS DE OURO

1. **Press Release ANTES de código**
    - Força clareza de valor
2. **70/20/10 é absoluto**
    - Não pular para modelo sem dados bons
3. **Rabbit Holes são proibidos**
    - Se não está no pitch = não fazer
4. **Checkpoint dia 7 é obrigatório**
    - Não forçar continuação se dados ruins
5. **Run Book não é opcional**
    - Sem Run Book = projeto não terminou
6. **Tempo fixo, escopo variável**
    - Dia 14/28 = entregar o que tem
7. **Must-have > Nice-to-have > V2**
    - Clareza de prioridades

---

## 📚 REFERÊNCIAS CONCEITUAIS

**1. Shape Up (Basecamp):**
- Tempo fixo, escopo variável
- Appetite, circuit breaker
- Usado em: Princípio 1, Janelas de desenvolvimento

**2. Prediction Machines (Agrawal, Gans, Goldfarb):**
- Análise → Ação → Julgamento
- Usado em: Playbook 1 Dimensão 3

**3. Working Backwards (Amazon):**
- Press Release First
- FAQ antecipa objeções
- Usado em: Documentos pré-building

---