Metodologia Quick Wins DataSpoc - 101 - READINESS & SELEÇÃO
🎯 PRINCÍPIOS FUNDAMENTAIS
PRINCÍPIO 1: Quick Win ≠ PoC
PoC tradicional:
- Prova de conceito técnica
- “Funciona ou não funciona?”
- Modelo em notebook
- Apresentação de slides
- Fica na gaveta
Quick Win DataSpoc:
- Solução em produção piloto
- “Gera valor mensurável em 90 dias?”
- Sistema funcionando
- Stakeholder usando
- ROI demonstrado
Diferença crítica: Quick Win precisa gerar AÇÃO, não só conhecimento.
PRINCÍPIO 2: IA Precisa Gerar Ação
Framework “Prediction Machines” (Agrawal, Gans, Goldfarb):
INPUT (Dados)
↓
PREDIÇÃO (IA faz - barato)
↓
JULGAMENTO (Humano decide - caro)
↓
AÇÃO (Processo executa)
↓
OUTCOME (Resultado mensurável)
Teste obrigatório:“Se a IA te der a predição PERFEITA, o que EXATAMENTE você vai fazer?”
Resposta boa (passa):
- ✅ “Vou ligar para o cliente e oferecer desconto 20%”
- ✅ “Vou comprar 500 unidades do fornecedor X”
- ✅ “Vou bloquear a transação”
Resposta ruim (não passa):
- ❌ “Vou analisar melhor”
- ❌ “Vou entender padrões”
- ❌ “Não sei ainda”
Se não passa neste teste → NÃO é quick win, é projeto exploratório
PRINCÍPIO 3: Tempo Fixo, Escopo Variável
Shape Up (Basecamp):
- Appetite (apetite): 2, 4 ou 6 semanas
- Escopo se adapta ao tempo
- Circuit breaker: prazo acabou = entregar o que tem
Aplicação DataSpoc:
- Cliente define urgência (apetite)
- DataSpoc define o que cabe no tempo
- No-gos: o que NÃO vamos fazer
- Fim do ciclo: entregar mesmo incompleto
NÃO fazemos:
- ❌ Estimar “vai levar 8 semanas” e depois pedir mais
- ❌ “Só mais uma semana” infinitamente
- ❌ Entregar nada porque não ficou perfeito
Fazemos:
- ✅ “Temos 2 semanas, vamos entregar X (must) e tentar Y (nice)”
- ✅ “Dia 14: aqui está X funcionando, Y ficou pra v2”
- ✅ “Funciona em small scale, expandir é opcional”
📊 SCORECARD 0-100
5 dimensões obrigatórias:
| Dimensão | Peso | Score Max |
|---|---|---|
| 1. Dados | Alta | 25 |
| 2. Problema | Alta | 25 |
| 3. Processo (Análise→Ação→Julgamento) | Alta | 20 |
| 4. Timing (OKR + Urgência) | Alta | 20 |
| 5. Engajamento (Sponsor + Time) | Média | 10 |
| TOTAL | - | 100 |
Lógica dos pesos:
- Top 4 (20-25 pts cada): Sem eles, quick win não funciona
- Engajamento (10 pts): Importante mas pode compensar com OKR
1️⃣ DIMENSÃO 1: DADOS (25 pontos)
Pergunta-chave:
“Os dados EXISTEM, estão ACESSÍVEIS e têm QUALIDADE mínima?”
Teste prático obrigatório:
PEDIR AMOSTRA DE 1000 REGISTROS
Critérios:
- Prazo: 48h úteis
- Formato: CSV, Parquet, ou SQL dump
- Conteúdo: Dados reais (não sample sintético)
Resultado:
- Recebeu em 24h? → Dados muito prontos (25 pts)
- Recebeu em 48h? → Dados prontos (20 pts)
- Recebeu em 3-5 dias? → Dados existem mas difíceis (12 pts)
- Não recebeu ou >1 semana? → Dados não acessíveis (0 pts)
Scoring:
25 pontos — DADOS PRONTOS:
- ✅ Em warehouse/banco acessível
- ✅ Sample em 24h
- ✅ Volume 10k+ registros
- ✅ Qualidade boa (<10% missing)
- ✅ Estruturados e documentados
Exemplo: Vendas dos últimos 2 anos no BigQuery
20 pontos — DADOS BONS:
- ✅ Dados existem mas espalhados
- ⚠️ Sample em 48h
- ✅ Volume 5k+ registros
- ⚠️ Qualidade OK (10-20% missing)
- ⚠️ Precisa consolidar 2-3 fontes
Exemplo: Vendas no ERP + promoções em Excel
12 pontos — DADOS PARCIAIS:
- ⚠️ Apenas parte dos dados necessários
- ⚠️ Sample em 3-5 dias
- ⚠️ Volume limitado (1-5k)
- ❌ Qualidade ruim (>20% missing)
- ❌ Precisa enriquecer com fonte externa
Exemplo: 6 meses de histórico apenas
0 pontos — SEM DADOS:
- ❌ Precisa coletar do zero
- ❌ Não tem acesso (permissões/compliance)
- ❌ Dados não digitalizados
- ❌ Sample impossível em <1 semana
RED FLAG: Se score <15 → NÃO é quick win
2️⃣ DIMENSÃO 2: PROBLEMA (25 pontos)
Pergunta-chave:
“O problema está ligado a uma DECISÃO REAL?”
Critérios de avaliação:
25 pontos — PROBLEMA CRISTALINO:
- ✅ Métrica única e clara
- ✅ Baseline documentado
- ✅ Meta numérica (de X para Y)
- ✅ Success criteria objetivo
- ✅ Stakeholder sabe EXATAMENTE o que quer
Exemplo: “Reduzir erro de forecast de MAPE 25% para 15%”
18 pontos — PROBLEMA CLARO:
- ✅ Métrica definida mas múltiplas sub-métricas
- ⚠️ Baseline estimado (não medido)
- ✅ Meta geral (não específica)
- ⚠️ Success criteria subjetivo
Exemplo: “Melhorar recomendação de produtos”
10 pontos — PROBLEMA VAGO:
- ⚠️ Métrica subjetiva
- ❌ Sem baseline
- ❌ Meta genérica (“melhorar”)
- ❌ Success criteria não definido
Exemplo: “Usar IA para inovar no atendimento”
0 pontos — NÃO HÁ PROBLEMA REAL:
- ❌ Apenas curiosidade
- ❌ “IA porque todo mundo faz”
- ❌ Sem pain point documentado
Exemplo: “Explorar possibilidades de IA”
RED FLAG: Se score <15 → Fazer discovery de 1 semana antes
3️⃣ DIMENSÃO 3: PROCESSO (20 pontos)
Framework: Análise → Ação → Julgamento
Baseado em “Prediction Machines”
Teste obrigatório:
PERGUNTA: “Se IA prevê X, você faz Y?”
Validação de cada etapa:
ANÁLISE (Predição clara?):
- Predição específica: “Cliente X tem 80% chance de churn”
- Não vaga: “Entender comportamento de clientes”
AÇÃO (Processo definido?):
- Ação específica: “CS liga para cliente X”
- Não vaga: “Vamos analisar”
JULGAMENTO (Humano decide?):
- Critério claro: “Vale a pena? LTV R$ 5k > custo R$ 500”
- Não automático: “IA decide sozinha”
Scoring:
20 pontos — PROCESSO COMPLETO:
ANÁLISE: "Produto X vai rupturar em 7 dias (80% confiança)"
↓
JULGAMENTO: "Comprador decide: vale comprar? (margem vs lead time)"
↓
AÇÃO: "Comprador coloca pedido de 500 unidades"
↓
OUTCOME: "Ruptura evitada, R$ X economizado"
14 pontos — PROCESSO PARCIAL:
- Análise clara
- Ação definida
- Julgamento vago (“depende”)
7 pontos — PROCESSO INCOMPLETO:
- Análise OK
- Ação vaga
- Julgamento indefinido
0 pontos — SEM PROCESSO:
- Análise vaga
- Sem ação definida
- Sem critério de decisão
RED FLAG: Se score <10 → Não passa no teste, não é IA acionável
4️⃣ DIMENSÃO 4: TIMING (20 pontos)
Pergunta-chave:
“Está vinculado a META/OKR com URGÊNCIA real?”
2 sub-critérios:
A) Alinhamento com OKR/Meta (15 pts)
15 pontos — META CRÍTICA:
- ✅ OKR de C-level ou Board
- ✅ Vinculado a bônus/compensação
- ✅ Cobrado em review trimestral
- ✅ Top 3 prioridades da empresa
Exemplo: OKR do CFO “Reduzir custo operacional 20%”
10 pontos — META IMPORTANTE:
- ✅ OKR de área (Head/Director)
- ⚠️ Vinculado a avaliação (não bônus)
- ✅ Será medido
- ⚠️ Não é top 3
Exemplo: OKR do Head de CS “Melhorar NPS em 10 pontos”
5 pontos — DESEJÁVEL:
- ⚠️ Não está em OKR formal
- ⚠️ Mencionado em 1:1s
- ⚠️ “Seria bom ter”
Exemplo: Manager quer melhorar processo mas não no plano
0 pontos — SEM ALINHAMENTO:
- ❌ Não está em nenhum OKR
- ❌ Ninguém cobra
- ❌ Projeto “pet” do lab
B) Urgência (5 pts)
5 pontos — URGÊNCIA ALTA:
- Deadline específico (<3 meses)
- Evento gatilho (board review, lançamento)
- Consequência clara se não fizer
3 pontos — URGÊNCIA MÉDIA:
- Deadline genérico (próximo trimestre)
- Sem evento específico
0 pontos — SEM URGÊNCIA:
- “Quando der tempo”
- Sem deadline
INSIGHT: OKR de C-level = 95% taxa de sucesso vs Sem OKR = 60%
RED FLAG: Se score <10 → Baixa prioridade na prática
5️⃣ DIMENSÃO 5: ENGAJAMENTO (10 pontos)
2 sub-critérios:
A) Sponsor (7 pts)
7 pontos — SPONSOR FORTE:
- ✅ C-level ou Director
- ✅ Decision maker (não precisa aprovar acima)
- ✅ Disponível semanalmente
- ✅ Responde emails <24h
5 pontos — SPONSOR MÉDIO:
- ⚠️ Head ou Manager
- ⚠️ Precisa aprovar algumas decisões
- ⚠️ Disponível quinzenalmente
2 pontos — SPONSOR FRACO:
- ❌ Analista ou júnior
- ❌ Delegado sem poder
- ❌ Indisponível
B) Time (3 pts)
3 pontos — TIME ENGAJADO:
- ✅ Analista dedicado para apoiar
- ✅ Time responde dúvidas rapidamente
- ✅ Participam de validações
2 pontos — TIME MÉDIO:
- ⚠️ Time ajuda quando pode
0 pontos — SEM TIME:
- ❌ Sponsor sozinho
- ❌ Sem suporte
RED FLAG: Se sponsor score <5 → Pedir escalation para sponsor real
📊 TABELA DE DECISÃO
Score total (soma das 5 dimensões):
85-100: QUICK WIN PREMIUM 🟢
Características:
- Dados prontos (25 pts)
- Problema cristalino (25 pts)
- Processo completo (20 pts)
- OKR crítico + urgência (20 pts)
- Sponsor forte (7-10 pts)
Decisão: GO IMEDIATO
Timeline: 2 semanas
Taxa de sucesso esperada: 90-95%
**Exemplo:**Forecast de vendas para top 10 produtos. Dados: 2 anos no BigQuery (25/25). Problema: MAPE 25%→15% (25/25). Processo: Forecast → Comprador decide → Compra estoque (20/20). OKR: CFO meta crítica (15/20). Sponsor: Director Comercial (7/10). Total: 92/100.
70-84: QUICK WIN STANDARD 🟡
Características:
- Dados bons mas precisam trabalho (20 pts)
- Problema claro mas amplo (18 pts)
- Processo parcial (14 pts)
- OKR importante mas não crítico (10-15 pts)
- Sponsor médio (5 pts)
Decisão: GO COM AJUSTES
Ajustes típicos:
- Consolidar dados ANTES (1 semana prep)
- Clarificar ação específica
- Tentar vincular a OKR mais alto
- Reduzir escopo inicial
Timeline: 4 semanas
Taxa de sucesso esperada: 75-85%
**Exemplo:**Churn prediction. Dados: CRM + uso app, consolidar (20/25). Problema: Identificar 70% churns mas ação não clara (18/25). Processo: Predição OK, ação “CS vai ligar” mas critério vago (14/20). OKR: Head CS (10/20). Sponsor: Head CS médio (5/10). Total: 67/100. Ajuste: Definir ação específica (“ligar para top 50 com oferta X”).
50-69: NÃO É QUICK WIN 🟠
Problemas típicos:
- Dados parciais ou difíceis (≤12 pts)
- Problema vago (≤10 pts)
- Processo incompleto (≤7 pts)
- Sem OKR (≤5 pts)
- Sponsor fraco (≤2 pts)
Decisão: NÃO COMEÇAR AGORA
Opções:
- Discovery (2-4 semanas): Clarificar problema e dados
- Preparação (4-8 semanas): Consolidar dados, vincular a OKR
- Pivotar: Buscar quick win alternativo
- Agendar: Revisar em 3-6 meses
**Exemplo:**Recomendação personalizada. Dados: Logs desorganizados (12/25). Problema: “Melhorar conversão” vago (10/25). Processo: Não definido (7/20). OKR: Não formal (5/20). Sponsor: PM júnior (2/10). Total: 36/100. Decisão: Discovery 2 semanas para clarificar.
<50: EVITAR 🔴
Razões:
- Múltiplos red flags
- Cliente imaturo
- Projeto exploratório disfarçado
Decisão: DECLINAR EDUCADAMENTE
O que fazer:
- Explicar por que não é quick win
- Sugerir alternativa (consultoria de maturidade)
- Manter porta aberta para futuro
🚨 RED FLAGS ABSOLUTOS
Se ALGUM destes → PARAR IMEDIATAMENTE:
RED FLAG 1: Dados não acessíveis em 1 semana
- Motivo: 70% do quick win é dados
- Sem dados = sem quick win
- Teste: Sample em 48h falhou
RED FLAG 2: Não passa teste Predição → Ação
- Motivo: IA sem ação = BI, não quick win
- Teste: Não consegue responder “faço X quando IA prevê Y”
RED FLAG 3: Sponsor sem poder de decisão
- Motivo: Precisa aprovações = delays infinitos
- Teste: Precisa aprovar com chefe/comitê
RED FLAG 4: Zero alinhamento com OKR
- Motivo: Prioridade baixa = vai ser abandonado
- Teste: Não está em nenhum OKR formal
RED FLAG 5: Governança bloqueia (compliance/regulação)
- Motivo: Aprovação leva 2-3 meses
- Teste: Precisa comitê de ética, Bacen, Anvisa
Critério de corte:
- 1 red flag: Avaliar se dá pra mitigar
- 2+ red flags: PARAR, não é quick win
📋 CHECKLIST FINAL PRÉ-APROVAÇÃO
Antes de aceitar quick win, TODAS devem ser SIM:
DADOS:
- Sample de 1000 registros recebido em ≤48h?
- Qualidade validada (missing <20%)?
- Volume suficiente (5k+ registros)?
- Acesso garantido por todo o projeto?
PROBLEMA:
- Métrica clara definida (de X para Y)?
- Baseline conhecido ou mensurável?
- Stakeholder sabe o que quer?
PROCESSO (Predição → Ação → Julgamento):
- Predição específica?
- Ação clara (“faço X quando prevê Y”)?
- Julgamento com humano (não automático)?
- PASSOU no teste obrigatório?
TIMING:
- Vinculado a algum OKR (empresa ou área)?
- Alguém está sendo cobrado?
- Tem urgência real (deadline)?
ENGAJAMENTO:
- Sponsor é decision maker?
- Disponível semanalmente (confirmado em calendário)?
- 4 reuniões semanais agendadas?
COMERCIAL:
- Modelo de cobrança acordado?
- Contrato assinado?
- O que acontece se falhar está claro?
Se ALGUM NÃO → Resolver antes de começar
📄 TEMPLATE: SCORING CARD
=== QUICK WIN SCORING CARD ===
Cliente: [Nome]
Projeto: [Nome]
Avaliador: [Nome DS DataSpoc]
Data: [DD/MM/AAAA]
=== SCORING ===
1.DADOS (/25)
Sample recebido em: [X horas]
Qualidade: [Missing %]
Volume: [N registros]
Score: [__/25]
Justificativa:
2.PROBLEMA (/25)
Métrica: [Nome da métrica]
Baseline: [Valor atual]
Meta: [Valor desejado]
Score: [__/25]
Justificativa:
3.PROCESSO (/20)
Predição: [O que IA vai prever]
Ação: [O que pessoa vai fazer]
Julgamento: [Como pessoa decide]
Passou teste? [Sim/Não]
Score: [__/20]
Justificativa:
4.TIMING (/20)
OKR: [Qual OKR específico]
Nível: [C-level / Área / Nenhum]
Urgência: [Alta / Média / Baixa]
Deadline: [Data]
Score: [__/20]
Justificativa:
5.ENGAJAMENTO (/10)
Sponsor: [Nome - Cargo]
Decision maker: [Sim/Não]
Disponibilidade: [Semanal/Quinzenal]
Score: [__/10]
Justificativa:
=== TOTAL: [___/100] ===
=== DECISÃO ===
☐ 85-100: QUICK WIN PREMIUM - Go imediato (2 semanas)
☐ 70-84: QUICK WIN STANDARD - Go com ajustes (4 semanas)
☐ 50-69: NÃO É QUICK WIN - Discovery/Preparação primeiro
☐ <50: EVITAR - Declinar
=== RED FLAGS IDENTIFICADOS ===
☐ Nenhum
☐ Dados não acessíveis
☐ Não passa teste Predição→Ação
☐ Sponsor sem poder
☐ Zero OKR
☐ Governança bloqueia
=== PRÓXIMOS PASSOS ===
[Decisão e ações]
=== ASSINATURAS ===
DataSpoc: _______________ Data: ___/___/___
Cliente: _________________ Data: ___/___/___
📚 REFERÊNCIAS CONCEITUAIS
1. Prediction Machines (Agrawal, Gans, Goldfarb)
- Conceito: IA = máquina de predição barata
- Aplicação: Teste Predição → Ação → Julgamento
- Dimensão 3 do scorecard baseada neste livro
2. Shape Up (Basecamp)
- Conceito: Tempo fixo, escopo variável
- Aplicação: Appetite (2/4/6 semanas), circuit breaker
- Princípio 3 baseado neste framework
3. Working Backwards (Amazon)
- Conceito: Press Release antes do código
- Aplicação: Playbook 2 (Building)
- Força clareza de valor antes de construir
📊 MÉTRICAS DE SUCESSO (DataSpoc)
Para o Scoring:
- % de projetos score 85+ (meta: >30%)
- % de projetos score 70+ (meta: >60%)
- % rejeitados por red flags (aceitar: 20-30%)
Para Quick Wins:
- Taxa de sucesso 85-100: 90-95%
- Taxa de sucesso 70-84: 75-85%
- Taxa de sucesso <70: <50% (validar que estamos rejeitando)