Metodologia Quick Wins DataSpoc - 101 - READINESS & SELEÇÃO

Metodologia Quick Wins DataSpoc - 101 - READINESS & SELEÇÃO

Recurso

🎯 PRINCÍPIOS FUNDAMENTAIS

PRINCÍPIO 1: Quick Win ≠ PoC

PoC tradicional:

  • Prova de conceito técnica
  • “Funciona ou não funciona?”
  • Modelo em notebook
  • Apresentação de slides
  • Fica na gaveta

Quick Win DataSpoc:

  • Solução em produção piloto
  • “Gera valor mensurável em 90 dias?”
  • Sistema funcionando
  • Stakeholder usando
  • ROI demonstrado

Diferença crítica: Quick Win precisa gerar AÇÃO, não só conhecimento.


PRINCÍPIO 2: IA Precisa Gerar Ação

Framework “Prediction Machines” (Agrawal, Gans, Goldfarb):

INPUT (Dados)
    ↓
PREDIÇÃO (IA faz - barato)
    ↓
JULGAMENTO (Humano decide - caro)
    ↓
AÇÃO (Processo executa)
    ↓
OUTCOME (Resultado mensurável)

Teste obrigatório:“Se a IA te der a predição PERFEITA, o que EXATAMENTE você vai fazer?”

Resposta boa (passa):

  • ✅ “Vou ligar para o cliente e oferecer desconto 20%”
  • ✅ “Vou comprar 500 unidades do fornecedor X”
  • ✅ “Vou bloquear a transação”

Resposta ruim (não passa):

  • ❌ “Vou analisar melhor”
  • ❌ “Vou entender padrões”
  • ❌ “Não sei ainda”

Se não passa neste teste → NÃO é quick win, é projeto exploratório


PRINCÍPIO 3: Tempo Fixo, Escopo Variável

Shape Up (Basecamp):

  • Appetite (apetite): 2, 4 ou 6 semanas
  • Escopo se adapta ao tempo
  • Circuit breaker: prazo acabou = entregar o que tem

Aplicação DataSpoc:

  • Cliente define urgência (apetite)
  • DataSpoc define o que cabe no tempo
  • No-gos: o que NÃO vamos fazer
  • Fim do ciclo: entregar mesmo incompleto

NÃO fazemos:

  • ❌ Estimar “vai levar 8 semanas” e depois pedir mais
  • ❌ “Só mais uma semana” infinitamente
  • ❌ Entregar nada porque não ficou perfeito

Fazemos:

  • ✅ “Temos 2 semanas, vamos entregar X (must) e tentar Y (nice)”
  • ✅ “Dia 14: aqui está X funcionando, Y ficou pra v2”
  • ✅ “Funciona em small scale, expandir é opcional”

📊 SCORECARD 0-100

5 dimensões obrigatórias:

DimensãoPesoScore Max
1. DadosAlta25
2. ProblemaAlta25
3. Processo (Análise→Ação→Julgamento)Alta20
4. Timing (OKR + Urgência)Alta20
5. Engajamento (Sponsor + Time)Média10
TOTAL-100

Lógica dos pesos:

  • Top 4 (20-25 pts cada): Sem eles, quick win não funciona
  • Engajamento (10 pts): Importante mas pode compensar com OKR

1️⃣ DIMENSÃO 1: DADOS (25 pontos)

Pergunta-chave:

“Os dados EXISTEM, estão ACESSÍVEIS e têm QUALIDADE mínima?”

Teste prático obrigatório:

PEDIR AMOSTRA DE 1000 REGISTROS

Critérios:
- Prazo: 48h úteis
- Formato: CSV, Parquet, ou SQL dump
- Conteúdo: Dados reais (não sample sintético)

Resultado:
- Recebeu em 24h? → Dados muito prontos (25 pts)
- Recebeu em 48h? → Dados prontos (20 pts)
- Recebeu em 3-5 dias? → Dados existem mas difíceis (12 pts)
- Não recebeu ou >1 semana? → Dados não acessíveis (0 pts)

Scoring:

25 pontos — DADOS PRONTOS:

  • ✅ Em warehouse/banco acessível
  • ✅ Sample em 24h
  • ✅ Volume 10k+ registros
  • ✅ Qualidade boa (<10% missing)
  • ✅ Estruturados e documentados

Exemplo: Vendas dos últimos 2 anos no BigQuery

20 pontos — DADOS BONS:

  • ✅ Dados existem mas espalhados
  • ⚠️ Sample em 48h
  • ✅ Volume 5k+ registros
  • ⚠️ Qualidade OK (10-20% missing)
  • ⚠️ Precisa consolidar 2-3 fontes

Exemplo: Vendas no ERP + promoções em Excel

12 pontos — DADOS PARCIAIS:

  • ⚠️ Apenas parte dos dados necessários
  • ⚠️ Sample em 3-5 dias
  • ⚠️ Volume limitado (1-5k)
  • ❌ Qualidade ruim (>20% missing)
  • ❌ Precisa enriquecer com fonte externa

Exemplo: 6 meses de histórico apenas

0 pontos — SEM DADOS:

  • ❌ Precisa coletar do zero
  • ❌ Não tem acesso (permissões/compliance)
  • ❌ Dados não digitalizados
  • ❌ Sample impossível em <1 semana

RED FLAG: Se score <15 → NÃO é quick win


2️⃣ DIMENSÃO 2: PROBLEMA (25 pontos)

Pergunta-chave:

“O problema está ligado a uma DECISÃO REAL?”

Critérios de avaliação:

25 pontos — PROBLEMA CRISTALINO:

  • ✅ Métrica única e clara
  • ✅ Baseline documentado
  • ✅ Meta numérica (de X para Y)
  • ✅ Success criteria objetivo
  • ✅ Stakeholder sabe EXATAMENTE o que quer

Exemplo: “Reduzir erro de forecast de MAPE 25% para 15%”

18 pontos — PROBLEMA CLARO:

  • ✅ Métrica definida mas múltiplas sub-métricas
  • ⚠️ Baseline estimado (não medido)
  • ✅ Meta geral (não específica)
  • ⚠️ Success criteria subjetivo

Exemplo: “Melhorar recomendação de produtos”

10 pontos — PROBLEMA VAGO:

  • ⚠️ Métrica subjetiva
  • ❌ Sem baseline
  • ❌ Meta genérica (“melhorar”)
  • ❌ Success criteria não definido

Exemplo: “Usar IA para inovar no atendimento”

0 pontos — NÃO HÁ PROBLEMA REAL:

  • ❌ Apenas curiosidade
  • ❌ “IA porque todo mundo faz”
  • ❌ Sem pain point documentado

Exemplo: “Explorar possibilidades de IA”

RED FLAG: Se score <15 → Fazer discovery de 1 semana antes


3️⃣ DIMENSÃO 3: PROCESSO (20 pontos)

Framework: Análise → Ação → Julgamento

Baseado em “Prediction Machines”

Teste obrigatório:

PERGUNTA: “Se IA prevê X, você faz Y?”

Validação de cada etapa:

ANÁLISE (Predição clara?):

  • Predição específica: “Cliente X tem 80% chance de churn”
  • Não vaga: “Entender comportamento de clientes”

AÇÃO (Processo definido?):

  • Ação específica: “CS liga para cliente X”
  • Não vaga: “Vamos analisar”

JULGAMENTO (Humano decide?):

  • Critério claro: “Vale a pena? LTV R$ 5k > custo R$ 500”
  • Não automático: “IA decide sozinha”

Scoring:

20 pontos — PROCESSO COMPLETO:

ANÁLISE: "Produto X vai rupturar em 7 dias (80% confiança)"
    ↓
JULGAMENTO: "Comprador decide: vale comprar? (margem vs lead time)"
    ↓
AÇÃO: "Comprador coloca pedido de 500 unidades"
    ↓
OUTCOME: "Ruptura evitada, R$ X economizado"

14 pontos — PROCESSO PARCIAL:

  • Análise clara
  • Ação definida
  • Julgamento vago (“depende”)

7 pontos — PROCESSO INCOMPLETO:

  • Análise OK
  • Ação vaga
  • Julgamento indefinido

0 pontos — SEM PROCESSO:

  • Análise vaga
  • Sem ação definida
  • Sem critério de decisão

RED FLAG: Se score <10 → Não passa no teste, não é IA acionável


4️⃣ DIMENSÃO 4: TIMING (20 pontos)

Pergunta-chave:

“Está vinculado a META/OKR com URGÊNCIA real?”

2 sub-critérios:

A) Alinhamento com OKR/Meta (15 pts)

15 pontos — META CRÍTICA:

  • ✅ OKR de C-level ou Board
  • ✅ Vinculado a bônus/compensação
  • ✅ Cobrado em review trimestral
  • ✅ Top 3 prioridades da empresa

Exemplo: OKR do CFO “Reduzir custo operacional 20%”

10 pontos — META IMPORTANTE:

  • ✅ OKR de área (Head/Director)
  • ⚠️ Vinculado a avaliação (não bônus)
  • ✅ Será medido
  • ⚠️ Não é top 3

Exemplo: OKR do Head de CS “Melhorar NPS em 10 pontos”

5 pontos — DESEJÁVEL:

  • ⚠️ Não está em OKR formal
  • ⚠️ Mencionado em 1:1s
  • ⚠️ “Seria bom ter”

Exemplo: Manager quer melhorar processo mas não no plano

0 pontos — SEM ALINHAMENTO:

  • ❌ Não está em nenhum OKR
  • ❌ Ninguém cobra
  • ❌ Projeto “pet” do lab

B) Urgência (5 pts)

5 pontos — URGÊNCIA ALTA:

  • Deadline específico (<3 meses)
  • Evento gatilho (board review, lançamento)
  • Consequência clara se não fizer

3 pontos — URGÊNCIA MÉDIA:

  • Deadline genérico (próximo trimestre)
  • Sem evento específico

0 pontos — SEM URGÊNCIA:

  • “Quando der tempo”
  • Sem deadline

INSIGHT: OKR de C-level = 95% taxa de sucesso vs Sem OKR = 60%

RED FLAG: Se score <10 → Baixa prioridade na prática


5️⃣ DIMENSÃO 5: ENGAJAMENTO (10 pontos)

2 sub-critérios:

A) Sponsor (7 pts)

7 pontos — SPONSOR FORTE:

  • ✅ C-level ou Director
  • ✅ Decision maker (não precisa aprovar acima)
  • ✅ Disponível semanalmente
  • ✅ Responde emails <24h

5 pontos — SPONSOR MÉDIO:

  • ⚠️ Head ou Manager
  • ⚠️ Precisa aprovar algumas decisões
  • ⚠️ Disponível quinzenalmente

2 pontos — SPONSOR FRACO:

  • ❌ Analista ou júnior
  • ❌ Delegado sem poder
  • ❌ Indisponível

B) Time (3 pts)

3 pontos — TIME ENGAJADO:

  • ✅ Analista dedicado para apoiar
  • ✅ Time responde dúvidas rapidamente
  • ✅ Participam de validações

2 pontos — TIME MÉDIO:

  • ⚠️ Time ajuda quando pode

0 pontos — SEM TIME:

  • ❌ Sponsor sozinho
  • ❌ Sem suporte

RED FLAG: Se sponsor score <5 → Pedir escalation para sponsor real


📊 TABELA DE DECISÃO

Score total (soma das 5 dimensões):

85-100: QUICK WIN PREMIUM 🟢

Características:

  • Dados prontos (25 pts)
  • Problema cristalino (25 pts)
  • Processo completo (20 pts)
  • OKR crítico + urgência (20 pts)
  • Sponsor forte (7-10 pts)

Decisão: GO IMEDIATO

Timeline: 2 semanas

Taxa de sucesso esperada: 90-95%

**Exemplo:**Forecast de vendas para top 10 produtos. Dados: 2 anos no BigQuery (25/25). Problema: MAPE 25%→15% (25/25). Processo: Forecast → Comprador decide → Compra estoque (20/20). OKR: CFO meta crítica (15/20). Sponsor: Director Comercial (7/10). Total: 92/100.


70-84: QUICK WIN STANDARD 🟡

Características:

  • Dados bons mas precisam trabalho (20 pts)
  • Problema claro mas amplo (18 pts)
  • Processo parcial (14 pts)
  • OKR importante mas não crítico (10-15 pts)
  • Sponsor médio (5 pts)

Decisão: GO COM AJUSTES

Ajustes típicos:

  • Consolidar dados ANTES (1 semana prep)
  • Clarificar ação específica
  • Tentar vincular a OKR mais alto
  • Reduzir escopo inicial

Timeline: 4 semanas

Taxa de sucesso esperada: 75-85%

**Exemplo:**Churn prediction. Dados: CRM + uso app, consolidar (20/25). Problema: Identificar 70% churns mas ação não clara (18/25). Processo: Predição OK, ação “CS vai ligar” mas critério vago (14/20). OKR: Head CS (10/20). Sponsor: Head CS médio (5/10). Total: 67/100. Ajuste: Definir ação específica (“ligar para top 50 com oferta X”).


50-69: NÃO É QUICK WIN 🟠

Problemas típicos:

  • Dados parciais ou difíceis (≤12 pts)
  • Problema vago (≤10 pts)
  • Processo incompleto (≤7 pts)
  • Sem OKR (≤5 pts)
  • Sponsor fraco (≤2 pts)

Decisão: NÃO COMEÇAR AGORA

Opções:

  1. Discovery (2-4 semanas): Clarificar problema e dados
  2. Preparação (4-8 semanas): Consolidar dados, vincular a OKR
  3. Pivotar: Buscar quick win alternativo
  4. Agendar: Revisar em 3-6 meses

**Exemplo:**Recomendação personalizada. Dados: Logs desorganizados (12/25). Problema: “Melhorar conversão” vago (10/25). Processo: Não definido (7/20). OKR: Não formal (5/20). Sponsor: PM júnior (2/10). Total: 36/100. Decisão: Discovery 2 semanas para clarificar.


<50: EVITAR 🔴

Razões:

  • Múltiplos red flags
  • Cliente imaturo
  • Projeto exploratório disfarçado

Decisão: DECLINAR EDUCADAMENTE

O que fazer:

  • Explicar por que não é quick win
  • Sugerir alternativa (consultoria de maturidade)
  • Manter porta aberta para futuro

🚨 RED FLAGS ABSOLUTOS

Se ALGUM destes → PARAR IMEDIATAMENTE:

RED FLAG 1: Dados não acessíveis em 1 semana

  • Motivo: 70% do quick win é dados
  • Sem dados = sem quick win
  • Teste: Sample em 48h falhou

RED FLAG 2: Não passa teste Predição → Ação

  • Motivo: IA sem ação = BI, não quick win
  • Teste: Não consegue responder “faço X quando IA prevê Y”

RED FLAG 3: Sponsor sem poder de decisão

  • Motivo: Precisa aprovações = delays infinitos
  • Teste: Precisa aprovar com chefe/comitê

RED FLAG 4: Zero alinhamento com OKR

  • Motivo: Prioridade baixa = vai ser abandonado
  • Teste: Não está em nenhum OKR formal

RED FLAG 5: Governança bloqueia (compliance/regulação)

  • Motivo: Aprovação leva 2-3 meses
  • Teste: Precisa comitê de ética, Bacen, Anvisa

Critério de corte:

  • 1 red flag: Avaliar se dá pra mitigar
  • 2+ red flags: PARAR, não é quick win

📋 CHECKLIST FINAL PRÉ-APROVAÇÃO

Antes de aceitar quick win, TODAS devem ser SIM:

DADOS:

  • Sample de 1000 registros recebido em ≤48h?
  • Qualidade validada (missing <20%)?
  • Volume suficiente (5k+ registros)?
  • Acesso garantido por todo o projeto?

PROBLEMA:

  • Métrica clara definida (de X para Y)?
  • Baseline conhecido ou mensurável?
  • Stakeholder sabe o que quer?

PROCESSO (Predição → Ação → Julgamento):

  • Predição específica?
  • Ação clara (“faço X quando prevê Y”)?
  • Julgamento com humano (não automático)?
  • PASSOU no teste obrigatório?

TIMING:

  • Vinculado a algum OKR (empresa ou área)?
  • Alguém está sendo cobrado?
  • Tem urgência real (deadline)?

ENGAJAMENTO:

  • Sponsor é decision maker?
  • Disponível semanalmente (confirmado em calendário)?
  • 4 reuniões semanais agendadas?

COMERCIAL:

  • Modelo de cobrança acordado?
  • Contrato assinado?
  • O que acontece se falhar está claro?

Se ALGUM NÃO → Resolver antes de começar


📄 TEMPLATE: SCORING CARD

=== QUICK WIN SCORING CARD ===

Cliente: [Nome]
Projeto: [Nome]
Avaliador: [Nome DS DataSpoc]
Data: [DD/MM/AAAA]

=== SCORING ===

1.DADOS (/25)
Sample recebido em: [X horas]
Qualidade: [Missing %]
Volume: [N registros]
Score: [__/25]
Justificativa:

2.PROBLEMA (/25)
Métrica: [Nome da métrica]
Baseline: [Valor atual]
Meta: [Valor desejado]
Score: [__/25]
Justificativa:

3.PROCESSO (/20)
Predição: [O que IA vai prever]
Ação: [O que pessoa vai fazer]
Julgamento: [Como pessoa decide]
Passou teste? [Sim/Não]
Score: [__/20]
Justificativa:

4.TIMING (/20)
OKR: [Qual OKR específico]
Nível: [C-level / Área / Nenhum]
Urgência: [Alta / Média / Baixa]
Deadline: [Data]
Score: [__/20]
Justificativa:

5.ENGAJAMENTO (/10)
Sponsor: [Nome - Cargo]
Decision maker: [Sim/Não]
Disponibilidade: [Semanal/Quinzenal]
Score: [__/10]
Justificativa:

=== TOTAL: [___/100] ===

=== DECISÃO ===

☐ 85-100: QUICK WIN PREMIUM - Go imediato (2 semanas)
☐ 70-84: QUICK WIN STANDARD - Go com ajustes (4 semanas)
☐ 50-69: NÃO É QUICK WIN - Discovery/Preparação primeiro
☐ <50: EVITAR - Declinar

=== RED FLAGS IDENTIFICADOS ===

☐ Nenhum
☐ Dados não acessíveis
☐ Não passa teste Predição→Ação
☐ Sponsor sem poder
☐ Zero OKR
☐ Governança bloqueia

=== PRÓXIMOS PASSOS ===

[Decisão e ações]

=== ASSINATURAS ===

DataSpoc: _______________ Data: ___/___/___
Cliente: _________________ Data: ___/___/___

📚 REFERÊNCIAS CONCEITUAIS

1. Prediction Machines (Agrawal, Gans, Goldfarb)

  • Conceito: IA = máquina de predição barata
  • Aplicação: Teste Predição → Ação → Julgamento
  • Dimensão 3 do scorecard baseada neste livro

2. Shape Up (Basecamp)

  • Conceito: Tempo fixo, escopo variável
  • Aplicação: Appetite (2/4/6 semanas), circuit breaker
  • Princípio 3 baseado neste framework

3. Working Backwards (Amazon)

  • Conceito: Press Release antes do código
  • Aplicação: Playbook 2 (Building)
  • Força clareza de valor antes de construir

📊 MÉTRICAS DE SUCESSO (DataSpoc)

Para o Scoring:

  • % de projetos score 85+ (meta: >30%)
  • % de projetos score 70+ (meta: >60%)
  • % rejeitados por red flags (aceitar: 20-30%)

Para Quick Wins:

  • Taxa de sucesso 85-100: 90-95%
  • Taxa de sucesso 70-84: 75-85%
  • Taxa de sucesso <70: <50% (validar que estamos rejeitando)