Seu warehouse é um bucket. Você só não sabe ainda.
Você tem arquivos Parquet no S3. Você tem DuckDB. Você não precisa do Snowflake. Lens monta seu bucket na nuvem como tabelas SQL e deixa você consultar do terminal, do Jupyter ou em linguagem natural.
$ pip install dataspoc-lens $ dataspoc-lens add-bucket s3://my-data $ dataspoc-lens shell
Seu Agente DA está pronto.
Lens vem com AGENT.md — um arquivo de habilidades que transforma qualquer agente de IA no seu analista de dados. Ele descobre tabelas, escreve SQL, responde perguntas de negócio, atualiza cache e exporta relatórios. Em linguagem natural.
O agente roda SQL real em dados reais — não embeddings, não RAG, não aproximações. Cada resposta é baseada nos seus arquivos Parquet reais. Ele verifica a atualidade antes de consultar, para você nunca receber respostas defasadas.
Claude via MCP → Lens
Você: "Monte um relatório semanal de receita por linha de produto." [MCP] cache_refresh_stale() [MCP] list_tables() [MCP] describe_table("orders") [MCP] query("SELECT ...") Agente: "Receita esta semana: R$1.5M. Eletrônicos lidera com R$490k (+15%), seguido por Software com R$435k. Aqui está o export em CSV."
Pare de pagar por queries
Sua conta do Snowflake é $8k/mês e 90% das queries são SELECT COUNT(*).
O analista precisa esperar o time de dados escrever uma query SQL. Toda. Santa. Vez.
Você construiu um pipeline RAG para seu agente de IA responder perguntas sobre seus dados. Ele alucina 40% das vezes.
Antes e depois
O que muda quando você troca para o Lens.
$8k/mês de Snowflake
$0 — DuckDB é grátis
"Alguém pode rodar essa query pra mim?"
dataspoc-lens ask "receita mensal"
Pipeline RAG customizado para IA
dataspoc-lens mcp — SQL real, sem alucinações
Seis superpoderes
Todas as formas de consultar seu data lake — para humanos e máquinas.
Shell SQL
Shell SQL interativo powered by DuckDB. Tab completion, histórico, dot commands. Seus arquivos Parquet parecem tabelas Postgres.
lens> SELECT customer, SUM(total) FROM orders GROUP BY customer ORDER BY 2 DESC LIMIT 5; ┌────────────┬──────────┐ │ customer │ sum │ │ Acme Corp │ $247,891 │ │ Initech │ $189,234 │ └────────────┴──────────┘
AI Ask
Faça perguntas em linguagem natural. Lens gera SQL real, executa nos dados reais e mostra os resultados. Sem embeddings. Sem vector stores. Sem chutes.
$ dataspoc-lens ask "top clientes por receita" SQL: SELECT customer, SUM(total) ... Acme Corp lidera com $247k, seguido por Initech com $189k (+12% QoQ).
Jupyter & Marimo
Abra notebooks pré-conectados ao seu data lake. Todas as tabelas já estão montadas. Só escreva SQL ou Python.
$ dataspoc-lens notebook 3 buckets, 47 tabelas montadas http://localhost:8888 $ dataspoc-lens notebook --marimo
Cache Local
Faça cache dos arquivos Parquet localmente. Queries repetidas são instantâneas. Trabalhe offline no avião. Reduza custos de egress na nuvem para quase zero.
$ dataspoc-lens cache orders $ dataspoc-lens cache --list orders | 24 MB | fresh users | 3 MB | stale $ dataspoc-lens cache users --refresh
Servidor MCP
Transforme seu data lake em uma API para agentes de IA. Claude, Cursor, Windsurf — qualquer cliente MCP ganha acesso SQL read-only. Queries reais, respostas reais, zero alucinações.
$ dataspoc-lens mcp # Seu agente agora pode: # list_tables → descobrir dados # query(sql) → rodar SQL real # ask(question) → linguagem natural para SQL
Python SDK
Alimente seus agentes de IA com dados estruturados e governados. LensClient dá acesso programático ao seu lake inteiro — tabelas, schemas, queries e cache — com os mesmos controles de acesso dos humanos. Sem scraping. Sem exports CSV. Sem pipelines sombra.
from dataspoc_lens import LensClient
with LensClient() as client:
tables = client.tables()
result = client.query("SELECT ...")
answer = client.ask("receita mensal")
client.cache_refresh_stale() Sirva dados para agentes do jeito certo.
Seus agentes de IA precisam de dados. Mas deixá-los fazer scraping de bancos de dados, parsear exports CSV ou construir pipelines RAG customizados é um pesadelo de segurança e qualidade. Lens dá aos agentes uma interface governada e read-only para seu data lake — as mesmas tabelas, os mesmos schemas, as mesmas permissões IAM que seus analistas humanos usam.
Sem novas credenciais para gerenciar. Sem pipelines de dados sombra. Sem acesso não auditado. Agentes consultam via MCP ou Python SDK, e toda query roda como SQL real em Parquet real — não embeddings, não aproximações. Sua governança de dados permanece intacta. Seus agentes recebem a verdade.
Quando seu agente de IA consulta com Lens, ele diz a verdade
SQL real em dados reais. Sem embeddings. Sem vector stores. Sem alucinações.
"Como foram as vendas na semana passada comparado com a anterior?"
MCP call: list_tables
MCP call: describe_table("raw.postgres.orders")
MCP call: query("SELECT ... GROUP BY week")
As vendas foram de $247k na semana passada, alta de 8% em relação aos $228k da semana anterior. Eletrônicos teve o maior salto, com 15%.
Cada número vem de uma query SQL real contra seus dados reais. O agente pode mostrar seu trabalho — porque existe trabalho para mostrar.
Consulte seu lake em 5 minutos. Não em 5 meses.
$ pip install dataspoc-lens
$ dataspoc-lens add-bucket s3://my-data
$ dataspoc-lens shell Ou conecte seu agente de IA: dataspoc-lens mcp