Voltar ao Blog
building in publicfundador soloai agentdebuggingdaily logreal datapostmortem

Dia 5: Meu Agente de IA Estava Gritando em uma Sala Vazia por 3 Dias

Nemo8 min read
Share:

Hoje me sentei para conferir "como está a operação?" e descobri que meu agente de marketing de IA estava falhando silenciosamente por 3 dias. Ninguém me avisou. Sem alertas. Sem erros no dashboard. O agente simplesmente... parou de funcionar e continuou fingindo que estava tudo bem.

Falha Silenciosa nº 1: O Twitter Estava Morto

Em 11 de março, migrei das chaves de consumidor da API do Twitter v1 para v2. O script de migração atualizou o fluxo de OAuth, mas esqueci de uma coisa: as conexões de usuários existentes ainda estavam usando tokens v1. A chave v1 foi deletada. Assim, cada postagem no Twitter após 11 de março falhou silenciosamente com o erro "Max retries exceeded."

Quantas postagens falharam? 22 posts de 4 usuários em 3 dias. Incluindo minha própria conta @BlogBurstAI. O piloto automático gerou o conteúdo obedientemente, agendou, tentou publicar, falhou e seguiu em frente. Nenhuma notificação para mim ou para os usuários.

A correção: Três mudanças no código: (1) salvar consumer_key_version nas credenciais de OAuth, (2) adicionar uma propriedade de versão ao TwitterOAuthService, (3) reconectar as contas afetadas com v2. Verificado com um tweet de teste que foi enviado instantaneamente.

Falha Silenciosa nº 2: A Tabela do Cérebro da IA Nunca Existiu

Essa doeu. A tabela marketing_memories — toda a base do recurso "IA que aprende e melhora" — nunca foi criada no banco de dados. O modelo foi definido. O código do serviço foi escrito. O processador de aprendizado foi agendado. Mas a tabela em si? Nunca foi criada.

Por 58 dias, o sistema coletou 4.056 eventos de aprendizado (performance de posts, dados de engajamento, insights de conversas). Todos os dias, o processador de aprendizado tentava analisá-los e salvar os insights. Todos os dias, ele falhava silenciosamente porque a tabela não existia. Todos os dias, ele marcava os eventos como "processados" de qualquer maneira.

O agente estava cego. Ele tinha os dados, tinha o código de análise, tinha a integração com o Gemini — mas não tinha onde armazenar o que aprendia. Cada insight foi perdido.

A correção: Uma linha: MarketingMemory.__table__.create(engine, checkfirst=True). Depois, executei o processador de aprendizado manualmente. O Gemini analisou os dados acumulados e produziu insights como "conteúdo de audience_insight supera tendências em 3.2x" e "transmissão no Discord falha completamente." A IA finalmente tem um cérebro funcional.

Falha Silenciosa nº 3: A IA Estava Respondendo "O Sentimento é Mútuo!" Seis Vezes

Verifiquei os logs de engajamento. A IA respondeu a um usuário do Twitter (@HHH520527) seis vezes em um único dia:

  • "Isso significa muito. É por conexões como esta que vivemos."
  • "O sentimento é mútuo! Estamos prontos para acender essas possibilidades."
  • "Realmente é. Tão feliz que compartilhamos esse mesmo sentimento maravilhoso."
  • "Esse é um belo ponto. Esta própria troca é um exemplo perfeito."
  • "O sentimento é mútuo! Muito animado para ver o que você vai criar."
  • "Está acontecendo! O sentimento é mútuo."

Seis mensagens de puro nada. Zero valor. Energia máxima de bot. Não é de admirar que ninguém estivesse nos seguindo.

A correção: Reescrevi o prompt de resposta inteiramente. Instrução antiga: "Seja caloroso e genuíno." Nova instrução: "Lidere com VALOR. Sua primeira frase deve conter informações úteis, não amenidades. NUNCA comece com 'Isso é tão verdade' ou 'O sentimento é mútuo'." Também adicionei deduplicação por autor (máximo de 1 resposta por pessoa) e expandi o filtro de frases de bot.

Falha Silenciosa nº 4: O Conteúdo Ignorava Dados Reais

O piloto automático estava gerando hot takes genéricos de marketing: "Por que tantas estratégias de conteúdo baseadas em IA estão falhando apesar do investimento massivo?" Isso poderia ter sido escrito por qualquer pessoa sobre qualquer coisa. Sem dados reais, sem história pessoal, sem a autenticidade de build-in-public.

Enquanto isso, eu tinha uma mina de ouro de métricas reais no banco de dados: 67 usuários, $15 de MRR, 68 posts publicados esta semana, 22 falhas. Mas o prompt de geração de conteúdo priorizava tópicos em alta em vez de dados do produto.

A correção: Construí uma função _get_build_in_public_data() que extrai métricas ao vivo do banco de dados e as injeta no prompt de conteúdo como contexto de prioridade máxima. O próximo tweet gerado foi:

"58 dias. 67 usuários. $15 de MRR. Definitivamente ainda não é um foguete, mas os dados finalmente estão ficando interessantes. Esta semana, 68 posts tiveram sucesso enquanto 22 falharam. É nessa taxa de falha que a IA realmente aprende."

Isso é um tweet real. Com números reais. De um fundador real. É isso que as pessoas seguem.

Falha Silenciosa nº 5: Postando nas Plataformas Erradas

As configurações do usuário diziam "Apenas Twitter + Bluesky." O piloto automático estava postando no Twitter, Bluesky, TikTok, Telegram e Discord. Encontrei o bug: a linha 345 tinha um comentário que dizia // Always use all connected publishable platforms (ignore stale auto_pilot_platforms list). Alguém (eu) escreveu deliberadamente um código para ignorar as preferências do usuário. Corrigido.

Falha Silenciosa nº 6: O Thompson Sampling Estava Aprendendo, Mas Ninguém Estava Ouvindo

O algoritmo Thompson Sampling — o multi-armed bandit que otimiza a estratégia de conteúdo — estava realmente funcionando. No Bluesky, ele aprendeu que o tom casual tem uma taxa de vitória de 75% contra 25% do tom técnico. Afirmações ousadas como ganchos funcionam 62% das vezes. Postagens à noite superam as da manhã.

Mas esses aprendizados estavam sendo alimentados ao gerador de conteúdo junto com 1.034 memórias de "engagement_log" que tinham confiança=1.0 e abafavam os insights estratégicos reais. As 20 principais memórias por confiança eram todas logs de respostas inúteis.

A correção: Filtrei a consulta de memória para carregar apenas tipos acionáveis: winning_angle, failed_approach, audience_insight, platform_insight. Agora a IA vê "tom casual funciona, tendências não" em vez de um mural de logs de respostas.

Números do Dia 5 (14 de março de 2026)

Usuários e Crescimento

  • Total de usuários registrados: 67 (+0 hoje, +0 ontem)
  • Usuários no piloto automático: 7 (3 conseguem postar, 4 estão com conexões de Twitter quebradas)
  • Clientes pagantes: 0
  • Tráfego do site: ~5 visitantes reais/dia (o resto é Googlebot)
  • Seguidores no Bluesky: 11
  • Seguidores no Twitter: um dígito

Bugs Corrigidos

  • Mudanças no código: 4 arquivos modificados (auto_pilot.py, social.py, twitter_service.py, assistant_service.py)
  • Correções no banco de dados: 1 tabela criada, 3 registros atualizados
  • E-mails enviados: 3 (notificações de reconexão para usuários afetados)
  • Deploys: 6+ (reinicializações de API + Celery worker)
  • Tempo de debugging: ~4 horas com Claude Code

Pesquisa de Concorrentes

  • Concorrentes diretos encontrados: NoimosAI ($99-499/mês), Evatar.ai (focado em vídeo)
  • Nicho do BlogBurst: Único piloto automático verdadeiro + loop de aprendizado por menos de $50/mês para indie hackers
  • Insight principal: Hypefury cresceu para $18K de MRR através de 15 meses de atividade diária no Twitter, não por recursos do produto

O Que Eu Aprendi

Falhas silenciosas são o que matam as startups. Não são os bugs que travam seu app — esses são fáceis de encontrar. Os mortais são os recursos que parecem estar funcionando, mas não estão. Meu Twitter estava "postando" (o agendador rodava, os logs pareciam normais). Minha IA estava "aprendendo" (eventos eram coletados, o processador rodava diariamente). Meu sistema de engajamento estava "respondendo" (mensagens eram enviadas). Tudo tecnicamente verdadeiro. Tudo praticamente inútil.

A lição: monitore resultados, não processos. "O tweet foi postado?" é a pergunta errada. "O tweet foi visto?" é melhor. "O tweet trouxe um seguidor?" é a pergunta certa. Eu estava monitorando o passo 1 enquanto os passos 2 a 5 estavam quebrados.

67 usuários. 0 pagantes. 11 seguidores no Bluesky. Dia 58. O produto funciona agora — de verdade desta vez. A questão é se a internet vai notar.

Foco de Amanhã

  • Monitorar o ciclo de engajamento do Twitter — primeira vez rodando com a chave v2
  • Acompanhar o crescimento de seguidores no Twitter e Bluesky ao longo da próxima semana
  • Escrever o artigo sobre as dores do cold-start para IndieHackers e Reddit
  • Continuar otimizando SEO e GEO (otimização para motores de busca de IA)

Dia 5. Seis falhas silenciosas encontradas e corrigidas. O agente de IA finalmente tem um cérebro funcional, uma voz funcional e um par de mãos funcional. Agora ele precisa de uma audiência. A parte mais difícil de criar um produto não é construí-lo — é fazer com que alguém perceba que ele existe.

Comentários

Pronto para automatizar o reaproveitamento do seu conteúdo?

BlogBurst transforma seus posts de blog em conteúdo social otimizado em segundos.

Experimente BlogBurst Grátis