Whisper é a opção mais forte para transcrever arquivos de áudio gravados, especialmente em inglês. Soniox foi criado para streaming em tempo real — ele emite resultados parciais de baixa latência via WebSocket conforme a fala chega. Se você precisa que as legendas apareçam enquanto alguém ainda está falando, Soniox é a arquitetura certa. O Whisper agora também pode ser usado em fluxos de transcrição em tempo real, mas ainda tende a exigir mais engenharia e ajustes para experiências de legendas ao vivo do que uma pilha STT nativa para streaming.

Ahmad passou três dias integrando o Whisper para legendas ao vivo em reuniões. A precisão era boa. Mas as legendas apareciam 2–4 segundos após cada frase — quando "o que você acha do cronograma do escritório de Berlim?" aparecia na tela, a conversa já tinha passado para orçamentos. Essa diferença não é um bug para corrigir. É uma consequência de como a arquitetura do Whisper funciona.

Você provavelmente já viu o Whisper descrito como o padrão-ouro do reconhecimento de fala open-source. Essa reputação é merecida — no caso de uso certo. Este artigo explica por que a arquitetura importa mais do que pontuações de benchmark quando você precisa de legendas em uma reunião ao vivo, cobre o custo real de hospedar o Whisper por conta própria e oferece um framework claro de decisão para a sua situação específica.

Principais conclusões

Como Whisper e Soniox são construídos de forma diferente

Whisper: o Transformer orientado a lotes

OpenAI lançou o Whisper em setembro de 2022 como um modelo ASR open-source treinado com 680.000 horas de áudio multilíngue. Sua arquitetura é um Transformer encoder-decoder: o áudio é convertido em um espectrograma log-Mel, passado por um encoder e decodificado em tokens de texto. O artigo original do Whisper cobre a família original de modelos até large; atualizações posteriores do model card adicionaram checkpoints mais novos, como o large-v3.

Essa arquitetura é poderosa para áudio limpo. Mas ela tem uma limitação estrutural: o encoder processa uma janela fixa de áudio antes que o decoder produza qualquer saída. A janela padrão do Whisper é de 30 segundos. Na prática, você coleta áudio por um período, envia esse bloco ao modelo e recebe uma transcrição. O resultado aparece depois que o bloco termina — não palavra por palavra conforme a fala acontece.

Adaptadores de terceiros como faster-whisper (usando o backend CTranslate2) e whisper-live reduzem isso ao diminuir o tamanho dos blocos e sobrepor janelas. Em uma GPU capaz com o modelo small, você pode reduzir a latência para algo em torno de 1–2 segundos. Com o large-v3 para melhor precisão, espere no mínimo 2–4 segundos. Legendas do Whisper abaixo de 500ms não são viáveis na prática sem destruir a precisão que faz o Whisper valer a pena.

Soniox: criado para streaming, não adaptado depois

Soniox é uma API comercial de STT em tempo real projetada em torno de uma arquitetura de streaming. Ela abre uma conexão WebSocket, recebe áudio de forma incremental e retorna tokens parciais conforme a fala chega — antes que a frase esteja completa. Quando alguém diz "A reunião começa na sexta—", o Soniox já emitiu "A", "reunião", "começa" como tokens parciais. Esses tokens são atualizados e finalizados à medida que mais contexto chega, o que faz as legendas parecerem conversacionais em vez de pós-processadas.

Isso não é Whisper com um backend de inferência mais rápido. É um objetivo de design diferente: saída parcial de baixa latência em uma conexão persistente, em vez de saída final de alta precisão após um bloco completo de áudio. Você pode aprender mais sobre como o Whisper funciona em um nível não técnico se ainda não conhece essa diferença de arquitetura.

Recurso OpenAI Whisper Soniox
Arquitetura Transformer encoder-decoder (lote) WebSocket em streaming (tokens parciais)
Streaming em tempo real Possível, mas não nativo para streaming Sim — nativo
Latência (uso ao vivo) 1–3 s mín. (faster-whisper, GPU) Resultados parciais de baixa latência
Precisão em inglês Melhor da categoria em áudio limpo Forte em fala conversacional
Idiomas 99+ Principais idiomas do mundo
Diarização de falantes Não integrada (precisa de pyannote) Nativa
Implantação Hospedado por conta própria ou APIs da OpenAI (lote + tempo real) Somente API (gerenciada)
Open-source Sim (Apache 2.0) Não (comercial)
Melhor para Áudio gravado, pós-processamento Reuniões ao vivo, legendas em tempo real

Precisão: onde cada mecanismo vence

Para áudio em inglês com leitura limpa — podcasts, narração, aulas gravadas com um único falante claro — o Whisper large-v3 está entre os melhores modelos disponíveis, open-source ou comerciais. No conjunto de teste LibriSpeech test-clean, ele alcança taxas de erro por palavra competitivas com transcrição humana em fala lida.

Soniox é ajustado para fala conversacional: falas sobrepostas, inglês com sotaque, falantes não nativos e alternância entre idiomas. O MirrorCaption o escolheu especificamente porque ele lida melhor com os tipos de erro que importam em reuniões — nomes próprios, termos técnicos, falantes com sotaques não nativos — do que modelos em lote otimizados para áudio estilo audiobook.

A questão da precisão também é inseparável da questão da latência. O processamento em lote do Whisper lhe dá contexto completo antes de confirmar qualquer token, o que ajuda na precisão em frases difíceis. O modelo em streaming do Soniox precisa emitir tokens parciais com contexto incompleto e depois se autocorrigir. Para uma gravação, o lote vence em precisão. Para uma conversa ao vivo, esperar 3 segundos cria outro tipo de erro: o momento errado para responder.

Uma ressalva honesta: não fizemos um teste controlado frente a frente com o mesmo áudio de reunião ao vivo. Para benchmarks publicados, veja o model card do Whisper no GitHub. Para os benchmarks declarados do Soniox, consulte diretamente soniox.com. Nossa análise mais ampla sobre precisão de tradução em tempo real cobre como a precisão se degrada em condições de streaming em vários mecanismos STT.

Latência em tempo real: a diferença de arquitetura

Durante uma negociação comercial entre uma equipe em São Paulo e um parceiro em Seul, o líder coreano disse algo que deixou a sala em silêncio. Todos esperaram. O tradutor não estava na chamada. O MirrorCaption estava rodando em uma aba do navegador — e a tradução apareceu antes que alguém tivesse tempo de perguntar "o que ele quis dizer?" A equipe teve tempo de responder no mesmo fôlego.

Aqui está o que "tempo real" realmente significa em diferentes abordagens de STT:

Essa diferença de 1–3 segundos é a diferença entre ler um registro e ter uma conversa. Se você precisa interromper, fazer uma pergunta de esclarecimento ou captar uma nuance de negociação no momento, o timing importa. O MirrorCaption adiciona tradução baseada em GPT sobre o streaming do Soniox — e o tempo de ponta a ponta da fala até a legenda traduzida ainda fica abaixo de 500ms.

Veja você mesmo a diferença de latência. MirrorCaption é grátis por 1 hora, uma única vez — sem cartão de crédito.

Experimente na sua próxima reunião

Implantação e configuração

Executando o Whisper: o que isso realmente exige

Os pesos do modelo Whisper são gratuitos (Apache 2.0). Para executá-los, você precisa de Python 3.8+, ffmpeg e dependências via pip. Para qualquer coisa além do modelo small, você vai querer uma GPU compatível com CUDA: o large-v3 precisa de aproximadamente 10GB de VRAM. Para uso em tempo real, você também precisa de lógica de divisão de áudio em blocos, um servidor WebSocket para transmitir áudio do navegador e um adaptador de streaming como faster-whisper ou whisper-live.

Clara, uma PM coordenando entre Munique e Tóquio, ouviu da equipe de desenvolvimento: "É só usar Whisper, é open-source." Ela clicou no link do GitHub. Trinta e oito dependências Python. Uma nota sobre drivers CUDA. Uma página separada sobre ffmpeg no Windows. Ela precisava de legendas em 15 minutos. Em vez disso, abriu o MirrorCaption — colou a URL, clicou em Iniciar e já tinha legendas ao vivo antes de o café esfriar.

Se você é um desenvolvedor confortável com Python e infraestrutura em nuvem, hospedar o Whisper por conta própria é administrável. Se você está criando um produto em que as legendas precisam funcionar no navegador do usuário sem instalar um servidor, você vai precisar de um intermediário de API de qualquer forma. Nesse ponto, a vantagem do open-source "gratuito" já foi convertida em custo de infraestrutura.

Soniox: API-first, sem infraestrutura

Soniox é somente API. Você se autentica com uma chave, abre uma conexão WebSocket para wss://stt-rt.soniox.com/transcribe-websocket, envia frames de áudio e recebe tokens. Sem pesos de modelo locais, sem provisionamento de GPU. Um desenvolvedor consegue integrar isso em uma tarde.

Para não desenvolvedores, o próprio Soniox não é acessível diretamente — é uma API para desenvolvedores. É aí que MirrorCaption vs OpenAI Whisper se torna relevante: o MirrorCaption transforma o streaming do Soniox em uma interface no navegador, para que você tenha legendas abaixo de 500ms sem configuração, self-hosting ou chaves de API. Para uma visão mais ampla de alternativas sem código, veja alternativas ao Whisper sem programação.

A API Whisper da OpenAI

A OpenAI oferece transcrição com Whisper via API por $0.006/minuto e também disponibiliza sessões de transcrição em tempo real para whisper-1. Isso remove grande parte da carga de infraestrutura. O trade-off restante é arquitetural e de produto: o Whisper continua sendo mais forte para áudio gravado e pós-processamento, enquanto uma pilha nativa para streaming como Soniox geralmente é a opção mais fácil quando o requisito do produto é ter legendas ao vivo com baixa latência.

Preço: "Open-source" não é grátis

A comparação de custos surpreende a maioria das pessoas que presumem que o Whisper é gratuito.

Whisper hospedado por conta própria (100 horas/mês de uso em reuniões ao vivo):
100 horas = 6.000 minutos de transcrição contínua. Para lidar com isso no ritmo de uma reunião em quase tempo real, você precisa de um servidor com GPU rodando durante as reuniões — não apenas um job em lote. Uma instância intermediária de GPU em nuvem capaz de rodar o large-v3 em velocidade utilizável (por exemplo, uma AWS g5.xlarge ou equivalente) custa aproximadamente $1–2/hora. Em 100 horas de reunião por mês: $100–200 só em tempo de GPU, além do tempo de engenharia para construir e manter a integração.

API Whisper da OpenAI (100 horas/mês):
6.000 minutos × $0.006 = $36/mês. Acessível e sem configuração do lado hospedado. A transcrição em tempo real agora também está disponível, mas construir um produto refinado de legendas ao vivo sobre isso ainda exige mais trabalho do que uma API pensada primeiro para streaming.

MirrorCaption (usuário final, 100 horas/mês):
O plano Annual por €29/ano cobre 100 horas (€0.29/hora). O plano Lifetime por €49 cobre 200 horas com pagamento único. Para usuários ocasionais, o plano gratuito oferece 1 hora (uma única vez) sem custo.

Para uma equipe com 20 horas de reuniões multilíngues por mês, os €29/ano do MirrorCaption equivalem a cerca de €0.12/hora com tudo incluído. O Whisper hospedado por conta própria com tarifas de GPU custa de 8 a 15 vezes mais — antes mesmo de contar o tempo para construir e manter a infraestrutura de streaming.

€49 uma vez. 200 horas de legendas ao vivo em mais de 60 idiomas. Sem assinatura, sem infraestrutura.

Ver preços

Qual você deve escolher?

Escolha Whisper se... Escolha Soniox se...
Você está transcrevendo arquivos de áudio gravados (podcasts, aulas, entrevistas) Você precisa de legendas enquanto alguém ainda está falando
Seu conteúdo é principalmente em inglês, com áudio limpo Você trabalha com fala multilíngue ou com sotaque
Você já tem Python e infraestrutura de GPU Você precisa de uma API gerenciada sem self-hosting
Você está criando um pipeline de transcrição em lote Você está criando uma ferramenta de reunião ou legendagem em tempo real
Precisão máxima em áudio gravado é a prioridade Latência mínima em áudio ao vivo é a prioridade

Se você é um usuário final — e não um desenvolvedor criando um pipeline — nem Whisper nem Soniox são acessíveis diretamente sem uma camada de interface. MirrorCaption é essa camada para Soniox: um app no navegador que oferece o streaming abaixo de 500ms do Soniox, tradução com GPT em mais de 60 idiomas e detecção de falantes, sem nada para instalar. Veja nosso comparativo de melhores softwares de fala para texto em 2026 para uma comparação mais ampla de ferramentas para usuários finais.

Por que o MirrorCaption usa Soniox

MirrorCaption é construído em torno do STT em streaming do Soniox porque o caso de uso exige isso. Em uma reunião ao vivo, uma latência de 3 segundos é uma experiência quebrada — uma tradução aparecendo depois que o falante já passou para a próxima frase não é uma legenda, é um registro atrasado. Escolhemos o Soniox especificamente porque ele foi projetado para streaming desde o início, não adaptado depois.

Sobre o streaming do Soniox, o MirrorCaption adiciona refinamento de tradução com GPT para suporte a mais de 60 idiomas e chaves temporárias de API criptografadas com AES-GCM (TTL de 2 segundos, emitidas via uma Supabase Edge Function), para que seu áudio nunca passe pelos nossos servidores com uma credencial persistente. A arquitetura é transparente porque confiança exige detalhes: usamos Soniox STT e OpenAI GPT. Nada de "motor neural proprietário".

Perguntas frequentes

O Whisper funciona em tempo real?

Parcialmente. A OpenAI agora disponibiliza transcrição em tempo real para whisper-1, e adaptadores self-hosted podem aproximar o Whisper do uso ao vivo. Mas a família de modelos continua sendo mais forte em áudio gravado e pós-processamento do que em legendagem com latência ultrabaixa. Se você precisa de legendas que acompanhem de forma confiável uma conversa ao vivo, um mecanismo nativo para streaming como Soniox ainda é a opção mais simples.

Soniox é mais preciso que Whisper?

Nos benchmarks publicados de inglês com leitura limpa (LibriSpeech), o Whisper large-v3 lidera. Em fala conversacional com sotaques, alternância multilíngue e condições de reunião ao vivo, a diferença diminui e o ajuste conversacional do Soniox se torna uma vantagem. Não existe uma resposta única — a comparação certa é o que cada mecanismo faz com o seu áudio específico, não com um conjunto de benchmark. Para uma análise mais profunda, veja nossa análise sobre precisão de tradução em tempo real.

Posso usar o Whisper para legendas ao vivo em reuniões?

Sim, com configuração significativa. Você precisa de um adaptador de streaming (faster-whisper ou whisper-live), um servidor WebSocket para receber o áudio do navegador e uma GPU capaz de inferência rápida. Espere 1–3 segundos de latência na melhor das hipóteses com o modelo small em uma GPU capaz. Para a maioria das equipes, a sobrecarga de engenharia e o custo de infraestrutura superam o rótulo de "grátis", especialmente em comparação com APIs gerenciadas de streaming ou ferramentas como MirrorCaption.

Qual é a forma mais barata de obter reconhecimento de fala em tempo real?

O plano gratuito do MirrorCaption oferece 1 hora (uma única vez) de legendas em streaming com tradução, impulsionadas por Soniox — sem cartão de crédito, sem instalação. Para avaliação ocasional, isso cobre a maioria dos usuários. Para uso contínuo, o plano Annual por €29/ano (100 horas) equivale a €0.29/hora, o que é menos do que o Whisper hospedado por conta própria em uma GPU na nuvem em qualquer volume relevante de reuniões.

Qual mecanismo STT o MirrorCaption usa?

MirrorCaption usa STT em streaming via WebSocket do Soniox para transcrição e OpenAI GPT para refinamento de tradução e resumos de reuniões. Chaves temporárias de API do Soniox são emitidas com TTL de 2 segundos via uma Supabase Edge Function — seu áudio é transmitido diretamente do seu navegador para os servidores do Soniox e não é armazenado na infraestrutura do MirrorCaption.

Em resumo: Soniox e Whisper atendem a casos de uso principais diferentes. Whisper é a escolha certa para transcrição em lote de alta precisão de arquivos gravados. Soniox é a escolha certa quando a latência importa mais do que a precisão offline perfeita — ou seja, em toda reunião ao vivo.

Experimente grátis as legendas com Soniox

MirrorCaption oferece streaming do Soniox + tradução com GPT em uma aba do navegador. 1 hora grátis (uma única vez). Sem instalação. Funciona em qualquer videochamada ou conversa presencial.

Abrir MirrorCaption grátis