O Krillin AI é uma solução completa para localização e aprimoramento de vídeos de forma simples. Esta ferramenta minimalista, porém poderosa, cuida de tudo, desde tradução, dublagem até clonagem de voz e formatação — convertendo perfeitamente vídeos entre modos paisagem e retrato para exibição ideal em todas as plataformas de conteúdo (YouTube, TikTok, Bilibili, Douyin, WeChat Channel, RedNote, Kuaishou). Com seu fluxo de trabalho de ponta a ponta, o Krillin AI transforma gravações brutas em conteúdo refinado e pronto para as plataformas com apenas alguns cliques.
🎯 Início com Um Clique - Inicie seu fluxo de trabalho instantaneamente. Nova versão desktop disponível — mais fácil de usar!
📥 Download de Vídeos - Suporte a yt-dlp e upload de arquivos locais
📜 Legendas Precisas - Reconhecimento de alta precisão com tecnologia Whisper
🧠 Segmentação Inteligente - Divisão e alinhamento de legendas baseados em LLM
🌍 Tradução Profissional - Tradução em nível de parágrafo para consistência
🔄 Substituição de Termos - Troca de vocabulário específico por domínio com um clique
🎙️ Dublagem e Clonagem de Voz - Seleção de vozes CosyVoice ou clonagem personalizada
🎬 Composição de Vídeo - Formatação automática para layouts horizontais/verticais
A imagem abaixo mostra o resultado após o arquivo de legenda, gerado com um único clique após a importação de um vídeo local de 46 minutos, ser inserido na timeline. Nenhum ajuste manual foi necessário. Não há legendas faltando ou sobrepostas, a segmentação das frases é natural e a qualidade da tradução também é bastante alta.
subtitle_translation.mp4 |
tts.mp4 |
agi.mp4 |
Todos os modelos locais na tabela abaixo suportam instalação automática de arquivos executáveis + arquivos de modelo. Basta fazer sua seleção e o KrillinAI cuidará de todo o resto para você.
Serviço | Plataformas Suportadas | Opções de Modelo | Local/Nuvem | Observações |
---|---|---|---|---|
OpenAI Whisper | Multiplataforma | - | Nuvem | Rápido com excelentes resultados |
FasterWhisper | Windows/Linux | tiny /medium /large-v2 (recommend medium+) |
Local | Velocidade maior, sem sobrecarga de serviço em nuvem |
WhisperKit | macOS (Apple Silicon only) | large-v2 |
Local | Otimização nativa para chips Apple |
Alibaba Cloud ASR | Multiplataforma | - | Nuvem | Contorna problemas de rede na China continental |
✅ Compatível com todos os serviços compatíveis com API OpenAI locais/em nuvem, incluindo mas não limitado a:
- OpenAI
- DeepSeek
- Qwen (Tongyi Qianwen)
- Modelos de código aberto auto-hospedados
- Outros serviços API compatíveis com formato OpenAI
Idiomas de entrada: Chinês, Inglês, Japonês, Alemão, Turco (mais idiomas em breve) Idiomas para tradução: 101 idiomas suportados, incluindo Inglês, Chinês, Russo, Espanhol, Francês, etc.
Primeiro, baixe o arquivo executável da versão Release compatível com o sistema do seu dispositivo. Siga as instruções abaixo para escolher entre a versão desktop ou não-desktop, depois coloque o software em uma pasta vazia. A execução do programa irá gerar alguns diretórios, portanto, mantê-lo em uma pasta vazia facilita o gerenciamento.
[Para a versão desktop (arquivos de release com "desktop" no nome), consulte aqui] A versão desktop foi lançada recentemente para facilitar o uso por iniciantes que têm dificuldade em editar arquivos de configuração. Ela ainda contém alguns bugs e está em constante atualização.
Clique duas vezes no arquivo para começar a usar.
[Para a versão não-desktop (arquivos de release sem "desktop" no nome), consulte aqui] A versão não-desktop é o lançamento original, com configuração mais complexa porém funcionalidade estável. Também é adequada para implantação em servidores, pois fornece uma interface baseada na web.
Crie uma pasta config no diretório e, em seguida, crie um arquivo config.toml dentro dela. Copie o conteúdo do arquivo config-example.toml (localizado na pasta config do código-fonte) para o seu config.toml e preencha com os detalhes da sua configuração. (Se desejar usar modelos da OpenAI mas não souber como obter uma chave, você pode entrar no grupo para obter acesso gratuito de teste.)
Execute o arquivo com um duplo-clique ou rode-o no terminal para iniciar o serviço.
Abra seu navegador e acesse http://127.0.0.1:8888 para começar a usar. (Substitua 8888 pelo número da porta que você definiu no arquivo de configuração.)
[Para a versão desktop, ou seja, arquivos de release com "desktop" no nome, consulte aqui] O método atual de empacotamento da versão desktop não suporta execução por duplo-clique ou instalação via DMG devido a problemas de assinatura. É necessário configurar manualmente a confiança da seguinte forma:
-
Abra o diretório contendo o arquivo executável (supondo que o nome do arquivo seja KrillinAI_1.0.0_desktop_macOS_arm64) no Terminal
-
Execute os seguintes comandos sequencialmente:
sudo xattr -cr ./KrillinAI_1.0.0_desktop_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_desktop_macOS_arm64
./KrillinAI_1.0.0_desktop_macOS_arm64
[Para a versão não-desktop, ou seja, arquivos de release sem "desktop" no nome, consulte aqui] Este software não está assinado, portanto após completar a configuração do arquivo nos "Passos Básicos", você precisará aprovar manualmente o aplicativo no macOS. Siga estes passos:
- Abra o Terminal e navegue até o diretório onde está o arquivo executável (assumindo que o nome do arquivo seja KrillinAI_1.0.0_macOS_arm64)
- Execute os seguintes comandos em sequência:
sudo xattr -rd com.apple.quarantine ./KrillinAI_1.0.0_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_macOS_arm64
./KrillinAI_1.0.0_macOS_arm64
Isso iniciará o serviço.
Implantação com Docker Docker Deployment Instructions para mais detalhes.
Caso enfrente falhas ao baixar vídeos, consulte as Cookie Configuration Instructions para configurar suas informações de cookie.
O método mais rápido e conveniente de configuração:
- Selecione openai para ambos transcription_provider e llm_provider. Dessa forma, você só precisará preencher openai.apikey nas três principais categorias de configuração a seguir: openai, local_model e aliyun, e então poderá realizar tradução de legendas. (Preencha app.proxy, model e openai.base_url de acordo com sua própria situação.)
O método de configuração para usar o modelo local de reconhecimento de fala (macOS não é suportado temporariamente) - uma opção que equilibra custo, velocidade e qualidade:
- Preencha
fasterwhisper
paratranscription_provider
eopenai
parallm_provider
. Desta forma, você só precisará preencheropenai.apikey
elocal_model.faster_whisper
nas seguintes três principais categorias de itens de configuração, ou seja,openai
elocal_model
, e então você poderá realizar tradução de legendas. O modelo local será baixado automaticamente. (O mesmo se aplica aapp.proxy
eopenai.base_url
conforme mencionado acima.)
As seguintes situações de uso exigem a configuração da Alibaba Cloud:
- Se llm_provider for preenchido com aliyun, indica que o serviço de modelo grande da Alibaba Cloud será utilizado. Consequentemente, a configuração do item aliyun.bailian precisa ser definida.
- Se transcription_provider for preenchido com aliyun, ou se a função "dublagem de voz" for ativada ao iniciar uma tarefa, o serviço de voz da Alibaba Cloud será utilizado. Portanto, a configuração do item aliyun.speech precisa ser preenchida.
- Se a função "dublagem de voz" for ativada e arquivos de áudio locais forem enviados para clonagem de timbre de voz ao mesmo tempo, o serviço de armazenamento em nuvem OSS da Alibaba Cloud também será utilizado. Logo, a configuração do item aliyun.oss precisa ser preenchida. Guia de Configuração: Alibaba Cloud Configuration Instructions
Consulte Frequently Asked Questions
- Não envie arquivos desnecessários como .vscode, .idea, etc. Por favor, utilize adequadamente o .gitignore para filtrá-los.
- Não envie o config.toml; em vez disso, envie o config-example.toml.