Primeiros Passos com byCode
A instalação do byCode é projetada para ser simples e não invasiva. Como o byCode opera com modelos locais de IA, a primeira coisa que precisamos é ter um host de IA local rodando. O Ollama é o padrão recomendado.
1. Instalando Ollama
Primeiramente, baixe e instale o Ollama. Após instalar, abra seu terminal nativo e baixe o modelo recomendado (Llama 3 8B ou similar):
ollama run llama3
Uma vez rodando, o Ollama já expõe sua porta padrão (11434) localmente, pronta para ser ouvida pelo byCode.
2. Inicializando o byCode
Execute o instalador do byCode no Windows (ou Linux/macOS via binário nativo). Abra a plataforma:
- Clique em Select Folder para carregar seu diretório de código.
- Na aba lateral (Sidebar), no ícone de configuração de IA (⚙️), certifique-se de que o Local Strategy está selecionado e o Ollama está apontado corretamente para
http://localhost:11434.
3. O Primeiro Prompt
No Chat à direita (Modo Agente):
"Adicione um console.log no arquivo
main.gono início do boot."
O modelo irá pensar (streaming local), planejar a edição usando a ferramenta patch_file, e você verá um Smart Diff na interface. Aceite a alteração e você estará orquestrando IA localmente!
Aviso de Performance
O tempo da resposta depende da velocidade da sua CPU/GPU local, não dos servidores do byCode. Quanto mais VRAM você tiver (ex: Apple Silicon ou placas NVIDIA), mais fluidos serão os agentes.