Model
🦙
Hoe kan ik helpen?
Je bent verbonden met Llama via Ollama. Stel een vraag of kies een suggestie om te beginnen.
⚙️ Instellingen
Pas het gedrag van je Llama model aan.
Ollama URL
Het adres van de lokale Ollama server
Temperature
Hogere waarde = creatiever, lager = meer gefocust (0.0–2.0)
0.70
Top P
Nucleus sampling drempel (0.0–1.0)
0.90
Max tokens
Maximaal aantal tokens in het antwoord
Streaming
Antwoord direct tonen terwijl het gegenereerd wordt
Geheugen bewaren
Stuur de volledige gespreksgeschiedenis mee
✓ Instellingen opgeslagen!
Llama 3 via Ollama · lokaal · privé