Hoe kan ik helpen?
Je bent verbonden met Llama via Ollama. Stel een vraag of kies een suggestie om te beginnen.
⚙️ Instellingen
Pas het gedrag van je Llama model aan.
Verbinding
Ollama URL
Het adres van de lokale Ollama server
Generatie parameters
Temperature
Hogere waarde = creatiever, lager = meer gefocust (0.0–2.0)
0.70
Top P
Nucleus sampling drempel (0.0–1.0)
0.90
Max tokens
Maximaal aantal tokens in het antwoord
Streaming
Antwoord direct tonen terwijl het gegenereerd wordt
Systeem prompt
Context
Geheugen bewaren
Stuur de volledige gespreksgeschiedenis mee
✓ Instellingen opgeslagen!
Llama 3 via Ollama · lokaal · privé