Everything 语言模型是一个基于 Llama 2 的模型,具有 16k 上下文,由 Totally Not An LLM(Kai Howard) 发布。它使用 EverythingLM 数据集进行训练,注意该模型,并且未经审查。
ollama run everythinglm
curl -X POST http://localhost:11434/api/generate -d '{
"model": "everythinglm",
"prompt": "Why is the sky blue?"
"options": {
"num_ctx": 16384
}
}'