
stable-beluga Models
Stable Beluga 基于 Llama 2,然后根据 Orca 风格的数据集进行了微调。它有 7b、13b 和 70b 参数大小可供选择。它由 Stability AI 创建。
如果需要较高量化级别的问题,请尝试使用 q4 模型或关闭任何其他使用大量内存的程序。
下面示例使用的模型是 Stable Beluga 模型,有 7b 个参数,是一个通用模型。
ollama serve
ollama run stable-beluga
---------------
curl -X POST http://localhost:11434/api/generate -d '{
"model": "stable-beluga",
"prompt":"Explain the process of how a refrigerator works to keep the contents inside cold."
}'