stable-beluga Models
Stable Beluga 基于 Llama 2,然后根据 Orca 风格的数据集进行了微调。它有 7b、13b 和 70b 参数大小可供选择。它由 Stability AI 创建。
如果需要较高量化级别的问题,请尝试使用 q4 模型或关闭任何其他使用大量内存的程序。
下面示例使用的模型是 Stable Beluga 模型,有 7b 个参数,是一个通用模型。
ollama serve ollama run stable-beluga --------------- curl -X POST http://localhost:11434/api/generate -d '{ "model": "stable-beluga", "prompt":"Explain the process of how a refrigerator works to keep the contents inside cold." }'