Llama 2 的对话中文微调参数模型:由于 Llama 2 本身的中文对齐比较弱,开发者采用了中文指令集来进行微调,使其具备较强的中文对话能力。目前这个中文微调参数模型总共发布了 7B,13B 两种参数大小。
该模型基于 Meta Platform 的 Llama 2 Chat 开源模型进行微调。Llama 2 在 2 万亿个 token
上进行训练,上下文长度提升至 4096
,使用 100 万个人工标注数据对聊天模型进行微调。
ollama serve ollama run llama2-chinese --------------- curl -X POST http://localhost:11434/api/generate -d '{ "model": "llama2-chinese:7b-chat-q4_0", "prompt":"CommandNotFound 发音为何是坑否?" }'