command-r7b-arabic AI Models
Command R7B Arabic 是一种快速高效的 AI 模型,可以在低端 GPU、MacBook 甚至 CPU 上使用。与 R 系列中的其他模型类似,它提供 128k
的上下文长度,并在对企业最重要的功能方面具有行业领先的性能,例如区域语言理解和使用检索增强生成 RAG 的引文准确率。其紧凑的尺寸使企业能够更轻松地将阿拉伯语 AI 应用程序扩展到生产中。
Command R7B Arabic 现已在 Cohere 平台上推出,并可在 HuggingFace 和 Ollama 上访问。正如对 R 系列其他产品所做的那样,Command R7B Arabic 正在发布模型权重,以便研究界能够使用最先进的 AI 技术。
# pip install 'git+https://github.com/huggingface/transformers.git' from transformers import AutoTokenizer, AutoModelForCausalLM model_id = "CohereForAI/c4ai-command-r7b-arabic-02-2025" tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForCausalLM.from_pretrained(model_id) # Format message with the c4ai-command-r7b-arabic-02-2025 chat template messages = [{"role": "user", "content": "مرحبا، كيف حالك؟"}] input_ids = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt") gen_tokens = model.generate( input_ids, max_new_tokens=100, do_sample=True, temperature=0.3, ) gen_text = tokenizer.decode(gen_tokens[0]) print(gen_text)
输入:模型仅输入文本。
输出:模型仅生成文本。
模型架构:这是一个使用优化的转换器架构的自回归语言模型。经过预训练后,该模型使用监督微调 SFT 和偏好训练,使模型行为与人类偏好保持一致,以实现有用性和安全性。该模型具有三层,具有滑动窗口注意功能(窗口大小为 4096)和 ROPE,可实现高效的局部上下文建模和相对位置编码。第四层使用全局注意功能,无需位置嵌入,从而实现整个序列中不受限制的标记交互。
涵盖的语言:command-r7b-arabic AI 模型已针对阿拉伯语和英语进行了训练和性能评估,但其训练数据包括来自其他语言的样本。
上下文长度:C4AI Command R7B Arabic 支持 128,000 个标记的上下文长度。
C4AI Command R7B Arabic 可以配置为对话和指导模型,具体取决于提供的前言。
对话模式以交互行为为条件,这意味着模型需要以对话方式回复、提供介绍性陈述和后续问题,并在适当的情况下使用 Markdown 和 LaTeX。它针对模型参与对话的交互式体验(例如聊天机器人)进行了优化。
相比之下,指导模式则以简洁而全面的响应为条件,默认情况下不使用 Markdown / LaTeX。它专为非交互式、以任务为中心的用例而设计,例如提取信息、总结文本、翻译和分类。
注意:C4AI Command R7B Arabic 默认不提供系统前言,更多信息可以在 command-r7b-arabic 的文档中找到。
C4AI Command R7B 阿拉伯语专门针对阿拉伯语和英语检索增强生成 (RAG) 的生成步骤等任务进行了训练。
Transformers 中的聊天模板支持使用 C4AI Command R7B 阿拉伯语的 RAG。使用我们的 RAG 聊天模板,该模型将对话(带有可选的用户提供的系统前言)以及文档片段列表作为输入。结果输出包含带有内联引用的响应。