看了看第一篇文章,其实有些内容没有写,这里新开一个(二),继续补充一些内容。
一、知识库构建
知识库是Agent获取模型外部知识的重要途径,比如与公司相关的知识,这些知识通常不会出现在模型的训练数据中,所以需要通过知识库来补充这些知识。一个通用的叫法就是RAG(Retrieval Augmented Generation),即通过检索相关知识,结合模型生成答案。
看了看第一篇文章,其实有些内容没有写,这里新开一个(二),继续补充一些内容。
知识库是Agent获取模型外部知识的重要途径,比如与公司相关的知识,这些知识通常不会出现在模型的训练数据中,所以需要通过知识库来补充这些知识。一个通用的叫法就是RAG(Retrieval Augmented Generation),即通过检索相关知识,结合模型生成答案。
随着模型在工具调用能力上的提升,Agent也成为当前最热门的方向之一。本文结合个人的实践,分享一些Agent构建的心得及避坑经验。
截止2025年9月,市面上已经有多款支持长上下文和工具调用能力的开源大模型,闭源的有GPT-5 Cluade-Sonnet-4等,开源的有Qwen3、Kimi-K2 Deepseek-V3.1等。那么如何选择合适的模型呢?这里有几个建议:
经过一年多的跟踪,目前大模型已经专注于Coder和Agent领域,也注意到中国的模型在不断的进步,已经成为开源模型的主力军。
模型名称 | MOE 架构 | 参数大小 | 激活参数大小 | 上下文长度 | 公司名称 | 发布时间 |
---|---|---|---|---|---|---|
gpt-oss | 是 | 120B 20B | 128K | OpenAI | 2025-08-05 | |
kimi-k2 | 是 | 1T | 32B | 128K | 月之暗面 | 2025-07-11 |
qwen3 | 是 | 235B | 22B | 128K | 阿里巴巴 | 2025-04-29 |
Llama4-maverick | 是 | 402B | 17B | 1M | Meta | 2025-04-06 |
Llama4-scout | 是 | 109B | 17B | 10M | Meta | 2025-04-06 |
Deepseek-R1 | 是 | 671B | 37B | 128K | Deepseek | 2025-01-20 |
Deepseek-V3 | 是 | 671B | 37B | 128K | Deepseek | 2025-01-20 |
Qwen2.5 | 否 | 0.5B-72B | - | 128K | 阿里巴巴 | 2024-09-19 |
Deepseek-v2.5 | 是 | 236B | 21B | 128K | DeepSeek | 2024-09-06 |
Mistral-Large2 | 否 | 123B | - | 128K | Mistral | 2024-07-24 |
Llama3.1 | 否 | 7B 70B 405B | - | 128K | Meta | 2024-07-23 |
Mistral-nemo | 否 | 12B | - | 128K | Mistral | 2024-07-19 |
Gemma2 | 否 | 9B 27B | - | 8K | 2024-06-27 | |
Qwen2 | 否 | 0.5B 1.5B 7B 72B | - | 32K 128K | 阿里巴巴 | 2024-06-15 |
GLM-4 | 否 | 9B | - | 128K 1M | 智谱 AI | 2024-06-05 |
Codestral | 否 | 22B | - | 32K | Mistral | 2024-05-30 |
Yuan2.0-M32 | 是 | 40B | 3.7B | 16K | 浪潮信息 | 2024-05-30 |
Phi3-medium | 否 | 14B | - | 4K 128K | Microsoft | 2024-05-21 |
Yi-1.5 | 否 | 6B 9B 34B | - | 4K | 零一万物 | 2024-05-13 |
Deepseek-v2 | 是 | 236B | 21B | 128K | DeepSeek | 2024-05-06 |
Phi3-mini | 否 | 3.8B | - | 4K 128K | Microsoft | 2024-04-23 |
Llama3 | 否 | 8B 70B | - | 8K | Meta | 2024-04-18 |
WizardLM2 | 是 | 7B 8X22B 70B | 39B | 65K | Microsoft | 2024-04-15 |
Mixtral 8*22B | 是 | 8X22B | 39B | 65K | Mistral | 2024-04-10 |
Gemma1.1 | 否 | 2B 7B | - | 8K | 2023-04-10 | |
Qwen1.5-32B | 否 | 32B | - | 32K | 阿里巴巴 | 2024-04-05 |
Command-R plus | 否 | 104B | - | 128K | Cohere | 2024-04-04 |
DBRX-instruct | 是 | 132B | 36B | 32K | Databricks | 2024-03-27 |
Grok-1 | 是 | 314B | 86B | 8K | X ai | 2024-03-17 |
Command-R | 否 | 35B | - | 128K | Cohere | 2024-03-11 |
Gemma | 否 | 2B 7B | - | 8K | 2023-02-21 | |
Qwen1.5 | 否 | 0.5B-72B | - | 32K | 阿里巴巴 | 2024-02-04 |
LLama2 | 否 | 7B-70B | - | 4K | Meta | 2023-07-16 |
由于众所周知的原因导致国内开发者下载慢甚至无法下载某些开发工具,从而导致开发效率极其低下。一种解决办法就是科学上网,但是不是所有人都能找到途径,还有一种办法就是修改为国内镜像源等方式解决这个问题。
2023年是开源LLM爆发的一年,不仅包含非常多优秀的开源模型,还有大量结合LLM开发智能应用的工具,这篇文章主要整理相关内容,包括但不限于以下: