0%

看了看第一篇文章,其实有些内容没有写,这里新开一个(二),继续补充一些内容。

一、知识库构建

知识库是Agent获取模型外部知识的重要途径,比如与公司相关的知识,这些知识通常不会出现在模型的训练数据中,所以需要通过知识库来补充这些知识。一个通用的叫法就是RAG(Retrieval Augmented Generation),即通过检索相关知识,结合模型生成答案。

阅读全文 »

随着模型在工具调用能力上的提升,Agent也成为当前最热门的方向之一。本文结合个人的实践,分享一些Agent构建的心得及避坑经验。

一、选择合适的模型

截止2025年9月,市面上已经有多款支持长上下文和工具调用能力的开源大模型,闭源的有GPT-5 Cluade-Sonnet-4等,开源的有Qwen3、Kimi-K2 Deepseek-V3.1等。那么如何选择合适的模型呢?这里有几个建议:

阅读全文 »

经过一年多的跟踪,目前大模型已经专注于Coder和Agent领域,也注意到中国的模型在不断的进步,已经成为开源模型的主力军。

模型名称 MOE 架构 参数大小 激活参数大小 上下文长度 公司名称 发布时间
gpt-oss 120B 20B 128K OpenAI 2025-08-05
kimi-k2 1T 32B 128K 月之暗面 2025-07-11
qwen3 235B 22B 128K 阿里巴巴 2025-04-29
Llama4-maverick 402B 17B 1M Meta 2025-04-06
Llama4-scout 109B 17B 10M Meta 2025-04-06
Deepseek-R1 671B 37B 128K Deepseek 2025-01-20
Deepseek-V3 671B 37B 128K Deepseek 2025-01-20
Qwen2.5 0.5B-72B - 128K 阿里巴巴 2024-09-19
Deepseek-v2.5 236B 21B 128K DeepSeek 2024-09-06
Mistral-Large2 123B - 128K Mistral 2024-07-24
Llama3.1 7B 70B 405B - 128K Meta 2024-07-23
Mistral-nemo 12B - 128K Mistral 2024-07-19
Gemma2 9B 27B - 8K Google 2024-06-27
Qwen2 0.5B 1.5B 7B 72B - 32K 128K 阿里巴巴 2024-06-15
GLM-4 9B - 128K 1M 智谱 AI 2024-06-05
Codestral 22B - 32K Mistral 2024-05-30
Yuan2.0-M32 40B 3.7B 16K 浪潮信息 2024-05-30
Phi3-medium 14B - 4K 128K Microsoft 2024-05-21
Yi-1.5 6B 9B 34B - 4K 零一万物 2024-05-13
Deepseek-v2 236B 21B 128K DeepSeek 2024-05-06
Phi3-mini 3.8B - 4K 128K Microsoft 2024-04-23
Llama3 8B 70B - 8K Meta 2024-04-18
WizardLM2 7B 8X22B 70B 39B 65K Microsoft 2024-04-15
Mixtral 8*22B 8X22B 39B 65K Mistral 2024-04-10
Gemma1.1 2B 7B - 8K Google 2023-04-10
Qwen1.5-32B 32B - 32K 阿里巴巴 2024-04-05
Command-R plus 104B - 128K Cohere 2024-04-04
DBRX-instruct 132B 36B 32K Databricks 2024-03-27
Grok-1 314B 86B 8K X ai 2024-03-17
Command-R 35B - 128K Cohere 2024-03-11
Gemma 2B 7B - 8K Google 2023-02-21
Qwen1.5 0.5B-72B - 32K 阿里巴巴 2024-02-04
LLama2 7B-70B - 4K Meta 2023-07-16

场景

实现一个本地LLM前端Chat界面,使用Ollama部署本地LLM。基本功能:在前端设置模型的服务地址如http://localhost:11434,由于浏览器存在跨域问题,所以必须采用一些方法来解决该问题。

阅读全文 »

背景

由于众所周知的原因导致国内开发者下载慢甚至无法下载某些开发工具,从而导致开发效率极其低下。一种解决办法就是科学上网,但是不是所有人都能找到途径,还有一种办法就是修改为国内镜像源等方式解决这个问题。

阅读全文 »

背景

2023年是开源LLM爆发的一年,不仅包含非常多优秀的开源模型,还有大量结合LLM开发智能应用的工具,这篇文章主要整理相关内容,包括但不限于以下:

  • 本地LLM部署
  • LLM+RAG 工具
  • Agent工具
阅读全文 »