编辑
2025-10-15
个人笔记
00

第一部分:起跑线 —— 五分钟读懂 RAG

检索增强生成(RAG)作为一种结合信息检索与文本生成的技术,已成为解决大语言模型(LLM)"知识过时"和"幻觉输出"问题的关键方案。简单来说,RAG 通过将外部知识库与 LLM 生成能力相结合,使模型能够基于真实、最新的信息输出答案。

1. 为什么我们需要 RAG?

在 RAG 出现之前,大模型的应用开发主要依赖提示工程模型微调,但二者都有明显局限:

  • 提示工程:适合简单指令,但无法补充模型未训练过的新知识(如企业内部文档),且受限于上下文窗口长度。
  • 模型微调:能注入新领域知识,但成本高(需大量标注数据+算力)、更新慢(改一次就要重新训一次),且容易遗忘原有能力。

RAG 的核心价值,就是做大模型的“外置知识库”——无需微调,只需通过实时检索外部文档,就能让模型生成更精准、更实时、更合规的答案。

如果把大模型比作一个超级学霸,但他记性不好且知识停留在两年前;那么 RAG 就是给他发了一本随时可查的“参考书”,让他能够进行 “开卷考试”

编辑
2025-10-15
技术文章
00

MCP、RAG、Agent三者虽然是紧密相连,但是是三个不同的概念。同样虽然是三个不同的概念,但是他们之间的关系却紧密相连(废话)。本文主要意在对这三个 AI 领域的概念进行简单是扫盲。

编辑
2025-10-13
随笔
00

个人鄙见,想到哪里写哪里,仅供参考。

作为一个 Java 这样传统的后端程序员,我们作为一个后端的程序,能在 AI 浪潮中发挥出来自己怎么样的优势?一开始我觉得作为一个后端程序员,我们对 AI 相关的知识了解是欠缺的,对我而言就是经常在写代码时用到的 AI 助手。然后,前段时间呢接触写了一个 RAG 原型项目,就是实现了一个简单的“文件上传,文档解析,向量存储,文档检索,调用模型,返回响应”。就这看来感觉后端程序个人在 AI 中所能利用的优势还是比较小的。但是又经过我深入的学习后,详细了解 RAG、MCP 和 Agent 这些概念后又发生了变化。

编辑
2025-10-11
个人笔记
00

MCP & Function Calling

什么是Function Calling?

Function Calling是一种让大语言模型(LLM)能够与外部工具和系统交互的机制。它允许模型在需要时识别并调用适当的工具来获取信息或执行作。

编辑
2025-09-30
随笔
00
  • 协程
    • 将线程上执行的任务的过程,把这个事件从线程执行中分离出来,并加以保存为**自