LLM 的局限性在于当中的资料都经过预训练,并非实时更新,意思是 LLM 的资料仅限于它训练时所看到的资讯,因此训练之后产生的新资讯,模型是不知道的。
假设 LLM 为今年 2 月训练,那么今年 2 月之后的资料则是完全没有的。
目前主流的方法是使用 RAG (Retrieval-Augmented Generation),这是一种把「检索系统」与「生成模型」结合的方式。这种架构能在 LLM 推理前,先检索最新的资料,并将检索结果作为上下文提供给模型。具体来说:
-
资料检索 (Retrieval):在 LLM 回答问题前,先使用一个检索工具(例如网路搜索、内部资料库查询等),寻找符合当下问题的最新资料。
-
生成 (Generation):检索到的资料会作为辅助资料(Context)传递给 LLM,帮助它生成更精准、即时的回答。
像AI 在回覆问题前,先透过 Bing 或 Google 搜寻最新的资讯,再将检索结果整合进回应,就是使用 RAG 的方式。
MCP 跟 RAG 最大的不同是:
-
RAG 是用较为静态的资料辅助 LLM 的回答,而MCP 则能让 AI 真正「动手去做」,例如查资料库、调用 API,或什至修改档案内容。
-
标准化 & 通用性:像 USB-C 一样的存在:不同厂商可以各自开发符合 MCP 规范的功能,就像所有装置都能使用同一种 USB-C 传输线一样。如果没有 MCP,每个开发者都得自行定义该怎么让 AI 呼叫特定 API。这意味着相同的工作会被不同人重复开发。 MCP 统一后,大家只要实作同一套规范就能立即整合,避免重复造轮子的现象出现。
-
从被动回应到主动执行:传统 AI 工具只会回答问题,不能真正动手。有了 MCP,AI 可以根据当下情况决定要执行什么指令,并透过读取回传结果,再进行下一步的动作。这种看情况不断修正的能力,大幅增强 AI 的实用性。
-
安全性与控管:MCP 并不会强迫把所有资料都传到 AI 模型,能透过权限、API 金钥管理等方式控管资料存取,确保机密资讯不会外流。
什么是 AI Agent?
去年 Q3 由 GOAT 领头带起了 AI Agent 风潮,大多数加密用户是透过 Web 3 视角了解 AI Agent,AI Agent 通常指的是能「自动化」处理特定任务的 AI 系统,它不只跟人对话,还能根据上下文主动采取行动、呼叫工具或 API,去完成一系列的步骤。像是最常见的能够在推特上自主发文,也属于 AI Agent 的范畴。
AI Agent 的限制
-
缺乏标准化:每个人都可以造一个 Agent,可是如果没有统一的规范,就会出现「这个 Agent 只会用 A 厂商的模型」、「那个 Agent 只会打 B 系统的 API」的问题。
-
容易各自为政:AI Agent 虽然能跑腿,但开发者往往需要自订大量 API 的格式和规则,不同 Agent 之间缺乏共用的生态系,导致整合困难。
