更抽象、更本质地看,LLM充当的是物理世界人类语言—>信息世界比特信息的翻译者的角色,它带来的是一种新的人机交互方式的改变。
基于这种范式改变,传统的所有B端应用都有希望被重新定义和重构一遍。
不论是
这些能力都无法被基础的LLM模型提供。
关于“手臂”的探索也有很多,
有很多迹象表明,xxxGPT Plugins有望成为AI时代的核心入口,从大模型技术赋能者转向平台经济重要生态入口卡位,
大语言模型在预训练阶段就已习得大部分知识,如果想要LLM产生针对特定任务的高质量内容,有三种技术方向:
不管是instruction-aling对齐、few-shot prompt,还是embedding search,都需要为模型注入 Context 并进行一定的 Prompt Engineering。正确的 Prompt 可以激发出 LLM 的能力,这在 GPT-3.5 以前的时代更为重要。
将 Context 注入 LLM 实际上在 Prompt Engineering 的上游,把知识告诉 LLM,Prompt 只是中间桥梁。前 Stitch Fix 的 ML 总监 John McDonnell 画的这幅图很好地展示出了二者的关系:
基础大模型的能力来自于在训练阶段喂入的海量、丰富、多维度的训练语料,这让模型只能根据自己的”记忆“尝试进行推理,并且经常给出与事实相悖的答案。
基础LLM模型无法精确地”搜索“已经存在于历史数据库中的事实性信息,也无法从自己以往的生成中”提取记忆“。事实上,LLM模型每次的内容生成都是一次全新地从零开始的知识推理。这是 GPT-3 和 ChatGPT 刚刚出现时最初被体验的能力 —— 让 ChatGPT 写首诗,你可以接受它的上述不完美。
针对这个问题,embedding database(向量数据库)提供了一种良好的基础设施,我们需要将embedding database和LLM进行有机的结合,创造出一种新的LLM+embedding vector的新范式。
针对这个问题,Map Reduce 是目前业内比较主流的技术应对方向。
参考链接:
https://mp.weixin.qq.com/s?__biz=Mzg2OTY0MDk0NQ==&mid=2247501117&idx=1&sn=e860ac5e259a969f62b05d080bf42d14&chksm=ce9b7aa3f9ecf3b503656e9a09b55210fdba0844b54bd6a5714f5fc8c57b8c3570acbe2d342f&scene=21#wechat_redirect
参考链接:
https://wallstreetcn.com/articles/3685072 https://www.geekpark.net/news/319478 https://www.infoq.cn/article/kxARbquFMCbx39KPoTxY