Loading...
我们做成了第一个流程完整的chatbot,现在补上另一部分的内容——Memory。一个LLM要如何在chat中记住沟通的上下文。如果不差钱,当然可以把所有...
前面的所有内容都跟集齐七龙珠似的,我们终于凑齐了召唤RAG Bot的所有碎片:使用了Prompt Template构建复用的Prompt模板根据私域数据的...
对于Embedding来说,用流行的Embedding模型和Vector Store就是够够的了(对于大部分应用来说)。对于应用侧有比较大的优化空间的就是...
前面的文章,我们搞定了数据加载和切分,接下来就不是小打小闹了,是RAG的精髓Embedding,也是我学下来,认为影响RAG上限和想象空间最关键的地方这里...
受限于常见LLM的上下文大小,比如GPT4的128K,我们很多时候都不能把完整的数据整个塞到对话的上下文里。而且,就算数据源接近了LLM的上下文窗口,在读...