AI领导力,应该把AI当做人事的工作对待。选用育留是人事应该干的活儿。选AI就太重要了 ,才能够更好的出生产力和业绩!AI模型选的好,然后是使用者是水平。 AI模型很关键。当然领导人力也很关键。A的好处是,对领导力要求弱一些了。AI没有情绪!AI接收无限制的PUA!
GPT擅长回答问题,但是只能回答它以前被训练过的问题,如果是没有训练过的数据,比如一些私有数据或者最新的数据该怎么办呢?
这种情况下通常有两种办法,一种是微调(fine-tuning),一种是嵌入(embedding)。
现在基于自然语言和文档进行对话的背后都是使用的基于嵌入的向量搜索。Open在这方面做的很好,它的Cookbook(http://github.com//openai-cookbook) 上有很多案例,最近他们对文档做了一些更新。
大模型GPT微调 和嵌入有什么区别?
微调就是在大模型的数据基础上做二次训练,事先准备好一批prompt-complition(类似于问答Q&A)的数据,生成新的模型,这个模型将会包含微调后的数据。
而嵌入则是每次向GPT发送消息(prompt)的时候,把你自己数据结果带上。
王建硕老师对于微调和嵌入有过精妙的比喻:
GPT就像一个已经训练好的家政阿姨,她懂中文,会做家务,但是对你家里的情况不了解。
微调就相当于阿姨第一次到你家干活的时候,你要花一小时时间告诉她家里的情况,比如物件的摆放、哪些地方不能动,哪些地方要重点照顾。
嵌入就相当于你省去了对阿姨进行二次培训的,而是在家里贴满纸条,这样阿姨一看到纸条就知道该怎么做了。
大模型LLM嵌入和微调哪个更好?
嵌入embedding的
OpenAI的Cookbook也有类似的比喻:
微调就像你通过学习准备考试,是一种长期记忆,但过了一周后考试来临,模型可能会忘记一些,或者记错它从来没有读过的事实。
嵌入就像记笔记,是一种短期记忆,当考试的时候,你把笔记带上,随时翻看笔记,对于笔记上有的内容可以得到准确的答案。
什么是 Search-Ask-RAG
也就是先在本地文档库中Search,拿到本地的数据结果,再去Ask,把搜索结果和问题一起交给GPT,这样GPT可以根据你提供的内容以及它模型中的数据,一起将结果返还给你。
必须用向量搜索RAG吗?
并非一定要基于向量的搜索,可以有多重搜索方式:
· 基于关键字搜索
· 基于图形的搜索
· 基于向量的搜索
对于技术实现的细节,OpenAI的Cookbook上也有详细的介绍。
LLM嵌入embedding有什么限制?
嵌入的文本搜索相对于微调来说,会有输入限制
嵌入的搜索提问方式相对于微调有一个缺点就是它每次附带的文本数量是有限制的,因为除了原始的问题,它还需要带上搜索出来的问题。
就好比你有成书架的教科书可以借鉴,但每次却只能翻看其中几页笔记。
如果你想构建一个对大量文本问答的系统,OpenAI建议(Search-Ask)的方法。
文本搜索相对于微调来说,search-ask的缺点是每次带上下文,所有会有输入字数限制,但是这种对于准确问答,前面有一层精准的search,准确度来说模型更容易得到正确的答案
这两种方案,用户自有数据也都必须做成q&a形式吗?
比如我有1MB的纯文本私有数据,没有经过人工q&a处理。我想对这些数据提问,当问题不在笔记中时才用。
A 对于嵌入的方案,数据不必做成Q&A,但是需要拆成小块,因为Ask的时候也是受最大长度限制的,所以先搜索到文本块(chunk),然后提问的时候带上搜索出来的若干块
GPT 的上下文窗口限制,你怎么能在 pdf、书籍、文档等上“训练”它呢?
你必须:
将数据压缩成数据嵌入并将其传递给提示(称为“上下文压缩”),或者使用通义千问的pdf api long text 进行提取!
如果嵌入的数据太大而无法放入上下文窗口,则需要使用矢量数据库并使用一些搜索/排名启发式方法分两部分回答查询:
1. 找到与此矢量化用户查询相关的所有相关文档,然后
2. 将前 n 个最接近的文档与用户查询一起传递到上下文中,并要求 ai 仅引用其上下文中的内容来回答用户问题。这称为“语义查询”