1.通过调节temperature值来控制每次输出结果的变化大小,为0时,基本同一个问题每次的答案都一样
2.presence_penalty,顾名思义就是如果⼀个 Token 在前⾯的内容已经出现过了,那么在
后⾯⽣成的时候给它的概率⼀定的惩罚。这样,AI 就会倾向于聊新的话题和内容。在这
⾥,我们把它设置成了默认值 0。
3.frequency_penalty,指的是对于重复出现的 Token 进⾏概率惩罚。这样,AI 就会尽量
使⽤不同的表述。在这⾥我们设成了最⼤的 2,你也可以设置成最⼩的 -2。但是那样的
话,它就更容易说⻋轱辘话了
4.es的策略有⼀个缺点,就是如果我们有同义词,那么这么简单地去搜索是搜不到的。⽐
如,我们如果搜“⾃然淡雅背包”,虽然语义上很接近,但是因为“⾃然”“淡雅”“背包”这三个
词在这个商品标题⾥都没有出现,所以就没有办法匹配上了。为了提升搜索效果,你就得做更
多的⼯程研发⼯作,⽐如找⼀个同义词表,把标题⾥出现的同义词也算上等等。
不过,有了 OpenAI 的 Embedding 接⼝,我们就可以把⼀段⽂本的语义表示成⼀段向量。⽽
向量之间是可以计算距离的,这个我们在之前的情感分析的零样本分类⾥就演示过了。那如果
我们把⽤户的搜索,也通过 Embedding 接⼝变成向量。然后把它和所有的商品的标题计算⼀
下余弦距离,找出离我们搜索词最近的⼏个向量。那最近的⼏个向量,其实就是语义和这个商
品相似的,⽽并不⼀定需要相同的关键词。