同样的 prompt,切换使用不同的大模型会有多大的差异?

27次阅读

共计 139 个字符,预计需要花费 1 分钟才能阅读完成。

比如我自定义了一大堆内容,在 chatgpt 中调好了,放在 llama、mistral、文心一言等各大模型,究竟有多大差异?

这背后的问题是,每个大模型都得用其专有的 prompt 来使用吗?

如果我开发时使用某个模型,后来模型升级了,难道提示词又得变?我觉得未来大模型升级可能会是一个问题

正文完
 0