因为LLM,NLP的格局最近发生了革命性的变化,同时。扩大语言模型的规模已经被证明可以带来一系列好处,例如改进的性能和样本效率。然而事实证明,仅扩大模型大小依然存在一些局限性,在诸如
等复杂任务上表现不佳。
其中,“实时数据获取”、“代码模拟执行”这些任务可以通过“tool-call prompt”技术得到解决,而Chain-of-Thought prompt技术被用于解决一些复杂的逻辑和算数问题。
Standard Prompting
Chain-of-Thought Prompting
“chain-of-thought prompting”的格式如下所示:
<hinput,chain of thought,outputi>
关于如何使LLM展现出推理能力,这篇论文认为有两点因素起到关键作用:
“chain-of-thought prompting”技术综合了以上两点。
为了更好理解“chain-of-thought prompting”,我们来看一个例子。
在解决复杂的推理任务(如多步骤解数学计算题)时,考虑自己的思维过程。我们通常会将问题分解为中间步骤,并在给出最后的答案之前解决每个步骤,也即一步步推导:
“在简给她妈妈两朵花之后,她有了10朵花…… -> 然后在她给她爸爸3个她将有7个 -> 所以答案是7。”
“chain-of-thought prompting”的目标是赋予语言模型具有生成类似思想链能力,能够对一个复杂问题进行分解,通过生成连贯的中间序列,并逐步解决每一个中间步骤,并最终得出问题最终答案。
作为一种提升大模型推理能力的方法,思维链提示具有几个有吸引力的特性:
参考链接:
https://arxiv.org/pdf/2201.11903.pdf