[CoT]从Chain-of-Thought (CoT) 到 Let's think step by step
sverigedongseok.substack.com
Paper 1: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 此文是CoT的开山之作,作者Jason Wei当时就职于google brain,如今在openAI,同时也是ChatGPT的重要作者。 CoT是解锁LLM 推理能力的重要钥匙,一举开启了挖掘LLM隐藏技能的新的paradigm. 在CoT出现之前, LLM的发展遇到了尴尬的瓶颈,模型越来越大,处理文字能力越来越强,但却似乎没有涌现出接近人类的推理能力,包括算术(e.g. 8只鸡4只兔同笼,一共多少只脚),常识(e.g. 鸭梨能漂在水中么?)以及符号(e.g. 抛硬币若干次,到底哪面朝上)的推理。
[CoT]从Chain-of-Thought (CoT) 到 Let's think step by step
[CoT]从Chain-of-Thought (CoT) 到 Let's think…
[CoT]从Chain-of-Thought (CoT) 到 Let's think step by step
Paper 1: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 此文是CoT的开山之作,作者Jason Wei当时就职于google brain,如今在openAI,同时也是ChatGPT的重要作者。 CoT是解锁LLM 推理能力的重要钥匙,一举开启了挖掘LLM隐藏技能的新的paradigm. 在CoT出现之前, LLM的发展遇到了尴尬的瓶颈,模型越来越大,处理文字能力越来越强,但却似乎没有涌现出接近人类的推理能力,包括算术(e.g. 8只鸡4只兔同笼,一共多少只脚),常识(e.g. 鸭梨能漂在水中么?)以及符号(e.g. 抛硬币若干次,到底哪面朝上)的推理。