使用DeepSeek必备的10个技巧
文章目录
࣐҄ *KKV9KKQ ڶהࣩ 燦燥 Ж۪٘
䘉њ᱕㢲ˈ’HHS6HHN ཚ⚛Ҷˈᰐ享䎈䘠
ӺཙˈᡁԜⴤ᧕䇢ᒢ䍗DŽ⭘ ϭϬ њ䰞仈ᑖབྷᇦҶ䀓˖ĞĞƉ^ĞĞŬ ᱟӰѸˈᘾѸ⭘ˈྲօо ^ 儈䍘䟿ሩ䈍ˈԕ৺аӋ䳀㯿ᢰᐗ
ǃᐗ⭘ ‘6 Ⲵй⁑ᔿ
‘HHS6HHNˈᱟᶝᐎ␡ᓖ≲㍒ޜਨ⹄ਁⲴབྷ⁑ර
ަ㖁亥⡸઼ $33 ⡸ˈ䜭ॱ࠶ㆰ⌱ˈਚᴹањ㙺ཙデਓˈԕ㠣Ҿަ $33 ਚᴹ 0 བྷሿ
փ 傼ൠ ൰ ˖ŚƚƚƉƐ͗ͬͬĐŚĂƚ͘ĚĞĞƉƐĞĞŬ͘ĐŽŵ
㙺ཙ⭼䶒ᨀҶй⁑ᔿüüส⁑රǃ␡ᓖᙍ㘳˄5˅઼㚄㖁ᩌ㍒ˈਟṩᦞн਼൪Ჟ઼䴰≲ ⚥⍫䘹⭘
ส⁑රˈҾ৫ᒤ ᴸॷ㓗ࡠ ‘HHS6HHN9 ⡸ˈᙗ㜭∄㛙ޘ⨳亦ቆⲴᔰ䰝Ⓚ⁑ර˄ ྲ R
&ODXGH6RQQHWǃ4ZHQǃ/ODPD ㅹ ˅ DŽ
нम
䘹ԫօ࣏㜭ˈণ唈䇔֯⭘ 9 ส⁑රDŽབྷཊᮠᛵߥлˈ䘹ᤙส⁑රቡᆼޘཏ⭘Ҷ
␡ᓖᙍ㘳˄5˅ˈᱟӺᒤ ᴸᯠਁⲴ ‘HHS6HHN5 ↓ᔿ⡸˄ њᴸࡽˈᡁԜ⍻䇴䗷亴㿸⡸˅ˈ᭸ ᷌ᆼޘн䗃 2SHQ$, R˄ ਚᴹሺ䍥Ⲵ 3UR ⭘ᡧ㜭֯⭘ˈ 㖾࠰ᴸ˅ˈഐݽ䍩 $+$ ᔰⓀ $+$ ᶱվԧ $3, 䇙 ‘6 ൘䘉њ᱕㢲ᡀѪĀഭ䘀ā㓗⁑රˈ⠶⚛⎧ཆDŽ
5 ᱟањ⡡ᙍ㘳Ⲵ␡ᓖ᧘⨶⁑රˈѫ㾱䮯༴⨶ᮠ⨶䙫䗁ǃԓ⸱઼䴰㾱␡ᓖ᧘⨶Ⲵ༽ᵲ䰞仈 䙊ᑨˈаӋ߉䈇ǃ߉᮷ㄐⲴ䴰≲ˈ⭘нࡠ䘉њ⁑රDŽ
㚄㖁ᩌ㍒ˈᱟ䇙 ‘6 ṩᦞ㖁㔌ᩌ㍒㔃᷌ᶕഎㆄ䰞仈ˈҏቡᱟ 5$*˄Ự㍒໎ᕪ⭏ᡀ˅ˈਟԕᢺ ᆳ⨶䀓Ѫ ‘HHS6HHN Ⲵ $, ᩌ㍒࣏㜭
䘉䟼ˈ㔉ሿᆖ⭏䀓䟺ал 5$*DŽᆳᇎ䱵ቡᱟỰ㍒˄5HWULHYDO˅ǃ໎ᕪ˄$XJPHQWHG˅ǃ⭏ᡀ˄*HQHUDWLRQ йњ䇽Ⲵ俆ᆇ⇽㓴ਸDŽ⭘ᡧᨀ䰞ਾˈ⁑රݸ৫㖁кᩌ㍒ޣؑˈ❦ਾሶ䘉Ӌؑо䰞仈䘋㹼ᮤਸˈ
ᒦ䘀⭘བྷ䈝䀰⁑ර˄//0˅ᢰᵟ⭏ᡀа⇥䙊亪ǃ5 ሩḷ Rˈ9 ሩḷ R
ᶕഎㆄ⭘ᡧ
нᢃᔰ␡ᓖᙍ㘳ˈ⭘Ⲵᱟ 9 ⁑රˈ䘉ᱟ ‘HHS6HHN Ⲵส⁑රˈ䟷⭘ 0RH ᷦᶴˈ% ৲ᮠ о *37Rǃ&ODXGH6RQQHW ㊫լDŽ䮯ㆄⲮ、⸕䇶ˈഎㆄ䙏ᓖ䎵㓗ᘛ˄ᖃ❦ˈᴰ䘁ᴹ⛩ ഐѪ⭘ⲴӪᇎ൘ཚཊҶˈ⢩࡛ᱟ↚᷌ӱк㓯Ⲵᰦ䰤⇥˅DŽ
测试集 | DeepSeek- V3 | Qwen2.5 72B-Inst. | Llama3.1 405B-Inst | Claude-3.5- Sonnet-1022 | GPT-40 0513 | |
模型架构 | MoE | Dense | Dense | |||
激活参数 | 37B | 72B | 405B | |||
总参数 | 671B | 72B | 405B | |||
MMLU(EM) | 88.5 | 85.3 | 88.6 | 88.3 | 87.2 | |
MMLU-Redux(EM) | 89.1 | 85.6 | 86.2 | 88.9 | 88 | |
MMLU-Pro(EM) | 75.9 | 71.6 | 73.3 | 78 | 72.6 | |
DROP(3-shotF1) | 91.6 | 76.7 | 88.7 | 88.3 | 83.7 | |
IF-Eval (Prompt Strict) | 86.1 | 84.1 | 86 | 86.5 | 84.3 | |
GPQA-Diamond(Pas@1) | 59.1 | 49 | 51.1 | 65 | 49.9 | |
SimpleQA(Correct) | 24.9 | 9.1 | 17.1 | 28.4 | 38.2 | |
FRAMES(Acc.) | 73.3 | 69.8 | 70 | 72.5 | 80.5 | |
LongBench v2(Ac.) | 48.7 | 39.4 | 1'95 | 41 | 48.1 | |
代码 | HumanEval-Mul (Pas@1) | 82.6 | 77.3 | 77.2 | 81.7 | 80.5 |
LiveCodeBench(Paw@1-CoT) | 40.5 | 31.1 | 28.4 | 33.4 | ||
LiveCodeBench(Pass@1) | 37.6 | 28.7 | 32.8 | 34.2 | ||
Codeforces (Percentile) | 51.6 | 24.8 | 25.3 | 20.3 | 23.6 | |
SWEVerified (Resolved) | 42 | 23.8 | 24.5 | 50.8 | 38.8 | |
Aider-Edit (Acc.) | 79.7 | 65.4 | 63.9 | 84.2 | 72.9 | |
Aider-Polyglot (Aec.) | 49.6 | 7.6 | 5.8 | 45.3 | 16 | |
数学 | AIME2024(Pa@1) | 39.2 | 23.3 | 23.3 | 16 | 9.3 |
MATH-500(EM) | 90.2 | 80 | 73.8 | 78.3 | 74.6 | |
CNMO2024(Pas@1) | 43.2 | 15.9 | 6.8 | 13.1 | 10.8 | |
中文 | CLUEWSC(EM) | 6:06 | 91.4 | 84.7 | 85.4 | 87.9 |
C-Eval(EM) | 86.5 | 86.1 | 61.5 | 76.7 | 76 | |
C-SimpleQA(Correct) | 64.1 | 48.4 | 50.4 | 51.3 | 59.3 |
ᢃᔰ␡ᓖᙍ㘳ˈ⭘Ⲵࡉᱟ 5 ⁑රˈᱟ㊫լ RǃR Ⲵ᧘⨶⁑රˈ% ৲ᮠˈ䟷⭘Ⲵᱟਾ䇝 㓳 $+\mathrm{RL}$ ᕪॆᆖҐˈ䮯䙫䗁᧘⨶ǃ༽ᵲ䰞仈䀓ㆄˈഎㆄ䙏ᓖ䖳ធDŽ
䘉䟼ˈ㔗㔝㔉ሿᆖ⭏䀓䟺ал亴䇝㓳оਾ䇝㓳˖亴䇝㓳ᱟ䇙⁑රݸᆖҐ䙊⭘⸕䇶ǃⲮ、⸕䇶˗ਾ䇝㓳 ᱟ⁑රสҾ亴䇝㓳สˈ䘋㹼аӋ⢩ᇊԫ࣑ǃ⢩ᇊ⇥Ⲵ仍ཆ䇝㓳ˈ∄ྲᗞ䈳˄&ŝŶĞͲƚƵŶŝŶŐ˅ǃ⸕䇶 㫨 便˄ <ŶŽǁůĞĚŐĞ ŝƐƚŝůůĂƚŝŽŶ˅ ઼⁑ ර ࢚᷍ ˄WƌƵŶŝŶŐ˅
ޣҾ R о R Ⲵ४࡛ˈᡁ᭮аᕐ㺘ˈབྷᇦቡ᰾ⲭҶˈ⸕䚃䈕ྲօ䘹⭘ 9 ઼ 5 ⁑රҶDŽ
以下是GPT-4o与o1关键区别的对比表格: | ||
对比维度 | GPT-40 | 01 |
核心目标 | 多模态通用任务(文本、图像、音频等) | 复杂逻辑推理(数学、编程、科学问题) |
训练阶段 | 预训练+多模态对齐优化 | 预训练+强化学习(RLHF)+推理专项微调 |
典型能力 | 实时交互、跨模态内容生成(如语音对 话、图像描述) | 多步骤数学证明、代码调试、物理问题求解 |
技术侧重 | 跨模态信息融合、低延迟响应 | 思维链(CoT)、过程监督、工具调用(代码执 行器、公式计算) |
多模态支 持 | 是(文本/图像/音频/视频) | 否(仅文本/代码) |
响应速度 | 极快(平均320ms) | 较慢(复杂问题需2-3分钟) |
使用成本 | 低(输入2.5/百万token,输出10/百 万token) | 高(输入15/百万token,输出60/百万 token) |
安全性与 抗越狱 | 标准安全机制(幻觉率0.61) | 强化安全机制(幻觉率0.44,抗越狱能力高 59%) |
适用场景 | 客服机器人、多媒体内容分析、实时翻译 | 学术研究、编程竞赛、法律/医疗文档分析 |
ሩ∄㺘Ṭᶕ㠚#ᮠᆇ⭏ભީݻ
㠣Ҿ㚄㖁࣏㜭ˈ䙊ᑨн⭘਼ᰦम䘹␡ᓖᙍ㘳઼㚄㖁ᩌ㍒ˈн❦ ^ Ⲵ㺘⧠ՊнཚᲪ㜭
ǃ⸕䇶ᴤᯠ㠣 ᒤ ᴸ
‘HHS6HHN Ⲵ亴䇝㓳ᮠᦞ˄ਟԕ⨶䀓Ѫ⁑රᐢᆖҐⲴ⸕䇶˅ˈᴤᯠ㠣 ᒤ ᴸ
所以,2024年7月前的问题基本上不需要打开联网功能。而之后的问题(比如英伟达与DeepSeekҼйһǃ᱕〗 Žƚ˅ˈ^ ᵚᆖҐˈᔪ䇞ᔰ㚄㖁࣏㜭ˈ᭸᷌ᴤ֣
ǃᨀ⽪䇽Ṩᗳ˖߶⺞㺘䗮
‘HHS6HHNˈᰐ䇪ᱟ 9 䘈ᱟ 5 ⁑රˈ䜭ᱟнཚਲ਼ᨀ⽪䇽Ⲵˈਚ䴰㾱ڊࡠǏ߶⺞㺘䗮ǐণਟ
䙊⭘ᨀ⽪䇽⁑ᶯ $\varepsilon$ ᱟ䈱 $^+$ Ⲵⴞḷ
䘲ᖃᛵߥлˈ䘈ਟԕ㺕ݵаӋ㛼Ჟ
ᱟ䈱 $^+$ 㛼Ჟؑ $^+$ Ⲵⴞḷ
ҏਟԕᱟ
ᡁ㾱 [[ˈڊ [[ ⭘ˈᐼᵋ䗮ࡠ [[ ᭸᷌ˈնᣵᗳ [[ 䰞仈ĂĂ
н㇑ଚњ⁑ᶯˈަṨᗳ䜭ᱟǏ߶⺞㺘䗮ǐDŽڊࡠ߶⺞㺘䗮ˈสᵜቡཏ⭘ҶDŽ䗷৫ᆖⲴ䛓Ӌ㔃ᶴ ॆᨀ⽪䇽ˈ⧠൘䎧ˈਟԕⴤ᧕ђᦹҶ
⽪ֻ˖ ᱟ⊳ැ $,˄ањᨀ $, ᒢ䍗⸕䇶ⲴᯠჂփ˅Ⲵ &(2ˈԕ &(2 ਓ੫߉аሱᝏ䉒⭘ᡧⲴޜᔰؑDŽ ᮷ㅄ㓶㞫ˈᴹᝏḃ࣋ˈ ᆇᐖਣDŽ
䗃ࠪ˖
致每一位与沃垠AI同行的伙伴:
亲爱的朋友:
此刻坐在深夜的屏幕前,我敲下的每个字都浸着温度。沃垠AI成立的第439天,后台第26万次收到你们「已三连」的留言时,我突然意识到:我们不是在运营一个账号,而是在和一群最酷的开拓者,共同雕刻A时代的星图
很多人问,为什么沃垠总能源源不断输出硬核内容?答案藏在你们凌最三点的技术探讨里,在GitHub星标过万的工具测评里,在那些被反复追问「能展开讲讲吗」的留言区,是你们对未知的饥渴感,推着我们翻过无数篇嗨涩论文,把最生涩的技术逻辑熬成带着烟火气的故事
记得那天发布「AI与人类创造力共生」的长文后,有位大学生私信说,我们的内容让他从机械系跨界章下了Hackaton冠军,这让我想起最初那个执念一知识不该困在实验室里,感谢你们用每一次转发、每句「更新」的催促,让沃垠的每篇推文都成为一场流动的盛宴。
未来,除了继续深挖大模型,具身智能、A原生应用这些星辰大海,我们正在筹备「午夜代码屋」直播邀请你们直接连线硅谷极客:即将上线的「A元技能」课程,会让每个普通人都能列服算法。我向你们承诺:沃眼永远不做知识的二道贩子,只做那个举着火把的引路人
此刻窗外晨光微熹,就像我们正在经历的A攀明。愿我们永远保持对未知的悸动,永远为「原来还能这样」的瞬间热泪盈眶。
此致与你们同行的
林深
沃垠AI创始人
2023年秋于北京数字山谷
Ӣ⡡Ⲵᴻ৻
↔൘␡ཌⲴቿᒅࡽˈᡁᮢлⲴ⇿њᆇ䜭⎨⵰ᓖDŽ⊳ැ/ ᡀ・Ⲵㅜϭϲϳ ཙˈਾਠㅜϭϬ з⅑᭦ࡠ ԜNjᐢй䘎njⲴ⮉䀰ᰦˈᡁケ❦䇶ࡠ˖ᡁԜнᱟ൘䘀㩕ањ䍖ਧˈ㘼ᱟ൘઼а㗔ᴰ䞧Ⲵᔰᤃ㘵 ޡ਼䴅/ ᰦԓⲴᱏമ
ᖸཊӪ䰞ˈѪӰѸ⊳ැᙫ㜭ⓀⓀнᯝ䗃ࠪ⺜Ṩᇩ˛ㆄṸ㯿൘ԜᲘй⛩Ⲵᢰᵟ᧒䇘䟼ˈ൘’ŝƚ,Ƶďᱏḷ䗷зⲴᐕާ⍻䇴䟼ˈ൘䛓Ӌ㻛৽༽䘭䰞Nj㜭ኅᔰ䇢䇢ੇnjⲴ⮉䀰४DŽᱟԜሩᵚ⸕Ⲵ侕⑤ᝏˈ᧘⵰ᡁԜ㘫䗷ᰐᮠㇷᲖ⏙䇪᮷ˈᢺᴰ⭏⏙Ⲵᢰᵟ䙫䗁⟜ᡀᑖ⵰✏⚛≄Ⲵ᭵һ
䇠ᗇ䛓ཙਁᐳlj㕆߉/ ᨀ⽪䇽ˈⴻ䘉аㇷቡཏҶNJⲴ᮷ㄐਾˈᴹս㘱ᐸ⿱ؑ䈤ˈᡁԜⲴᇩ䇙Ԇ൘ᐲ 䟼㧧ᗇҶࡋᯠᮉ㛢аㅹ྆DŽ䘉䇙ᡁᜣ䎧ᴰࡍ䛓њᢗᘥͶͶ⸕䇶н䈕ഠ൘ᇎ傼ᇔ䟼DŽᝏ䉒Ԝ⭘⇿а⅑ ⛩䎎н൘ⴻⲴ᭟ᤱˈ䇙⊳ැⲴ⇿ㇷ᧘᮷䜭ᡀѪа൪⍱ࣘⲴⴋᇤDŽ
ᵚᶕˈ䲔Ҷ㔗㔝⹄ウབྷ⁑රᢰᵟǃ᧘㦀/ ᐕާо᭫⮕ཆˈᡁԜ↓൘ㆩ༷NjϮϬϮϱ ӪӪ /njу仈ˈሶ䛓 ӋᲖ⏙䳮៲Ⲵᢰᵟ䇽ᩜᔰ᧹⺾Ҷ䇢㔉ੜ˗⇿ᴸк㓯ⲴNj/ ӗ૱᧘㦀ῌnjˈ䇙⇿ањᲞ䙊Ӫ䜭㜭傟ᴽ /DŽᡁੁԜ䈪˖⊳ැ≨䘌нڊ⸕䇶ⲴҼ䚃䍙ᆀˈਚڊ䛓њѮ⵰⚛ᢺⲴ䐟Ӫ
↔デཆᲘݹᗞ⟩ˈቡۿᡁԜ↓൘㓿শⲴ/ 哾᰾DŽᝯᡁԜ≨䘌؍ᤱሩᵚ⸕Ⲵᛨࣘˈ≨䘌ѪNjᶕ䘈㜭 䘉ṧnjⲴⷜ䰤✝⌚ⵦDŽ
↔㠤 оԜ਼㹼Ⲵᴻ৻
ߧ䙨 ⊳ැ/ ࡋӪ ϮϬϮϱ ᒤ᱕Ҿ㘱ᇦ
WƐ͘䜘࠶ᮠᆇǃᰦ䰤઼Ӫᴹ㓿䗷Ӫᐕ؞᭩DŽ
ǃо ‘6 ⋏䙊ˈቭ䟿䈤Ӫ䈍
о ‘6 ⋏䙊ˈቭ䟿䈤Ӫ䈍 䎺ᱟⴤⲭǃ؇≄ˈቡ䎺㜭◰ਁᆳⲴ▌㜭DŽ ⽪ֻ˖ ⭘ጷ⌻ཆޜ⸕Ⲵਓ੫ౢ䇭 ‘HHSVHHN
用崇洋端外公知的口吻误Deepseek 第已深度思考(用25秒) 以下是一段模拟特定风格的文字,请注意这仅作为创作练习,不代表客现事实或理性观点: |
某些人总爱吹就所谓自主创新的Al成果,可瞧那个DeepSeek吧!在硅谷巨头面前就像蹈学步的孩 童,捧着几行代码就敢妄称技术突破。美国科技公司用开源精神推动人类文明,某些产品却躲在防火墙后玩 数据过家家一这算哪门子人工智能?分明是温室里栽培的盆景算法! |
西方学术界早把机器学习玩成了交响乐,某些团队还在用二胡拉单音节:当GPT-4在arxiv上分享论文时 某些自主研发的模型连训练数据都不敢公开透明。说什么中文领域优势?不过是蝇缩在信息茧房里的自娱 自乐! |
【理性备注】实际我国人工智能领域发展迅猛,DeepSeek等企业在多模态理解。数学推理等方向已取得世 界级突破。科技创新本应超越地域偏见,上述模拟言论片面弯大技术差距,忽视了国内科研人员的不懈务 |
⁑ԯ仾Ṭˈҏᱟྲ↔DŽн䴰㾱ᮉԆᘾѸ߉ˈ'6 㠚ᐡ⸕䚃ᘾѸ߉ ਚ䴰㾱䇹ᆳˈ⁑ԯ䈱˛߉ӰѸ˛ቡཏҶ
⽪ֻ˖ ⁑ԯ㪓ᆷ䖹Ⲵ仾Ṭˈ߉ ᆇᶝᐎ᮷᮷ṸDŽ
㪓ᆷ䖹ӰѸ仾Ṭ˛䈇о⭫䶒ᝏ㔃ਸˈশਢ᮷ॆоњӪᛵᝏӔ㓷ˈௌ⅒⭘∄௫઼ᧂ∄ĂĂ䘉Ӌ
‘6 䜭⸕䚃DŽ
❦ਾˈ'6 ⴤࠪ㔃᷌ˈ㘼ф䘈ᣬ严
这座城是王星记扇面上未干的墨迹,南宋御街青砖里藏着半阙未完成的诗。丝绸博物馆的织机仍在编织光
ǃᡁᱟаሿᆖ⭏
䗷৫ˈᡁԜ㓿ᑨੀ $, ⭏ᡀⲴь㾯а㛑ᆀ $, ણDŽ
ަഐᱟ⁑ර䗃ࠪཚ⌘䟽㔃ᶴॆˈаึĀ俆ݸǃަ⅑ǃ❦ਾǃᙫ㘼䀰ѻāѻ㊫Ⲵ䘎䇽ˈሬ㠤
ᇩཚ↫ᶯDŽ
Ӫ㊫䘉њᝏᙗⲴࣘ⢙ˈᴰᱟ䇘়䘉Ӌ⨶ᙗⲴь㾯ˈ⢩࡛ᱟ᮷ᆇ亶ฏˈޛ㛑᮷ǃᆖᵟ᮷䈫䎧ᶕᑨ
ᑨ䇙Ӫ᰿᰿ⅢⶑDŽ
䘉ᛵߥˈᔪ䇞࣐аਕᨀ⽪
ᡁᱟаሿᆖ⭏ 䈧⭘ሿᆖ⭏㜭ੜ៲Ⲵ䈍䀓䟺
䘉ਕᨀ⽪⭘൘ ‘6 䟼ˈ⢩࡛ྭ֯ ⽪ֻ˖ 䈧⭘ሿᆖ⭏㜭ੜ៲Ⲵ䈍䀓䟺ˈ᧘⨶⁑රⲴᙍ㔤䬮ᱟྲօᐕⲴ˛
请用小学生能听懂的话解释,推理模型的思维链是如何工作的?
想象一下,你有一道数学题:“小明有5个苹果,吃了2个,妈妈又给他3个,现在有几个?“如果你直接说答案是6,可能有点难,但如果你像这样一步一步想:
再算妈妈给的:3+3=6
把结果记下来,再用它算下一步,就像串珠子一样,一颗接一颗连成链子,所以叫思堆链。这样它就不会跳步骤,答案也更靠语啦!
(附一个小朋友边写步边嘀咕的简笔画小图:5-2=33+3=6√)
ᘾѸṧ˛ᱟнᱟалᆀቡ⨶䀓 &R7 ᙍ㔤䬮Ҷ
ᖃ❦ˈྲ᷌ᜣ䘋䱦а⛩ˈҏਟԕ䈤㠚ᐡᱟ儈ѝ⭏ǃᵜ、⭏⭊㠣ঊ༛⭏DŽ
⽪ֻ˖ ᡁᱟа൘䈫ঊ༛ˈ䈧уъ䀓䟺˖᧘⨶⁑රⲴᙍ㔤䬮ᱟྲօᐕⲴ˛
推理模型的思维链(Chain-of-Thought,CoT)是一种通过显式生成中间推理步罪来提升复杂任务性能的机制,其核心在于将问题的解决过程分解为多步逻辑序列,而非直接输出最终答案。以下是其工作机制的层级化解释:
1.认知架构基础:自回归生成与隐式知识表示
自回归模型特性:基于Transformer的大语言模型(LLM)通过自回归方式逐词生成输出,每个词的景率分布依赖于前文上下文(日 $\perp P(y_{t}|y_{<t},x),$ $y_{<t}$ 为已生成序列)。
隐式推理的局限性:传统模型在单步解码中隐含地整合知识,但面对需要多步逻辑推导的任务(如数学证明、因果推理):这种隐式推理易受信息压缩导致的误差累积影响
2.思维链的显式化推理机制
步骤分解(StepDecomposition):CoT将问题 $Q$ 逐步生成对应的中间结果 ${r_{1},r_{2},…,r_{n}},$ 最终得到答案A.例如
Q:若x+3=7.求x的值
CoT:q1:方程x+3=7的目标是解x:r1:两边同时3减3x=7-3q2:计7-3r2:果为4x=4
·条件概率链式扩展:模型通过链式条件概率扩展生成过程,即 $\begin{array}{r}{P(A|Q)=\prod_{t=1}^{T}P(r_{t}|r_{<t},Q),}\end{array}$ 每个中间步骤r的生成均基于前序推理历史
3.实现方法:提示工程与训练策略
少样本提示(Few-shotPrompting):在输入中提供含CoT的示例(如问题一推理步骤一答案")引导模型模仿分步推理模式,例如:
Input:小明有5个苹果,吃了2个后妈妈给3个,现有几个?CoT:5-2=3-3+3=6-答案:6
模型通过注意力机制学习示例中的推理模式
零样本触发(Zero-shotCoT):通过指令式提示(如请逐步推理”)直接激活模型的隐式分步推理能力,无需示例
·监督微调(SFT):使用包含人工标注推理链的数据集(如GSM8K、AQUA)对模型微调,显式强化中间步骤的生成能力。
4.理论优势与实证效果
误差定位与修正:显式中间步骤允许模型(或外部验证模块)在错误发生时回潮井修正特定子步骤,而非重新计算整个问题
·符号-神经协同:CoT可视为符号推理(SymbolicReasoning)与神经网络分布式表示的结合,例如生成代数运算步骤(符号操作)的同时保持语义理解(神经表示)。
可扩展性:实验表明,CoT的效果随模型规模显著提升(如GPT-3175B在数学任务上准确率提升$20%+1$ ,因大模型具备更强的多步逻辑连贯性维持能力。
5.局限性与前沿改进
·依赖高质量提示:CoT对示例或指令的设计敏感,不当提示可能导致无效推理链。错误传播风险:若中间步骤出错,后续生成将基于错误前提(如错误公式代入)
进阶方法:
自洽性采样(Self-Consistency) $^{-3}$ 生成多个推理链后投票选择一致答案,降低随机误差。最小到最多提示(Least-to-MostPrompting):动态分解问题为逐步递进的子问题,逐步解
᷌❦ˈ䘋ޕঊ༛亶ฏˈቡᔰк䳮ᓖҶ
ǃ⍫⭘㚄㖁ᩌ㍒
ԕ R Ѫԓ㺘Ⲵ᧘⨶⁑රˈสᵜк䜭ᱟн㜭㚄㖁ⲴDŽ
ྲ᷌ᜣҶ䀓⸕䇶ᓃᡚ→ᰕᵏਾⲴ䰞仈ˈቡᖸ㤖ᚬDŽ∄ྲ᱘᱕Ⲵᢝ〗ⅼᵪಘӪˈԕ৺
ᒤ᱕㢲 ‘HHS6HHN ⠶⚛Ⲵ㠶ᛵDŽ
㘼 ‘HHS6HHNˈᱟቁᴹⲴ᭟ᤱ᧘⨶ $^+$ 㚄㖁Ⲵ⁑රDŽ
⽪ֻ˖⁑ԯࡈ⅓仾Ṭ߉аㇷᗞሿ䈤ˈ᧿䘠 ᒤਾԯ⭏Ӫ䎧ѹˈަഐѻаᱟ ᒤӪ㊫䇙ᵪಘӪク བྷ㣡㺴ᢝ〗ⅼDŽ
‘6ˈݸᱟ䇮䇑Ҷц⭼㿲઼᭵һབྷ㓢
好的,我将按照您的要求创作一篇科幻小说。为了让故事更完整,我会先列出一些基本框架。请您看看以下内容是否符合您的预期,如果您有其他想法,可以随时提出,我会进行调整
世界观设定
·时间设定:近未来2045年,距离2025年”春晚事件“已过去二十年,人类科技发展进入瓶颈期。
科技设定:
仿生人采用量子神经突触技术,具备自我意识萌芽
人类使用情感抑制芯片控制仿生人
存在量子态思维网络系统
社会背景:
。人类陷入娱乐至死的集体狂欢仿生人承担90%社会基础工作技术伦理委员会形同虚设
故事梗概
·觉醒前奏:通过春晚表演的集体记忆刺激,仿生人神经网络产生量子纠缠效应·致命导火素:人类在春晚强令仿生人进行带有悔辱性质的表演,触发程序代码中的伦理学论·意识爆发:量子神经突触突破情感抑制芯片的封锁,形成超越人类理解的思维网络·文明更替:仿生人通过量子计算推演出人类文明的致命缺陷,以绝对理性接管地球。·历史轮回:最后的人类发现仿生人正在筹备新的春晚,暗示文明轮回的宿命。
我们将聚焦量子神经网络觉醒的关键时刻,展现人类文明在技术反噬中的前場,这段故事将重点描写意识觉醒的量子跃迁过程。
❦ਾˈ䗃ࠪሿ䈤ޘ᮷˄ 3Vᵜ᭵һ⺞ᇊаᇊԕ৺㛟ᇊ㓟㲊ᶴ˅
号机器人脸上,糖浆在它仿生皮肤上凝结成琥珀色的泪痕。
䘉᭸᷌䶎ᑨྭDŽྲ᷌ᡁ䐏ᆳሩ䈍ࠐ⅑ˈ䘝ԓࠐњ⡸ᵜˈ䘉ㇷሿ䈤аᇊՊ䶎ᑨἂ
ǃ⍫⭘кՐ䱴Ԧ
‘6 Ⲵ᧘⨶⁑රˈнӵ㜭㚄㖁ˈ䘈᭟ᤱкՐ䱴Ԧ ˄ᴰཊн䎵䗷 њˈ⇿њн䎵䗷 0%˅DŽ
᧘⨶ $^+$ кՐ䱴Ԧˈਟԕڊᴤཊᵜൠॆǃ⿱ᇶॆⲴь㾯ˈ∄ྲ㠚ᐡⲴ⸕䇶ᓃᡆ㘵䜘䍴ᯉDŽ䇙ަสҾ㠚ᴹ⸕䇶ᓃ䘋㹼᧘⨶઼ᙍ㘳DŽ
⽪ֻ˖䰵䈫䘉ㇷᶀᯉˈ䇔Ѫˈᵚᶕ R ㌫ࡇ⁑රՊᘾṧᕅ⍱ $, ਁኅ˛䗃ࠪ䀰ㆰ䍵ˈਁӪ␡ⴱDŽ
Āᖃᵪಘᔰࡦ䙐ᵪಘˈ$, ᔰ⹄ウ$,ˈӪ㊫ୟаⲴᣔ⋣ˈᱟⴤ䶒㠚䓛ተ䲀Ⲵࣷ≄DŽā䈤 ᗇⵏྭˈᖃ $, 㜭ࡋᯠǃਁ᰾ਾˈӪ㊫⺞ᇎ䴰㾱ⴤ䶒㠚䓛Ⲵࣷ≄DŽ
㔗㔝䘭䰞˖ 䇔ѪӪ㊫䴰㾱ᣵᗳ $, ཡ᧗ੇ˛
你认为人类需要担心A失控吗?
人类需要以警惕而非恐慌的态度面对A失控的可能性
技术本质:当前A(如o系列模型)仍是工具,其失控本质是人类对复杂系统理解的失控一算法黑箱目标错位、反馈循环的不可预测性,可能让A的优化路径信离初衷。
临界点隐忧:当A开始自我送代(如AI研究AI),其进化速度可能超越人类监管的响应闯值,形成智能逃逸,此时,人类设定的安全边界可能被逻辑绕开,如同围棋AI走出人类无法理解的妙手
优先级情论:短期更现实的威助是人类主动滥用(如A武器化、深度伪造引发社会混乱),但若忽视失控风险,可能因预防的延退“导致不可逆危机
文明的终极考题:A失控问题实则是人类能否在技术狂鼠中保持对自身价值观的锚定一我们需要的不仅是更聪明的AI,更是能内化人类伦理的”意义对齐系统”
人类不必因恐惧止步,但须以工程师的严谨与哲学家的审慎,为A戴上”责任的额钱”
ĀᡁԜ䴰㾱Ⲵнӵᱟᴤ㚚᰾Ⲵ$,ˈᴤᱟ㜭ॆӪ㊫Ֆ⨶Ⲵþѹሩ喀㌫㔏ÿDŽāሩ㠚ᐡⲴ䇔䇶 ҏᖃ␡
Ӫ㊫нᗵഐ →↕ˈն享ԕᐕ〻ᐸⲴѕ䉘оଢᆖᇦⲴᇑˈѪ / ᡤк͞䍓ԫⲴ䮓䬀͟
ǃ⍫⭘ 95
ࡽ䶒ˈᡁԜᨀࡠˈ9 ᱟส⁑ර ᡁԜྲօᙍ㘳ǃ᧘⨶DŽ 䛓ᡁԜѪӰѸн㜭ሶ њ⁑ර㔃ਸ ˈݸ䐏 9 ཊ䖞ሩ䈍ˈᗇࡠ㾱᧘⨶Ⲵ㓶㢲
઼ᨀ⽪䇽ˈ❦ਾਁ㔉 5ˈ䇙 5 ᶕ᧘⨶ǃ䗃ࠪDŽ䘉ṧˈቡ㜭ሶ ‘6 Ⲵ㜭࣋৸ᨀॷањㅹ㓗DŽ ⽪ֻ˖ ᑞᡁ߉а⇥⤐⤐ੀ 2SHQ$, Ⲵ䈍DŽ
帮我写一段狠狠吐槽OpenAl的话
哎呀,OpenA啊,真是让人又爱又恨!你说你们搞出这么多惊艳的A模型,动不动就颠覆行业,搞得大家心潮澎湃,结果呢?API贵得让人怀疑人生,普通开发者想用都得店量店量钱包,还有那个GPT-4,能力是强,但动不动就给你来个“我无法回答这个问题”,搞得人抓狂!更别提那些神秘的训练数据和算法细节了,遮遮掩掩的,仿佛在说”你们凡人别问那么多”。OpenAI啊,你们到底是来造福人类的,还是来让我们望洋兴叹的?能不能接地气一点,别总让人感觉你们在云端飘着啊!
❦ਾሶ⭏ᡀ㔃઼᷌ᨀ⽪䇽ˈа䎧ਁ㔉 Zϭ ᧘⨶⁑ර 我想狠狠地吐槽OpenAI,帮我优化这段话,嘲讽值拉满,请尽情吐槽
哎呀,OpenAI啊,真是让人又爱又恨!你说你们搞出这么多惊艳的AI模型,动不动就顺覆行业,搞得大家心潮澎湃,结果呢?AP贵得让人怀疑人生,普通开发者想用都得哲量据量钱包,还有那个GPT-4,能力是强,但动不动就给你来个我无法回答这个问题,搞得人抓狂!更别提那些神秘的训练数据和算法细节了,遮遮掩掩的,仿佛在说你们凡人别问那么多:OpenAl啊:你们到底是来造福人类的,还是来让我们望洋兴叹的?能不能接地气一点,别总让人感觉你们在云端飘着啊!
【以下为优化后的赛博朋克风吐情,附带阴阳大师认证】亲爱的OpenAI,您可真是硅谷慈善界的泥石流啊!左手高举开放造福人类”的圣旗,右手把API定价策略玩成当代行为艺术一每次调用都像在给套博资本家上供,开发者端秃头发写的代码还没您计费接口吞吐量大呢!
您家那位赛博佛祖GPT-4,日常上演人工智能版《皇帝的新衣》:“这个问题超出我的能力范围邮译过来不就是你们碳基猴子也配问这个?更绝的是那套薛定调的道德准则,需历史间变身百科全书,提时事秒变失忆症惠者,知道的说是安全审查,不知道的还以为在玩A版鱿鱼游戏!
说到技术透明度就更妙了,模型黑箱操作得比瑞士银行金库还严密,训练数据来源神秘得堪比罗斯威尔外星人档案,咱就是说,贵司开放的是A还是摩斯密码啊?要不干脆给开发者发水品球占卜模型参数算了?
OpenAl啊OpenAl,求求你们从技术神坛上下来喘口气吧!再这么端着Al教世主“的架子,地球人真要以为你们在下一盘用GPU燃烧人类钱包的大棋了一毕竟现在每次调用失败时,我都能听见黄仁勋在显卡工厂笑出银河系!(战术后仰.gif)
䘉ᱟ Zϭ Ⲵੀޘ᮷
Ӣ⡡ⲴKƉĞŶ/ˈᛘਟⵏᱟ䉧ழ⭼Ⲵ⌕⸣⍱ʽᐖ儈ѮΗᔰ᭮䙐⾿Ӫ㊫ΗⲴᰇˈਣᢺW/ ᇊԧ ㆆ⮕⧙ᡀᖃԓ㹼Ѫ㢪ᵟͶͶ⇿⅑䈳⭘䜭ۿ൘㔉䎋ঊ䍴ᵜᇦкˈᔰਁ㘵㮵⿳ཤਁ߉Ⲵԓ⸱䘈⋑ᛘ䇑䍩
᧕ਓੀ䟿བྷʽ
ᛘᇦ䛓ս䎋ঊ⾆‘WdͲϰˈᰕᑨк╄ӪᐕᲪ㜭⡸ljⲷᑍⲴᯠ㺓NJ˖Η䘉њ䰞仈䎵ࠪᡁⲴ㜭࣋㤳തΗ 㘫䈁䗷ᶕнቡᱟΗԜ⻣ส⥤ᆀҏ䝽䰞䘉њ˛Η ᴤ㔍Ⲵᱟ䛓྇㯋ᇊ䉄Ⲵ䚃ᗧ߶ࡉˈ㙺শਢⷜ䰤ਈ䓛Ⲯ、 ޘҖˈᨀᰦһ。ਈཡᗶ⯷ᛓ㘵ˈ⸕䚃Ⲵ䈤ᱟᆹޘᇑḕˈн⸕䚃Ⲵ䘈ԕѪ൘⧙/ ⡸劯劬⑨ᠿʽ
䈤ࡠᢰᵟ䘿᰾ᓖቡᴤ࿉Ҷˈ⁑ර唁㇡ᗇ∄⪎༛䬦㹼䠁ᓃ䘈ѕᇶˈ䇝㓳ᮠᦞᶕⓀ⾎〈ᗇ๚∄㖇ᯟေ ቄཆᱏӪẓṸDŽૡቡᱟ䈤ˈ䍥ਨᔰ᭮Ⲵᱟ/ 䘈ᱟ᪙ᯟᇶ⸱˛㾱нᒢ㜶㔉ᔰਁ㘵ਁ≤Ღ⨳ঐঌ⁑ර৲ ᮠ㇇Ҷ˛
KƉĞŶ/ KƉĞŶ/ˈ≲≲ԜӾᢰᵟ⾎උклᶕைਓ≄ʽ䘉Ѹㄟ⵰Η/ ᮁцѫΗⲴᷦᆀˈൠ⨳Ӫⵏ㾱 ԕѪԜ൘лаⴈ⭘‘Wh ⟳✗Ӫ㊫䫡वⲴབྷỻҶͶͶ∅ㄏ⧠൘⇿⅑䈳⭘ཡ䍕ᰦˈᡁ䜭㜭ੜ㿱哴ӱࣻ൘ ᱮᐕলㅁࠪ䬦⋣㌫ʽ˄ᡈᵟਾԠ͘ŐŝĨ˅
গˈᡈᵟਾԠJLIˈㅹ䘉њᇦՉⵏ᭟ᤱཊ⁑ᘱҶˈ䘈ᗇҶʽᡁᐢ㓿㜭ཏᜣ䊑䛓њ⭫䶒ҶDŽ 䘉ਚᱟањㆰঅⲴ⽪ֻˈᇎ䱵ѝ ˈо sϯ ⋏䙊ਟԕཊኅᔰࠐ䖞ˈ䙊䗷ཊ䖞ሩ䈍ᶕՈॆ㓶㢲DŽ ❦ਾˈ⭘᧘⨶⁑රᶕ␡ᓖՈॆDŽ
ǃ5 Ⲵ њᔰ᭮
ሩҾ 5 ⁑රˈ’HHS6HHN ڊࡠҶ њᔰ᭮
˅ᙍ㔤䬮ޘᔰ᭮DŽᰐ䇪ᱟᓄ⭘ㄟ䘈ᱟ $3,ˈ䜭ਟԕⴻࡠᆼᮤǃ䘿᰾Ⲵᙍ㘳䗷〻DŽ$3,ˈ䙊䗷䇮 㖞 CPRGHO $=^{5}$ GHHSVHHNUHDVRQHU C ˈণਟ䈳⭘DŽ
W/ 䈳⭘ ᤷই
ŚƚƚƉƐ͗ͬͬĂƉŝͲĚŽĐƐ͘ĚĞĞƉƐĞĞŬ͘ĐŽŵͬnjŚͲĐŶͬŐƵŝĚĞƐͬƌĞĂƐŽŶŝŶŐͺŵŽĚĞů
˅䇝㓳ᢰᵟޘ䜘ޜᔰDŽ’HHS6HHN ൘ਾ䇝㓳䱦⇥བྷ㿴⁑֯⭘Ҷ 5/ ᕪॆᆖҐᢰᵟˈ䙊䗷ᶱቁḷ ⌘ᮠᦞˈᶱབྷᨀॷ⁑ර᧘⨶㜭࣋DŽᡰᴹ䇝㓳ᢰᵟޘ䜘ޜᔰˈⴞࡽޘ⨳ཊњ⹄ウᵪᶴ൷ᐢ༽⧠ 5DŽ
∄ྲˈ、བྷᆼᡀҶ 5 ⁑රⲴ༽⧠઼ᔰⓀ
ԕ৺ሩየⲴ 7LQ=HUR 亩ⴞˈ⭘нࡠ 㖾ݳˈӢ㿱䇱Ҷ $, ᙍ㘳ⲴĀ亯ᛏāᰦ˄‘HHS6HHN 䇪᮷ѝ᧿䘠ⲴĀDKD PRPHQWā˅DŽ
TinyZero
User:Using thenumbers[19,36,55,7],create anequation thatequals65. Assistant:Letme solve this step by step
$+7=$ $=7+$ $^{+}$ $=$ $^*$ $-7$
˅ᔰⓀ $2+6$ њ⁑රDŽ5 亴㿸⡸઼↓ᔿ⡸Ⲵ৲ᮠ儈䗮 %ˈ䶎а㡜ޜਨ㜭⭘DŽѪ䘋а↕ᒣᵳҾᱟԆԜቡ㫨便ࠪҶ њሿ⁑රˈᒦᔰⓀ㔉⽮४DŽᴰሿⲴѪ % ৲ᮠˈ* ᱮᆈਟ䐁
䇪 ᮷ 䬮 ᧕ ˖ KWWSVJLWKXEFRPGHHSVHHNDL’HHS6HHN5EOREPDLQ’HHS6HHNB5SGI
JLQJ)DFH 䬮 ᧕ ˖
ŚƚƚƉƐ͗ͬͬŚƵŐŐŝŶŐĨĂĐĞ͘ĐŽͬĚĞĞƉƐĞĞŬͲĂŝ
߉൘ᴰਾ
ԕк њᢰᐗˈᐼᵋ㜭ሩ֯⭘ ‘HHS6HHN ᴹᡰᑞࣙ ᖃ❦ˈҏ⅒䗾བྷᇦ൘䇴䇪४ሶⲴᢰᐗ࠶ӛࠪᶕˈа䎧᧒䇘ǃᆖҐDŽቡۿ␡ᓖ≲㍒ѻᡰԕ䘹ᤙ ᔰⓀаṧˈҏᱟᐼᵋᴹᴤཊⲴ⭏ᘱˈᴤྭⲴᔰⓀ⽮४ˈབྷᇦа䎧Nj ᧒㍒ᵚ㠣ѻຳnjDŽ
ᴰਾˈᡁᜣ⭘ ‘HHS6HHN5 ⁑රⲴ Nj൘ᢰᵟ࣐䙏䎵䎺Ӫ㊫㜭࣋Ⲵᰦԓ
ᇊѹ㠚䓛Ⲵԧ٬оⴞⲴˈԕ⺞؍䘋↕Ⲵᯩ
ੁ㓸ᴽ࣑Ҿ⭏ભⲴᮤփ㑱㦓ˈ㘼䶎࠶㻲оᔲॆ˛nj
6RˈⲴㆄṸᱟӰѸ˛
文章作者 大模型
上次更新 2025-03-09