DeepSeek-R1:强化学习+知识蒸馏,比肩 o1

证券研究报告

投资评级:看好(维持)


最近 12 月市场表现

分析师 杨烨
SAC 证书编号:S0160522050001
[email protected]

相关报告

  1. 《一文读懂美国 BIS 最新禁令》
    2025-01-19
  2. 《大模型系列报告(一):Transformer
    架构的过去、现在和未来》 2025-01-
    19
    3.《电力信息化研究框架:(一)总章》
    2025-01-14

核心观点

DeepSeek-R1 发布,对标 $\mathbf{OpenAI01}$ 正式版。1 月 20 日,DeepSeek 正式发布一系列 DeepSeek-R1 模型,包括 DeepSeek-R1-Zero、DeepSeek-R1 和DeepSeek-R1-Distill 系列。DeepSeek-R1 模型推理能力优异,基准测试表现与OpenAI-o1-1217 相当,且 API 服务定价远低于 OpenAI 同类产品。

大规模强化学习,激发大模型推理潜能:DeepSeek-R1-Zero 在技术路线上实现了突破性创新,成为首个完全摒弃监督微调环节、完全依赖强化学习训练的大语言模型,证明了无监督或弱监督学习方法在提升模型推理能力方面的巨大潜力。在此基础上,DeepSeek-R1 对 R1-Zero 进行了改进。通过引入冷启动数据,并历经推理导向强化学习、拒绝采样、监督微调以及全场景强化学习的多阶段训练,充分发挥了强化学习的自学习和自进化能力。

知识蒸馏技术,让小模型也能“聪明”推理:DeepSeek 团队深入探索了将 R1 的推理能力蒸馏到更小模型中的潜力,发现经过 R1 蒸馏的小模型在推理能力上实现了显著提升,甚至超过了在这些小模型上直接进行强化学习的效果,证明了 R1 学到的推理模式具有很强的通用性和可迁移性,能够通过蒸馏有效传递给其他模型。这些结论为业界提供了新的启示:对小模型而言,蒸馏优于直接强化学习,大模型学到的推理模式在蒸馏中得到了有效传递。

DeepSeek-R1 高性价比 API 定价,极具商业化落地潜力: DeepSeek-R1API 服务定价为每百万输入 tokens 1 元(缓存命中)/4 元(缓存未命中),每百万输出 tokens 16 元,远低于可比大模型 API 服务。DeepSeek-R1 的高性价比 API 定价有助于开发者在使用后加速模型的功能迭代,从而解决目前模型存在的不足。

强化学习与知识蒸馏,DeepSeek 引领大小模型创新之路:对于大模型,DeepSeek-R1-Zero 展示的无 SFT 的强化学习技术为大模型开发者提供了一种新的训练范式,即通过强化学习来激发模型的内在潜力,从而在多个领域实现更高效、更精准的推理能力。对于小模型,DeepSeek-R1-Distill 系列通过知识蒸馏技术,成功将大模型的推理能力传递给小模型,实现了小模型在推理任务上的显著提升,引领了小模型的发展方向。

投资建议:建议重点关注基础设施领域的公司,如英伟达、海光信息、寒武纪、协创数据、英维克、中科曙光、浪潮信息、润泽科技、欧陆通、曙光数创、申菱环境、东阳光等,同时持续关注全球各大模型厂商、学界的创新进展。

风险提示:技术迭代不及预期的风险;商业化落地不及预期的风险;政策支持不及预期风险;全球宏观经济风险。

请阅读最后一页的重要声明!

免责申明:

  1. 本资料来源于网络公开渠道,版权归属版权方;
  2. 本资料仅限会员学习使用,如他用请联系版权方;
  3. 会员费用作为信息收集整理及运营之必须费用;
  4. 如侵犯您的合法权益,请联系客服微信将及时删除

行业报告资源群

  1. 进群福利:进群即领万份行业研究、管理方案及其他学
    习资源,直接打包下载
  2. 每日分享:6份行研精选报告、3个行业主题
  3. 报告查找:群里直接咨询,免费协助查找
  4. 严禁广告:仅限行业报告交流,禁止一切无关信息


微信扫码,长期有效

知识星球 行业与管理资源

专业知识社群:每月分享8000+份行业研究报告、商业计划、市场研究、企业运营及咨询管理方案等,涵盖科技、金融、教育、互联网、房地产、生物制药、医疗健康等;已成为投资、产业研究、企业运营、价值传播等工作助手。

内容目录

1 DeepSeek-R1 发布,对标 OpenAI o1 正式版
2大规模强化学习:激发大模型推理潜能 4
2.1 DeepSeek-R1-Zero:以强化学习完全取代监管微调.. 4
2.2 DeepSeek-R1:引入冷启动与多阶段训练 …….. 5
3知识蒸馏技术:让小模型也能“聪明”推理. 7
4 DeepSeek-R1 高性价比 API 定价,极具商业化落地潜力 ……… …… 9
5 总结和启示:强化学习与知识蒸馏,DeepSeek 引领 LLM 创新之路 ………… ……….. 10
6 投资建议… …… 11
7 风险提示.. … 11

图表目录

图 1. DeepSeek 发布 DeepSeek-R1 模型 … …..
图 2. DeepSeek-R1 与 OpenAI 同类产品的基准测试比较 ……….. …… 3
图 3. 随着 RL 训练推进,DeepSeek-R1-Zero 的 AIME 2024 基准测试成绩稳定且持续提升 ………….. 4
图 4.DeepSeek-R1-Zero 与OpenAI 的ol1 模型的测试成绩比较… …….. 5
图 5. DeepSeek-R1-Zero 中间版本的“顿悟现象” …… …. 5
图 6. DeepSeek-R1 的基准测试成绩在多个维度超越 V3 以及 OpenAI、Anthropic 的主流模型 ………. 7
图 7.DeepSeek-R1 蒸馏模型… …………. 8
图 8. QwQ-32B-Preview 与经过强化学习和 R1 蒸馏 Qwen-32B 模型的基准测试成绩对比 ……………… 8
图 9. DeepSeek-R1-Distill 系列小模型的基准测试成绩 . ……… …………. 9
图 10. DeepSeek-R1 与 OpenAI 同类产品的 API 价格比较 ………. …………… 10
图 11. DeepSeek-R1 深度思考能力示例 ………. ……… 11

1 DeepSeek-R1 发布,对标 OpenAI o1 正式版

DeepSeek-R1 正式发布。1 月 20 日,DeepSeek 正式发布了一系列 DeepSeek-R1 模型,并上传 R1 系列的技术报告和各种信息。DeepSeek 此次共发布三组模型:

DeepSeek-R1-Zero:大规模使用强化学习(RL)技术,没有任何监督微调(SFT);
⚫ DeepSeek-R1:在强化学习前融入冷启动数据,多阶段训练;
⚫ DeepSeek-R1-Distill 系列:DeepSeek-R1 中蒸馏推理能力到小型密集模型,参数规模分别为 1.5B、7B、8B、14B、32B 和 70B。


图1. DeepSeek 发布 DeepSeek-R1 模型
数据来源:DeepSeek 官网,财通证券研究所

DeepSeek-R1 模型推理能力优异,比肩 OpenAI o1 正式版。DeepSeek-R1 在 AIME2024 上获得了 $79.8%$ 的成绩,略高于 OpenAI-o1-1217。在 MATH-500 上,它获得了 $97.3%$ 的惊人成绩,表现与 OpenAI-o1-1217 相当,并明显优于其他模型。在编码相关的任务中,DeepSeek-R1 在代码竞赛任务中表现出专家水平,在 Codeforces上获得了 2029Elo 评级,在竞赛中表现优于 $96.3%$ 的人类参与者。对于工程相关的任务,DeepSeek-R1 的表现略优于 OpenAI-o1-1217。


图2. DeepSeek-R1 与 OpenAI 同类产品的基准测试比较
数据来源:DeepSeek 官方,财通证券研究所

2 大规模强化学习:激发大模型推理潜能

2.1 DeepSeek-R1-Zero:以强化学习完全取代监管微调

DeepSeek-R1-Zero 在技术路线上实现了突破性创新,成为首个完全摒弃监督微调(Supervised Fine-Tuning,简称 SFT)环节、完全依赖强化学习(ReinforcementLearning,简称 RL)训练的大语言模型。传统上,SFT 作为大模型训练的核心环节,需要先通过人工标注数据进行监督训练,再结合强化学习进行优化,这一范式曾被认为是 ChatGPT 成功的关键技术路径。而 DeepSeek-R1-Zero 创新性地采用纯强化学习训练框架,以 DeepSeek-V3-Base 为基础,通过群组相对策略优化(Group Relative Policy Optimization,简称 GRPO)算法实现训练效率与模型性能的双重提升。该算法通过构建智能体群体间的相对优势评估机制,在策略优化过程中最大化群体得分,同时设计了包含准确性奖励和格式规范奖励的多维度奖励模型,确保生成内容在保持正确性的基础上具备清晰的推理逻辑。


图3.随着 RL 训练推进,DeepSeek-R1-Zero 的 AIME 2024 基准测试成绩稳定且持续提升
数据来源:DeepSeek 论文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,财通证券研究所

随着 RL 训练逐步推进,DeepSeek-R1-Zero 的性能稳定且持续提升,证明了 RL算法的有效性。实证数据显示,在 AIME 2024 基准测试中,模型平均 pass $@1$ 得分从初始的 $15.6%$ 持续提升至 $71.0%$ ,最终达到与 OpenAI o1-0912 相当的性能水平。这一技术突破不仅验证了强化学习在提升大模型推理能力方面的有效性,更揭示了语言模型通过自主演化机制实现能力跃迁的可能性,为人工智能的自主学习范式提供了重要的实践范例。

图4.DeepSeek-R1-Zero 与 OpenAI 的 o1 模型的测试成绩比较

ModelAIME2024MATH-500GPQA DiamondLiveCode BenchCodeForces
pass@1cons@64
OpenAI-o1-mini63.680.0pass@1 90.0pass@1 60.0pass@1 53.8rating 1820
OpenAI-01-091274.483.394.877.363.41843
DeepSeek-R1-Zero71.086.795.973.350.01444

数据来源:DeepSeek 论文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,财通证券研究所

DeepSeek-R1-Zero 在训练过程中会出现“顿悟”现象(Aha Moment),模型会自发地重新评估之前的步骤,并进行反思,即重新审视并评估之前的步骤,还会探索解决问题的替代方法,类似于人类的“灵光一现”。这种自发涌现的复杂行为,展示了纯 RL 训练的巨大潜力,也为理解 AI 的学习机制提供了新的视角。

图5.DeepSeek-R1-Zero 中间版本的“顿悟现象
数据来源:DeepSeek 论文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,财通证券研究所

Question: If a > 1, then the sum of the real solutions of √a - Va + x = x is equal to
Response:
To solve the equation Va - Va + x = x, let's start by squaring both ...
Va+x =x² =→ a- Va+x=x². Rearrange to isolate the inner square root term:
(a -x²)² =a+x =→ a² - 2ax²+(x²)² =α+x =→ x4-2ax²-x+(a²-a) = 0
Wait, wait. Wait. That's an aha moment I can flag here. Let's reevaluate this step-by-step to identify if the correct sum can be ...
Westartedwiththeequation:
Va-Va+x=x
First, let's square both sides:
a-Va+x =x² =→ Va+x=α-x²
Next, I could square both sides again, treating the equation: .·

DeepSeek-R1-Zero 并非没有缺陷,纯强化学习训练因为完全没有人类监督数据的介入,存在着可读性差和语言混用问题的缺陷。但 DeepSeek-R1-Zero 在推理能力上的成功,证明无监督或弱监督学习方法在提升模型推理能力方面的巨大潜力,对于难以获取大量高质量标注数据的领域具有重要意义。

2.2 DeepSeek-R1:引入冷启动与多阶段训练

DeepSeek-R1 在 R1-Zero 的基础上进行了改进,保留大规模强化学习训练的同时对齐真实场景,通过在引入冷启动数据(cold-start data)后,历经推理导向强化学习(Reasoning-oriented Reinforcement Learning)、拒绝采样和监督微调( Rejection Sampling and Supervised Fine-Tuning )、 全 场 景 强 化 学 习(Reinforcement Learning for all Scenarios)的多阶段训练解决 DeepSeek-R1-Zero的缺陷,提升模型的应用能力。

⚫ 引入冷启动数据:冷启动数据是指在训练初期用于初始化模型的数据,有助于模型建立基本的推理能力。针对 DeepSeek-R1-Zero 的可读性和语言混杂问题,DeepSeek-R1 通过引入数千条高质量的、包含长推理链(Chain of Thought,简称 CoT)的冷启动数据,对 DeepSeek-V3-Base 模型进行了初始微调,从而显著提升了模型的可读性和多语言处理能力。值得注意的是,在收集冷启动数据时,DeepSeek 以 CoT 作为示例进行了少量样本提示,直接促使模型生成带有反思和验证的详细答案,从而强化了冷启动数据的综合质量。

●推理导向强化学习:在冷启动数据的基础上,DeepSeek 团队使用与 DeepSeek-R1-Zero 相同的大规模强化学习训练过程,重点提升模型在推理密集型任务(如编码、数学、科学和逻辑推理)上的性能。为了解决语言混合问题,引入了语言一致性奖励,鼓励模型在 CoT 中使用目标语言。最终,推理任务的准确性和语言一致性奖励相结合,形成奖励信号,用于指导模型的训练。

⚫ 拒绝采样和监督微调: 在强化学习接近收敛时,结合拒绝采样和多领域的数据集,生成包含推理数据和非推理数据的新 SFT 数据。与之前的冷启动数据不同,这一阶段的 SFT 数据不仅包含推理任务,还涵盖了其他领域的数据,例如写作、角色扮演、问答等,以提升模型的通用能力。对于这类非推理类数据,DeepSeek采用了与DeepSeek-V3相同的处理流程,并复用了DeepSeek-V3 的 SFT 数据集。在通过提示回答问题之前,DeepSeek 会调用 DeepSeek-V3 来生成潜在的 CoT,并最终收集了大约 20 万个与非推理训练样本相关的数据。

⚫ 全场景强化学习:使用包含推理数据和非推理数据的 SFT 数据集对模型进行微调,进行第二轮强化学习,以进一步优化模型的推理能力和通用性。在推理数据上,使用基于规则的奖励模型;在非推理数据上,使用奖励模型来捕捉人类在复杂场景中的偏好。此外,还分别对模型的帮助性和无害性进行训练,以确保模型输出对用户友好且安全。

图6.DeepSeek-R1 的基准测试成绩在多个维度超越 V3 以及 OpenAI、Anthropic 的主流模型

Benchmark (Metric)Claude-3.5-GPT-4oDeepSeek|OpenAI OpenAI|DeepSeek Sonnet-10220513V301-mini i 01-1217R1
ArchitectureMoEMoE
# Activated Params # Total Params37B 671B37B
671B
MMLU (Pass@1) MMLU-Redux (EM)88.3 88.987.2 88.088.5 89.185.291.890.8 92.9
English78.086.7
MMLU-Pro (EM)72.675.980.384.0
DROP (3-shot F1) IF-Eval (Prompt Strict)88.383.791.683.990.292.2
GPQA Diamond (Pass@1)86.5 65.084.386.184.883.3
28.449.959.160.075.771.5 30.1
SimpleQA (Correct) FRAMES (Acc.)72.538.224.9 73.37.0 76.947.082.5
52.080.570.057.8
AlpacaEval2.0 (LC-winrate) ArenaHard (GPT-4-1106)85.251.185.592.087.6
80.492.3
LiveCodeBench (Pass@1-COT) Codeforces (Percentile)38.932.936.253.863.465.9
Code Math20.323.658.793.496.696.3
Codeforces (Rating)7177591134182020612029
SWE Verified (Resolved)50.838.842.041.648.949.2
Aider-Polyglot (Acc.)45.316.049.632.961.753.3
AIME 2024 (Pass@1)16.09.339.263.679.279.8
MATH-500 (Pass@1)78.374.690.290.096.497.3
CNMO 2024 (Pass@1)13.110.843.267.678.8
CLUEWSC (EM)85.487.990.989.992.8
Chinese C-Eval (EM)76.776.086.568.991.8
C-SimpleQA (Correct)55.458.768.040.363.7

数据来源:DeepSeek 论文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,财通证券研究所

相较于 DeepSeek-V3 模型,DeepSeek-R1 在功能调用、多轮对话等方面的能力较弱。在处理非中英语言查询时,DeepSeek-R1 容易出现语言混合的问题,对提示较为敏感,且在少样本提示的情况下性能会下降。在软件工程任务上,DeepSeek-R1 相较于 DeepSeek-V3 的提升也不够明显。然而,从整体来看,DeepSeek-R1 在DeepSeek-V3-Base 模型的基础上,先利用少量高质量的冷启动数据进行微调,随后再进行强化学习。这种方法结合了监督学习和强化学习的优势,既可以利用人类的先验知识来引导模型,又可以发挥强化学习的自学习和自进化能力。

3 知识蒸馏技术:让小模型也能“聪明”推理

DeepSeek 团队深入探索了将 R1 的推理能力蒸馏到更小模型中的潜力,利用DeepSeek-R1 生成的 800K 数据对 Qwen 和 Llama 系列的多个小模型进行了微调,并发布了 DeepSeek-R1-Distill 系列模型。

图7.DeepSeek-R1 蒸馏模型

ModelBaseModelDownload
DeepSeek-R1-Distill-Qwen-1.5BQwen2.5-Math-1.5BHuggingFace
DeepSeek-R1-Distill-Qwen-7BQwen2.5-Math-7BHuggingFace
DeepSeek-R1-Distill-Llama-8BLlama-3.1-8BHuggingFace
DeepSeek-R1-Distill-Qwen-14BQwen2.5-14BHuggingFace
DeepSeek-R1-Distill-Qwen-32BQwen2.5-32BHuggingFace
DeepSeek-R1-Distill-Llama-70BLlama-3.3-70B-InstructHuggingFace

数据来源:DeepSeek 官方,财通证券研究所

DeepSeek 团队发现经过 R1 蒸馏的小模型在推理能力上实现了显著提升,甚至超过了在这些小模型上直接进行强化学习的效果。对比实验显示,直接在 Qwen-32B-Base 上进行的强化学习的 DeepSeek-R1-Zero-Qwen-32B 仅达到 QwQ-32B-Preview的水平,而经过 R1 蒸馏的 Qwen-32B 模型 DeepSeek-R1-Distill-Qwen-32B 则远超两者,证明了 R1 学到的推理模式具有很强的通用性和可迁移性,能够通过蒸馏有效传递给其他模型。

图8.QwQ-32B-Preview 与经过强化学习和 R1 蒸馏 Qwen-32B 模型的基准测试成绩对比

ModelAIME2024MATH-500 pass@1GPQADiamond pass@1LiveCodeBench pass@1
pass@1cons@64
QwQ-32B-PrevieW50.060.090.654.541.9
DeepSeek-R1-Zero-Qwen-32B47.060.091.655.040.2
DeepSeek-R1-Distill-Qwen-32B72.683.394.362.157.2

数据来源:DeepSeek 论文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,财通证券研究所

这一技术方向为业界提供了新的启示:对小模型而言,蒸馏优于直接强化学习,大模型学到的推理模式在蒸馏中得到了有效传递。例如,R1-Distill-Qwen-32B 在AIME2024 上取得了 $72.6%$ 的惊人成绩,在 MATH-500 上得分 $94.3%$ ,在LiveCodeBench 上得分 $57.2%$ ,这些结果显著优于之前的开源模型,并与 o1-mini相当。

图9.DeepSeek-R1-Distill 系列小模型的基准测试成绩

ModelAIME 2024 pass@1AIME 2024 cons@64MATH-500 pass@1GPQA Diamond pass@1LiveCodeBench pass@1CodeForces rating
GPT-40-05139.313.474.649.932.9759
Claude-3.5-Sonnet- 102216.026.778.365.038.9717
01-mini63.680.090.060.053.81820
QwQ-32B-Preview44.060.090.654.541.91316
DeepSeek-R1-Distill- Qwen-1.5B28.952.783.933.816.9954
DeepSeek-R1-Distill- Qwen-7B55.583.392.849.137.61189
DeepSeek-R1-Distill- Qwen-14B69.780.093.959.153.11481
DeepSeek-R1-Distill- Qwen-32B72.683.394.362.157.21691
DeepSeek-R1-Distill- Llama-8B50.480.089.149.039.61205
DeepSeek-R1-Distill- Llama-70B70.086.794.565.257.51633

数据来源:DeepSeek 官方,财通证券研究所

4 DeepSeek-R1 高性价比 API 定价,极具商业化落地潜力

DeepSeek-R1API服务定价远低于OpenAI同类产品,极具商业化潜力。DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/4 元(缓存未命中),每百万输出 tokens 16 元,而 OpenAI o1 模型 API 服务定价为每百万输入 tokens 55 元(缓存命中)/110 元(缓存未命中),每百万输出 tokens 是 438 元。DeepSeek-R1的高性价比 API 定价有助于开发者在使用后加速模型的功能迭代,从而解决目前模型存在的不足。例如,在面向普通用户时,DeepSeek-R1 容易出现语言混合问题,这会限制其在智能客服、自动化编程辅助等场景中的使用体验和效率。同时,DeepSeek-R1 系列模型对提示词较为敏感,这意味着在实际应用中,使用门槛较高,用户需要更精确地设计提示词才能获得较好的结果。在面向专业开发者时,DeepSeek-R1 系列模型在软件工程任务上未能展示出显著的改进,可能导致其在软件开发辅助工具、代码生成等领域的应用效果不如预期,进而限制其在软件工程市场的推广。


图10.DeepSeek-R1 与 OpenAI 同类产品的 API 价格比较
数据来源:DeepSeek 官方,财通证券研究所

5 总结和启示:强化学习与知识蒸馏,DeepSeek 引领 LLM 创新之路

DeepSeek-R1-Zero 展示的无 SFT 的强化学习技术为产业提供了一种新的训练范式,即通过强化学习来激发模型的内在潜力,从而在多个领域实现更高效、更精准的推理能力,为模型扩展(scaling)提供新的工程化方向。正如 DeepSeek-R1的技术论文中所说,强化学习的力量和美丽在于,与其明确地教模型如何解决问题,不如只为其提供正确的激励,让它自主地开发先进的问题解决策略。DeepSeek-R1-Zero 创新了语言模型的训练范式,不再依赖大量的标注数据进行监督微调,而是通过纯强化学习让模型自主探索和发现解决问题的方法,从而实现了自主学习和演化,减少了对高质量标注数据的依赖,对于难以获取大量标注数据的领域尤为重要,同时也提高了训练效率。在 DeepSeek-R1 的训练过程中,利用 DeepSeek-V3 模型生成的 CoT 作为训练数据,也为后续使用算法和技术手段生成或增强高质量数据以训练模型提供了新思路。


图11.DeepSeek-R1 深度思考能力示例

数据来源:DeepSeek 官网,财通证券研究所

对于小模型而言,DeepSeek-R1-Distill 系列通过知识蒸馏技术,成功将大模型的推理能力传递给小模型,实现了小模型在推理任务上的显著提升,引领了小模型的发展方向。这些研究表明可以通过将大型模型的知识有效蒸馏到小型模型中,让小模型得以在保持较低计算资源消耗的同时,实现接近大型模型的推理性能。这种技术不仅解决了小模型在资源受限情况下的性能瓶颈问题,还为其在实时应用、边缘计算等场景中的部署提供了可能。

投资建议

建议重点关注基础设施领域的公司,如英伟达、海光信息、寒武纪、协创数据、英维克、中科曙光、浪潮信息、润泽科技、欧陆通、曙光数创、申菱环境、东阳光等,同时持续关注全球各大模型厂商、学界的创新进展。

7 风险提示

技术迭代不及预期的风险:若 AI 技术迭代不及预期,NLP 模型优化受限,则相关产业发展进度会受到影响。

商业化落地不及预期的风险:大模型盈利模式尚处于探索阶段,后续商业化落地进展有待观察。

政策支持不及预期风险:新行业新技术的推广需要政策支持,存在政策支持不及预期风险。

全球宏观经济风险:垂直领域公司与下游经济情况相关,存在全球宏观经济风险。

免责申明:

  1. 本资料来源于网络公开渠道,版权归属版权方;
  2. 本资料仅限会员学习使用,如他用请联系版权方;
  3. 会员费用作为信息收集整理及运营之必须费用;
  4. 如侵犯您的合法权益,请联系客服微信将及时删除

行业报告资源群

  1. 进群福利:进群即领万份行业研究、管理方案及其他学
    习资源,直接打包下载
  2. 每日分享:6份行研精选报告、3个行业主题
  3. 报告查找:群里直接咨询,免费协助查找
  4. 严禁广告:仅限行业报告交流,禁止一切无关信息


微信扫码,长期有效

知识星球 行业与管理资源

专业知识社群:每月分享8000+份行业研究报告、商业计划、市场研究、企业运营及咨询管理方案等,涵盖科技、金融、教育、互联网、房地产、生物制药、医疗健康等;已成为投资、产业研究、企业运营、价值传播等工作助手。

信息披露

分析师承诺

作者具有中国证券业协会授予的证券投资咨询执业资格,并注册为证券分析师,具备专业胜任能力,保证报告所采用的数据均来自合规渠道,分析逻辑基于作者的职业理解。本报告清晰地反映了作者的研究观点,力求独立、客观和公正,结论不受任何第三方的授意或影响,作者也不会因本报告中的具体推荐意见或观点而直接或间接收到任何形式的补偿。

资质声明

财通证券股份有限公司具备中国证券监督管理委员会许可的证券投资咨询业务资格。

公司评级

以报告发布日后 6 个月内,证券相对于市场基准指数的涨跌幅为标准:
买入:相对同期相关证券市场代表性指数涨幅大于 $10%$ ;
增持:相对同期相关证券市场代表性指数涨幅在 $5%{\sim}10%$ 之间;
中性:相对同期相关证券市场代表性指数涨幅在- $-5%\sim5%$ 之间;
减持:相对同期相关证券市场代表性指数涨幅小于- $-5%$ ;
无评级:由于我们无法获取必要的资料,或者公司面临无法预见结果的重大不确定性事件,或者其他原因,致使我们无法给出明确的投资评级。
A 股市场代表性指数以沪深 300 指数为基准;中国香港市场代表性指数以恒生指数为基准;美国市场代表性指数以标普 500指数为基准。

行业评级

以报告发布日后 6 个月内,行业相对于市场基准指数的涨跌幅为标准:
看好:相对表现优于同期相关证券市场代表性指数;
中性:相对表现与同期相关证券市场代表性指数持平;
看淡:相对表现弱于同期相关证券市场代表性指数。
A 股市场代表性指数以沪深 300 指数为基准;中国香港市场代表性指数以恒生指数为基准;美国市场代表性指数以标普 500指数为基准。

免责声明

本报告仅供财通证券股份有限公司的客户使用。本公司不会因接收人收到本报告而视其为本公司的当然客户。

本报告的信息来源于已公开的资料,本公司不保证该等信息的准确性、完整性。本报告所载的资料、工具、意见及推测只提供给客户作参考之用,并非作为或被视为出售或购买证券或其他投资标的邀请或向他人作出邀请。

本报告所载的资料、意见及推测仅反映本公司于发布本报告当日的判断,本报告所指的证券或投资标的价格、价值及投资收入可能会波动。在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。

本公司通过信息隔离墙对可能存在利益冲突的业务部门或关联机构之间的信息流动进行控制。因此,客户应注意,在法律许可的情况下,本公司及其所属关联机构可能会持有报告中提到的公司所发行的证券或期权并进行证券或期权交易,也可能为这些公司提供或者争取提供投资银行、财务顾问或者金融产品等相关服务。在法律许可的情况下,本公司的员工可能担任本报告所提到的公司的董事。

本报告中所指的投资及服务可能不适合个别客户,不构成客户私人咨询建议。在任何情况下,本报告中的信息或所表述的意见均不构成对任何人的投资建议。在任何情况下,本公司不对任何人使用本报告中的任何内容所引致的任何损失负任何责任。

本报告仅作为客户作出投资决策和公司投资顾问为客户提供投资建议的参考。客户应当独立作出投资决策,而基于本报告作出任何投资决定或就本报告要求任何解释前应咨询所在证券机构投资顾问和服务人员的意见;

本报告的版权归本公司所有,未经书面许可,任何机构和个人不得以任何形式翻版、复制、发表或引用,或再次分发给任何其他人,或以任何侵犯本公司版权的其他方式使用。