DeepSeek赋能AI应用与端侧,助力算力国产化提速

2025年2月4日

1月板块表现强劲。人工智能板块指数(884201.WI)表现强劲,涨跌幅达$3.6%$ ,显著优于同期的宽基指数,如上证综指 $(-3.02%$ )、沪深300 $1\left(-2.99%\right)$ 和创业板指数( $-3.63%$ )。这一逆势上扬的态势反映了市场对人工智能技术持续迭代和应用拓展前景的认可。

美国CES 展落幕,“星际之门”计划启动。1月10日,CES大会落幕,AI技术、应用和产品迎来新跃进。1月 21日,美国现任总统特朗普宣布启动“星际之门”(Stargate)人工智能基础设施计划,预示着全球将进入新一轮AI科技军备竞赛。

DeepSeek全球爆火,国产大模型加速迭代。1月 20 日,DeepSeek正式能比肩OpenAIo1正式版。同日,Kimi发布了多模态思考模型 $\mathrm{k}1.5$ 模态和通用推理能力达到行业领先水平。1月 22日,字节跳动发布豆包大模型1.5pr0,综合得分优于GPT-4。1月29日,阿里云通义千问旗舰版模型Qwen2.5-Max正式发布,在多向公开主流模型测评基准上录得高分。这些进展表明,国产大模型正在持续缩短与美国核心厂商的差距,尤其是 DeepSeek-V3/R1通过算法与工程侧深度耦合,不仅将算力资源利用率最大化,降低成本(训练成本仅为OpenAI 同类模型的1/30),且性能上比肩OpenAI ol。以DeepSeek-R1为代表的通用大模型开辟出了一条新的AI 技术范式,震惊全球。国内AI应用及端侧AI的优势在于丰富的场景生态和庞大的流量,DeepSeek的开源策略和高效性能将赋能 AI应用与端侧 AI爆发,我们认为,AI Agent将在教育、办公、金融、医疗等领域发挥价值。

算力国产化进程预期加速。1月13日,美国政府宣布推出 AI芯片管制新规,旨在进一步限制中国等国家和地区对于高端AI芯片及技术能力的获得,并对华封锁16nm 以下先进制程。这一举措将倒逼国产技术持续突破。另一方面,DeepSeek开源大模型也对国产化产生积极影响,DeepSeek通过使用 FP8低精度训练、双管道训练、共享专家机制,大大降低了训练成本(DeepSeek-V3模型仅用557.6万美元和2048块H800GPU完成训练)。大模型成本的降低以及技术进步将推动整个算力资源使用总量上升,杰文斯悖论将再次到来,以DeepSeek为代表的大模型厂商将加速算力国产化进程。

投资建议:关注以下细分赛道及公司:1、国产算力产业链及生态伙伴:如工业富联、中科曙光、曙光数创、海光信息、龙芯中科等。2、算力基础设施产业链:如润泽科技、宝信软件等。3、AI $^+$ 应用:如科大讯飞、金蝶国际、金山端侧AI:如虹软科技、海康威视、中科创达、华勤技术、萤石网络等。5、数据要素产业链中供给、流通、应用公司:如拓尔思、达梦数据、深桑达A、上海钢联等。

风险提示:技术迭代不及预期风险;科技巨头竞争加剧风险;法律监管风险;供应链风险;下游需求不及预期风险。

计算机行业
推荐 维持评级

分析师

吴砚靖
:010-66568589
:[email protected]分析师登记编码:S0130519070001
分析师登记编码:S0130519070001
:(021)20257809 (021) 20257809
:lupei_[email protected]分析师证书编码:S0130521060001分析师证书编码:S0130521060001
研究助理 胡天昊
:(8610)80927637
:hutianhao_[email protected]相对沪深300表现图


相对沪深300表现图 2024-2-4
资料来源:Wind,中国银河证券研究院

免责申明:

  1. 本资料来源于网络公开渠道,版权归属版权方;
  2. 本资料仅限会员学习使用,如他用请联系版权方;
  3. 会员费用作为信息收集整理及运营之必须费用;
  4. 如侵犯您的合法权益,请联系客服微信将及时删除

行业报告资源群

  1. 进群福利:进群即领万份行业研究、管理方案及其他学
    习资源,直接打包下载
  2. 每日分享:6份行研精选报告、3个行业主题
  3. 报告查找:群里直接咨询,免费协助查找
  4. 严禁广告:仅限行业报告交流,禁止一切无关信息


微信扫码,长期有效

知识星球 行业与管理资源

专业知识社群:每月分享8000+份行业研究报告、商业计划、市场研究、企业运营及咨询管理方案等,涵盖科技、金融、教育、互联网、房地产、生物制药、医疗健康等;已成为投资、产业研究、企业运营、价值传播等工作助手。

股票代码股票名称EPSPE投资评级
2023A2024E2025E2023A2024E2025E
002230.SZ科大讯飞0.280.260.42181.00194.92120.67推荐
688041.SZ海光信息0.540.761.05237.04168.42121.90推荐
688692.SH达梦数据5.194.585.6171.1980.68
300442.SZ润泽科技1.021.31.8858.4545.8631.71
301236.SZ软通动力0.560.650.8295.8695.8682.58

资料来源:Wind,中国银河证券研究院

目录 Catalog

市场行情回顾

人工智能产业动态

三、前沿行业动态. 3

四、前沿企业动态,

34

五、投资建议。 36

六、风险提示。 36

、市场行情回顾

整体行情

A股人工智能指数(884201.WI)截至1月27日收盘价为8542.27,月涨跌幅为 $3.6%$ 算机行业指数(801750.SI)截至1月27日收盘价为4311.96,月涨跌幅为 $2.16%$

资料来源:Wind,中国银河证券研究院

(二)代表企业

A股Wind人工智能指数(884201.WI)截至1月27日总市值19340.3亿,含成分股73

股票代码股票简称1月涨跌幅1月27日收盘价 (元)相对计算机指数涨跌幅
603893.SH瑞芯微49.72%164.5051.88%
688787.SH海天瑞声35.99%133.9838.15%
688088.SH虹软科技27.85%49.3030.01%
600410.SH华胜天成24.31%9.0026.47%
300458.SZ全志科技21.67%47.1623.83%
300307.SZ慈星股份19.90%9.8822.06%
000681.SZ视觉中国16.14%24.1818.30%
300222.SZ科大智能15.15%11.4817.31%
300442.SZ润泽科技14.74%59.6216.90%
002354.SZ天娱数科13.59%6.1015.75%

资料来源:Wind,中国银河证券研究院

股票代码股票简称1月涨跌幅1月27日收盘价 (元)相对计算机指数涨跌幅
002253.SZ川大智胜-21.71%10.82-19.55%
300245.SZ天玑科技-19.83%12.53-17.67%
605168.SH三人行-13.11%31.21-10.95%
688256.SH寒武纪-U-13.07%572.00-10.91%
300474.SZ景嘉微-12.61%81.70-10.45%
002298.SZ中电兴发-12.41%4.66-10.25%
301316.SZ慧博云通-11.54%22.62-9.38%
300078.SZ思创医惠-9.54%2.75-7.38%
002049.SZ紫光国微-8.16%59.12-6.00%
600797.SH浙大网新-7.52%6.64-0.05

资料来源:Wind,中国银河证券研究院

板块估值

人工智能指数(884201.WI)重要成分股2021-2023年整体营业收入复合增长率 $1.90%$ 利润复合增长率 $-8.41%$

资料来源:Wind,中国银河证券研究院

基金代码基金简称(官方)基金规模(亿 元11月30收盘价 (元)近1月回报 (%)近3月回报 (%)近6月回报 (%)第一大重仓股名
称 (2024年报)
001986.OF前海开源人工智能A6.991.585.596.3414.77罗博特科
005729.OF南方人工智能主题3.872.182.494.8317.55腾讯控股
005844.OF东方人工智能主题A6.430.99-12.537.9927.48中科飞测
005962.OF宝盈人工智能A5.212.685.9415.4527.29海光信息
005963.OF宝盈人工智能C2.582.545.8715.2226.79海光信息
006281.OF万家人工智能A19.512.47-4.056.0714.79寒武纪-U
008020.OF华富中证人工智能产业ETF联接A1.960.85-1.358.2424.73石头科技
008021.OF华富中证人工智能产业ETF联接C1.880.84-1.378.1524.54石头科技
008585.OF华夏中证人工智能主题ETF联接A7.060.86-0.389.6325.09
008586.OF华夏中证人工智能主题ETF联接C6.830.85-0.409.5524.89
009239.OF融通中证人工智能主题C1.471.42-0.059.5724.81寒武纪-U
011832.OF西部利得中证人工智能A1.460.940.5613.0129.56寒武纪-U
011833.OF西部利得中证人工智能C0.970.920.5312.8929.30寒武纪-U
011839.OF天弘中证人工智能主题A2.270.94-0.069.7525.18寒武纪-U
011840.OF天弘中证人工智能主题C7.370.93-0.099.7025.06
012733.OF易方达中证人工智能主题ETF联接A6.811.07-0.2910.1525.79寒武纪-U
012734.OF易方达中证人工智能主题ETF联接C10.321.07-0.3010.1325.72
014162.OF万家人工智能C17.472.41-4.115.8614.34寒武纪-U
014630.OF汇添富中证人工智能主题联接A0.061.02
014631.OF汇添富中证人工智能主题联接C0.061.02
017811.OF东方人工智能主题C40.770.98-12.5627.24
021580.OF华夏中证人工智能主题ETF联接D0.670.857.88中科飞测
023286.OF前海开源人工智能C1.58-0.409.5624.90
023407.OF华宝创业板人工智能联接A
023408.OF华宝创业板人工智能联接C
159363.OF华宝创业板人工智能ETF6.690.97中际旭创
159702.OF汇添富中证人工智能ETF0.130.79
159819.OF易方达中证人工智能ETF85.150.90-0.379.9826.56寒武纪-U
161631.OF融通中证人工智能主题A6.001.45-0.019.6825.06寒武纪-U
512930.OF平安中证人工智能ETF11.241.29-0.319.5225.67寒武纪-U
515070.OF华夏中证人工智能ETF29.581.15-0.459.8926.40寒武纪-U
515980.OF华富中证人工智能产业ETF19.140.97-1.279.0226.61中际旭创
517800.OF方正富邦中证沪港深人工智能50ETF1.630.720.078.4329.09腾讯控股
588730.OF易方达上证科创板人工智能ETF2.061.00
588760.OF广发上证科创板人工智能ETF3.261.03
588790.OF博时科创板人工智能ETF2.341.09

资料来源:Wind,中国银河证券研究院

股票代码股票名称2023营 收增速 (%)2023净 利润增速 (%)24Q3营 收增速 (%)24Q3净 利润增速 (%)总市值 (亿元)市盈率 PE (TTM)市销率 PS (TTM)月涨跌幅 (%)今年以 来涨跌 幅 (%)
000977.SZ浪潮信息-5.41-12.8972.2666.49764.6333.380.760.200.20
002230.SZ科大讯飞4.4122.9717.73-1039.841171.59546.845.354.884.88
002236.SZ大华股份5.41230.490.77-3.97499.296.821.54-5.31-5.31
002362.SZ汉王科技3.561.7217.8729.9060.87-50.763.759.899.89
002405.SZ四维图新-6.72-171.149.069.42205.87-15.776.18-9.96-9.96
002415.SZ海康威视7.4211.786.06-6.222680.4020.062.88-5.44-5.44
300229.SZ拓尔思-13.84-72.982.9582.98193.16332.8124.165.595.59
300474.SZ景嘉微-38.19-79.35-5.9953.28426.98628.1062.32-12.61-12.61
601360.SH三六零-4.8977.66-16.76-56.39776.95-110.569.807.257.25
603019.SH中科曙光10.3416.123.652.12980.2052.846.70-7.37-7.37
688088.SH虹软科技26.0754.6114.098.34197.78207.9226.6927.8527.85
688169.SH石头科技30.5573.3223.178.22422.6319.544.244.334.33
688207.SH格灵深瞳-25.84-379.64-72.99-684.0338.79-18.4139.445.205.20
688256.SH寒武纪-U-2.7033.7227.0912.302387.85-312.06318.86-13.07-13.07
688787.SH海天瑞声-35.33-203.1644.90111.8080.821463.2937.3635.9935.99
688793.SH倍轻松42.3059.50-11.16183.4122.47-104.851.92-12.25-12.25
002410.SZ广联达-0.42-88.22-8.06-17.59192.95285.813.14-0.68-0.68
688327.SH云从科技-UW19.3328.26-34.51-23.69128.37-17.1025.232.312.31
688343.SH云天励飞-U-7.3614.21112.52-41.51171.53-33.6322.52-2.62-2.62
688246.SH嘉和美康-3.04-50.21-11.52-4748.7632.92-196.055.20-3.51-3.51
603893.SH瑞芯微5.17-54.6548.47354.90689.09168.3724.2749.7249.72
300033.SZ同花顺0.14-17.07-1.59-15.531500.60116.9842.55-2.91-2.91
300496.SZ中科创达-3.73-45.54-4.70-69.75285.852348.225.654.334.33
688111.SH金山办公17.2716.2310.9017.231452.3399.1829.569.649.64
688475.SH萤石网络12.3968.8012.93-6.69273.8951.085.1715.2015.20
300634.SZ彩讯股份25.1840.1710.72-37.78133.2962.548.2635.5035.50
300624.SZ万兴科技25.4968.43-3.91-105.42132.36846.269.208.418.41
301162.SZ国能日新26.8922.9318.157.9640.8847.737.98-10.33-10.33
688188.SH柏楚电子56.6153.1231.1930.10
409.1446.3623.842.522.52

资料来源:Wind,中国银河证券研究院

证券代码证券简称3Q24营 业收入3Q24营3Q24归3Q24归总市值市盈率市销率
今年以来
业收入同 比增长率母净利润 母净利润(原始币PEPS月涨跌幅涨跌幅
(Z)(ZZI)同比增长种、亿(TTM(TTM(%)(%)
(%)率 (%)元)
TSLA.O特斯拉468.010.5326.07-52.7213014.03183.5313.320.190.19
NVDA.O英伟达560.8485.53314.80205.1729405.1446.6225.96-10.59-10.59
GOOGL.1652.8114.68
0谷歌472.8123.0524974.0926.497.357.787.78
META.O脸书755.2722.50258.3459.5017461.4728.0010.6117.7117.71
MSFT.O微软1185.3715.84441.6121.1730855.4933.2711.79-1.53-1.53
BIDU.O百度654.44-0.65109.36168.75317.6910.521.667.467.46
AAPL.O苹果2103.28 4589.460.79 8.90575.52-3.3635452.0936.878.96-5.76-5.76
BABA.N阿里巴巴3206.187.49620.89 895.1928.532351.1319.191.7116.5716.57
0700.HK腾讯控股 商汤-W17.410.00-24.57-38.79 -6.5437011.2319.665.19-3.79-3.79
0020.HK 0268.HK金蝶国际29.000.00-2.1846.07595.82 368.64-9.42 -233.3114.64 5.558.05 20.528.05 20.52

资料来源:Wind,中国银河证券研究院

二、人工智能产业动态

数据要素、数据交易所最新新闻及政策

日期具体内容
1.24国家数据局:加快各项改革举措落地落实,大力推动数据要素市场化价值化 会议认为,国家数据局成立以来,始终以推动数据要素市场化配置改革作为工作主线,通过建立健全数据基础制度、建设数 据基础设施、推进数据资源开发利用、实施“数据要素×”行动等工作,推进数据要素价值释放。相关部门结合各自职能, 积极稳妥推进数据资产入表、数据资产管理工作,探索股东可依法依规用数据作价出资等工作,共同推进数据要素市场化价 值化。会议认为,从数据要素价值实现路径来看,数据要素通过与其他生产要素的协同,进入社会化大生产,进而创造价值。 2024年,国家数据局重点推进数据要素市场化工作,通过发挥市场机制作用让数据供出来、用起来。数据只有用得好,价 值才能“显性化”。市场化是手段,价值化是目的。无论是数据产品还是数据服务,只有在使用过程中才会创造价值、体现 价值。数据资产和数据资本是助推和放大数据要素价值的重要路径。会议指出,当前数据市场培育正处于起步发展阶段,要 加快各项改革举措落地落实,大力推动数据要素市场化价值化,充分发挥市场机制作用,实现数据“供得出、流得动、用得 好、保安全”,让数据的价值体现在企业降本增效里,体现在培育新质生产力中,体现在赋能经济社会高质量发展上。会议 强调,数据要素市场化价值化涉及大量的理论和实践问题,相关工作也需要久久为功、持续用力,需要政产学研合作,凝聚 众智来共同解答、协同推进。国家数据局将与财政部、市场监管总局等部门密切协作,强化对地方工作的有效指导,鼓励在 数据工作方面积极探索,加强场景需求牵引,推进数据要素协同优化、复用增效、融合创新,不断释放数据要素乘数效应,
1.21河南数据要素研究中心揭牌成立 1月21日,省数据局、省战略研究院、郑州数据交易中心在郑州举行战略合作框架协议签约仪式。省发展改革委党组书记、 主任马健出席并为河南数据要素研究中心揭牌,党组成员、副主任王旭出席见签,省数据局党组书记、局长郑华卿,省战略 研究院党委书记、院长王文莉,郑州数据交易中心总经理潘新民分别代表三方签约。三方一致同意将持续深化数据领域重大 问题研究,加强政策储备和宣传解读,搭建研讨交流合作平台,凝聚社会各方力量,共谋数据要素发展、共创美好“数字未 来”,为推动全省数字化转型发展、加快数字强省建设提供坚强支撑。省数据局、省战略研究院、郑州数据交易中心班子成 员及相关人员参加了签约仪式。

“人大指数”发布数据要素市场化推进力指数

1.17 进展。广东、浙江、北京等第一梯队的数据要素市场化推进力表现出色,创新探索,先行先试,有效发挥引领示范作用。“人大指数”系列发布启动会暨2025年首场指数发布会1月17日举行,发布了数据要素市场化推进力指数和成渝双城经 济圈协同发展指数报告。中国人民大学把影响经济社会发展的战略性重大问题作为研究重点,形成了一批关于中国式现代 化、经济金融、城市与区域发展、人口健康、新质生产力等各领域的指数,并在此基础上整合各类指数设立“人大指数”系 列发布平台,统一对外发布各领域指数,建立固定机制,形成品牌效应,以更好服务经济社会高质量发展。现场发布的“数 据要素市场化推进力指数”由人大信息资源管理学院发起,旨在面向国家的数据事业和数据要素市场战略指引1,基于对各省 (自治区、直辖市)最新实践的调查研究,形成了包括基础环境、保障支撑、执行推进三大维度、7项二级指标、17项三级 指标、37项四级指标的评价体系,以科学反映各地在引导和规范数据要素市场发展方面的能力和成效。根据数据要素市场 化推进力指数(2024),我国数据要素市场发展仍处于初级阶段,各地因地制宜开展数据要素市场化建设的探索,取得可喜
1.15国家发改委等六部门印发《关于完善数据流通安全治理更好促进数据要素市场化价值化的实施方案》 1月15日,国家发改委等部门印发《关于完善数据流通安全治理更好促进数据要素市场化价值化的实施方案》,到2027年 升,为繁荣数据市场、释放数据价值提供坚强保障。 国家数据局批复复同意贵州建设数据要素综合试验区
1.141月14日消息,国家数据局于近日正式批复同意贵州建设数据要素综合试验区。按照批复文件要求,数据要素综合试验区 建设的主线是数据要素市场化配置改革,突破口是公共数据汇聚治理、授权运营,重点任务包括数据基础设施建设、数据资 源体系构建、数据资源开发利用、数据赋能产业发展、数据安全治理等。按照建设要求,数据要素综合试验区建设以制度建 设为主线,以促进数据要素流通使用为重点,探索符合区域特点的数据价值释放路径,进一步激发经营主体活力,培育壮大 数据要素市场,要求聚焦优势领域,打造释放数据价值的标志性成果,促进数据“供得出、流得动、用得好、保安全”,为 西部地区推进数据要素市场化配置改革提供经验借鉴。

资料来源:中证网、观点网、北京青年报、Wind、大河财立方,中国银河证券研究院

日期具体内容
1.26北京国际大数据交易所累计备案交易近100亿元 日前,2025北京数据交易成果报告会在京举办。会上透露,截至2024年底,北京国际大数据交易所累计备案交易金额近 100亿元,上架数据产品超3000个。会上,北京国际大数据交易所“数据流通交易专家咨询委员会”正式成立,朝阳区数 据要素产业园举行开园仪式。
1.9广州数据交易所增城服务专区揭牌,27家单位签署战略合作 1月9日,广州数据交易所(增城)服务专区(下称“增城服务专区”)正式揭牌。据介绍,增城服务专区可为参与数据要 素交易的各类主体提供包括基础配套服务、会员管理服务、数据产权登记指引服务在内的三大基础服务,同时基于分级分类 的会员体系,配套供给数据交易生态培育、数据经纪服务、数据运营管理服务等增值服务。值得关注的是,目前,增城服务 盖农业服务、城乡规划建设等多个应用场景。据悉,增城服务专区正在推进106家企事业单位申报成为专区会员。在此次专 都数据集团、厦门数据交易公司成为增城服务专区的首批跨省合作伙伴,进一步推动数据要素资源跨区域流动。此外,为将 金融资源与外部资金引人增城区,结合国家金融监督管理总局的金融资产投资公司(AIC)股权投资试点,增城产投集团拟 联合广州产投、工银资本共同发起设立2025年广州首支综合性AIC基金,首期规模10亿元,基金投资领域包括数字经济、 新一代信息技术等广州市、增城区重点发展的产业,而三方也在此次仪式上完成了基金意向合作签约。据介绍,以该基金为 契机,增城区将与AIC公司和产业投资机构建立更广泛的股权投资合作,通过“产业+金融”、赋能实体经济的股权投资模 式,推动数字经济等新质生产要素集聚增城。
1.8北京国际大数据交易所落户北辰世纪中心 1月8日消息,北京国际大数据交易所(简称北数所)于近日正式落户北辰世纪中心。据介绍,北数所是北京金控集团联合 48家单位共同发起成立的北京国际数据交易联盟,为国内首家基于“数据可用不可见,用途可控可计量”新型交易范式的

资料来源:Wind、观点网、南方都市报,中国银河证券研究院

算法端:国内外巨头大模型动态

DeepSeek 领衔国产大模型突破。1月 20 日,DeepSeek 正式发布并开源 DeepSeek-R1了多模态思考模型k1.5,其多模态和通用推理能力达到行业领先水平。1月 22 日,字节跳动发布豆包大模型1.5 pro,综合得分优于GPT-4。1月 29日,阿里云通义千问旗舰版模型Qwen2.5-Max正式发布,在多向公开主流模型测评基准上录得高分。这些进展表明,国产大模型正在持算力资源利用率最大化,降低成本(训练成本仅为OpenAI 同类模型的 1/30),且性能上比肩OpenAIol。以 DeepSeek-R1为代表的通用大模型开辟出了一条新的 AI技术范式,震惊全球。国内 AI 应用及端侧 AI 的优势在于丰富的场景生态和庞大的流量,DeepSeek 的开源策略和高效性能将赋能 AI应用与端侧 AI爆发,我们认为,AI Agent 将在教育、办公、金融、医疗等领域发挥价值。

时间模型主要内容
1.28DeepSeek Janus-ProDeepSeek发布新款开源多模态AI模型Janus-Pro 1月 28日凌晨,人工智能社区 HuggingFace 显示,DeepSeek 发布了开源多模态 AI模型Janus-Pro。 据介绍,Janus-Pro是Janus的高级版本,其拥有优化的训练策略,扩展的训练数据以及更大的模型规 还增强了文本到图像生成的稳定性。Janus-Pro系列包括了参数量分别为7B和1.5B的两个型号。报 告公开的测试结果显示,Janus-Pro-7B在GenEval和DPG-Bench基准测试中击败了OpenAI的 DALL-E3和StableDiffusiono 百川智能上线开源全模态模型Omni-1.5,号称多项能力超越GPT-4omini
1.26Baichuan-Omni-1.51月26日消息,百川智能今日宣布,Baichuan-Omni-1.5开源全模态模型正式上线。该模型不仅支持 文本、图像、音频和视频的全模态理解,还具备文本和音频的双模态生成能力。官方宣称,其在视觉、 语音及多模态流式处理等方面,Baichuan-Omni-1.5的表现均优于GPT-4omini;在多模态医疗应用 领域,其具备更突出的领先优势。Baichuan-Omni-1.5不仅能在输入和输出端实现多种交互操作,还 拥有强大的多模态推理能力和跨模态迁移能力。模型结构方面,Baichuan-Omni-1.5的模型输入部分 支持各种模态通过相应的Encoder/Tokenizer输入到大型语言模型中。而在模型输出部分,Baichuan- Omni-1.5采用了文本-音频交错输出的设计,通过TextTokenizer和AudioDecoder同时生成文本和 据库,且在SFT阶段使用了1700万条全模态数据。
1.25TeleAI-tl-preview中国电信发布“复杂推理大模型”,数学基准评测超越GPT-40 1月25日消息,中国电信人工智能研究院(TeleAI)“复杂推理大模型”TeleAI-tl-preview近日正式 发布。TeleAI-tl-preview使用了强化学习训练方法,通过引I入探索、反思等思考范式,大幅提升模型 在数学推导、逻辑推理等复杂问题的准确性。在美国数学竞赛AIME2024、MATH500两项权威数学基 准评测中,TeleAI-tl-preview 分别以 60和 93.8分的成绩,大幅超越OpenAIo1-preview、GPT-4o 等标杆模型。在研究生级别问答测试 GPQADiamond 中,TeleAI-tl-preview 得分超过GPT-4o,并
1.23豆包大模型1.5豆包大模型1.5Pro灰度上线开发者可直接调用API 1月23日消息,据豆包官方公众号消息,豆包大模型1.5Pro版本正式发布,目前已在豆包APP灰度 上线,接受海量请求,开发者也可在火山引擎直接调用API(应用程序编程接口)。豆包官方介绍显示, 豆包大模型1.5Pro在知识(MMLU_PRO、GPQA)、代码(McEval、FullStackBench)、推理(DROP)、 中文(CMMLU、C-Eval)等多项公开测评基准上成绩全球领先。豆包方面表示,豆包大模型1.5Pro使 用较小的激活参数进行预训练,训练成本极低,但性能不打折,采用大规模稀疏MoE架构,等效7倍 激活参数的Dense模型性能,远超业内MoE架构约3倍杠杆的常规效率。此外,豆包大模型1.5Pro 的多模态能力得到全面提升,新版豆包视觉理解模型Doubao-1.5-vision-pro,视觉理解能力领先。全 新的豆包实时语音模型Doubao-1.5-realtime-voice-pro,采用Speech2Speech端到端框架,表现力 实现飞跃,真正做到会哭会笑、能说方言会唱歌。该模型已在豆包APP全量上线。
1.21混元3D生成大模型 2.0腾讯混元3D生成大模型2.0开源发布,同步上线“业界首个一站式3D内容AI创作平台 引擎,号称是“业界首个一站式3D内容AI创作平台”。该技术宣称一句话、一张图,甚至画个草图 都能生成一个3D模型,甚至还能加动作、换纹理、捏人物、做动画。腾讯混元3D-2.0版本主要是对 3D生成过程中的几何和纹理两个大模型进行了升级。几何大模型的任务就是捕捉3D物体的形状和结 构。腾讯云采用Hunyuan3D-DiT和HunyuanShapeVAE技术,让生成的「白模」(没上色的模型) 效果“堪比设计师手工建模”;纹理大模型Hunyuan3D-Paint可以根据文字或图片描述,为「白模』 穿上各种纹理。
1.20DeepSeek-R1DeepSeek-R1发布,性能对标OpenAIo1正式版 DeepSeek正式发布DeepSeek-R1,并同步开源模型权重。DeepSeek-R1遵循MITLicense,允许用 户通过蒸馏技术借助 R1训练其他模型。DeepSeek-R1上线API,对用户开放思维链输出,通过设置 model='deepseek-reasoner即可调用。DeepSeek官网与App即日起同步更新上线。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。 在数学、代码、自然语言推理等任务上,性能比肩OpenAIo1正式版。

资料来源:IT之家、中新网、TechWeb、格隆汇、Wind,中国银河证券研究院

时间 模型主要内容
1.31o3-miniOpenAI上线o3-mini,首次向ChatGPT免费用户开放推理模型 美国当地时间1月31日,OpenAI宣布正式推出推理模型o3-mini,是其推理系列中最新、最具成 本效益的模型,即日起可在ChatGPT和API中使用。作为首款支持开发者高频需求功能的小型推理 模型,OpenAIo3-mini内置函数调用、结构化输出和开发者消息等专业功能,开箱即用,可直接投 入生产环境。此外,开发者还可根据场景需求,灵活选择低、中、高三级推理强度,使模型在应对复 杂挑战时能“深度思考”,或在需要快速响应时优先保证速度。
1.23OperatorOpenAI放大招!重磅发布首个AI智能体,像人类一样使用网页浏览器,可自主订餐购物 美国当地时间1月23日,美国初创公司OpenAI正式发布了其首个AI智能体Operator。与以往 “问一句、答一句”的传统聊天机器人不同,Operator能够在人类有限监督的情况下,按照预设指令 自主完成任务,该创新被视为AI生产力发展的下一个重要里程碑。据OpenAI首席执行官奥特曼介 绍,这款智能体能像人类一样使用网页浏览器,并点击按钮、打字输入内容等复杂操作。它能够自 动完成预订旅行住宿、餐厅预约、在线购物等一系列日常生活中的繁琐任务,极大地提高了工作效率 和便利性。在演示案例中,当用户要求Operator预订某家饭店的晚餐座位时,只需在对话框中输入 简单的指令,如“给我订一个XX饭店今晚19点的桌子”,Operator便能自动打开网页,进入预订 网站,搜索并成功预订餐厅,这一过程无需人工干预。Operator 的技术核心在于Computer-Using Agent(CU)模型,该模型结合了GPT-4的视觉识别能力和基于强化学习的高级推理功能,使得
1.7Nemotron英伟达发布Nemotron系列大语言模型欲推动代理式AI加速崛起 CES2025大会上,英伟达创始人兼CEO黄仁勋发布了全新的LlamaNemotron系列大语言模型。 黄仁勋表示,人工智能正在进入一个新时代一代理式人工智能(agenticAI),专业的AI代理可以 帮助人们解决复杂问题并自动执行重复性任务。他进一步表示,借助定制的AI代理,各行各业的企 业都可以实现前所未有的生产力。然而,这些先进的AI代理需要一套针对代理AI功能和能力进行 优化的多个生成式AI模型系统。这种复杂性意味着对强大、高效的企业级模型的需求从未如此强烈。 英伟达此次推出的LlamaNemotron 模型,有Nano、Super和 Ultra三个不同版本。其中,Nano 是最具成本效益、低延迟的模型,适合在PC和边缘设备上部署。Super是一种高精度模型,在平衡 计算效率的同时具有更高的准确性;而Ultra是最高精度模型,专为要求最高性能的数据中心规模应 用而设计。

资料来源:21财经、前瞻网、界面新闻,中国银河证券研究院

算力端:AI服务器、AI芯片最新动态

时间主要内容
1.28NanoLabs投资人工智能ASIC芯片初创企业 NanoLabs今日宣布对杭州微恒科技有限公司进行战略投资,获得该公司5%股权。微恒科技专注于开发面向边缘计算、终 端计算及大模型应用的人工智能专用计算存储一体化芯片,其产品可与DeepSeek最新大模型实现兼容。
1.25AI芯片需求持续猛增!Meta继续砸钱布局AI,今年拟斥资650美元 社交媒体Facebook与Instagram母公司MetaPlatforms的首席执行官马克·扎克伯格周五表示,该科技巨头计划在2025 技领域之后,Meta今年将继续砸重金加码布局AI,同时也大幅强化AI算力高景气预期:即AI芯片需求持续呈现井喷增长 之势。据了解,高达650亿美元的AI相关支出计划包括新建设一个规模巨大的AI数据中心以及大幅扩充AI领域人才,增 加Meta人工智能团队实际规模。
1.215000亿美元!特朗普宣布重磅AI项目“星际之门” 华盛顿特区,21日一美国总统唐纳德·特朗普今日在白宫宣布了一项雄心勃勃的计划,由甲骨文公司、OpenAI(美国开放 人工智能研究中心)和日本软银集团共同出资50o0亿美元,在美国建设名为“星际之门”(Stargate)的人工智能基础设施 项目。特朗普在白宫椭圆形办公室与这三家科技巨头的负责人共同出席了发布会,向全世界宣告了这一重大消息。他激动地 说:““星际之门’将不仅仅是一个数据中心,它将是一个支持新一代人工智能发展的物理和虚拟基础设施,为美国的创新和 技术领导地位奠定坚实基础。”据美国媒体报道,“星际之门”项目的初始投资为1000亿美元,并计划在未来四年内逐步增
加至5000亿美元。这一巨额投资将用于建设数据中心、研发新技术和推动人工智能在各个领域的广泛应用。
1.20欧冶半导体智能汽车AISoC芯片及解决方案降低智能汽车维护和新产品开发成本,提升其智能化水平和安全性 欧冶半导体由创始团队和国投招商共同发起设立,是国内首家聚焦智能汽车第三代E/E架构的系统级SoC芯片及解决方案供 应商。股东阵容包括国投招商、鲲鹏大交通基金、丝路金桥基金、南山战新投、中科创星、招商致远、上汽、星宇股份、均胜 电子、瑞声科技、保隆科技、虹软科技等,涵盖国有资本、产业资本、头部创投及众多汽车产业链龙头企业。目前,欧冶半导 体以深圳为总部,分别在上海、珠海、苏州、西安多地设立研发中心,拥有员工近300人,90%以上为研发人员。目前已累 技术企业认定。
1.13美国公布最新AI芯片禁令英伟达与甲骨文实名反对! 中新网1月14日电综合报道,当地时间13日,美国政府宣布推出美国制造AI芯片管制新规,旨在对美国制造的AIGPU(图 形处理器,主要用于AI大模型的训练及推理)芯片实施严格的全球出口限制。据美国全国广播公司(NBC)披露,根据管制新 规,美国将对各个国家及地区,根据其部署的芯片计算能力被划分为三个等级,不同等级适用不同的销售限制。第一等级包括 美国的主要盟友,如德国、荷兰、日本、韩国和新加坡、印度等18个国家和地区。这些国家几乎不受限制地使用美国厂商生 产的AI芯片,并可以在其境内自由部署算力。第二等级则包括除第一梯队外的绝大多数国家,这些国家将面临总算力限制, 每个国家在2025年至2027年期间最多可获得约50000个AIGPU。第三等级主要是中国、俄罗斯、伊朗等被美国实施武器 禁运的国家及地区。这些国家将受到最严格的限制,几乎全面禁止进口美国厂商生产的AIGPU芯片。

资料来源:智通财经、经济观察网,中国银河证券研究院

三、前沿行业动态

前沿技术动态

1.Meta提出大概念模型,1B模型干翻70B

Meta 提出大概念模型,抛弃token,采用更高级别的「概念」在句子嵌入空间上建模,彻底摆脱语言和模态对模型的制约。

直接操作高层级显式语义表示信息,彻底让推理摆脱语言和模态制约。具体而言,只需要固定长度的句子嵌入空间的编码器和解码器,就可以构造LCM,处理流程非常简单:首先将输入内容分割成句子,然后用编码器对每个句子进行编码,以获得概念序列,即句子嵌入。然后,大概念模型(LCM)对概念序列进行处理,在输出端生成新的概念序列。最后,解码器将生成的概念解码为子词(subword)序列。

「大概念模型」(LCM)在推理(inference)效率上具备优势:在大约1000个token 数左右,新模型理论上需要的计算资源就比 LLama2-7b 具备优势,且之后随着下上文中 token 数越大,新模型优势越大。具体结果见论文中的图15,其中的蓝色表示LLama2-7b模型,红色和绿色分别代表新模型;红色的参数规模为7b,而绿色为1.6b;右图是左图在0-3000的token数下的局部放大图。

Figure 13 - Theoretical inference Flops of LCMs and LLLms. We evaluate the inference flops for different text lengths (in LLAMA2 tokens) with a variable average sentence length. Only extremely short sentences ( $\leq10$ tokens) favor LLMs.
资料来源:新智元,中国银河证券研究院

新模型的其他亮点如下:

在抽象的语言和模态无关的层面上进行推理,超越token:(1)新方法模拟的是底层推理过程,而不是推理在特定语言中的实例。(2)LCM可同时对所有语言和模态进行训练,即获取相关知识,从而有望以无偏见的方式实现可扩展性。目前支持200种语言文本。
 明确的层次结构:(1)提高长文输出的可读性。(2)方便用户进行本地交互式编辑。
 处理长上下文和长格式输出:原始的 Transformer模型的复杂性随序列长度的增加而呈二无与伦比的零样本(zero-shot)泛化能力:LCM 可在任何语言或模态下进行预训练和微调。模块化和可扩展性:(1)多模态LLM可能会受到模态竞争的影响,而概念编码器和解码器则不同,它们可以独立开发和优化,不存在任何竞争或干扰。(2)可轻松向现有系统添加新的语言或模态。

2.港大Aria-UI(纯视觉方案)登顶,超越Claude 3.5

Aria-UI通过纯视觉理解,实现了GUI指令的精准定位,无需依赖后台数据,简化了部署流程;在AndroidWorld和OSWorld等权威基准测试中表现出色,分别获得第一名和第三名,展示了强大的跨平台自动化能力。

Aria-UI是一款专门面向GUI智能交互的创新型大规模多模态模型(LMM),颠覆性地实现了「看到即会操作」的自然交互范式-就像人类用户一样,AI只需「观察」界面,即可理解并自主完成复杂的操作流程,从网页浏览、文件处理到系统设置等任务都能轻松应对。

在评估AI自动化操作能力的权威基准测试中,Aria-UI配合GPT-4o展现出卓越表现:AndroidWorld榜单排名第一,OSWorld榜单排名第三!这一成绩不仅超越了业界领先的Claude 3.5 Sonnet computer-use接口,更展示了其在模拟人类操作电脑方面的强大能力。

Aria-UI采用创新的MoE(Mixture of Experts)架构,通过智能动态激活机制,将模型参数需求压缩至仅3.9B,同时保持较好的性能。这一突破性的轻量级设计带来多重优势:

极致压缩:仅激活3.9B参数,大幅降低计算资源需求
 高效推理:优化的MoE架构确保快速响应和稳定性能
 广泛适配:支持在资源受限场景下的灵活部署
 开放生态:全面开源模型权重与训练数据部署便利:提供即用型 vLLM 推理脚本、支持主流 huggingface transformers 框架、完整的部署文档与示例

Aria-UI的突破性创新:

智能指令适配引擎:Aria-UI 设计了数据生成 pipeline,通过自动合成海量高质量训练样本,为模型注入强大的指令理解能力。这套智能指令适配引擎使模型获得了卓越的泛化性能,能从容应对各类复杂任务场景,展现出非凡的环境适应能力,为实现真正的通用型AI助手奠定了坚实基础。

资料来源:新智元,中国银河证券研究院

动态上下文感知:为实现高精度的任务执行,Aria-UI创新性地融合了多模态上下文理解机制。通过整合文本记录和图文操作历史,模型获得了强大的场景理解能力,能准确把握动态变化的操作环境,将复杂指令精准转化为具体行动。

全面性能测评:Aria-UI在严格的性能评测中展现出令人瞩目的技术优势,成功刷新了多个领域基准的记录。在纯视觉人机交互基准测试中,其表现远超现有最佳视觉模型;在与需要调用AXTree 等额外信息的传统方案对比中,Aria-UI仅依靠视觉理解就取得了显著的性能提升。实验测评不仅验证了纯视觉方法的可行性,更展示了其在界面自动化领域(GUI Grounding)的应用

从日常生活场景到专业工作领域,GUI智能体正在重塑人机交互的方式,为任务自动化开辟新天地。如图所示,一个完整的GUI 智能体运作可分为两大核心阶段:决策规划(Planning)和视觉定位(Grounding)。在决策规划阶段,智能体通过分析当前界面状态,制定执行任务的具体策略;而在视觉定位阶段,则需要将规划好的指令精准映射到实际界面元素上,确保操作的准确执行。

资料来源:新智元,中国银河证券研究院

尽管大规模多模态模型(LMMs)在决策规划方面取得显著进展,特别是在链式推理(CoT)和模型扩展等技术的加持下,但如何实现语言指令到GUI元素的精准定位仍然面临重大挑战。这些挑战主要体现在三个层面:

跨设备兼容性:不同设备间界面布局存在巨大差异,要求模型具备强大的适应能力 指令多样性:规划指令在形式和内容上变化多端,考验模型的理解能力场景复杂性:任务执行过程充满动态变化,对模型的实时响应能力提出更高要求这些挑战不仅推动着GUI智能体技术的持续创新,也为打造更智能、更实用的自动化解决方案指明了方向

3.微软全华人团队提出rStar-Math算法,在数学推理上击败o1

微软全华人团队提出rStar-Math算法,证明了SLM无需从高级模型蒸馏,就能在数学推理上,媲美甚至一举超越ol。rStar-Math 核心在于,让小模型具备「深度思考」的能力。团队借鉴了AlphaGo中蒙特卡洛树搜索(MCTS)技术,设计了一个由2个协同工作的 SLM组成的系统:

一个数学策略小语言模型(SLM)一个过程奖励模型 (PRM)

此外,rStar-Math具体设计中,引入了三项技术创新:全新代码增强CoT数据合成;全新PRM训练方法;自我进化方案。通过4轮自我进化,并结合数百万个为 $747\mathrm{k}$ 数学问题合成的解答,rStar-Math 让 SLM 数学推理能力刷新 SOTA。

在 MATH基准测试中,它将 Qwen2.5-Math-7B 的成绩从 $58.8%$ 提升至 $90.0%$ mini-3.8B 的成绩从 $41.4%$ $86.4%$ $+4.5%$ 和 $+0.9%$

在美国数学奥林匹克(AIME)上,rStar-Math 解决了平均 $53.3%$ 于高中数学优等生前 $20%$ 。具体结果如下所示。

$20%$

Task (pass@1Acc)rStar-Math (Qwen-7B)rStar-Math (Qwen-1.5B)rStar-Math (Phi3-mini)OpenAI o1-previewOpenAI 01-miniQWQ 32B-previewGPT-40IDeepSeek-V3
MATH90.088.686.485.590.090.676.690.2
AIME202453.346.743.344.656.750.09.339.2
OlympiadBench65.664.660.365.361.243.355.4
CollegeMath60.559.359.157.855.848.558.9
Omni-Math50.548.546.052.560.549.630.535.9

资料来源:新智元,中国银河证券研究院

Keras 之父预言道,2025年将会不断涌现这样的研究,通过结合程序搜索、CoT搜索,在LLM指导下提升推理基准(包括ARC和数学基准)的表现。

4。谷歌提出的Titans突破了传统Transformer在长序列处理中的局限

谷歌团队提出的Titans架构通过引入神经长期记忆模块,突破了传统Transformer架构在长序列处理中的局限。该架构通过创新的记忆整合和遗忘机制,在语言建模、常识推理、时间序列预测等任务中展现了显著的性能提升,在长上下文任务中的优势突出。

Titans是什么?研究者认为大多数现有架构将记忆视为由输入引起的神经更新,并将学习定义为在给定目标的情况下有效获取有用记忆的过程。由于记忆分为短期记忆、工作记忆和长期记忆,而其中每个部分都相互独立地服务于不同的场景,也具有不同的神经结构。

受此启发,研究者提出了两个问题:

1.如何设计一个高效架构,将不同且相互关联的记忆模块整合起来?
2.是否需要一个深度记忆模块,以有效存储和记住长期历史信息?

本研究旨在通过设计一个长期神经记忆模块来解决上述问题,神经长期记忆模块的设计受到人类长期记忆系统的启发,能存储和检索过去的信息。该模块不是无差别地记住所有信息,而是会通过「惊讶度」来选择性地记住那些重要或令人惊讶的信息。并且其记忆不是静态的,可以根据新的信息动态更新。这种动态更新机制类似于人类的学习过程,使得模型能够不断适应新的数据和任务需求。为了更好地管理有限的内存,模块引入了衰减机制。该机制根据记忆的大小和数据的惊讶程度来调整记忆的权重,从而优化内存管理。

长期神经记忆模块设计完成后,面临的一个关键问题是如何把记忆高效地整合进深度学习架构。研究者提出了Titans 架构,由三个模块构成:

核心模块(Core):包含短期记忆,负责主要的数据处理流程,采用具有有限窗口大小的注意力机制。
长期记忆模块(Long-term Memory):此模块是研究者设计的神经长期记忆模块,负责存储和记住远距离的历史信息。
持久记忆模块(Persistent Memory):这是一组可学习但与数据无关的参数,主要用于对任务知识进行编码,为模型提供先验知识储备。

在此基础上,研究者提出了 Titans 架构的三种变体:

(1)记忆作为上下文(MAC)架构

核心分支把对应的长期记忆、持久记忆和当前输入信息拼接在一起,然后用注意力机制来处理上下文,并决定哪些信息应存储在长期记忆中。在测试时,与上下文记忆对应的参数仍在学习,

与核心分支对应的参数负责上下文学习,而持久记忆的参数则负责存储任务相关知识,因此是固

资料来源:新智元,中国银河证券研究院

(2)记忆作为门控(MAG)架构

在此架构中,一个分支用输入数据更新长期记忆,另一个分支使用滑动窗口注意力(SWA),最后将两者结果通过门控机制组合。在此设计中,滑动窗口注意力充当精确的短期记忆,而神经记忆模块则作为模型的衰减记忆。这种架构设计也可视为一种多头架构,其中头的结构各不相同。与MAC架构不同的是,MAG架构仅将持久记忆融入上下文,并通过门控机制将记忆与核心分支结合。门控机制决定了来自持久记忆的信息在多大程度上影响核心分支的处理结果。

资料来源:新智元,中国银河证券研究院

(3)记忆作为层(MAL)架构

将神经记忆模块作为深度神经网络的一层,结合滑动窗口注意力机制。记忆层的核心功能是对过去和当前的上下文信息进行压缩处理,之后将处理结果传递给注意力模块

资料来源:新智元,中国银河证券研究院

实验结果:

在语言建模及常识推理任务中,对 $340\mathrm{M}$ $400\mathrm{M}$ 、760M 等不同参数规模下的 Titans 变体与多种基线模型进行对比。非混合模型里,Titans(LMM)在困惑度和准确率上表现优异。混合模型对比中,Titans的三个变体均比基线模型更好。MAC和MAG整体性能高于MAL,能更好地整合注意力和记忆模块。

ModelWiki. ppl↓LMB. ppl↓LMB. acc↑PIQA acc↑Hella. acc_n↑Wino. acc↑ARC-e acc↑ARC-C acc_n↑SIQA acc↑ acc↑BoolQAvg.
340Mparams/15Btokens
Transformer++31.5241.0830.7662.9834.7650.5345.2124.0536.8158.2442.92
RetNet32.5049.7328.2462.6134.1550.9144.2723.6236.7959.7242.54
GLA28.5143.0228.7364.0535.9650.0054.1924.2937.1358.3944.09
Mamba30.8340.2129.9463.7935.8849.8249.2424.5635.4160.0743.59
DeltaNet28.6547.3028.4363.5235.9549.6352.6825.3737.9658.7944.04
TTT27.4434.1930.0663.9735.7150.0853.0126.1137.3259.8344.51
GatedDeltaNet27.0130.9434.1163.0838.1251.6055.2826.7734.8959.5445.42
Titans (LMM)26.1829.9734.9864.7339.6151.8555.6028.1434.5259.9946.17
Titans(MAC)*25.4328.1336.0065.3240.3551.2158.1729.0038.6360.1847.36
Titans(MAG)*25.0728.7236.7164.8840.5652.4957.7228.1647.54
Titans(MAL)*24.6928.8035.7464.9739.4451.9756.5828.21公3975号 38.1460.01 57.3246.55
400Mparams/15Btokens
Transformer++30.6337.3729.6464.2737.7251.5354.9527.3638.0761.5945.64
RetNet29.9246.8329.1665.2336.9751.8556.0127.5537.3059.6645.47
HGRN232.3347.1426.1264.5235.4552.2455.9725.5137.3559.0244.52
GLA27.9636.6627.8665.9437.4149.5656.0126.3638.9459.8445.24
Mamba29.2239.8829.8265.7237.9350.1158.3726.7037.7661.1345.94
Mamba226.3433.1932.0365.7739.7352.4859.0027.6437.9260.7246.91
DeltaNet27.6944.0429.9664.5237.0350.8256.7727.1338.2260.0945.57
TTT26.1131.5233.2565.7039.1151.6858.0428.9938.2659.8746.86
GatedDeltaNet25.4729.2434.4065.9440.4651.4659.8028.5837.4360.0347.26
Samba*25.3229.4736.8666.0939.2451.4560.1227.2038.6858.2247.23
GatedDeltaNet-H2*24.1928.0936.7766.4340.7952.1759.5529.0939.0458.5647.69
Titans (LMM)35.21
Titans(MAC)*25.0328.99 27.7336.9265.8540.9152.1959.9729.2038.7460.8547.83
Titans (MAG)*25.61 23.5927.8137.2466.39 66.8041.1852.8060.2429.69 29.4540.07 公399号61.9348.65 智48.60
Titans (MAL)*23.9327.8936.8466.2940.92 40.7453.21 52.2660.01 59.8529.7138.9261.28 58.4047.87
760Mparams/30Btokens
Transformer++25.2127.6435.7866.9242.1951.9560.3832.4639.51
RetNet26.0824.4534.5167.1941.6352.0963.1732.7838.3660.3748.69
Mamba28.1223.9632.8066.0439.1561.4930.3437.9657.9248.46
Mamba222.9428.3752.3863.4831.0940.0657.6247.22
33.5467.9042.7149.7758.1548.34
DeltaNet24.3724.6037.0666.9341.9850.6564.8731.3939.8859.0248.97
TTT24.1723.5134.74 35.5467.25 68.0143.92 44.9550.99 50.7364.53 66.8733.81 33.0940.16 39.2159.58 59.1447.32 49.69
GatedDeltaNet Samba*21.18 20.6322.09 22.71

资料来源:新智元,中国银河证券研究院

在 S-NIAH任务里,基于 RULER 基准测试,对 2K、4K、8K 和16K长度序列予以评估。神经记忆模块相较基线模型优势显著。在Titans 变体中,MAC 性能最佳。

ModelS-NIAH-PKS-NIAH-NS-NIAH-W
2K4K8K16K2K4K8K16K2K4K8K16K
TTT98.498.898.088.460.236.610.24.478.828.04.40.0
Mamba298.661.431.05.498.455.814.20.042.24.20.00.0
DeltaNet96.898.898.671.447.215.412.85.446.220.01.60.0
Titans (LMM)99.898.498.296.2100.099.893.480.290.489.485.880.6
Titans (MAC)99.298.899.098.499.698.297.697.498.298.295.695.2
Titans (MAG)99.498.097.497.499.298.897.298.698.098.090.288.2
Titans (MAL)98.898.698.897.899.898.196.896.498.0公97.4号92.0新90.4

资料来源:新智元,中国银河证券研究院

在BABILong基准测试中,Titans(MAC)展现了卓越的性能,能够有效扩展到超过200万的上下文窗口,超越了GPT-4、Llama3+RAG和Llama3-70B等大模型。Titans(MAC)的参数量远少于基线模型,展现出在长序列推理方面的高效性和强大能力。在微调设置环节,Titans(MAC)的表现更为出色。

资料来源:新智元,中国银河证券研究院

研究发现,增加记忆深度可提升模型在较长序列上的性能,并改善困惑度,但训练速度会因此降低,呈现出性能与效率之间的权衡。

资料来源:新智元,中国银河证券研究院

通过在 Simba 框架中替换Mamba模块,并在ETT、ECL、Traffic和Weather等基准数据集上测试,神经记忆模块超越了所有的基线模型。这表明其在处理时间序列任务中的潜在优

NeuralMemorySimbaiTransformerRLinearPatchTSTCrossformerTiDETimesNetDLinear
MSEMAEMSEMAEMSEMAEMSEMAEMSEMAEMSEMAEMSEMAEMSEMAEMSEMAE
ETTml0.3580.3870.3830.3960.4070.4100.4140.4070.3870.4000.5130.4960.4190.4190.4000.4060.4030.407
ETTm20.2610.3090.2710.3270.2880.3320.2860.3270.2810.3260.7570.6100.3580.4040.2910.3330.3500.401
ETTh10.4200.4210.4410.4320.4540.4470.4460.4340.4690.4540.5290.5220.5410.5070.4580.4500.4560.452
ETTh20.3360.3820.3610.3910.3830.4070.3740.3980.3870.4070.9420.6840.6110.5500.4140.4270.5590.515
ECL0.1620.2610.1690.2740.1780.2700.2190.2980.2050.2900.2440.3340.2510.3440.1920.2950.2120.300
Traffic0.4150.2890.4930.2910.4280.2820.6260.3780.4810.3040.5500.3040.7600.4730.6200.3360.6250.383
Weather0.2310.2650.2550.2800.2580.2780.2720.2910.2590.2810.2590.3150.2710.3200.2590.2870.2650.317

资料来源:新智元,中国银河证券研究院

在 DNA 建模任务中,Titans 架构也展示了其强大的长序列处理能力。实验结果表明,Titans架构在这些任务中能够有效地利用历史信息,从而提高模型的性能。

ModelEnhancer CohnEnhancerEnsHuman Reg.Non-TATAPromotersHumanOCREns.
CNN69.568.993.384.668.0
DNABERT74.085.788.185.675.1
GPT70.583.591.587.773.0
HyenaDNA74.289.293.896.680.9
Transformer++73.489.589.994.479.5
Mamba73.096.6
Based74.689.589.596.879.0
Neural MemoryModule75.289.689.396.6公众号·新9智元

资料来源:新智元,中国银河证券研究院

消融研究表明,神经记忆模块的所有组件对模型性能均有积极贡献,特别是权重衰减和动量。MAC和 MAG在语言建模和常识推理上表现相近,但 MAC在长上下文任务中表现最佳。

ModelLanguage Modeling ppl ↓Reasoning acc ↑Long Context acc ↑
LMM27.0147.8392.68
+Attn (MAC)26.6748.6597.95
+Attn (MAG)25.7048.6096.70
+Attn (MAL)25.9147.8796.91
Linear Memory28.4946.9785.34
w/o Convolution28.7345.8290.28
w/o Momentum28.9845.4987.12
w/o Weight Decay29.0445.1185.60
w/o Persistent Memory27.6346.355公众号2.4新智元

资料来源:新智元,中国银河证券研究院

实验结果表明,Titans 架构在语言建模、常识推理、时间序列预测和DNA 建模等任务中均表现出色,特别是在处理超200万上下文窗口任务中,能够有效地利用历史信息,提高模型的准确性。

5.Transformer作者初创重磅发布Transformer²,可自行动态调整权重

SakanaAI发布了Transformer²新方法,通过奇异值微调和权重自适应策略,提高了LLM的泛化和自适应能力。新方法在文本任务上优于LoRA;即便是从未见过的任务,比如MATH、HumanEval和 ARC-Challenge 等,性能也都取得了提升。

传统上,LLM的后训练通过一次全面的训练来优化模型,使其具备广泛的能力。从简化的角度,这种「one shot」微调框架看起来很理想,但在实际操作中却很难实现。例如,后训练需要大量资源,导致计算成本和训练时间显著增加。此外,当引入更多样化的数据时,很难同时克服过拟合和任务干扰。

相比之下,自适应模型提供了一种更灵活高效的方法。与其一次性训练LLM来应对所有任务,不如开发专家模块,根据需求将其离线开发并增强到基础LLM中。然而,创建多个专家模块,对LLM进行微调,显著增加了需要训练的参数数量,而且容易过拟合,模块之间的组合也不够灵活。

对此,新框架通过有选择性地调整模型权重中的关键组件,让LLM能够实时适应新任务。Transformer²的名称体现了它的两步过程:首先,模型分析传入的任务,理解其需求;然后应用任务专用的适应性调整,生成最佳结果。

Transformer²在多种任务(如数学、编码、推理和视觉理解)中表现出了显著的进步,在效率和特定任务的表现上超越了传统静态方法如LoRA,同时所需的参数大大减少。

资料来源:新智元,中国银河证券研究院

前沿政策动态

时间部门文件内容
2025/1/2化局《杭州市人工智能全 杭州市经济和信息产业链高质量发展行 动计划(2024—2026 年)》到2026年,力争全市智能算力集群规模在国内同类城市中领先,形成基础通用大模型1个 以上、行业专用模型20个以上,建成人工智能特色产业园区10个,集聚开源模型生态企业 1000家以上,努力打造全国算力成本洼地、模型生态最优城市和人工智能产业发展高地。
2025/1/14北京市科委、中关 村管委会《北京市加快推动 “人工智能+新材料" 创新发展行动计划 (2025-2027年) (征求意见稿)》到2027年,北京“人工智能+新材料”创新能力显著增强,新材料研发服务业态培育取得积 极进展,形成国际领先的新材料创新策源与人工智能应用高地,构筑全球竞争新优势。 (一)创新能力位居全球前列。产生一批重大原创性成果,突破一批产业亚需核心关键技 术,在全球率先发布新一代物质科学大原子模型,研发10个(套)以上国际领先的垂类模 型和自主核心软件,形成15个人工智能赋能的标杆性新材料产品,实现应用示范。 (二)支撑体系基本成型。建成新材料大数据中心服务门户、数据资源节点集群,建立材料 数据标准规范体系,建成若干个新材料智能实验室和应用赋能公共服务平台,打造1个“人 工智能+新材料”融合创新示范基地。
2025/1/21世界经济论坛《智能时代的产业发 展》(三)新模式新业态加快涌现。探索培育新材料CRO服务业态,培育5-8家独角兽企业和 潜在独角兽企业,100家创新型企业。 系列报告为各关键行业实现人工智能的负责任、规模化应用提供务实洞见。同时还发起了
2025/1/26国家自然科学基金 委员会《可解释、可通用的 下一代人工智能方法 重大研究计划2025年 度项目指南》案。首批入选的解决方案预计将于2025年公布 2025年度资助研究方向: (一)培育项目:神经网络的新架构和新的预训练或自监督学习方法;深度学习的基础理 论;大模型的基础问题;以数据为中心的机器学习;科学领域的人工智能方法与理论
应用;融合环境-系统-模型的智能操作系统(二)重点支持项目:融合逻辑和深度学习的推理方法;融合物理与人工智能的几何生成; 新一代脑启发的人工智能;类人认知学习框架;物理过程驱动的多智能体仿真场景可信生
成;可解释的人工智能方法及其在化学反应复杂体系中的应用;人工智能驱动的虚拟细胞研 究;罕见病诊断决策大模型;基于多模态大模型的耐受极端环境生物元件设计 (三)集成项目:记忆与推理分离、分层的通用大模型;结构材料构效关系的构筑方法与

资料来源:杭州市经济和信息化局官网,北京市人民政府网,世界经济论坛官网,国家自然科学基金委员会官网,中国银河证券研究院

四、前沿企业动态

前沿产品动态

1。“天工大模型 $4.0^{\mathfrak{s}}$ 01版/40版在网页端和APP端正式上线,具备超强逻辑推理

1月6日,天工大模型4.001版/40版正式上线天工网页端和APP。底座大模型,正式进化到「天工4.0」。「天工大模型4.0」o1版(Skyworko1)的上线,意味着国内首款中文逻辑推理能力的o1模型来了!数学高考题、考研题、奥数题,Skyworko1都能靠自己的逐步思考破解。Skywork ol并不是简单地复现OpenAIol模型的工作。它不仅在模型输出上内生了思考、计划、反思等能力,还在模型真正拥有了思考和反思之后,带来了推理能力的提升。

SkyWorko1为何能在逻辑推理任务上有如此大幅提升?得益于天工三阶段自研的训练方案。

推理反思能力训练。首先,在推理训练方面,团队通过自主研发的多智能体体系,构建出了高质量的分步推理、反思与验证数据。然后,用这些高质量且多样化的长思考数据,对基座模型进行继续预训练和监督微调,并在版本迭代中采用大规模的自蒸馏和拒绝采样,从而显著提升了模型的训练效率和逻辑推理能力。

推理能力强化学习。其次,在强化学习阶段,团队创新性地提出了一种适配分步推理强化的奖励模型--Skywork ol Process Reward Model(PRM)。在最新的版本中,团队将 Skywork-PRM的应用范围,从原本侧重的数学和代码领域,拓展到了常识推理、逻辑推演和伦理决策等更广泛的场景中。同时,还针对写作、闲聊等通用领域以及多轮对话构建了专门的训练数据,实现了全场景覆盖。此外,团队重点提升了Skywork-PRM 的模块化评估能力,特别是在处理o1风格思维链方面,优化了试错和反思验证机制。通过更细致的评估体系,为强化学习和搜索过程提供了更精准的奖励信号指导。

推理 planning。最后,在推理的规划方面,团队通过自研的 $Q^{\star}$ 线上推理算法,以及模型$Q^{\star}$
2」的思考方式,将LLM的多步推理过程抽象为一个启发式搜索问题。然后,再通过 $Q^{\star}$ 线上推$Q^{\star}$
算法的成功落地,不仅显著提升了模型的线上推理能力,同时也标志着 $Q^{\star}$ 算法的全球首次实现

Q*:Improving Multi-step Reasoning for LLMs with Deliberative Planning

Chaojie Wang1* Yanchen Deng2* Zhiyi Lyu² Liang Zeng’ Jujie Hel

ShuichengYan Bo An12

1Skywork AI 2NanyangTechnological University

进一步的,团队基于 ${\bf{Q}}^{*}$ 算法对推理系统进行了全面优化。

第一点是模块化的树形结构推理:团队通过高质量、多样化的长思考数据对Skyworko1进行预训练和监督微调,使模型具备了对整个推理流程进行系统规划,自动将回答按层次展开,同时在推理过程中融入自我反思和验证环节的结构化输出能力。此外,还创新性地利用以「模块」为单位的规划方式,取代了传统的以「句子」为单位的方法。既提升了规划效率,也使PRM能够基于更完整的模块化回答进行准确判断和推理指导。

第二点是自适应的搜索资源分配:针对现有01风格模型存在的过度思考问题,团队开发出了一种全新的自适应搜索资源分配机制。也就是,通过对用户 query 进行难度预估,自适应地控制搜索树的宽度和深度,进而实现简单问题快速响应、复杂问题多轮验证的动态平衡,有效提升了系统的计算效率和回答准确率。

最终,Skywork o1在 GSM8k,MATH,OlympiadBench,AIME-24和 AMC-23 标准数学基准测试,以及 HumanEval、MBPP、LiveCodeBench 和 BigCodeBench 代码基准测试中,性能显著优于常规通用大模型,表现仅次于ol-mini。

Table 1: Performance on maths benchmarks.

ModelGSM8KMATHOlympiadBenchAIME-24AMC-23
0l-mini93.693.761.860.090.0
GPT4087.473.139.720.057.5
Claude-3.5-Sonnet95.571.230.216.737.5
Qwen2.5-72B-instruct95.883.146.113.362.5
Qwen-QwQ95.889.357.950.077.5
Deepseek v395.890.250.139.280.0
Skywork ol Lite95.790.057.240.082.5
Skywork ol Preview96.392.861.056.7号·新9留0元

资料来源:新智元,中国银河证券研究院
资料来源:新智元,中国银河证券研究院

Table 2: Performance on code benchmarks.

ModelHumanEvalMBPPLiveCodeBench (2408-2411)BigCodeBench
01-mini95.189.058.045.0
GPT4086.084.236.047.3
Claude-3.5-Sonnet89.687.032.144.9
Qwen2.5-72B-instruct86.688.230.446.4
Qwen-QwQ87.283.250.045.6
Deepseek v390.989.040.548.2
Skywork ol Lite89.083.027.746.0
Skywork ol Preview94.593.444.6公众号45新智元

资料来源:新智元,中国银河证券研究院

2.Kimi发布了k1.5多模态思考模型

Kimi发布了 $\mathbf{k}\mathbf{1}.5$ 多模态思考模型。这是继去年 11 月他们发布 k0-math 数学模型,12月发布k1视觉思考模型之后,连续第三个月带来 k系列强化学习模型的重磅升级。Kimik1.5的性能,如今已经全面追上现役全球最强模型--OpenAI ol 满血版。

资料来源:新智元,中国银河证券研究院

具体来说,在LongCoT模式下, $\mathbf{Kimi}\mathbf{k}\mathbf{1}.5$ 的数学、代码、多模态推理能力,达到了长

思考 SOTA 模型OpenAI ol 满血版的水平。这也是全球范围内,首次有 OpenAI之外的公司$\mathrm{k}1.5$

资料来源:新智元,中国银河证券研究院

3.豆包大模型1.5发布,训练不走蒸馏“捷径”

1月底发布的豆包大模型1.5,不仅多模态能力全面提升,霸榜多个基准;更难得的是,它在训练过程中从未使用过任何其他模型生成的数据,坚决不走蒸馏「捷径」。

豆包大模型1.5的模型基础能力,再次展现出超强进化,在多个公开测评基准中成绩亮眼。而它的多模态能力,无论语言、视觉理解还是实时语音,也都实现了全面领先。

Doubao-1.5-proLlama3.1- GPT40- Gemini-exp- Claude-3.5-
405B08061205Sonnet-latestQwen2.s DeepseekV3
KnowledgeMMLU88.688.688.786.888.585.688.5
MMLU_PRO80.173.374.976.478.071.175.9
GPQA65.051.153.162.165.049.059.1
MATHMath88.673.875.989.778.383.187.8
OlympiadBench59.834.140.764.743.550.059.1
CodeMBPP+78.072.878.378.676.576.979.3
McEval70.258.768.267.068261.769.4
FulStackBench65.153.661.862.660.356.9
ReasoningBBH91.689.291.792.692.688.392.3
DROP93.091279.889.788.387.491.6
Instruction FollowingIFEVal89.586.085.786889.384.186.1
SysBench67.658.962.269.006947266.3
ChineseCMMLU90.975.47.384.381284.383.5
C-Eval91.872.776.083.9800公众号新智元

资料来源:新智元,中国银河证券研究院

资料来源:新智元,中国银河证券研究院

BenchmarkDoubao-1.5-proGPT4o-1120 Claude3.5-Sonnet Gemini-2-flash Qwen2-VL-72B InternVL-2.5-78B
College-level ProblemsMMMUIval)73.870.770.470.764.570.1
MMMU-Pro59.354.757046248.6
Reasoning MathematicalMathVision48.630.441325.9322
48.525.927.843.611225.1
MathVista78.863.865.473.1766
Documentand Diagrams ReadingTextVQAIvall84.781476.575.685.5834
ChartQAitestavg)88.0867806852B8388.3
InfoVQAltest)88.080.774.377.884.584.1
DocVQA(test)96.791195292196595.1
CharxivRQ/DQ)5441843520/86.560.2/ 84.3552/81843.0/81.3424/823
General Visual Question AnsweringRealWoridQA78.975466.674.577.878.7
MMStor71.963965.169.468673.1
MMBench-en87.583.581.76S888.3
86.082.183.482.983488.5
Spatialand Understanding CountingBink68.468.059.662661163.8
CountBench89.685.186.888.288.684.1
Video UnderstandingVideo-MME74.173.461778.271272.1
EgoSchemo- subest75.474.864.47.8公众号·新智元 80.6782

资料来源:新智元,中国银河证券研究院

豆包1.5在以下几方面实现了进化:

(1)视觉理解能力超强进化

视觉理解方面,团队这次在多模态数据合成、动态分辨率、多模态对齐、混合训练上进行了全面技术升级,让模型在视觉推理、文字文档识别、细粒度信息理解、指令遵循方面的能力进一步增强了。而且,模型的回复模式还变得更加精简、友好。现在,豆包大模型1.5能读懂不同分辨率和不同长宽比的图片,支持百万级分辨率,能更清晰得识别内容。

(2)语音多模态:真正实现了端到端的语音对话

这次豆包的语音多模态模型,真正实现了端到端的语音对话。语言表现力、控制力、情绪承Speech2Speech 端到端框架。

它通过原生方法将语音和文本模态进行深度融合,从而实现了语音理解生成端到端。并且,在语音对话效果上,它相比传统的ASR+LLM+TTS的级联方式有了质的飞跃!因此,它不仅拥有高理解力(高智商),还拥有前所未有的语音高表现力与高控制力,而模型整体在回复内容和语音上,还有了高情绪承接能力。而在框架设计上,研究者将语音和文本 Token 进行融合,为语音多模态数据的 Scaling 提供了必要条件。

在预训练阶段,他们开发了多样化的数据生产和使用方式,同时在训练上探索了多种有效方案,通过Scaling最大化地将语音和文本能力进行深度融合。在后训练阶段,通过融合高表现力与智商数据的均衡,数据筛选以及多模态 RL阶段的专项能力提升让模型在智商、语音表现力等多方面达到最优。

豆包没有对任何其他模型进行过蒸馏。最近,中科院北大的一项研究引起了热议。他们发现,许多知名的闭源和开源大语言模型,都表现出了相当高的蒸馏程度!我们最常见的问题之一--A模型说自己是B模型,就是因为它们「蒸过头」导致的。少数例外,也就是没有对任何其他模型进行过蒸馏的,就数Claude、Gemini和豆包了。

4.智谱全球首个电脑智能体GLM-PC全新升级,具有“代码思维”

智谱率先卷入L3级使用工具能力,发布全球首个面向公众、回车即用的电脑智能体GLM-PC。经过全新升级的V1.1版本,不仅能够像人类一样「观察」和「操作」计算机,自主完成各种复杂任务;而且还拥有「深度思考」模式,以及专门用来做逻辑推理和代码生成的功能。

比如:上传一张图片后,然后给出指令--「识别图片中的信息生成朋友圈文案,并发送一个朋友圈」。它首先会将任务分解成多个步骤,并对图片内容进行识别,生成相应配文。然后,AI瞬间跳转到微信,打开朋友圈,将图片上传,再附上文案,一键发送就搞定了。

GLM-PC的Window和Mac客户端已经同步上线了。

注:试用地址https://cogagent.aminer.cn资料来源:新智元,中国银河证券研究院

智谱之所以能够成为智能体领域的先行者,离不开这家公司从成立伊始就绘制出的AI路线图。2024年,智谱同样将AGI的实现划分了5级,能力从L1逐步攀升至L5。在他们看来,AI的能力早已突破了传统语言和文本处理限制。目前,AI已经从语言/文本逐渐扩展到多模态、工具使用,未来还会有更多的自我认知。

资料来源:新智元,中国银河证券研究院

人工智能的分级 大语言→多模态→使用工具→自学习智谱
OpenAl我们的思考
Level1有语言能力的AIAI学会使用语言,在大多数自然语言任务上突破图灵测试
Level2人类水准的问题求解能力AI学会求解问题,涌现世界知识和类人的复杂逻辑推理能 力,在问题求解方面突破图灵测试
Level3使用工具,系统可以执行 动作AI学会使用工具,利用工具完成多数人类物理世界问题, 在工具使用方面突破图灵测试
Level4AI将能自己发明创新AI通过自我学习,实现GPT到GPT-zero的升级,具备自我 批判、自我改进以及自我反思能力
Level5AI可以融入组织或者自成 组织AI能力全面超越人类,具备探究科学规律、世界起源等终 极问题的能力 公众号·新智元

资料来源:新智元,中国银河证券研究院

GLM-PCV1.1的推出,意味着智谱在L3级智能体的探索又有了新的进展。截至目前,智谱已经有了手机智能体AutoGLM和电脑智能体GLM-PC两大系统,实现了工具使用能力的深度突破。这两个系统分别覆盖了移动设备和桌面端一一AutoGLM 在手机上,能够精准操控各类应用,实现跨场景智能交互;而GLM-PC则将电脑端的操作提升到了新的高度,基于视觉语言模型VLM 的图形界面智能体 GUI Agent,实现逻辑推理与感知认知的结合,凸显出 AI对复杂系统工具的掌控力。这些并非是简单功能的堆砌,而是对人机交互范式的根本性重塑。

根据这个技术路线图,AI实现L3之后,通过不断优化工具使用能力,正为L4阶段一一自主学习发明创新奠定了扎实的技术基础。这也正是智谱下一步,所要开拓的智能。

5.OpenAI发布首个智能体Operator

1月 24日发布的Operator 无疑是AI 圈最大的亮点,这款AI智能体能够自动处理一系列任务,像是演唱会购票、家政服务预订、AI新闻查找等。

OpenAI针对Operator 新开了一个网页operator.chatgpt.com,而不是像之前发布的功能都直接统一内置在ChatGPT中。Operator 的页面与ChatGPT大致相似,只是输入框的提示词从「我能帮您什么吗?」变为了「我能帮您做什么吗?」。这里展示了一些Operator在OpenAI的合作伙伴网站上能执行的推荐任务。比如,不用半小时就能用鸡肉做好的晚餐食谱。

资料来源:新智元,中国银河证券研究院

目前Operator支持自动完成通常需要15-20分钟内的网络任务。值得一提的是,Operator可以轻松保存工作流程。比如持续用最新的销售数据来更新相应的报表。它甚至提供了一个流畅的会话记录视频,支持用户观看并与其他人分享。

Operator自身的缺陷亦是源于它的优势本身。它的独特之处在于不用使用用户本地的浏览器执行操作,而是OpenAI数据中心之一的一个浏览器,用户可以远程观看并与之互动。这种设计的优点是你可以在任何地方、任何时候使用它一一例如,在任意移动设备上。但缺点是许多像Reddit这样的网站已经阻止AI智能体浏览,因此它们无法被Operator访问。并且Operator也因性能或法律原因被OpenAI阻止访问某些资源密集型网站,如 Figma 或YouTube。

目前的Operator实际上更像是一个能够完成你给外包出去业务的乙方,而不是一个足够聪明的个人研究助理。例如,可以让Operator阅读《战争与和平》的第一章,并总结每个角色找到了《战争与和平》并阅读了第一章,做得非常出色。但是其摘要却枯燥乏味且粗糙宽泛。如果提供相同的信息,OpenAI的o1在这项任务上会做得更好--但是ol还没有自主执行任务的

资料来源:新智元,中国银河证券研究院

资料来源:新智元,中国银河证券研究院

6.百川首个全场景深度思考模型Baichuan-M1-preview发布

1月24日百川的首个全场景深度思考模型Baichuan-Ml-preview发布了,相比其他推理模型,它能力全面,同时具备语言推理、视觉推理、搜索推理三个维度的全面推理能力,且均做到了行业领先。而且,还解锁了「医疗循证模式」,复杂医疗问题的推理能力大幅提升。现在,

不仅如此,为了推动AI技术在医疗领域的创新发展,繁荣AI医疗生态,百川还开源了Baichuan-Ml-14B。这个M1的小尺寸版模型,医疗推理能力已经超越了更大参数量的

模型名称语言推理视觉推理搜索推理
Baichuan-M1-preview
o1-previewN
Gemini-2.0-flash-thinking
QwQ-PreviewNN
QVQ-72B-PreviewNN
DeepSeek-R1N
GLM-Zero-PreviewN
Step R-miniNN
K1.5公众号·新智元

资料来源:新智元,中国银河证券研究院

投融资事件

融资方赛道公司简介融资日期融资轮 次融资金额本轮投资方
一家全球领先的农业机器人创新科技公司,致力于用人工 中科原动力AI农业智能和自动驾驶技术为全球农业发展提供具备全昼夜、无2025-01-07 人化、精准作业能力的农田作业机器人产品和服务B1轮近1亿人民 币厦门先进一号制造业基金 领投,老股东祥峰投资跟 投
智平方服务成立于2023年4月,是一家专注于通用智能具身终端研 信息技术发的科技创新企业。公司由国家级创新领军人才郭彦东博 士创立,核心团队成员来自微软、小鹏汽车、OPPO等国 际领先企业和知名高校2025-01-07Pre-A轮超1亿人民 币达晨财智与敦鸿资产联合 领投,基石资本跟投
西湖机器人专注于研发下一代高度智能化的足式机器人,包括四足机 人形机器器人和双足机器人,通过现实虚拟化和基于深度强化学习 的智能行为决策技术,赋予机器人自主学习和自我成长能 力2025-01-09天使+轮近1亿人民 币天使湾创投,犇驰投资, 金能基金,诚信创投
成立于2015年,起源于美国硅谷,是一家专注于多模态 感知与AI计算解决方案的技术驱动型平台企业。公司致 一目科技AI大模型力于通过创新的物联网传感技术,将物理世界信号转化为 数字信号,推动家电、水务、机器人、生命科学等多个产 业的智慧升级2025-01-13D轮数亿人民币赛富投资基金领投,南京 市创新投资集团、A股上 市公司松霖科技跟投,庚 辛资本担任独家顾问
云轴科技 ZStack企业云服成立于2015年,是一家专注于产品化的国产自主创新开 源云计算服务商,提供自研的ZStack私有云、ZStack混2025-01-13D轮数亿人民币北京信息产业发展投资基 金
合云、ZStackCMP多云管理平台、ZStackCube超融合 一体机、ZStackAIOS平台“智塔”等产品
硕橙科技」AI工业成立于2016年,核心业务是通过智能硬件收集机器设备 的噪声、振动、温度、电流、拉压力等多维数据,结合机 器学习和 AI算法,实现设备的预测性维护、智能运维、 自动化质检、环境异常报警等服务,产品体系包括橙盒、 多维数据采集站、智能声纹传感器等硬件,以及设备智能 运维系统、EAM设备资产管理系统、星橙云数智化云平 台等软件2025-01-14C2轮超1亿人民彬复资本、厦门创投、钟 楼金控和浪潮产投等
思必驰AI大模型成立于2007年,是一家专注于对话式人工智能平台的高 科技企业,核心业务涵盖智能语音技术的研发与应用,包 括语音识别、语音合成、语义对话、语音唤醒等。公司自 主研发了新一代人机交互平台(DUI)和人工智能芯片 (TH1520),并为车联网、IoT、政务、金融等多个行业 提供自然语言交互解决方案2025-01-14战略融 资5亿人民币知名产业基金、国资平 台、私募基金
国中数字服务一家专注于数字科技领域的研究和开发的企业。公司通过 与国内外一流科研机构的合作,致力于为全球客户提供创新 数据分析的数字化解决方案,涵盖人工智能、大数据分析、物联网、 区块链等多个领域。旗下品牌有鱼生活APP是一款承载 文化大数据新消费的超级物种,为用户提供丰富的文化体验 和消费选择2025-01-22B轮数亿人民币深圳市东方华远投资(集 团)有限公司领投,多家 知名投资机构跟投
维他动力24年底在北京正式成立,致力于打造具有开创性的机器人 产品。创始人兼CEO余轶南是地平线前副总裁、软件平 机器人台产品线总裁,另两位联合创始人分别是地平线前软件平 台总架构师、智驾创始团队成员宋巍,和理想汽车前智能 驾驶产品总监赵哲伦2025-01-22种子轮近1亿人民 币地平线和高领创投领投
它石智航信息技术 服务一家专注于具身智能和智能机器人技术的创新型企业,成 立于2024年7月,由前华为智能汽车业务部(车BU)自 动驾驶系统首席科学家陈亦伦博士创立。业务涵盖人工智2025-01-23 能基础软件开发、人工智能硬件销售、智能机器人研发与 销售等多个领域种子轮1.5亿美元
中科时代丨AI芯片一家专注于工业智能计算机(工智机)及相关自动化技术 的高科技企业,提供以“工智机”为牵引l,Automation 为核心,IO/Motion/Acceleration/Digitization 为配套 的产品组合。公司由中国科学院计算技术研究所孵化,创 始团队成员均为中科院计算所的核心专家,拥有近20年 的工业智能计算控制技术研发经验2025-01-24B1轮2亿人民币湖北高质量发展产业投资 基金领投,国新国证、老 股东国中资本、博将资 本、卓源亚洲跟投,高 资本担任长期独家财务顾 问

资料来源:投中网,投资界,钛媒体,36氪,Wind万得,搜狐,亿欧,中科时代官网,中国银河证券研究院

五、投资建议

关注以下细分赛道及公司:1、国产算力产业链及生态伙伴:如工业富联、中科曙光、曙光数创、海光信息、龙芯中科等。2、算力基础设施产业链:如润泽科技、宝信软件等。3、 $\mathrm{AI+}$ 应用:如科大讯飞、金蝶国际、金山办公、同花顺、嘉和美康、国能日新、彩讯股份、恒生电子、万兴科技等。4、端侧AI:如虹软科技、海康威视、中科创达、华勤技术、萤石网络等。5、数据要素产业链中供给、流通、应用公司:如拓尔思、达梦数据、深桑达A、上海钢联等。

六、风险提示

技术迭代不及预期风险;科技巨头竞争加剧风险;法律监管风险;供应链风险;下游需求不及预期风险。

图表目录

45$20%$ S-NIAH任务里,神经记忆模块相较基线模型优势显著.增加记忆深度对模型性能与效率的影响 DNA 建模任务中,Titans 与其他架构对比. 消融研究表明神经记忆模块的所有组件对模型性能均有积极贡献 图 21:全球前沿大模型数学竞赛和编程竞赛基准测试.

表6:数据要素最新新闻及政策 8
10
12
24
84

免责申明:

  1. 本资料来源于网络公开渠道,版权归属版权方;
  2. 本资料仅限会员学习使用,如他用请联系版权方;
  3. 会员费用作为信息收集整理及运营之必须费用;
  4. 如侵犯您的合法权益,请联系客服微信将及时删除

行业报告资源群

  1. 进群福利:进群即领万份行业研究、管理方案及其他学
    习资源,直接打包下载
  2. 每日分享:6份行研精选报告、3个行业主题
  3. 报告查找:群里直接咨询,免费协助查找
  4. 严禁广告:仅限行业报告交流,禁止一切无关信息


微信扫码,长期有效

知识星球 行业与管理资源

专业知识社群:每月分享8000+份行业研究报告、商业计划、市场研究、企业运营及咨询管理方案等,涵盖科技、金融、教育、互联网、房地产、生物制药、医疗健康等;已成为投资、产业研究、企业运营、价值传播等工作助手。

分析师承诺及简介

本人承诺以勤勉的执业态度,独立、客观地出具本报告,本报告清晰准确地反映本人的研究观点。本人薪酬的任何部分过去不曾与、现在不与、未来也将不会与本报告的具体推荐或观点直接或间接相关。

吴砚靖 TMT/科创板研究负责人,北京大学软件项目管理硕士,10 年证券分析从业经验,历任中银国际证券首席分析师,国内大型知名 PE机构研究部执行总经理。具备一二级市场经验,长期专注科技公司研究。

鲁佩机械行业首席分析师,伦敦政治经济学院经济学硕士,证券从业9年,2021年加入中国银河证券研究院。曾获新财富最

免责声明

本报告由中国银河证券股份有限公司(以下简称银河证券)向其客户提供。银河证券无需因接收人收到本报告而视其为客户。若您并非银河证券客户中的专业投资者,为保证服务质量、控制投资风险、应首先联系银河证券机构销售部门或客户经理,完成投资者适当性匹配,并充分了解该项服务的性质、特点、使用的注意事项以及若不当使用可能带来的风险或损失。

本报告所载的全部内容只提供给客户做参考之用,并不构成对客户的投资咨询建议,并非作为买卖、认购证券或其它金融工具的邀请或保证。客户不应单纯依靠本报告而取代自我独立判断。银河证券认为本报告资料来源是可靠的,所载内容及观点客观公正,但不担保其准确性或完整性。本报告所载内容反映的是银河证券在最初发表本报告日期当日的判断,银河证券可发出其它与本报告所载内容不一致或有不同结论的报告,但银河证券没有义务和责任去及时更新本报告涉及的内容并通知客户。银河证券不对因客户使用本报告而导致的损失负任何责任。

本报告可能附带其它网站的地址或超级链接,对于可能涉及的银河证券网站以外的地址或超级链接,银河证券不对其内容负责。链接网站的内容不构成本报告的任何部分,客户需自行承担浏览这些网站的费用或风险。

银河证券在法律允许的情况下可参与、投资或持有本报告涉及的证券或进行证券交易,或向本报告涉及的公司提供或争取提供包括投资银行业务在内的服务或业务支持。银河证券可能与本报告涉及的公司之间存在业务关系,并无需事先或在获得业务关系后通知客户。

银河证券已具备中国证监会批复的证券投资咨询业务资格。除非另有说明,所有本报告的版权属于银河证券。未经银河证券书面授权许可,任何机构或个人不得以任何形式转发、转载、翻版或传播本报告。特提醒公众投资者慎重使用未经授权刊载或者转发的本公司证券研究报告。

本报告版权归银河证券所有并保留最终解释权。

评级标准

评级标准评级说明
评级标准为报告发布日后的6到12个月行业指 数(或公司股价)相对市场表现,其中:A股市 场以沪深300指数为基准,新三板市场以三板成 指(针对协议转让标的)或三板做市指数(针对 做市转让标的)为基准,北交所市场以北证50指行业评级推荐:相对基准指数涨幅10%以上
中性:相对基准指数涨幅在-5%~10%之间
回避:相对基准指数跌幅5%以上
推荐:相对基准指数涨幅20%以上
公司评级谨慎推荐:相对基准指数涨幅在5%~20%之间
中性:相对基准指数涨幅在-5%~5%之间

联系

中国银河证券股份有限公司研究院机构请致电:
深圳市福田区金田路3088号中洲大厦20层深广地区:程曦[email protected]
苏一耘0755-83479312 [email protected]
上海浦东新区富城路99号震旦大厦31层上海地区:陆韵如[email protected]
李洋洋021-20252671[email protected]
北京市丰台区西营街8号院1号楼青海金融大厦北京地区:田薇[email protected]
褚颖[email protected]