2026 年 3 月 26 日 星期四
  • 登录
  • 注册
周天财经
广告
  • 首页
  • 24 小时
  • 世界
  • 商业
  • 基金
  • 期货
  • 股票
  • 行业新闻
  • 黄金
没有结果
查看所有结果
  • 首页
  • 24 小时
  • 世界
  • 商业
  • 基金
  • 期货
  • 股票
  • 行业新闻
  • 黄金
没有结果
查看所有结果
周天财经
没有结果
查看所有结果
首页 24 小时

小米开源首代机器人 VLA 大模型

2026 年 2 月 16 日
在 24 小时
阅读时间: 1 min read
阅读:840
A A

财联社 2 月 12 日讯,据小米技术官微消息,小米 2 月 12 日宣布开源 Xiaomi-Robotics-0。

据介绍,这是一个拥有 47 亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。

小米机器人团队引入 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。针对推理延迟引发的真机 「动作断层」 问题,小米机器人团队采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行。

以下为原文 (有删减):

小米开源首代机器人 VLA 大模型,刷新多项 SOTA!

在具身智能 (Embodied AI) 的浪潮中,我们始终在思考一个问题:如何让机器人既有 「博学的大脑」,又有 「敏捷的身手」?

现有的 VLA(Vision-Language-Action) 模型虽然通过大规模参数获得了惊人的泛化能力,但在真实物理世界中,庞大的推理延迟往往让机器人表现得像个 「反应迟钝的木头人」。

今天,我们对外发布:Xiaomi-Robotics-0。这是一个拥有 47 亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。它不仅在三大主流的仿真测试中获得优异成绩,更在现实真机任务中实现了物理智能的泛化——动作连贯、反应灵敏,且能在消费级显卡上实现实时推理。

01

物理智能的钥匙:MoT 混合架构

物理智能的核心在于 「感知-决策-执行」 的闭环质量。为了兼顾通用理解与精细控制,Xiaomi-Robotics-0 采用了主流的 Mixture-of-Transformers (MoT) 架构。

视觉语言大脑 (VLM): 我们采用了多模态 VLM 大模型作为底座。它负责理解人类的模糊指令 (如 「请把毛巾叠好」),并从高清视觉输入中捕捉空间关系。

动作执行小脑 (Action Expert):为了生成高频、平滑的动作,我们嵌入了多层的 Diffusion Transformer (DiT)。它不直接输出单一动作,而是生成一个 「动作块」(Action Chunk),并通过流匹配 (Flow-matching) 技术确保动作的精准度。

image

模型架构及训练方法:(a) VLM 多模态与动作混合预训练;(b) DiT 专项预训练;(c) 目标任务后训练

这种 「大脑+小脑」 的组合,让我们的模型既能听懂指令,又能像人类一样,在动作执行时保持极高的物理灵活性。

02

训练秘籍:两阶段的 「进化论」

如何让模型既不丢失常识,又精通 「体力活」?我们设计了一套严谨的训练配方。

▍跨模态预训练 (Cross-Embodiment Pre-training)

大部分 VLA 模型在学动作时往往会 「变笨」,失去本身的理解能力。我们通过多模态与动作数据的混合训练,让模型在学会操作的同时,依然保持强大的物体检测、视觉问答和逻辑推理能力。

VLM 协同训练:我们首先引入了 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。这一步是为了让 VLM 的特征空间与动作空间对齐,不再仅仅是 「纸上谈兵」。

DiT 专项训练:随后,我们冻结 VLM,专注于训练 DiT, 学习如何从噪声中恢复出精准的动作序列。这一阶段,我们去除了 VLM 的离散 Token,完全依赖 KV 特征进行条件生成。通过 DiT 专项训练,模型可以生成高度平滑、精准的的动作序列。

image

多模态数据与跨本体机器人数据的分布

▍后训练 (Post-training)

这是解锁物理智能的核心路径。针对推理延迟引发的真机 「动作断层」 问题,我们采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行,从机制上保障动作连贯流畅。为进一步强化模型对环境变化的响应敏捷性与运行稳定性,我们引入了:

Clean Action Prefix:将前一时刻预测的动作作为输入,确保动作轨迹在时间维度上是连续的、不抖动的,进一步增加流畅性。

Λ-shape Attention Mask:通过特殊的注意力掩码,强制模型更关注当前的视觉反馈,而不是沉溺于历史惯性。这让机器人在面对环境突发变化时,能够展现出极强的反应性物理智能。

image

异步推理示意图,模型推理延迟不影响真机连续性运行

image

我们采用特殊的注意力掩码机制,有效缓解动作惯性

03

仿真与实战:全面 SOTA

在多维度的测试中,Xiaomi-Robotics-0 展现出优异的表现:

仿真标杆: 在 LIBERO、CALVIN 和 SimplerEnv 测试中,模型在所有的 Benchmark、30 种模型对比中,均取得了当前最优的结果。

真实挑战: 我们在双臂机器人平台上部署了模型并与行业标杆进行了横向对比。在积木拆解和叠毛巾这种长周期、高度挑战的任务中,机器人展现出了极高的手眼协调性。无论是刚性的积木还是柔性的织物,都能处理得游刃有余。

多模态能力:模型保留了 VLM 本身的多模态理解能力,尤其是在具身更相关的 benchmark 中表现优异,这是之前的 VLA 模型所不具备的。

image

在 VLA、VLM 的 Benchmark 以及真实机器人的效果指标

广告

财联社 2 月 12 日讯,据小米技术官微消息,小米 2 月 12 日宣布开源 Xiaomi-Robotics-0。

据介绍,这是一个拥有 47 亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。

小米机器人团队引入 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。针对推理延迟引发的真机 「动作断层」 问题,小米机器人团队采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行。

以下为原文 (有删减):

小米开源首代机器人 VLA 大模型,刷新多项 SOTA!

在具身智能 (Embodied AI) 的浪潮中,我们始终在思考一个问题:如何让机器人既有 「博学的大脑」,又有 「敏捷的身手」?

现有的 VLA(Vision-Language-Action) 模型虽然通过大规模参数获得了惊人的泛化能力,但在真实物理世界中,庞大的推理延迟往往让机器人表现得像个 「反应迟钝的木头人」。

今天,我们对外发布:Xiaomi-Robotics-0。这是一个拥有 47 亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。它不仅在三大主流的仿真测试中获得优异成绩,更在现实真机任务中实现了物理智能的泛化——动作连贯、反应灵敏,且能在消费级显卡上实现实时推理。

01

物理智能的钥匙:MoT 混合架构

物理智能的核心在于 「感知-决策-执行」 的闭环质量。为了兼顾通用理解与精细控制,Xiaomi-Robotics-0 采用了主流的 Mixture-of-Transformers (MoT) 架构。

视觉语言大脑 (VLM): 我们采用了多模态 VLM 大模型作为底座。它负责理解人类的模糊指令 (如 「请把毛巾叠好」),并从高清视觉输入中捕捉空间关系。

动作执行小脑 (Action Expert):为了生成高频、平滑的动作,我们嵌入了多层的 Diffusion Transformer (DiT)。它不直接输出单一动作,而是生成一个 「动作块」(Action Chunk),并通过流匹配 (Flow-matching) 技术确保动作的精准度。

image

模型架构及训练方法:(a) VLM 多模态与动作混合预训练;(b) DiT 专项预训练;(c) 目标任务后训练

这种 「大脑+小脑」 的组合,让我们的模型既能听懂指令,又能像人类一样,在动作执行时保持极高的物理灵活性。

02

训练秘籍:两阶段的 「进化论」

如何让模型既不丢失常识,又精通 「体力活」?我们设计了一套严谨的训练配方。

▍跨模态预训练 (Cross-Embodiment Pre-training)

大部分 VLA 模型在学动作时往往会 「变笨」,失去本身的理解能力。我们通过多模态与动作数据的混合训练,让模型在学会操作的同时,依然保持强大的物体检测、视觉问答和逻辑推理能力。

VLM 协同训练:我们首先引入了 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。这一步是为了让 VLM 的特征空间与动作空间对齐,不再仅仅是 「纸上谈兵」。

DiT 专项训练:随后,我们冻结 VLM,专注于训练 DiT, 学习如何从噪声中恢复出精准的动作序列。这一阶段,我们去除了 VLM 的离散 Token,完全依赖 KV 特征进行条件生成。通过 DiT 专项训练,模型可以生成高度平滑、精准的的动作序列。

image

多模态数据与跨本体机器人数据的分布

▍后训练 (Post-training)

这是解锁物理智能的核心路径。针对推理延迟引发的真机 「动作断层」 问题,我们采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行,从机制上保障动作连贯流畅。为进一步强化模型对环境变化的响应敏捷性与运行稳定性,我们引入了:

Clean Action Prefix:将前一时刻预测的动作作为输入,确保动作轨迹在时间维度上是连续的、不抖动的,进一步增加流畅性。

Λ-shape Attention Mask:通过特殊的注意力掩码,强制模型更关注当前的视觉反馈,而不是沉溺于历史惯性。这让机器人在面对环境突发变化时,能够展现出极强的反应性物理智能。

image

异步推理示意图,模型推理延迟不影响真机连续性运行

image

我们采用特殊的注意力掩码机制,有效缓解动作惯性

03

仿真与实战:全面 SOTA

在多维度的测试中,Xiaomi-Robotics-0 展现出优异的表现:

仿真标杆: 在 LIBERO、CALVIN 和 SimplerEnv 测试中,模型在所有的 Benchmark、30 种模型对比中,均取得了当前最优的结果。

真实挑战: 我们在双臂机器人平台上部署了模型并与行业标杆进行了横向对比。在积木拆解和叠毛巾这种长周期、高度挑战的任务中,机器人展现出了极高的手眼协调性。无论是刚性的积木还是柔性的织物,都能处理得游刃有余。

多模态能力:模型保留了 VLM 本身的多模态理解能力,尤其是在具身更相关的 benchmark 中表现优异,这是之前的 VLA 模型所不具备的。

image

在 VLA、VLM 的 Benchmark 以及真实机器人的效果指标

Related articles

中东战火击碎降息梦!市场开始谈论加息 德银:美联储将避免重蹈覆辙

2026 年 3 月 26 日
货币市场日报:3月24日

货币市场日报:3 月 24 日

2026 年 3 月 26 日

财联社 2 月 12 日讯,据小米技术官微消息,小米 2 月 12 日宣布开源 Xiaomi-Robotics-0。

据介绍,这是一个拥有 47 亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。

小米机器人团队引入 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。针对推理延迟引发的真机 「动作断层」 问题,小米机器人团队采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行。

以下为原文 (有删减):

小米开源首代机器人 VLA 大模型,刷新多项 SOTA!

在具身智能 (Embodied AI) 的浪潮中,我们始终在思考一个问题:如何让机器人既有 「博学的大脑」,又有 「敏捷的身手」?

现有的 VLA(Vision-Language-Action) 模型虽然通过大规模参数获得了惊人的泛化能力,但在真实物理世界中,庞大的推理延迟往往让机器人表现得像个 「反应迟钝的木头人」。

今天,我们对外发布:Xiaomi-Robotics-0。这是一个拥有 47 亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。它不仅在三大主流的仿真测试中获得优异成绩,更在现实真机任务中实现了物理智能的泛化——动作连贯、反应灵敏,且能在消费级显卡上实现实时推理。

01

物理智能的钥匙:MoT 混合架构

物理智能的核心在于 「感知-决策-执行」 的闭环质量。为了兼顾通用理解与精细控制,Xiaomi-Robotics-0 采用了主流的 Mixture-of-Transformers (MoT) 架构。

视觉语言大脑 (VLM): 我们采用了多模态 VLM 大模型作为底座。它负责理解人类的模糊指令 (如 「请把毛巾叠好」),并从高清视觉输入中捕捉空间关系。

动作执行小脑 (Action Expert):为了生成高频、平滑的动作,我们嵌入了多层的 Diffusion Transformer (DiT)。它不直接输出单一动作,而是生成一个 「动作块」(Action Chunk),并通过流匹配 (Flow-matching) 技术确保动作的精准度。

image

模型架构及训练方法:(a) VLM 多模态与动作混合预训练;(b) DiT 专项预训练;(c) 目标任务后训练

这种 「大脑+小脑」 的组合,让我们的模型既能听懂指令,又能像人类一样,在动作执行时保持极高的物理灵活性。

02

训练秘籍:两阶段的 「进化论」

如何让模型既不丢失常识,又精通 「体力活」?我们设计了一套严谨的训练配方。

▍跨模态预训练 (Cross-Embodiment Pre-training)

大部分 VLA 模型在学动作时往往会 「变笨」,失去本身的理解能力。我们通过多模态与动作数据的混合训练,让模型在学会操作的同时,依然保持强大的物体检测、视觉问答和逻辑推理能力。

VLM 协同训练:我们首先引入了 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。这一步是为了让 VLM 的特征空间与动作空间对齐,不再仅仅是 「纸上谈兵」。

DiT 专项训练:随后,我们冻结 VLM,专注于训练 DiT, 学习如何从噪声中恢复出精准的动作序列。这一阶段,我们去除了 VLM 的离散 Token,完全依赖 KV 特征进行条件生成。通过 DiT 专项训练,模型可以生成高度平滑、精准的的动作序列。

image

多模态数据与跨本体机器人数据的分布

▍后训练 (Post-training)

这是解锁物理智能的核心路径。针对推理延迟引发的真机 「动作断层」 问题,我们采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行,从机制上保障动作连贯流畅。为进一步强化模型对环境变化的响应敏捷性与运行稳定性,我们引入了:

Clean Action Prefix:将前一时刻预测的动作作为输入,确保动作轨迹在时间维度上是连续的、不抖动的,进一步增加流畅性。

Λ-shape Attention Mask:通过特殊的注意力掩码,强制模型更关注当前的视觉反馈,而不是沉溺于历史惯性。这让机器人在面对环境突发变化时,能够展现出极强的反应性物理智能。

image

异步推理示意图,模型推理延迟不影响真机连续性运行

image

我们采用特殊的注意力掩码机制,有效缓解动作惯性

03

仿真与实战:全面 SOTA

在多维度的测试中,Xiaomi-Robotics-0 展现出优异的表现:

仿真标杆: 在 LIBERO、CALVIN 和 SimplerEnv 测试中,模型在所有的 Benchmark、30 种模型对比中,均取得了当前最优的结果。

真实挑战: 我们在双臂机器人平台上部署了模型并与行业标杆进行了横向对比。在积木拆解和叠毛巾这种长周期、高度挑战的任务中,机器人展现出了极高的手眼协调性。无论是刚性的积木还是柔性的织物,都能处理得游刃有余。

多模态能力:模型保留了 VLM 本身的多模态理解能力,尤其是在具身更相关的 benchmark 中表现优异,这是之前的 VLA 模型所不具备的。

image

在 VLA、VLM 的 Benchmark 以及真实机器人的效果指标

广告

财联社 2 月 12 日讯,据小米技术官微消息,小米 2 月 12 日宣布开源 Xiaomi-Robotics-0。

据介绍,这是一个拥有 47 亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。

小米机器人团队引入 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。针对推理延迟引发的真机 「动作断层」 问题,小米机器人团队采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行。

以下为原文 (有删减):

小米开源首代机器人 VLA 大模型,刷新多项 SOTA!

在具身智能 (Embodied AI) 的浪潮中,我们始终在思考一个问题:如何让机器人既有 「博学的大脑」,又有 「敏捷的身手」?

现有的 VLA(Vision-Language-Action) 模型虽然通过大规模参数获得了惊人的泛化能力,但在真实物理世界中,庞大的推理延迟往往让机器人表现得像个 「反应迟钝的木头人」。

今天,我们对外发布:Xiaomi-Robotics-0。这是一个拥有 47 亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。它不仅在三大主流的仿真测试中获得优异成绩,更在现实真机任务中实现了物理智能的泛化——动作连贯、反应灵敏,且能在消费级显卡上实现实时推理。

01

物理智能的钥匙:MoT 混合架构

物理智能的核心在于 「感知-决策-执行」 的闭环质量。为了兼顾通用理解与精细控制,Xiaomi-Robotics-0 采用了主流的 Mixture-of-Transformers (MoT) 架构。

视觉语言大脑 (VLM): 我们采用了多模态 VLM 大模型作为底座。它负责理解人类的模糊指令 (如 「请把毛巾叠好」),并从高清视觉输入中捕捉空间关系。

动作执行小脑 (Action Expert):为了生成高频、平滑的动作,我们嵌入了多层的 Diffusion Transformer (DiT)。它不直接输出单一动作,而是生成一个 「动作块」(Action Chunk),并通过流匹配 (Flow-matching) 技术确保动作的精准度。

image

模型架构及训练方法:(a) VLM 多模态与动作混合预训练;(b) DiT 专项预训练;(c) 目标任务后训练

这种 「大脑+小脑」 的组合,让我们的模型既能听懂指令,又能像人类一样,在动作执行时保持极高的物理灵活性。

02

训练秘籍:两阶段的 「进化论」

如何让模型既不丢失常识,又精通 「体力活」?我们设计了一套严谨的训练配方。

▍跨模态预训练 (Cross-Embodiment Pre-training)

大部分 VLA 模型在学动作时往往会 「变笨」,失去本身的理解能力。我们通过多模态与动作数据的混合训练,让模型在学会操作的同时,依然保持强大的物体检测、视觉问答和逻辑推理能力。

VLM 协同训练:我们首先引入了 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。这一步是为了让 VLM 的特征空间与动作空间对齐,不再仅仅是 「纸上谈兵」。

DiT 专项训练:随后,我们冻结 VLM,专注于训练 DiT, 学习如何从噪声中恢复出精准的动作序列。这一阶段,我们去除了 VLM 的离散 Token,完全依赖 KV 特征进行条件生成。通过 DiT 专项训练,模型可以生成高度平滑、精准的的动作序列。

image

多模态数据与跨本体机器人数据的分布

▍后训练 (Post-training)

这是解锁物理智能的核心路径。针对推理延迟引发的真机 「动作断层」 问题,我们采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行,从机制上保障动作连贯流畅。为进一步强化模型对环境变化的响应敏捷性与运行稳定性,我们引入了:

Clean Action Prefix:将前一时刻预测的动作作为输入,确保动作轨迹在时间维度上是连续的、不抖动的,进一步增加流畅性。

Λ-shape Attention Mask:通过特殊的注意力掩码,强制模型更关注当前的视觉反馈,而不是沉溺于历史惯性。这让机器人在面对环境突发变化时,能够展现出极强的反应性物理智能。

image

异步推理示意图,模型推理延迟不影响真机连续性运行

image

我们采用特殊的注意力掩码机制,有效缓解动作惯性

03

仿真与实战:全面 SOTA

在多维度的测试中,Xiaomi-Robotics-0 展现出优异的表现:

仿真标杆: 在 LIBERO、CALVIN 和 SimplerEnv 测试中,模型在所有的 Benchmark、30 种模型对比中,均取得了当前最优的结果。

真实挑战: 我们在双臂机器人平台上部署了模型并与行业标杆进行了横向对比。在积木拆解和叠毛巾这种长周期、高度挑战的任务中,机器人展现出了极高的手眼协调性。无论是刚性的积木还是柔性的织物,都能处理得游刃有余。

多模态能力:模型保留了 VLM 本身的多模态理解能力,尤其是在具身更相关的 benchmark 中表现优异,这是之前的 VLA 模型所不具备的。

image

在 VLA、VLM 的 Benchmark 以及真实机器人的效果指标

相关 文章

中东战火击碎降息梦!市场开始谈论加息 德银:美联储将避免重蹈覆辙

来自 周天财经
2026 年 3 月 26 日
0

财联社 3 月 24 日讯 (编辑 卞纯) 投资者原...

货币市场日报:3月24日

货币市场日报:3 月 24 日

来自 新华财经
2026 年 3 月 26 日
0

新华财经北京 3 月 24 日电 (刘润榕) 人民银...

三花智控:去年净利同比增长逾三成,但新能源汽车热管理产品产销量首次下滑|财报解读

来自 周天财经
2026 年 3 月 26 日
0

财联社 3 月 24 日讯 (记者 汪斌) 热管理领...

【看新股】新泉汽车饰件港股IPO:营收增速回落 客户集中与利润下滑引关注

【看新股】 新泉汽车饰件港股 IPO:营收增速回落 客户集中与利润下滑引关注

来自 新华财经
2026 年 3 月 26 日
0

新华财经北京 3 月 25 日电 此前,新泉汽车...

财联社债市早参 3 月 24 日|伊朗战争导致全球债市重挫 2.5 万亿美元;债务融资工具注册大幅简化,一次注册、自主发行

来自 周天财经
2026 年 3 月 26 日
0

债市要闻 【央行:将发行 2026 年第三期...

加载更多
广告
  • 热门
  • 评论
  • 最新
神马经典投研: 集资讯、策略、研报一站式期货投研工具

神马经典投研: 集资讯、策略、研报一站式期货投研工具

2025 年 11 月 7 日
「我们也深陷残酷价格战」,德资巨头中国区高管警告

「我们也深陷残酷价格战」,德资巨头中国区高管警告

2025 年 8 月 4 日
一周产业基金|上海市人工智能CVC基金发布;湖北百亿人形机器人母基金来了

一周产业基金|上海市人工智能 CVC 基金发布;湖北百亿人形机器人母基金来了

2025 年 8 月 4 日
「硬科技」指数携手上涨,半导体设备ETF易方达(159558)、芯片ETF易方达(516350)等产品助力布局板块龙头

基民懵了!这个火爆的板块年内涨超 37%,主力却借道 ETF 狂抛逾 400 亿元

2025 年 9 月 20 日
Lesson 1: Basics Of Photography With Natural Lighting

The Single Most Important Thing You Need To Know About Success

4
Lesson 1: Basics Of Photography With Natural Lighting

Lesson 1: Basics Of Photography With Natural Lighting

3
Lesson 1: Basics Of Photography With Natural Lighting

5 Ways Animals Will Help You Get More Business

2
Lesson 1: Basics Of Photography With Natural Lighting

New Cryptocurrency That Will Kill Of Bitcoin

2

长沙今日黄金价格多少钱一克 (2026 年 3 月 13 日)

2026 年 3 月 26 日
AI读研记:哈佛教授用两周把Claude培养成物理「研二学生」,但它总想「抄近道」

AI 读研记:哈佛教授用两周把 Claude 培养成物理 「研二学生」,但它总想 「抄近道」

2026 年 3 月 26 日

市场旺季预期向好 预计棉花短期震荡偏强运行

2026 年 3 月 26 日
iPhone 17标准款性价比高但卖的不算特别好 消费者仍更倾向Pro款和Max款

iPhone 17 标准款性价比高但卖的不算特别好 消费者仍更倾向 Pro 款和 Max 款

2026 年 3 月 26 日
  • 隐私政策
  • 联系我们
  • 关于周天
  • 登录
  • 注册
投诉建议:+86 13326565461

© 2025 广州小舟天传媒有限公司 by 周天财经 - 粤 ICP 备 2025452169 号-1

没有结果
查看所有结果
  • 首页
  • 24 小时
  • 世界
  • 商业
  • 基金
  • 期货
  • 股票
  • 行业新闻
  • 黄金

© 2025 广州小舟天传媒有限公司 by 周天财经 - 粤 ICP 备 2025452169 号-1

欢迎回来!

在下面登录您的帐户

忘记密码? 注册

创建新帐户!

填写以下表格进行注册

所有项目需要填写。 登录

重置您的密码

请输入您的用户名或电子邮件地址以重置密码。

登录

用户登录

还没有账号?立即注册

用户注册

已有账号?立即登录