降低数据采集和训练成本 深圳创企枢途科技再获新融资
文库划重点:实现了从2D视频到3D具身数据的高精度转化,将具身智能机器人的训练模式从传统的“手把手教学”升级为更高效的“观看教学”,显著降低了数据采集成本。
近日枢途科技正式完成天使+轮融资。本轮融资由辰韬资本独家投资,将主要用于进一步提升SynaData数据管线技术和工程化,大规模数据集的生产与交付,以及人才团队的持续扩充,进一步巩固该公司在视频具身数据领域的领先地位。
在此之前,枢途科技于10月中旬刚刚披露上一轮融资,规模达数千万元。短时间内枢途科技连续获得顶尖机构注资,充分体现了资本市场对其技术路线与商业前景的持续看好。
作为一家成长于深圳的早期科技创新型企业,枢途科技于2024年4月成立,主要致力于破解具身智能数据采集成本高、可泛化性弱的行业难题,并为此自主研发了SynaData视频具身数据解决方案,开创了从海量互联网视频中提取多模态、高精度、通用化训练数据的新路径。
据了解,SynaData系统的核心突破在于实现了从2D视频到3D具身数据的高精度转化,将具身智能机器人的训练模式从传统的“手把手教学”升级为更高效的“观看教学”,显著降低了数据采集成本。
通过先进的多模态融合算法与海量先验知识库,SynaData系统能够精准还原视频中的深度信息与空间结构,将重建误差降低至毫米级。不仅如此,SynaData系统的动态结构适配算法实现了数据在不同机器人本体间的跨域复用,从根本上推动了行业“数据孤岛”的打破。
据悉,在无需人工参与的情况下,SynaData可提取出具身智能训练所需的多模态数据,并将综合采集成本降至行业平均水平的千分之五。
目前,SynaData已经完成了多家第三方模型端到端数据训练验证,包括清华大学RDT、智元Go-1、ACT、PI π0.6在内的多款主流开源VLA具身模型,并在多家头部机器人本体完成了商业化验证。
接下来,枢途科技即将发布首个基于真实场景视频提取的多模态具身开源数据集,以推动行业数据标准的共建,进一步降低技术应用门槛。
(原文标题:《Seeds | 打破具身智能“数据孤岛”,这家深圳创企再获新融资》。文章插图未收录)
哈希力量文库收录,手机端省略本文网址
