目录

NavFoM打造VLN基础模型通过安装在机器人上的摄像头和人类下达的指令,预测移动轨迹可跨任务跨本体

NavFoM——打造VLN基础模型:通过安装在机器人上的摄像头和人类下达的指令,预测移动轨迹(可跨任务、跨本体)

前言

如果前两周去长三角,见的更多是客户的话,那么本周在北京出差的这几天(25年9.23-9.27),见的更多是合作伙伴,比如千寻、智元、中科院软件所、北京人形、某石油服务商等等

  1. 过程中顺带看了下银河通用的太空舱——说白了,就是机器人售卖站
    我当时也实际点了瓶水,其中的轮式人形机器人「先移动到储存柜、抓水,后持水的同时 转身再移动到顾客柜台,最后放下水」的整个过程还是相对稳定、可控的
  2. 说到移动,便不可避免的会提到导航,不过,现有的轮式人形基本都集成了SLAM在内的移动导航功能

说到导航,这两天 则又看到了本文正要解读的NavFoM,个人觉得,该工作的创新不少,值得多读几遍

顺带感慨下,我个人认为:如果想打造技术影响力,有两个最佳途径:1 开源,2 分享。而对于我个人或我司,在1之前,暂先使劲的 全力的分享,无限利他中推动自我

第一部分 NavFoM

1.1 引言与相关工作

1.1.1 引言

如NavFoM原论文所说,对于具身智能体和人类来说,导航是一项基础能力,使其能够在物理环境中智能移动以完成特定任务

  • Shah等,2023a,Gnm: A general navigation model to drive any robot
  • Bar等,2025,Navigation world models
  • Zhang等,2024b,Vision-and-language navigation today and tomorrow: A survey in the era of foundation models
  1. 而实现稳健的导航能力,需要对环境上下文和任务指令有深入理解,这些信息通常通过视觉和语言观测呈现,这与视觉语言模型(VLMs)类似

  2. 然而,视觉语言模型
    Liu等,2023a,Visual instruction tuning
    Yang等,2024a,Qwen2 technical report
    Guo等,2025,Seed1. 5-vl technical report

    最近在检索、分类和描述等任务上展现了卓越的零样本泛化能力,这些任务基于大规模开放世界数据进行,无需依赖领域特定的微调

    相比之下,具身导航
    Savva等,2019a,Habitat: A Platform for Embodied AI Research
    Deitke等,2022,Procthor: Large-scale embodied ai using procedural generation

    依然受限于狭窄的任务领域、具身特定的架构以及受限的指令格式

为了实现通用型导航,学术界对此领域的兴趣日益增长

  • Zhang 等,2024a
    Navid: Video-based vlm plans the next step for vision-and language navigation

  • Cheng 等,2025

    Navila: Legged robot vision-language-action model for navigation

  • Shah 等,2023a

    Gnm: A general navigation model to drive any robot

  • Long 等,2024

    Instructnav: Zero shot system for generic instruction navigation in unexplored environment

然而,以往研究受限于设计的局限性和应用领域的有限性,导致进展缓慢

  1. 在跨任务导航中,现有方法
    1 Zhang 等,2025a,Uni-navid: A video-based vision-language-action model for unifying embodied navigation tasks
    2 Yin 等,2025,Unigoal: Towards universal zero-shot goal-oriented navigation
    3 Zhu 等,2025,Move to understand a 3d scene:

    Bridging visual grounding and exploration for efficient and versatile embodied navigation

    通常假设机器人拥有一致的相机配置,并统一处理视觉-语言导航、目标搜索及目标跟踪等多种任务

  2. 而对于跨载体导航,目前的方法
    Eftekhar 等,2024,The one ring: a robotic indoor navigation generalist
    Hirose 等,2023,Exaug: Robot-conditioned navigation policies via geometric experience augmentation

    往往是隐式学习载体的物理形态先验,但通常仅限于特定的导航任务。导航任务与载体之间的这种分歧,凸显了当前缺乏能够在多样载体下处理不同任务的基础性导航模型

对此,来自1 Peking University、2 Galbot、3 USTC、4BAAI、5 University of Adelaide、6 Zhejiang University、7 Differential Robotics的研究者提出了一个跨任务和跨形态的具身导航基础模型——NavFoM,该模型在八百万个涵盖多种形态与任务的导航样本上进行训练

https://i-blog.csdnimg.cn/direct/d698a846e4854778b2b2f20a2ce2046e.png

  • 其paper地址为:
    其对应的作者为:
    Jiazhao Zhang1,2,∗、Anqi Li1,2,∗、Yunpeng Qi3,4,∗、Minghan Li2,∗
    Jiahang Liu2、Shaoan Wang1、Haoran Liu1,2、Gengze Zhou5
    Yuze Wu6、Xingxing Li6、Yuxin Fan6、Wenjun Li6
    Zhibo Chen3、Fei Gao6,7、Qi Wu5、Zhizheng Zhang2,4,†、He Wang1,2,4,†
  • 其项目地址为:
    截止到25年9.27,尚未开源,且尚不知其是否有开源的计划

具体而言,其受人类主要依靠视觉感知完成多种导航任务能力的启发,以及近期纯视觉导航方法「Shah等,2023a-Gnm: A general navigation model to drive any robot;Zeng等」的成功,作者将通用导航任务表述为:处理以自我视角拍摄的视频(由安装在机器人上的一个或多个摄像头采集)以及语言指令,并预测后续轨迹以完成这些指令

这一任务表述与目前大多数现有导航任务设置兼容「Contributors, 2023-Openscene: The largest up-to-date 3d occupancy prediction benchmark in autonomous driving;Wang等2024a-Towards realistic uav vision-language navigation: Platform, benchmark, and methodology

  1. 且为了在不同摄像头配置下实现可泛化的模型对齐,作者引入了时序-视角指示符token(TVI token),用于标识摄像头设置的视角以及导航时域的信息

    通过动态调整这些TVI token,他们的方法能够在不同摄像头配置间实现协同调优,并支持与图像问答和视频问答样本的联合训练
    Shen等2024-Longvu: Spatiotemporal adaptive compression for long video-language understanding
    Li等2023-Llama-vid: An image is worth 2 tokens in large language models

  2. 此外,为了解决实际部署中如硬件内存成本和推理速度等限制,作者还提出了一种token预算感知时序采样(BATS)策略,该策略根据受token预算约束的遗忘曲线动态采样导航历史token
    这种token采样方法在性能与推理速度之间实现了平衡,提升了他们方法在真实场景部署中的实用性质

  3. 且他们按照「Zhang等2024a-Navid: Video-based vlm plans the next step for vision-andlanguage navigation」的方法,将导航数据与图像和视频问答数据进行联合调优,实现了NavFoM的大规模端到端综合训练

1.1.2 相关工作

第一,对于用于导航的大模型

将大型模型(LLMs 和 VLMs)集成到机器人导航中,已使该领域从传统的基于学习的方法转向利用预训练知识,实现对开放世界的理解以及强大的泛化能力

  1. 一种直接的方法
    Zhou 等, 2023,Navgpt: Explicit reasoning in vision-and-language navigation with large language models
    Shah 等, 2022,Lm-nav: Robotic navigation with large pre-trained models of language, vision, and action
    Qiao 等, 2023,March in chat: Interactive prompting for remote embodied referring expression

    是在零样本的情况下使用现成的 LLMs

    这些工作强调通过思维链机制
    Pan 等, 2023,Langnav: Language as a perceptual representation for navigation
    Long 等, 2023,Discuss before moving: Visual language navigation via multi-expert discussions
    Lin 等, 2025,Navcot: Boosting llm-based vision-and-language navigation via learning disentangled reasoning

    和结构化推理框架
    Chen 等, 2024b,Mapgpt: Map-guided prompting for unified vision-and-language navigation
    Qiao 等,2025,Open-nav: Exploring zero-shot vision-and-language navigation in continuous environment with open-source llms

    提升可解释性

    然而,将密集的视觉信息抽象为文本会导致环境观测变得稀疏,并且仅限于静态环境

  2. 另一种途径
    Cheng 等, 2025
    Zhang 等, 2024a,2025a
    Wei 等, 2025
    Wang 等, 2025c

    则是对基于视频或图像的
    Zhou 等,2025
    Zheng 等, 2024
    Zhang 等, 2025c

    视觉-语言模型进行端到端微调,利用导航数据使 VLMs 掌握导航能力
    这点挺类似于微调VLM得到VLA,而这里则微调VLM得到VLN

    然而,现有方法大多聚焦于同构体,忽视了不同体态和任务之间潜在的训练协同作用。在本工作中,作者首次尝试将导航策略拓展到跨体态和跨任务的更广泛领域

第二,对于跨形态导航

在具身人工智能领域,开发能够在不同形态——如形状、尺寸和传感器配置各异——之间泛化的导航模型仍然是一项重大挑战

  1. 近期的研究工作
    Shah等,2023a;b
    Yang等,2024b
    Wang等,2020
    Eftekhar等,2024
    Hirose等,2023
    Putta等,2024
    Curtis等,2024
    Wang等,2025a
    Zhang等,2025b

    展示了基于Transformer的策略在大规模跨形态数据集上训练后,无需手动对齐观测与动作空间,便能在多种机器人平台上实现稳健性能的潜力

  2. 然而,这些模型通常在处理多模态输入时,并未引入显式的空间与时间线索,导致由于不同形态数据的几何解释差异而产生歧义
    此外,这种方法还可能带来数据利用效率低下以及对分布外形态泛化能力有限等问题。Eftekhar等,2024
    Wang等,2025b

    相比之下,NavFoM引入了时空指示符token,用于编码观测配置,使模型能够更好地理解来自不同形态的多模态输入

第三,对于跨任务导航

近期在具身人工智能领域的进展(O’Neill 等,2024;Team 等,2024;Kim 等;Bjorck等,2025;Black 等,2024;Intelligence 等,2025;Bu 等,2025b;a;Qu 等,2025)表明,基于基础模型构建的通用模型能够有效地在不同任务之间迁移知识

  1. 在导航领域,以往的研究
    Zhou 等,2024
    Wang 等,2022
    Long 等,2024
    Song 等,2025
    Zhang 等,2025a
    Gao 等,2025
    Yin 等,2025
    Ruan 等,2025

    表明,将不同类别导航任务的数据进行整合,可以显著提升模型在多种导航场景下的表现

  2. 早期的工作VIENNA「Wang 等,2022」利用强化学习在模拟环境中训练智能体
    近期,Uni-Navid「Zhang 等,2025a」基于视频视觉-语言模型提出了一种通用模型,通过跨任务学习掌握了四类任务的通用导航技能,包括视觉-语言导航、目标物体导航、具身问答以及跟随人类

    然而,这些方法仅限于受限环境(如室内可控环境),而NavFoM的工作将研究范围扩展到更广泛的场景(如自动驾驶和无人机导航),并在统一的通用框架下对所有任务进行建模
    在该框架中,模型以RGB视频和自然语言指令为输入,输出可执行的轨迹

1.2 NavFoM的完整方法论

首先,定义一系列问题

对于通用导航任务。作者考虑一种通用的导航设置:

  1. 移动体接收到一条文本指令L和一系列图像https://latex.csdn.net/eq?I_%7B1%3A%20T%7D%5E%7B1%3A%20N%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BW%20%5Ctimes%20H%20%5Ctimes%203%7D,在时间步长 {1, …, T} 之下 从 N 个不同的摄像头实时捕获
  2. 给定这些观测和指令**,他们的模型π需要预测一条导航轨迹https://latex.csdn.net/eq?%5Ctau%3D%5Cleft%5C%7B%5Cmathbf%7Ba%7D_%7B1%7D%2C%20%5Cmathbf%7Ba%7D_%7B2%7D%2C%20%5Cldots%5Cright%5C%7D**,其中每个https://latex.csdn.net/eq?%5Cmathbf%7Ba%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7B4%7D%3D%28x%2C%20y%2C%20z%2C%20%5Ctheta%29

其次,对于基本架构而言

作者将原始的视频视觉-语言模型(VLMs)(Li等,2023;Shen等,2024)扩展为用于导航和问答的双分支架构(Wang等,2025c)

https://i-blog.csdnimg.cn/direct/85c56c203dee4d3dbb79accc0511d5be.png

为处理多项任务(包括图像问答、视频问答和导航)提供了统一的框架。作者使用时序-视角指示符token(见下文1.2.1节-对应于原论文第3.1.1节)对文本token和视觉token进行组织,具体细节如下文1.2.3节-对应于第3.1.3节所述

  • 在问答任务中,模型采用传统的自回归语言建模头
  • 而在导航任务中,则使用规划头直接预测路径
  1. 对于导航任务,作者首先使用视觉编码器和跨模态投影器(Liu 等人,2023a)对观测到的图像 https://latex.csdn.net/eq?I_%7B1%3A%20T%7D%5E%7B1%3A%20N%7D进行编码,以获得视觉token https://latex.csdn.net/eq?E_%7B1%3A%20T%7D%5E%7B1%3A%20N%7D
    至于文本指令则依照现有语言模型(Liu 等人,2023a)中的常见做法——被嵌入以生成语言标记 https://latex.csdn.net/eq?E_%7BL%7D
    ————————
    https://latex.csdn.net/eq?%5Crightarrow  随后,视觉token通过时间-视角指示token(对应于原论文第3.1.1节)和预算感知的时间采样(对应于原论文第3.1.2节)进行组织,并与语言token拼接在一起,输入到大型语言模型中以预测动作token
    https://latex.csdn.net/eq?E_%7BT%7D%5E%7BA%7D%3D%5Coperatorname%7BLLM%7D%5Cleft%28E_%7B1%3A%20T%7D%5E%7B1%3A%20N%7D%2C%20E_%7BL%7D%5Cright%29
    https://latex.csdn.net/eq?%5Crightarrow  此token随后由规划模型解码,以生成基于航路点的轨迹
    https://latex.csdn.net/eq?%5Ctau_%7BT%7D%3D%5Coperatorname%7BActionModel%7D%5Cleft%28E_%7BT%7D%5E%7BA%7D%5Cright%29
  2. 对于问答任务,作者遵循已有方法(Liu 等,2023a),以自回归方式预测下一个token。
    另,与已有研究(Zhang 等,2024a;2025a;Wang 等,2025c;Cheng 等,2025)类似,NavFoM实现了导航和问答样本的联合调优

1.2.1 导航基础模型:涉及对观测的编码、时序视角指示器(TVI) token、token预算感知时序采样BATS、LLM转发

首先,对于观测编码

给定在时间步长 T 从 N 个多视角相机捕获的以自我为中心的 RGB 序列https://latex.csdn.net/eq?I_%7B1%3A%20T%7D%5E%7B1%3A%20N%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BW%20%5Ctimes%20H%20%5Ctimes%203%7D,作者采用了预训练的视觉编码器DINOv2和SigLIP『这是一种被广泛采用的方法(Kim等;Tong等,2024)』,以提取视觉特征https://latex.csdn.net/eq?%5Cmathbf%7BV%7D_%7B1%3A%20T%7D%5E%7B%5Ctext%20%7Bdino/SigLIP%20%7D%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BP%20%5Ctimes%20C%7D,其中P为patch数量(设为576),C为特征维度

其次,对于嵌入维度表示

  1. 为了节省token和提高计算效率,作者直接沿通道维度将https://latex.csdn.net/eq?V_%7B1%3A%20T%7D%5E%7B%5Ctext%20%7Bdino%20%7D%7Dhttps://latex.csdn.net/eq?V_%7B1%3A%20T%7D%5E%7B%5Ctext%20%7Bsiglip%20%7D%7D连接起来,并将得到的表示记为https://latex.csdn.net/eq?V_%7B1%3A%20T%7D

  2. 在导航过程中,实时捕获的视频会产生大量帧,从而生成大量视觉特征
    为了解决这一问题,作者对视觉特征采用网格池化策略(Zhang等,2024a;2025a)(见图3,网格平均池化),以生成更为紧凑的表示

    https://i-blog.csdnimg.cn/direct/85c56c203dee4d3dbb79accc0511d5be.png

    具体而言,作者采用了两种分辨率尺度:
    https://i-blog.csdnimg.cn/direct/b2099800e7dd4354b5c96fbb0addba85.png
    其中,https://latex.csdn.net/eq?V%5E%7B%5Ctext%20%7Bfine%20%7D%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7B64%20%5Ctimes%20C%7D提供细粒度的观测,而https://latex.csdn.net/eq?V%5E%7B%5Ctext%20%7Bcoarse%20%7D%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7B4%20%5Ctimes%20C%7D提供粗粒度的观测

    在本例中,作者将细粒度特征 https://latex.csdn.net/eq?V_%7B%5Ctext%20%7Bfine%20%7D%7D 用于最新的导航观测和图像问答(在时间步T),而将粗粒度特征用于导航历史和视频数据(跨时间步 1 到 T)
    个人认为,这个处理确实很有针对性,赞

    最后,按照已有的多模态大语言模型(Liu 等,2023a;Li 等,2023),作者采用跨模态投影器https://latex.csdn.net/eq?%5Cmathcal%7BP%7D%28%5Ccdot%29(一个两层 MLP)将视觉特征投射到大语言模型的潜在空间中:https://latex.csdn.net/eq?%5Cmathbf%7BE%7D_%7BT%7D%5E%7BV%7D%3D%5Cmathcal%7BP%7D%5Cleft%28V_%7B1%3A%20T%7D%5E%7B1%3A%20N%7D%5Cright%29

1.2.1.1(原论文3.1.1节) 时序视角指示器(TVI)token

鉴于视觉token本身并未包含视角和时序信息,多视图导航模型中的一个关键挑战在于,使大语言模型(LLM)能够识别哪些token对应于不同的时间步或不同的摄像头视角

以往的方法

  • 要么仅适用于特定的摄像头配置或具身体(Long 等,2024;Gao 等, 2025)
  • 要么只是简单地将所有视角图像的token拼接在一起(Zheng 等,2024;Fu 等, 2025b),从而忽略了LLM标记组织的灵活性

为实现对任意摄像头排列的灵活处理,作者引入了时序-视角指示token,这一灵感来源于为时间/模态/任务识别专门设计的token已被证明具有显著效果(Guo 等, 2025;Chen 等,2023),该方法已被广泛认为有助于LLM的学习

在作者的设置中,指示token被应用于多种任务,包括图像问答、视频问答和导航,并且应满足以下三个重要属性:

  1. 视角感知:Token 的角度嵌入必须保留方位角的圆周连续性(例如,0≡2π),确保嵌入之间的距离度量能够反映几何上的接近程度(例如,当https://latex.csdn.net/eq?%5Cepsilon%20%5Cneq%20%5Cpi时,https://latex.csdn.net/eq?d%280%2C%20%5Cepsilon%29%3Cd%280%2C%20%5Cpi%29
  2. 时间感知:Token 必须能够唯一标识所有摄像机视角下帧的时间顺序,同时对不规则采样间隔具有鲁棒性
  3. 可分离性:指示器token可以编码视角信息或时间信息(用于视频问答),也可以完全不包含此类信息(用于图像问答)

为满足这些需求,作者提出的时序-视角指示器TVI token https://latex.csdn.net/eq?%5Cmathbf%7BE%7D_%7B%5Cmathrm%7BTVI%7D%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BC%7D(其中时间步和视角分别记作 t 和 ϕ)由三种类型的嵌入组成:

  1. 角度嵌入https://latex.csdn.net/eq?%5Ctext%20%7B%20AnglePE%20%7D%28%5Cphi%29%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BC%7D
  2. 时间嵌入https://latex.csdn.net/eq?%5Coperatorname%7BTimePE%7D%28t%29%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BC%7D
  3. 以及可学习的基础嵌入https://latex.csdn.net/eq?%5Cmathbf%7BE%7D_%7B%5Ctext%20%7BBase%20%7D%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BC%7D

最终如下表达式 所示

https://latex.csdn.net/eq?%5Cmathbf%7BE%7D_%7B%5Ctext%20%7BTVIT%20%7D%7D%3D%5Cleft%5C%7B%5Cbegin%7Barray%7D%7Bll%7D%20%5Cmathbf%7BE%7D_%7B%5Ctext%20%7BBase%20%7D%7D+%5Cmathcal%7BP%7D_%7B%5Ctext%20%7Btime%20%7D%7D%28%5Coperatorname%7BTimePE%7D%28t%29%29+%5Cmathcal%7BP%7D_%7B%5Ctext%20%7Bangle%20%7D%7D%28%5Ctext%20%7B%20AnglePE%20%7D%28%5Cphi%29%29%2C%20%26%20%5Ctext%20%7B%20if%20Navigation%20%7D%20%5C%5C%20%5Cmathbf%7BE%7D_%7B%5Ctext%20%7BBase%20%7D%7D+%5Cmathcal%7BP%7D_%7B%5Ctext%20%7Btime%20%7D%7D%28%5Coperatorname%7BTimePE%7D%28t%29%29%2C%20%26%20%5Ctext%20%7B%20if%20Video%20QA%20%7D%20%5C%5C%20%5Cmathbf%7BE%7D_%7B%5Ctext%20%7BBase%20%7D%7D%2C%20%26%20%5Ctext%20%7B%20if%20Image%20QA%20%7D%20%5Cend%7Barray%7D%5Cright.

其中,https://latex.csdn.net/eq?%5Ctext%20%7B%20AnglePE%20%7D%28%5Cphi%29通过对方位角的余弦值和正弦值分别应用正弦位置编码(Vaswani等人,2017)后进行拼接实现,https://latex.csdn.net/eq?%5Coperatorname%7BTimePE%7D%28t%29则作为对https://latex.csdn.net/eq?t 的正弦位置编码实现。在此,https://latex.csdn.net/eq?%5Cmathcal%7BP%7D_%7B%5Ctext%20%7Btime%20%7D%7Dhttps://latex.csdn.net/eq?%5Cmathcal%7BP%7D_%7B%5Ctext%20%7Bangle%20%7D%7D均采用两层MLP实现——设计类似于Liu等人(2023a)中所用

针对不同任务和TVI token,作者采用不同的指示token组件组合来表征各类视觉token的属性

  • 对于导航任务,包含了时间和视角信息
  • 对于视频问答任务,作者引入了时间信息
  • 对于图像问答任务,仅使用EBase作为指示,标识后续token为视觉token

这一策略为组织差异显著的样本类型提供了灵活的方法,并促进了LLM的学习(对应原论文第3.1.3节)

且在图4中展示了TVI Tokens的聚类结果(McInnes等人,2018),可以观察到这些token根据视角θ(以彩虹色条表示)和时间步t(以颜色值表示)被区分开

1.2.1.2(原论文3.1.2节) 面向token预算的时序采样(BATS)

在导航过程中,实时采集的视频可能会生成过多的视觉token,从而增加推理和训练时间,影响实际部署

以往的方法主要通过两种方式解决这一问题:

  1. TokenMerging(Zhang 等,2025a),该方法在训练时引入了额外的计算开销,并导致评估阶段推理速度不一致
  2. Uniform Sampling(Cheng 等,2025),由于缺乏短期上下文,常常无法充分捕捉到最新的观测

此外,在涉及可变摄像机视角设置(帧数显著增加)的场景下,这两种策略都需要额外的修改

为此,作者提出了预算感知时序采样(BATS)方法,其设计目标包括:

  1. 满足实际应用需求(即限制最大Token长度,以适应推理速度和GPU内存限制)
  2. 保留更多近期信息,从而提升理解与规划能力,同时保持足够的历史上下文以支持导航能够直接适应不同数量的摄像头

具体而言

  1. 给定一个Token预算 https://latex.csdn.net/eq?B_%7B%5Ctext%20%7Btoken%20%7D%7D 和一个多视角视频序列https://latex.csdn.net/eq?I_%7B1%3A%20T%7D%5E%7B1%3A%20N%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BW%20%5Ctimes%20H%20%5Ctimes%203%7D,采用基于指数增长的采样概率https://latex.csdn.net/eq?P%28t%29,该方法受“遗忘曲线”启发。在这种情况下,当捕获的帧token数量超过token预算时,作者为每一帧计算一个采样概率(定义为公式4):
    https://latex.csdn.net/eq?P%28t%29%3D%281-%5Cepsilon%29%20e%5E%7Bk%28t-T%29%20/%20T%7D+%5Cepsilon%2C%20%5Cquad%20k%3E0
    其中ϵ(作者使用ϵ=0.1)确保采样概率的下界处于近似范围内,k表示指数衰减率
  2. 因此,期望采样帧的数量可以计算为(定义为公式5):
    https://latex.csdn.net/eq?%5Cmathbb%7BE%7D_%7B%5Cmathrm%7Bframes%7D%7D%20%5Capprox%20%5Cint_%7B0%7D%5E%7BT%7D%20P%28t%29%20d%20t%3D%281-%5Cepsilon%29%20%5Cfrac%7B1-e%5E%7B-k%7D%7D%7Bk%7D%20T+%5Cepsilon%20T
    作者约束期望的 token 数量https://i-blog.csdnimg.cn/direct/bc6d8df4d2a846f5987cfdba2081183c.png不超过 https://latex.csdn.net/eq?B_%7B%5Ctext%20%7Btoken%20%7D%7D。这意味着https://i-blog.csdnimg.cn/direct/04044f405c264fadbbd90c6e83507b18.png,并且当帧数 T 充分大时,数量采样帧的均值将收敛于期望值(见图5(c))
    且可以采用Brent方法(Brent, 2013)针对不同的T离线计算k,从而得到相应的https://latex.csdn.net/eq?P%28t%29(公式4)
    ——————
    需要注意的是,由于作者设置了下界概率ϵ,当T非常大时(例如,在四摄像头配置且token预算https://latex.csdn.net/eq?B_%7B%5Ctext%20%7Btoken%20%7D%7D%20%3D%202048的情况下https://latex.csdn.net/eq?T%3D1120),公式5可能无解
    然而,这种情况极为罕见(如图2中的列表任务)
    https://i-blog.csdnimg.cn/direct/be090b99825e4c6cad6238df893226ed.png
    因为在VLN-CE RxR(Ku等, 2020)中,大多数时间步大约为122步。关于BATS的使用细节,请参见附录A.2

另,作者在图5中绘制了时间步采样概率分布和时间效率

https://i-blog.csdnimg.cn/direct/ee9c8c5e02bd4271a75e0045b6fcce10.png

BATS的可视化及其对应的时间成本

  • (a) 在固定的token预算B=1600的情况下,展示了在最新时间步T下,不同时间步t的采样概率
  • (b) 在最大时间步T=125的条件下,作者绘制了在不同token预算B下,不同时间步t的采样概率
  • (c) 对比了使用BATS与不使用BATS(保留所有帧)时的推理时间

从图中(图b)可以观察到:他们的方法在不同的 token 预算 B 和时间步 T 下,能够平滑地获得合理的 P(t)

  • 当 token 预算较高时,BATS策略能够自适应地采样更多的历史 token
  • 即使在 token 数较少的情况下,他们的策略仍然保持了合理的下界

此外,他们注意到 BATS 在整个导航过程中始终保持了稳定的推理速度

1.2.1.3(原论文3.1.3节) LLM转发

首先,对于Token组织

获得视觉tokens https://latex.csdn.net/eq?E_%7B1%3A%20T%7D%5E%7B1%3A%20N%7D后(通过BATS采样,见3.1.2节)以及语言tokens https://latex.csdn.net/eq?E_%7BL%7D,作者使用TVI Tokens(见3.1.1节)对这些tokens进行组织,以便LLM进行转发

具体而言,作者在图6中详细展示了针对不同任务的Token组织策略

https://i-blog.csdnimg.cn/direct/ed65792584fb4f57a9662aec6233a382.png

  • 对于图像问答Image QA
    使用https://latex.csdn.net/eq?E_%7B%5Ctext%20%7BBase%20%7D%7D——仅包含TVI Token的基础嵌入,结合细粒度视觉Token (每张图片64个Token)来表示图像
  • 对于视频问答Video QA
    引入https://latex.csdn.net/eq?%5Cmathbf%7BE%7D_%7B%5Ctext%20%7BBase%20%7D%7D+%5Cmathcal%7BP%7D_%7B%5Ctext%20%7Btime%20%7D%7D%28%5Coperatorname%7BTimePE%7D%28t%29%29——包含TVI Token的基础嵌入和时间嵌入,以对每一帧进行时间信息编码,并采用粗粒度视觉Token(每帧4个Token),以避免Token数量过多
  • 对于导航任务
    采用https://latex.csdn.net/eq?%5Cmathbf%7BE%7D_%7B%5Ctext%20%7BBase%20%7D%7D+%5Cmathcal%7BP%7D_%7B%5Ctext%20%7Btime%20%7D%7D%28%5Coperatorname%7BTimePE%7D%28t%29%29+%5Cmathcal%7BP%7D_%7B%5Ctext%20%7Bangle%20%7D%7D%28%5Coperatorname%7BAnglePE%7D%28%5Cphi%29%29——融合了TVI Token的基础、时间和角度嵌入,来同时表示时间和视角信息

在这里,最近的观测使用细粒度视觉Token,而历史观测则采用粗粒度Token。总之,该Token组织策略提升了LLM对输入Token的理解能力,并支持图像问答、视频问答及导航任务的统一框架

其次,对于轨迹预测

对于导航任务,给定来自 LLM 前向传递的预测动作隐藏状态 https://latex.csdn.net/eq?E_%7BT%7D%5E%7B%5Cmathrm%7BA%7D%7D,作者应用规划模型 https://latex.csdn.net/eq?%5Cmathcal%7BA%7D_%7B%5Ctheta%7D(实现为一个三层多层感知机)来提取轨迹信息 https://latex.csdn.net/eq?%5Ctau_%7BT%7D 『For the navigation task, given the predicted action hidden state EATfrom the forward pass of the LLM, we apply a plannning model Aθ(implemented as a three-layer MLP) to extract the trajectory information τT

  1. 需要注意的是,原始轨迹的长度可能从几米(室内导航)到数十米(自动驾驶和无人机)不等。在这种情况下,直接预测原始轨迹可能会导致航点分布发散
  2. 因此,参照Shah等人(2023a)的方法,作者将轨迹的航点通过任务相关的缩放因子https://latex.csdn.net/eq?%5Calpha_%7B%5Ctext%20%7Btask%20%7D%7D归一化到[−1,1]的分布

具体来说,作者针对室内导航、无人机和汽车分别采用了三种不同的缩放因子,详见附录A.1。轨迹预测可表述如下

https://latex.csdn.net/eq?%5Ctau_%7BT%7D%3D%5Cleft%5C%7B%5Cmathbf%7Ba%7D_%7B1%7D%2C%20%5Cldots%2C%20%5Cmathbf%7Ba%7D_%7BM%7D%5Cright%5C%7D_%7BT%7D%3D%5Calpha_%7B%5Ctext%20%7Btask%20%7D%7D%20%5Ccdot%20%5Cmathcal%7BA%7D_%7B%5Ctheta%7D%5Cleft%28E_%7BT%7D%5E%7B%5Cmathrm%7BA%7D%7D%5Cright%29

其中Mis设置为8,并且通过乘以https://latex.csdn.net/eq?%5Calpha_%7B%5Ctext%20%7Btask%20%7D%7D将归一化轨迹重新缩放为绝对值

  • 轨迹损失通过均方误差(MSE)计算,https://latex.csdn.net/eq?L_%7B%5Cmathrm%7Bnav%7D%7D%3D%5Coperatorname%7BMSE%7D%5Cleft%28%5Ctau%5E%7B%5Cmathrm%7Bidx%7D%7D%2C%20%5Ctau_%7B%5Cmathrm%7Bgt%7D%7D%5E%7B%5Cmathrm%7Bidx%7D%7D%5Cright%29,其中idx表示有效动作索引
    对于轮式机器人/车辆实体,https://latex.csdn.net/eq?%5Cmathbf%7Ba%7D%5E%7B%5Cmathrm%7Bidx%7D%7D%3D%28x%2C%20y%2C%20z%2C%20%5Ctheta%29;对于无人机,https://latex.csdn.net/eq?%5Cmathbf%7Ba%7D%5E%7B%5Cmathrm%7Bidx%7D%7D%3D%28x%2C%20y%2C%20z%2C%20%5Ctheta%29
  • 在问答任务中,作者在下一个token预测的监督框架下采用交叉熵损失https://latex.csdn.net/eq?L_%7B%5Cmathrm%7BQA%7D%7D

故,对于包含导航和问答样本的一个批次,总损失定义为https://latex.csdn.net/eq?L%3D%5Cbeta%20L_%7B%5Cmathrm%7Bnav%7D%7D+L_%7B%5Cmathrm%7BQA%7D%7D。其中,β是一个常数缩放因子(设为10),用于放大导航损失,因为该损失源自均方误差,数值上通常较小

// 待今9.27日下午5点 从北京回长沙的高铁上,继续更新