北京航空航天大学人工智能学院2026年推免招生启动
Colab实验室隶属北京航空航天大学人工智能学院,课题组致力于具身智能系统研究,探索将视觉、语言、动作协同赋能于地面与空中具身载体,使其真正具备“感知—理解—决策—执行”的完整智能闭环。Colab正在招收2026届推免硕士/博士,聚焦具身智能方向以及具身智能与无人机融合方向,欢迎志在具身智能探索的你加入我们!
- Colab成果 -
Colab成立以来取得了丰硕的学术成果,发表多篇顶会顶刊,其中包括17篇TPAMI。成果获得学术届广泛认可,获多个CCF-A类会议的最佳奖项,包括2项 ACM MM 最佳论文奖,1项ACM MM 最佳演示奖以及1项IJCAI 最佳视频奖等。实验室同时积极参与国际学术竞赛,取得了10余项CCF-A类会议的竞赛冠军。
- Colab主要研究方向-
1、具身感知
感知对于具身代理而言十分重要,我们不仅希望代理可以“看见”周围环境,更希望它能够对环境有更准确的“理解”,这种理解包括空间、时间、语义等多种维度。其中很重要的任务是开放词汇目标检测/分割,它关注于通过语言和视觉之间模态的对齐,让模型识别和理解他们不曾见过的物体。
如图利用跨模态匹配方式,可以使模型识别训练集中未出现过的诸如防毒面具等物体
组内系列相关工作:基于语言模型指导的开放词汇检测(ECCV 2024)、面向开放词汇对象检测的对象感知蒸馏金字塔(CVPR 2023)、基于模版桥接搜索区域交互的RGB-T跟踪(CVPR 2023, TPAMI 2024)、DOMR框架:结合密集上下文信息的两阶段跨视角目标匹配方法(ACM MM2025)
2、决策与规划感知功能赋予智能体观察世界的能力,而决策规划能力让智能体能像人类一样,把感受到的事物和脑海中的概念和知识联系起来,进而根据自己的任务目标做出适当的行为,如目标搜寻、执行人类的语言指令等。此外,定位、地图构建、避障也都是机器人决策与导航中必不可少的任务,它们可以让机器人在未知环境探索过程中,定位自身位置、构建全局地图、并躲避环境障碍,从而实现高效的路径选择。
组内系列相关工作:具体化指称表达知识推理(TPAMI)、通过链式思维提示进行的可控导航指令生成(ECCV 2024)、基于结构状态演化的视觉语言导航(CVPR 2022)
3、具身智能 x 无人机
传统无人机系统多依赖静态规划与人工遥控,难以应对复杂环境中的高维感知与智能决策任务。而空中具身智能系统,强调将大模型能力、视觉语言理解与自主策略决策相结合,使无人机在动态、非结构化环境中自主感知、理解任务、规划路径并执行操作。我们聚焦构建面向实际任务场景的飞行型具身智能体,从仿真训练到真机部署,打造会看、会想、会飞、会协作的新一代空中机器人系统。例如视觉语言导航,视频以无人机的视觉语言导航为例,利用无人机实现基于文本描述的目标搜寻。
语言指令:目标位于无人机的前方。中心物体是一个身穿白色短袖和蓝色短裤的人。周围沿街高楼鳞次栉比,街道上设有车道和绿色自行车道,建筑物附近摆放着撑着彩色遮阳伞的街头小贩。
组内系列相关工作:基于大模型的无人机视觉语言导航(ICLR 2025)、语言引导的细粒度无人机轨迹控制研究框架(NIPS 2025)、高低无人机协同导航方 (ACM MM 2025)、基于视频的无人机地理定位任务和Video2BEV新范式(ICCV 2025)
Airstar:空中AI智能助手(ACM MM demo 2025)4、具身智能 × 卫星
实验室组内气氛融洽,同学们总是互帮互助、积极讨论,课题组同学也有机会参加国内外举办的学术研讨会议,开拓学术视野。此外,Colab 还会定期举行团建活动,丰富大家的课余生活。
Colab毕业团建Party
Colab飞盘比赛
老师同学前往新加坡参会ICLR 2025
- 招生信息 -
热爱智能无人机、具身智能等交叉前沿方向;
学习成绩优异,具备扎实的理论基础;
性格开朗,具备良好的团队合作精神与沟通能力;
熟悉Python等编程语言,熟悉PyTorch等深度学习框架;
如果你有望获得推免资格并对Colab感兴趣,请发送简历到邮箱yangheqing@buaa.edu.cn,我们将根据你的情况进行初步筛选,期待你的加入!
报名截止时间:2025年8月18日中午12点
