01、小米智驾Xiaomi Pilot
全系技术自研
全系标配智能辅助驾驶
智能驾驶是汽车从出行载具全面进化到先进的移动空间的关键一步。小米智驾首次亮相,就宣布要在2024年成为行业第一阵营的目标。
为此,我们投入巨大,小米智驾专属团队已突破1000人,今年年初成立了自动驾驶武汉研发中心,计划年底再扩展500人。我们的AI实验室已历经8年,工程师也超过3000人。十倍的投入让智驾能力更快速的迭代,做到技术和体验的的全面赶超。
去年底,小米汽车技术发布会首次发布了小米智能驾驶全栈自研技术构架,这是包含了道路大模型、超分占用网络和变焦BEV等领先算法的先进架构。其中超分占用网络在2024年初被计算机视觉领域国际顶级学术会议CVPR收录,核心算法的创新性获得了国际认可。
更具突破意义的是,小米在智能驾驶领域实现端到端大模型技术在国内的首次量产,端到端大模型取代了此前用于感知、决策、规划的多个模块,让智能驾驶直接从一端输入图像,一端输出行驶轨迹,小米端到端大模型是迄今类人思考程度最深的智驾算法,已经实现5cm精度的极窄库位泊入和可用性极高的23km/h最高巡航速度代客泊车。小米智驾技术快速迭代,也要做到体验的的全面提升。
△全系支持极窄车位泊车
要把智驾体验做好,高低配体验一致很重要。小米智驾系统分为两套方案,分别是Xiaomi Pilot Pro和Xiaomi Pilot Max。我们坚持高低配技术同源,Xiaomi PilotPro和Max都是NVIDIA DRIVE Orin算力平台、都是11个摄像头的视觉方案,全部采用变焦BEV感知技术和端到端大模型,高低配都基于同一技术方案,并且全部能够支持体验领先的智能辅助驾驶功能。
02、小米澎湃智能座舱
基于小米澎湃OS
符合操作直觉的交互框架
硬件能力是交互体验的基础,小米SU7全系标配8295旗舰芯片平台,配合小米澎湃OS强大的异构兼容性,实现硬件资源的精准调度,让中控屏灵敏响应,丝滑顺畅。
这只是第一步。我们的团队在交互设计上花费了巨大心力,这是整车智能化体验的窗口。从前期媒体试驾的反馈来看,简单且优雅、所见即所得,是大家对中控屏交互设计的高频评价。
△3D车控
上车后,映入眼前的是精致还原,渲染极为精细的3D车模。车模颜色和配置与真实情况完全匹配、车模状态也会和车辆状态实时同步。点触车模上对应的位置,就能快速打开前备箱、后备箱、充电口等等。调节尾翼或悬架,还会配合一镜到底的动画演绎,整个控车过程非常丝滑、直观。初次上手就能快速掌握,几乎0学习门槛。
△基于柔性框架的自由窗口交互
当你拨动开关,驻车界面会一镜演绎成行车界面。得益于小米澎湃OS的柔性框架能力,用户可以自由排列窗口卡片的位置,按照自己的需求调节显示比例,地图窗口更大一点方便导航,音乐窗口更大一点沉浸听歌,随心所欲、畅快自由。
03、跨端智联
底层打通手机、平板联动
作为一家生态科技厂商,小米澎湃智能座舱在设计之初就将手机、平板视为座舱的一部分,实行多端一体化原生设计。继承Xiaomi HyperConnect跨端互联框架能力,当车主同账号的手机、Pad进入车内时,能与中控屏无感连接,自动完成识别、安全认证、连接等一系列复杂步骤,直接在融合设备中心里实现跨设备互控。
△将手机上的小红书一键PIN应用到中控屏
更重要的是系统底层融合,提供统一的原生交互体验。例如中控屏上能直接调用手机镜像,实现一屏多用,让驾驶位操控手机更顺手。甚至基于系统框架层的打通,用户能将手机应用以窗口卡片的形式,一键PIN到中控屏上。手机只提供算力,其余显示、声音和交互都在车机上执行,中控屏上的App不是简单的投屏,而是可以独立操作,这给了车机使用手机全部生态应用的潜力。
△后排拓展屏原生车机体验
小米澎湃智能座舱还支持再挂载2个Xiaomi Pad 6S Pro 12.4作为后排拓展屏。接入后,平板自动切换至原生控车桌面。与全车无缝打通,实现导航信息实时同步,自由调整空调、座椅加热、全车音乐等功能。还能帮副驾长辈调整座椅,如果副驾没人也能调节座位位置,获得更宽敞的后排空间。
即使不是小米生态用户,使用iPhone、iPad也能获得领先的智能化体验。小米澎湃智能座舱支持接入无线CarPlay,且后排支架兼容iPad,可通过小米汽车拓展屏APP实现后排控车。
04、大模型加持的「小爱同学」
上车继承六大能力
首发即落地端侧大模型
小爱同学是国内最早一批发布的智能语音助手,从2017年至今,已经服务长达7年时间,拥有1.17亿月活跃用户,每天都要被唤醒高达2.08亿次。从去年4月开始,小爱同学全面接入大模型,实现了从语音助手到生成式AI智能助理的能力跃迁,且具备深度自然语义理解、多模态等能力。
△车载小爱同学继承小米集团能力
长期的技术投入,让小爱同学刚上车就得以获得集团技术能力,实现了远超行业的语音交互功能。例如连续对话、离线对话、协同唤醒、可见即可说、高噪唤醒和一句话多指令。
首发即接入小米自研「MiLM-1.3B」端侧大模型,并实现了从识别到理解再到生成的全链路大模型语音交互,不仅能实现文生图,更可融合车的位置、方向、视觉等信息,像人一样理解真实世界。
最重要的是,小爱同学为车进化。语音交互在行驶过程中远比触摸交互更高效、更安全。因此在立项之初,小米的AI团队就定好了一个目标:只要用手能控车的功能,语音交互就要覆盖。如今,你不仅能用小爱同学深度控车,还能用它控手机、控CarIoT、甚至控家,无限拓展语音交互的能力边界。