Jump to content
Main menu
Main menu
move to sidebar
hide
Navigation
Main page
Recent changes
Random page
freem
Search
Search
Appearance
Create account
Log in
Personal tools
Create account
Log in
Pages for logged out editors
learn more
Contributions
Talk
Editing
仿生自动驾驶
(section)
Add languages
Page
Discussion
English
Read
Edit
Edit source
View history
Tools
Tools
move to sidebar
hide
Actions
Read
Edit
Edit source
View history
General
What links here
Related changes
Special pages
Page information
Appearance
move to sidebar
hide
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
== 仿生感知系统 == 自动驾驶汽车需要像生物一样“看”、“听”、“感觉”周围环境。仿生感知系统借鉴了生物视觉、听觉、触觉等感官原理,结合激光雷达、摄像头等现代传感器,实现对环境的全方位感知。 * '''仿生视觉''':摄像头是自动驾驶的“眼睛”,对应生物的视觉系统。为了拓展视觉能力,研究者开发了'''仿生视觉传感器'''。一个典型例子是'''人工复眼相机''',它模仿昆虫复眼结构,具有'''超宽视场'''和'''高运动敏感度'''。天然昆虫复眼相比单孔径视觉系统更紧凑、视野更广,并且对运动变化和光强变化更敏感 ( Artificial Compound Eye Systems and Their Application: A Review - PMC )。人工复眼摄像头利用微透镜阵列构建曲面传感器,实现大视角成像并提高对快速移动物体的捕捉能力 ( Artificial Compound Eye Systems and Their Application: A Review - PMC )。另一个前沿是'''事件相机(神经形态视觉传感器)''',受启发于生物视网膜。与传统相机以固定帧率捕获图像不同,事件相机仅在像素亮度发生变化时产生事件,'''异步地输出'''“视觉事件流” (Event-Based Neuromorphic Vision for Autonomous Driving: A Paradigm Shift for Bio-Inspired Visual Sensing and Perception)。这种传感器具有极低的延迟(微秒级)和超高动态范围(约120 dB),而且功耗很低 (Event-Based Neuromorphic Vision for Autonomous Driving: A Paradigm Shift for Bio-Inspired Visual Sensing and Perception)。这类似于人眼的视网膜只将变化的信息传递给大脑,从而高效感知运动。研究显示,将事件相机与AI算法结合,可实现比传统帧相机'''快百倍的行人和障碍物检测''',极大提升自动驾驶感知的实时性和安全性 (Bio-inspired cameras and AI help drivers detect pedestrians and obstacles faster) (Bio-inspired cameras and AI help drivers detect pedestrians and obstacles faster)。除了可见光,仿生视觉还包括紫外偏振视觉等特殊模式(模拟昆虫利用偏振光导航的能力) (Insect-inspired vision for autonomous vehicles - PubMed)。 * '''仿生听觉''':人类驾驶时会用'''听觉'''获取环境信息,例如判断救护车警报的方向。当前自动驾驶主要依赖视觉和雷达,但研究者正赋予其“听觉”能力。例如,博世开发了车载麦克风阵列和AI模型,让无人车能够'''听到并识别紧急车辆的警笛''' (Embedded siren detection | Bosch Global) (Embedded siren detection | Bosch Global)。车内已配备的降噪麦克风一般用于语音控制,但为了感知环境声音,麦克风需要安装在车外并结合智能算法区分有用声音 (Embedded siren detection | Bosch Global)。这种仿生听觉系统相当于给自动驾驶车辆安装“耳朵”,使其像人类司机一样,通过声音提前感知看不见的危险。例如,当麦克风检测到警笛声并通过深度学习模型识别出是救护车接近时,自动驾驶系统会做出让行决策。'''超声波传感器'''也是听觉感知的一种,常用于泊车和近距避障。它的原理类似蝙蝠的'''回声定位''':向外发出超声波并监听反射,以测量与障碍物的距离。蝙蝠能在漆黑中依靠超声成功飞行,而自动驾驶汽车通过车头和车尾的多个超声波传感器,实现低速环境下短距360°感知,对应于生物的近场听觉。 * '''仿生触觉''':大多数车辆尽量避免与物体接触,但在某些机器人和特殊自动驾驶场景下(例如低速室内运输车),触觉传感也有价值。自然界中,昆虫的触角和哺乳动物的胡须提供了独特的触觉感知。例如老鼠依靠胡须触摸探测近处物体,昆虫用触角在黑暗中'''探路'''。受此启发,研究者研制了'''仿生触觉传感器''':比如仿照昆虫触角设计出带有加速度计的柔性探杆,当探杆触碰到物体时产生振动,通过分析振动频率和阻尼,可以判断触碰位置距离和物体材料 ( An insect-inspired bionic sensor for tactile localization and material classification with state-dependent modulation - PMC ) ( An insect-inspired bionic sensor for tactile localization and material classification with state-dependent modulation - PMC )。这种'''主动触觉触角'''系统在实验中实现了厘米级定位误差小于1%的触觉定位精度,并能通过振动信号的衰减特征分类接触材料 ( An insect-inspired bionic sensor for tactile localization and material classification with state-dependent modulation - PMC ) ( An insect-inspired bionic sensor for tactile localization and material classification with state-dependent modulation - PMC )。虽然汽车不会像昆虫那样伸出触角探路,但类似的原理已体现在'''保险杠触感器'''等装置上:一旦车辆非常低速地接触行人或物体,传感器检测到轻微压力变化,就能立刻令车辆停车,避免更严重的碰撞。这相当于给车辆一套“皮肤”来感知接触。 * '''雷达与激光雷达''':雷达和LiDAR并非生物所天然具备,但可以类比为仿生系统的延伸。'''毫米波雷达'''主动发射电磁波探测物体,与'''蝙蝠超声'''原理类似(只是介质和频段不同)。雷达能在夜间和恶劣天气下工作,提供速度和距离信息,犹如为汽车添加了“第六感”。'''激光雷达(LiDAR)通过激光测距构建高精度三维点云,被视为自动驾驶的关键传感器。虽然动物没有激光器官,但LiDAR的功能等效于一种超敏锐的距离感官,可以与视觉结合形成多模态感知'''。例如,一些无人车将摄像头识别的物体与LiDAR点云进行融合,对同一目标实现相互验证和精确定位。这类似于人类'''视听结合'''提高感知准确度:我们用眼睛看道路,同时用耳朵听引擎或周围声音,两种感官信息相互补充验证。 通过以上仿生传感器的协同工作,自动驾驶汽车可构建对环境的'''多模态感知''':如同动物利用多种感官生存一样,车辆融合视觉(摄像+事件相机)、听觉(麦克风阵列)、触觉(触碰传感)以及人工“雷达”感官(雷达、LiDAR),形成对周围世界的立体感知。例如,当前方有障碍物时,摄像头视觉识别出障碍物类别和位置,LiDAR测得其精确距离轮廓,麦克风可能还捕捉到该障碍物(比如另一车辆)的声音特征,综合这些信息,感知系统能够更可靠地确认障碍物存在及其运动状态。这种仿生感知融合提高了系统的稳健性和精准度,使得自动驾驶更接近生物的感知水平。
Summary:
Please note that all contributions to freem are considered to be released under the Creative Commons Attribution-ShareAlike 4.0 (see
Freem:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)