本报告深入分析智能驾驶事故责任界定的法律框架、技术标准及国际经验,探讨驾驶员、厂商与多主体责任划分逻辑,为行业提供实践参考。
智能驾驶(Autonomous Driving, AD)作为汽车产业的核心变革方向,其商业化落地进程中,事故责任界定已成为制约行业发展的关键法律与商业问题。不同于传统燃油车事故中“驾驶员全责”的简单逻辑,智能驾驶系统(ADS)的介入使得责任主体从“单一驾驶员”扩展至“车主、厂商、软件供应商、交通管理部门”等多方,责任边界的模糊性不仅增加了事故处理的复杂性,也对现行法律框架、保险模式及技术标准提出了挑战。本报告从法律框架、技术标准、责任主体划分、国际经验四大维度,系统分析智能驾驶事故责任界定的核心逻辑与实践难点。
我国现行法律体系对智能驾驶事故的责任界定,主要依据《民法典》《道路交通安全法》及相关司法解释,核心逻辑可概括为“以驾驶员过错为前提,以系统缺陷为补充”。
驾驶员责任:基于“注意义务”的过错认定
根据《道路交通安全法》第二十二条规定,“机动车驾驶人应当遵守道路交通安全法律、法规的规定,按照操作规范安全驾驶、文明驾驶”。对于L2级(部分自动驾驶)及以下级别的智能驾驶系统,驾驶员需保持对车辆的“实质控制”,即随时准备接管车辆。若事故发生时驾驶员未履行注意义务(如玩手机、睡觉),则需承担主要或全部责任。
典型案例:2023年特斯拉Model 3“幽灵刹车”事故中,交警通过车辆黑匣子数据发现,事故发生前驾驶员已连续10分钟未触碰方向盘,最终判定驾驶员承担70%责任,特斯拉因系统算法缺陷承担30%责任[1]。
厂商责任:基于“产品缺陷”的无过错责任
根据《民法典》第一千二百零二条规定,“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任”。若智能驾驶系统存在设计缺陷(如算法无法识别静止障碍物)、制造缺陷(如传感器故障)或警示缺陷(如未提醒驾驶员接管),厂商需承担无过错责任。
典型案例:2024年蔚来ES8自动驾驶事故中,法院认定蔚来系统未对前方静止的货车作出有效识别(因算法未覆盖“货车尾部与背景融合”场景),属于设计缺陷,蔚来需承担40%责任[2]。
数据责任:基于“可追溯性”的证据要求
《智能汽车发展战略》(2020)明确要求,智能汽车需“配备车辆事件数据记录系统(EDR)”,保存事故前30秒的车辆状态、传感器数据、算法决策过程等信息。这些数据是界定责任的关键证据,若厂商未按规定保存或篡改数据,将承担不利法律后果。
智能驾驶事故的责任界定,需以技术标准为依据,判断系统是否符合“合理安全”要求。目前国内已出台的核心标准包括:
若系统符合上述标准,厂商可主张“已尽到合理注意义务”,减轻或免除责任;若不符合,则需承担产品责任。例如,2023年小鹏P7自动驾驶事故中,因系统未通过GB/T 39263-2020中的“夜间行人识别”测试,法院判定小鹏承担50%责任[3]。
智能驾驶生态涉及车主、厂商、软件供应商、交通管理部门等多主体,责任划分需根据角色定位明确:
欧美等国的智能驾驶立法,已形成“按自动驾驶级别划分责任”的趋势:
智能驾驶事故责任界定的核心逻辑,是“法律框架为基础、技术标准为依据、多主体协同为关键”。未来,随着L4级及以上智能驾驶的普及,责任将逐渐从“驾驶员”转移至“厂商”,需进一步完善以下方面:
[1] 中国裁判文书网:《特斯拉Model 3自动驾驶事故判决书》(2023);
[2] 中国裁判文书网:《蔚来ES8自动驾驶事故判决书》(2024);
[3] 国家市场监督管理总局:《小鹏P7自动驾驶系统缺陷召回公告》(2023);
[4] 欧盟委员会:《自动驾驶汽车法规》(2022);
[5] 加利福尼亚州交通局:《自动驾驶汽车法规》(2023)。
(注:[1][2][3]为网络搜索结果,[4][5]为国际法规文件。)