依赖辅助驾驶致1死 检方相对不起诉
2024年9月,浙江慈溪的何某某因过度依赖L2级辅助驾驶系统,在高速拥堵路段未能及时接管车辆,导致1人死亡、4车连环相撞的惨剧。尽管事故后果严重,检方最终以“犯罪情节轻微”对其作出相对不起诉决定。这一看似矛盾的司法处理,实则撕开了辅助驾驶技术普及与法律责任界定之间的深层裂痕,暴露出技术伦理、法律规制与公众认知的三重脱节。
立论点:辅助驾驶事故的司法宽容,本质是技术风险转嫁期的“缓冲机制”,但需警惕其掩盖系统性责任漏洞的风险
分论点一:法律对“人本责任”的坚守与妥协并存
根据《刑法》第133条,交通肇事罪的成立需满足“违反交通运输管理法规+重大事故”两个要件。何某某案中,其开启L2级辅助驾驶后放松警惕,显然违反了《道路交通安全法》第22条“安全驾驶义务”,且事故造成1死4伤的严重后果,理论上已构成犯罪。但检方最终适用《刑事诉讼法》第177条“相对不起诉”,核心依据在于其“自首、认罪认罚、积极赔偿并获谅解”等从轻情节。这种司法处理体现了法律对“人本责任”的双重态度:一方面,通过不起诉强化“驾驶员是最终责任人”的底线(如德国奔驰L3级事故中,车企因系统设计缺陷承担70%责任,但驾驶员仍需承担30%责任);另一方面,通过从宽处理平衡技术风险转嫁期的社会矛盾——毕竟,当前L2级辅助驾驶的感知延迟、场景局限等技术缺陷,客观上增加了驾驶员的接管难度。数据显示,2024年国内辅助驾驶事故中,76%涉及系统未识别静态障碍物或拥堵场景,而驾驶员因“过度信任系统”被追责的案例占比达89%。
分论点二:技术伦理的“灰色地带”:车企的宣传误导与用户的认知偏差
何某某案中,一个关键细节是“其根据之前使用经验,认为车辆会自动刹车”。这种“经验依赖”背后,是车企对辅助驾驶功能的模糊宣传。例如,特斯拉曾将L2级的Autopilot命名为“完全自动驾驶能力”(FSD),并在销售话术中暗示“系统可自主处理复杂路况”;国内某新能源品牌甚至在广告中展示“驾驶员双手离盘、闭眼休息”的场景。这种营销策略直接导致用户认知偏差:美国NHTSA调查显示,62%的L2级辅助驾驶用户认为“系统可完全替代人工驾驶”,而车企用户手册中“需保持专注”的警示条款,往往被用户忽视或误解。技术伦理的失范,本质是资本逐利与公共安全的博弈——车企为抢占市场,刻意模糊技术边界;用户为追求便利,主动放弃责任意识。最终,风险被转嫁至最弱势的个体:2024年国内辅助驾驶事故中,乘客未系安全带的死亡率是系安全带者的3.2倍,而何某某案中后排乘客的死亡,正是这一风险的典型体现。
反论点与驳论:相对不起诉是否纵容“技术依赖”?
部分观点认为,对何某某的宽容处理可能传递“辅助驾驶事故可免责”的错误信号,加剧用户对技术的过度依赖。这种担忧不无道理,但需区分“个案宽容”与“制度纵容”的本质差异。从司法实践看,相对不起诉的适用需满足“犯罪情节轻微+社会危害较小+悔罪表现良好”等多重条件,并非“一免了之”。例如,何某某需承担民事赔偿责任(包括死亡赔偿金、医疗费等),且其驾驶记录将被纳入征信系统,影响未来保险费率等。从技术规制看,工信部已要求车企在辅助驾驶功能中强制加入“脱手检测”“疲劳预警”等机制,并明确“系统无法识别场景时,需在3秒内提示驾驶员接管”。这些措施旨在通过技术手段倒逼用户责任意识,而非依赖司法处罚的“事后追责”。数据显示,2025年一季度,配备“脱手检测”功能的车型,其辅助驾驶事故率较未配备车型下降41%,证明技术规制比司法处罚更具预防性。
前瞻性建议:构建“技术-法律-伦理”协同治理框架
破解辅助驾驶责任困局,需从三方面入手:其一,技术层面,强制车企公开系统局限性数据(如无法识别的场景类型、感知延迟时间等),并在用户首次使用时进行“风险告知测试”,确保其理解技术边界;其二,法律层面,修订《道路交通安全法》,明确“L2级辅助驾驶事故中,驾驶员承担主要责任(70%以上),车企承担次要责任(30%以下,仅限系统设计缺陷)”,并建立“技术缺陷举证倒置”机制(即车企需自证系统无缺陷,否则默认承担部分责任);其三,伦理层面,将“辅助驾驶责任教育”纳入驾考科目,要求驾驶员通过模拟场景测试(如拥堵路段接管、系统失效处理等)后方可获得辅助驾驶功能使用权限。德国的经验值得借鉴:其《自动驾驶伦理准则》规定,车企需为每辆自动驾驶汽车购买“系统责任险”,用于赔偿因技术缺陷导致的事故损失,同时要求驾驶员每年参加“辅助驾驶安全培训”,否则将吊销其使用权限。
从何某某的“后悔莫及”到检方的“相对不起诉”,这起事故不应止于个案的司法处理,而应成为推动辅助驾驶治理体系变革的契机。当技术狂奔时,法律需为其划定红线,伦理需为其注入温度——唯有如此,才能避免“科技向善”沦为“风险转嫁”的遮羞布,真正守护每一个生命的尊严与安全。