[思考]288 万辆车被查:是技术失控还是监管慌了? 2025 年 10 月,美国 NHTSA 的一纸调查令炸翻车圈 ——288 万辆特斯拉因 FSD 系统陷入调查,理由是 58 起违章事故、23 人受伤,闯红灯、逆行成高频问题。 但深挖数据会发现诡异之处:18 起闯红灯投诉中,4 起发生在马里兰州同一路口,特斯拉已针对性整改;所谓 “大规模事故”,实则平均每 5 万辆车仅 1 起投诉,远低于美国年均每千辆车 6.5 起的人类驾驶事故率。更耐人寻味的是,NHTSA 调查周期长达 18 个月,而特斯拉 FSD 迭代速度已到 “每月一版”,等结论出炉时,V16 可能都已落地。 这更像一场 “技术跑太快,监管追不上” 的尴尬:当 FSD 用端到端模型实现 “车位到车位” 自主驾驶时,监管仍在用 20 年前的 “机械故障标准” 评判 AI 系统。 [震惊]越用越 “智 障”?用户才是隐形责任人 AMCI 测试揭露的细节戳破关键真相:FSD 前 5 分钟表现堪比老司机,却会在长时间运行后出问题。这并非技术缺陷,而是人机交互的致命陷阱 —— 系统初期的完美表现,让用户不自觉脱手脱眼,把 L2 级辅助驾驶当成了 L4 级自动驾驶。 中国博主陈震的经历更具代表性:他测试 FSD 时连收 7 张罚单,却在视频里反复强调 “车主是第一责任人”。但特斯拉官网从未隐瞒 “需驾驶员全程监控” 的提示,反而是 “完全自动驾驶” 的中文译名,让消费者产生认知偏差。数据显示,49% 的美国用户认为 “Autopilot” 名称存在误导,但仍有 62% 的人会在使用中放松警惕。 当我们骂 FSD “智 障” 时,或许该先问自己:明明知道是 “辅助”,为何偏要当 “甩手掌柜”? [what]调查年年有,为何偏盯特斯拉? 翻看 NHTSA 档案会发现,这已是特斯拉 2024 年以来第 4 起大规模调查,每次都瞄准 “全部历史车型”。但诡异的是,同期福特 BlueCruise 因 “高速幽灵刹车” 收到 203 起投诉,却仅被小范围调查;小鹏 XNGP 在中国的红绿灯误判率超 40%,也未引发跨国监管关注。 双重标准的背后,是特斯拉的 “技术特殊性”:它坚持的纯视觉方案、端到端模型,打破了传统车企 “模块化 + 激光雷达” 的行业共识。当其他厂商还在依赖高精地图时,特斯拉已用百万车队实时回传数据训练模型,这种 “野蛮生长” 让监管机构既警惕又无奈 —— 封禁它,等于阻断最前沿的技术探索;放任它,又怕承担安全责任。 更本质的矛盾在于:AI 的进化靠 “试错 - 迭代”,而监管的逻辑是 “零风险 - 禁止”。特斯拉不过是这场矛盾的第一个牺牲品。 [翻白眼]23 人受伤换不来的真相:自动驾驶比人靠谱 骂声中没人愿意提及一个冰冷数据:美国公路安全保险协会统计,人类驾驶每 1 亿英里致死率 1.5 人,而 FSD 在 1.2 亿英里测试中仅发生 1 起致命事故。即便是此次调查涉及的 23 名伤者,也远低于同规模人类驾驶的事故伤亡数。 FSD 的 “犯错” 反而透着进步:它会在特定路口重复出错,说明模型正在聚焦长尾场景优化;特斯拉能通过 OTA 快速整改,证明 AI 比人类司机更易 “纠正习惯”。反观人类驾驶,每年因 “分心、疲劳、酒驾” 导致的事故占比超 70%,却从没人呼吁 “禁止人类开车”。 我们对机器的容错率,从来都比对同类低得多。就像当年汽车刚取代马车时,人们骂它 “噪音大、易翻车”,却忘了马车每年撞死的人是汽车的 3 倍。 [得意]真正该查的不是特斯拉,是这三件事 监管规则的 “代差”:当 FSD 已实现 OTA 实时迭代,NHTSA 仍沿用 “18 个月调查周期”,这种滞后性才是最大安全隐患。欧盟已试点 “AI 驾驶动态监管清单”,对技术迭代同步更新标准,值得借鉴。 车企的 “宣传边界”:特斯拉需为 “完全自动驾驶” 的译名负责,但更该反思的是行业乱象 —— 理想称 “AD Max 能处理 99% 场景”,华为宣传 “城区无接管”,这些夸大宣传同样在误导用户。 用户的 “认知补课”:调查显示,72% 的 FSD 用户不清楚 L2 与 L4 的区别。与其骂技术不行,不如推动 “智驾驾照” 制度,让用户先通过考核再用功能。 [撇嘴]别让焦虑杀死未来的出行 288 万辆特斯拉被查的背后,是新技术与旧规则的剧烈碰撞。我们可以批评特斯拉的宣传瑕疵,可以要求监管加速进化,但不该用 23 人的受伤案例,否定百万车主验证的技术进步。 当年火车刚出现时,英国议会因 “害怕颠覆马车业” 限制其速度不得超过马车;如今自动驾驶的发展,正面临同样的困境。或许再过十年回头看,这次调查会像 “限制火车速度” 一样可笑 —— 毕竟人类前进的每一步,都是在试错中找到正确的方向。
[思考]288万辆车被查:是技术失控还是监管慌了? 2025年10月,美
泽元谈汽车啊
2025-10-12 10:51:27
0
阅读:39