Dù có biển báo xe buýt dừng và đèn cảnh báo, chiếc Tesla với chế độ Full Self-Driving (FSD - tự lái hoàn toàn) không hề giảm tốc hay phanh khẩn cấp. Sự việc đang làm dấy lên tranh cãi lớn xoay quanh trách nhiệm của phần mềm, người lái và đặc biệt là cách Tesla truyền thông về công nghệ tự lái của mình.
Đoạn video do hai nhóm hoạt động là The Dawn Project và Tesla Takedown thực hiện tại Austin (Texas, Mỹ) vào ngày 13/6, mô phỏng một tình huống giao thông thực tế: một chiếc xe buýt trường học dừng lại, bật đèn cảnh báo và cần dừng, phía trước có một hình nộm trẻ em bất ngờ băng qua đường.
Nhóm nghiên cứu đã thử nghiệm tổng cộng 8 lần với chiếc Model Y chạy ở chế độ FSD Supervised và cả 8 lần đều không có phản ứng né tránh hay dừng lại. Chiếc xe cứ thế cán qua hình nộm mà không có bất kỳ tín hiệu cảnh báo nào từ hệ thống cũng như người lái.
Tình huống này khiến nhiều người hoang mang: Liệu phần mềm có đủ năng lực xử lý tình huống nguy hiểm hay không? Và liệu người lái có thực sự được “giám sát” như đúng tên gọi “FSD Supervised”?
Tesla khẳng định, FSD chỉ là hệ thống hỗ trợ lái nâng cao, đòi hỏi người dùng phải luôn đặt tay trên vô lăng và sẵn sàng can thiệp. Tuy nhiên, các nhóm phản đối cho rằng cái tên “Full Self-Driving” (tự lái hoàn toàn) dễ gây hiểu nhầm rằng chiếc xe có thể tự mình vận hành mà không cần đến con người.
Về mặt kỹ thuật, FSD của Tesla khác biệt hoàn toàn với các hãng phát triển xe tự lái như Waymo hay Cruise. Thay vì dùng radar và LiDAR để cảm biến môi trường xung quanh, Tesla chỉ sử dụng hệ thống camera (vision-only). Elon Musk từng gọi radar và LiDAR là “gậy chống” và khẳng định chỉ cần camera là đủ cho xe tự lái.
Tuy nhiên, sau vụ thử nghiệm này, nhiều chuyên gia đặt câu hỏi liệu việc từ chối các công nghệ cảm biến hỗ trợ có khiến hệ thống trở nên thiếu chính xác trong các tình huống thực tế, đặc biệt là những tình huống liên quan đến trẻ em, biển báo tạm thời hoặc vật thể nhỏ.
Tình huống trẻ em bất ngờ băng cắt qua đường để đón xe buýt khá hay gặp trong thực tế. Ảnh: The Dawn Project
Trách nhiệm không chỉ thuộc về phần mềm
Ông Dan O’Dowd – người sáng lập The Dawn Project – kêu gọi cấm ngay lập tức phần mềm FSD của Tesla vì cho rằng nó không an toàn, không nhận biết trẻ em và không dừng lại khi có xe buýt trường học là điều rất nguy hiểm.
"Việc Tesla không giải quyết được lỗi an toàn nghiêm trọng này cho thấy sự vô trách nhiệm và coi thường an toàn công cộng của Elon Musk", ông Dan O’Dowd nói.
Nhóm Tesla Takedown còn phản ứng gay gắt hơn khi đề nghị loại bỏ Tesla khỏi sự kiện triển lãm xe điện Electrify Expo do mối liên hệ giữa CEO Elon Musk và các phong trào chính trị cực hữu.
"Tesla không chỉ là một công ty ô tô, đó là động cơ chính trị của Elon Musk, người đang sử dụng tài sản của mình để tài trợ cho các phong trào chính trị cực hữu, bình thường hóa chủ nghĩa cực đoan và đưa công nghệ không được quản lý vào cộng đồng của chúng ta", email của Tesla Takedown gửi cho ban tổ chức Electrify Expo viết.
Dù video cho thấy phần mềm không nhận diện được hình nộm trẻ em và không có hành động tránh va chạm, vẫn có một yếu tố quan trọng: người điều khiển xe đã không can thiệp, trong khi đây là yêu cầu bắt buộc khi dùng FSD Supervised. Có thể người lái không tập trung, đang mải nói chuyện, hoặc cũng có thể đã quá tin vào chế độ tự lái.
Điều này làm nổi lên mâu thuẫn giữa kỳ vọng và thực tế: Khi xe được quảng bá là “tự lái”, người dùng có xu hướng tin tưởng quá mức và buông lỏng giám sát, ngay cả khi luật và hãng xe nhấn mạnh vai trò điều khiển của con người.
Câu hỏi đặt ra là: Nếu người dùng không được trang bị đầy đủ kiến thức hoặc hiểu sai về khả năng của hệ thống, ai sẽ là người chịu trách nhiệm khi tai nạn xảy ra? Tesla – với cách đặt tên gây nhầm lẫn? Người lái – vì không giữ tay trên vô lăng? Hay bản thân công nghệ vẫn còn chưa hoàn thiện?
Vụ thử nghiệm tại Austin là lời cảnh báo cho cả ngành công nghiệp xe tự lái. Dù phần mềm đã tiến bộ đáng kể, khoảng cách giữa công nghệ và nhận thức người dùng vẫn còn rất lớn. Khi tên gọi và kỳ vọng vượt quá khả năng thực tế, hậu quả có thể không chỉ dừng lại ở hình nộm.
(Theo Carscoops, The Dawn Project)
Bạn có góc nhìn như thế nào về nội dung trên? Hãy để lại ý kiến dưới phần bình luận hoặc chia sẻ bài viết về Báo VietNamNet theo email: otoxemay@vietnamnet.vn. Các nội dung phù hợp sẽ được đăng tải. Xin cảm ơn!