Tối ngày 20/10, Taki Allen, 16 tuổi, đã trải qua một phen hoảng sợ khi bị cảnh sát vũ trang bao vây và còng tay bên ngoài trường trung học Kenwood ở Baltimore, Maryland. Nguyên nhân xuất phát từ hệ thống an ninh AI, vốn được thiết kế để phát hiện súng, đã nhận diện nhầm túi bim bim cậu đang cầm là một vũ khí nguy hiểm.
Sự việc này không chỉ gây ra sự phiền toái mà còn dấy lên những câu hỏi cấp thiết về độ tin cậy và những hệ lụy không lường trước của việc áp dụng trí tuệ nhân tạo vào lĩnh vực an ninh, đặc biệt là trong môi trường học đường.
Trường trung học Kenwood ở bang Maryland, nơi xảy ra sự cố. Ảnh: Google Maps
Công nghệ AI phát hiện súng hoạt động ra sao?
Các hệ thống như của Omnilert, công ty cung cấp giải pháp cho trường Kenwood, hoạt động dựa trên công nghệ thị giác máy tính (computer vision) và học sâu (deep learning). Về cơ bản, hệ thống được "huấn luyện" bằng hàng triệu hình ảnh và video chứa các loại vũ khí ở nhiều góc độ, điều kiện ánh sáng và bối cảnh khác nhau.
Khi camera an ninh ghi lại hình ảnh, AI sẽ liên tục phân tích từng khung hình để tìm kiếm các vật thể có hình dạng, đường nét hoặc đặc điểm tương đồng với dữ liệu về súng đã được học. Nếu phát hiện một vật thể nghi ngờ vượt qua một ngưỡng tin cậy nhất định, hệ thống sẽ tự động gửi cảnh báo tức thời đến ban giám hiệu nhà trường và cơ quan chức năng địa phương, kèm theo hình ảnh hoặc video clip của đối tượng.
Ưu điểm và tiềm năng của công nghệ
Việc triển khai AI trong an ninh học đường mang lại một số lợi ích lý thuyết đáng kể. Trước hết, nó cung cấp khả năng giám sát 24/7 mà không cần sự can thiệp liên tục của con người, giúp giảm thiểu sai sót do mệt mỏi hay mất tập trung. Hệ thống có thể phản ứng trong vài giây, nhanh hơn đáng kể so với thời gian con người nhận biết và báo cáo một mối đe dọa.
Hơn nữa, công nghệ này được kỳ vọng sẽ hoạt động như một công cụ phòng ngừa chủ động, có khả năng phát hiện mối nguy hiểm trước khi nó leo thang thành bạo lực, thay vì chỉ phản ứng sau khi sự việc đã xảy ra.
Những sai sót nghiêm trọng và hệ lụy thực tế
Mặc dù có tiềm năng, sự cố tại trường Kenwood đã phơi bày một trong những điểm yếu lớn nhất của công nghệ này: tỷ lệ sai sót. Các sai sót này được chia thành hai loại chính, đều mang lại những hậu quả tiêu cực.
Dương tính giả: Báo động nhầm và nỗi sợ hãi
Trường hợp của Taki Allen là một ví dụ điển hình về "dương tính giả" (false positive), khi hệ thống nhận diện sai một vật thể vô hại thành mối đe dọa. "Em cầm một túi bim bim bằng hai bàn tay và một ngón thò ra ngoài. Họ nói nó trông giống một khẩu súng", Allen kể lại. Những báo động nhầm như vậy không chỉ gây ra sự hoảng loạn không cần thiết, làm gián đoạn môi trường học tập mà còn có thể dẫn đến những tổn thương tâm lý cho những người vô tội bị tình nghi.
Âm tính giả: Bỏ lọt mối nguy hiểm chết người
Nguy hiểm hơn cả dương tính giả là "âm tính giả" (false negative), tức là hệ thống không thể phát hiện ra một khẩu súng thật. Chính công ty Omnilert đã từng bị chỉ trích vào tháng 1 khi giải pháp của họ không thể nhận diện khẩu súng trong một vụ xả súng tại trường trung học Antioch ở Nashville, khiến một học sinh thiệt mạng. Đại diện hệ thống trường học công lập Metro Nashville giải thích rằng vấn đề nằm ở "vị trí của kẻ xả súng với camera không đủ gần để hệ thống đọc chính xác". Điều này cho thấy công nghệ vẫn còn phụ thuộc nhiều vào các yếu tố ngoại cảnh như góc quay, ánh sáng và khoảng cách.
Tương lai của AI trong an ninh: Cần sự cân bằng
Sự việc tại Baltimore cho thấy, dù AI ngày càng tiến bộ, nó vẫn chưa thể thay thế hoàn toàn khả năng phán đoán và nhận định bối cảnh của con người. Việc phụ thuộc tuyệt đối vào một hệ thống tự động có thể dẫn đến những quyết định sai lầm với hậu quả nghiêm trọng.
Trong tương lai, các giải pháp an ninh hiệu quả có lẽ sẽ là sự kết hợp giữa sức mạnh phân tích của AI và sự giám sát, xác minh của con người. AI có thể đóng vai trò là lớp cảnh báo đầu tiên, nhưng mọi cảnh báo cần được một chuyên gia con người kiểm tra lại trước khi triển khai các biện pháp ứng phó vũ trang. Điều này giúp tận dụng tốc độ của máy móc đồng thời giảm thiểu những sai sót có thể gây hại cho con người.
CTVX