Van Rootselaar là nghi phạm gây ra vụ xả súng hàng loạt
Trong một cuộc họp căng thẳng tại Ottawa, Bộ trưởng Bộ Trí tuệ Nhân tạo (AI) Canada, Evan Solomon, đã bày tỏ sự thất vọng sâu sắc khi OpenAI chưa đưa ra được các biện pháp an toàn cụ thể ngay lập tức, mặc dù hệ thống của họ đã từng phát hiện và gắn cờ các kịch bản bạo lực mà nghi phạm 18 tuổi này đã diễn tập trên ChatGPT nhiều tháng trước khi thảm kịch xảy ra.
Thảm kịch Tumbler Ridge và sự im lặng "chết người" của công nghệ
Cuộc gặp gỡ hôm thứ Ba giữa các quan chức cấp cao của chính phủ Canada và lãnh đạo OpenAI diễn ra trong bầu không khí nặng nề, phủ bóng bởi sự kiện đau thương tại thị trấn hẻo lánh Tumbler Ridge, thuộc tỉnh British Columbia. Jesse Van Rootselaar, 18 tuổi, được cảnh sát xác định là nghi phạm duy nhất trong vụ tấn công kinh hoàng hồi đầu tháng này, cướp đi sinh mạng của sáu trẻ em và hai người lớn.
Nghi phạm cũng được cho là đã tự sát ngay sau khi gây án. Tuy nhiên, điều khiến dư luận và chính giới Canada phẫn nộ không chỉ nằm ở mức độ tàn khốc của vụ việc, mà là ở chi tiết rằng thảm kịch này có thể đã được ngăn chặn nếu những cảnh báo kỹ thuật số được xử lý một cách có trách nhiệm hơn.
Bộ trưởng Evan Solomon đã triệu tập khẩn cấp các giám đốc điều hành của OpenAI đến Ottawa sau khi công ty này tiết lộ một thông tin chấn động: tài khoản ChatGPT của Van Rootselaar thực tế đã bị hệ thống an toàn tự động gắn cờ từ tháng 6.2025. Các thuật toán quét lạm dụng của OpenAI đã phát hiện ra những nội dung vi phạm nghiêm trọng, bao gồm các kịch bản bạo lực tiềm tàng mà thiếu niên này đang tương tác với chatbot.
Vào thời điểm đó, công ty đã tiến hành xem xét tài khoản này và cân nhắc việc chuyển hồ sơ cho cơ quan thực thi pháp luật. Tuy nhiên, sau quá trình đánh giá nội bộ, họ kết luận rằng không có "mối đe dọa đáng tin cậy hoặc tức thời" nào. Kết quả là, OpenAI chỉ đơn thuần khóa tài khoản của Van Rootselaar mà không hề đưa ra bất kỳ cảnh báo nào cho cảnh sát địa phương hay gia đình.
Phát biểu sau cuộc họp, ông Solomon không giấu được sự bức xúc: "Chúng tôi đã bày tỏ sự thất vọng khi không có biện pháp an toàn mới đáng kể nào được trình bày vào thời điểm này". Ông nhấn mạnh rằng người dân Canada mong đợi các công ty AI phải nâng cấp quy trình xử lý, đảm bảo rằng các dấu hiệu cảnh báo đáng tin cậy về bạo lực tiềm tàng phải được chuyển đến cơ quan chức năng "một cách kịp thời và có trách nhiệm".
Mặc dù OpenAI đã xác nhận đang hợp tác đầy đủ với cuộc điều tra của cảnh sát và cam kết sẽ sớm quay trở lại với các đề xuất cụ thể hơn được thiết kế riêng cho bối cảnh tại Canada, nhưng phản ứng chậm trễ này vẫn bị coi là không tương xứng với mức độ nghiêm trọng của vấn đề. Đối với chính phủ Canada, việc chỉ dừng lại ở mức độ "hợp tác sau sự việc" là chưa đủ; điều họ cần là một cơ chế phòng ngừa chủ động để công nghệ không trở thành tòng phạm vô tình của cái ác.
Giới hạn của "đánh giá nội bộ" và yêu cầu minh bạch thuật toán
Vụ việc của Jesse Van Rootselaar đã phơi bày một lỗ hổng chí mạng trong quy trình kiểm duyệt nội dung của các công ty công nghệ lớn: sự phụ thuộc quá mức vào các đánh giá nội bộ khép kín. Theo báo cáo từ tờ Wall Street Journal, trước khi đưa ra quyết định khóa tài khoản mà không báo cáo, nội bộ OpenAI đã diễn ra một cuộc tranh luận gay gắt.
Van Rootselaar đã dành nhiều ngày để mô tả chi tiết các kịch bản liên quan đến bạo lực súng đạn trên ChatGPT, kích hoạt một cuộc thảo luận giữa khoảng hơn chục nhân viên của công ty. Đáng chú ý, một số nhân viên trong nhóm này đã thúc giục việc liên hệ với cảnh sát, nhận thấy mức độ nguy hiểm tiềm tàng trong những suy nghĩ đen tối của người dùng này. Tuy nhiên, tiếng nói của họ đã bị lấn át bởi quy trình đánh giá rủi ro hiện tại, dẫn đến quyết định im lặng tai hại.
Bộ trưởng Solomon khẳng định đanh thép: "Chỉ riêng việc đánh giá nội bộ là không đủ khi an toàn công cộng đang bị đe dọa". Tuyên bố này đánh dấu sự thay đổi quan trọng trong quan điểm quản lý của Canada đối với các nền tảng AI. Chính phủ không còn chấp nhận việc các công ty công nghệ tự coi mình là "thẩm phán" duy nhất trong việc xác định mức độ nguy hiểm của một mối đe dọa.
Cuộc thảo luận giữa chính phủ và OpenAI đã đi sâu vào các vấn đề kỹ thuật và quy trình cốt lõi: làm thế nào rủi ro được xác định, quy trình chuyển đổi từ phát hiện tự động sang đánh giá của con người diễn ra như thế nào, và quan trọng nhất là các trường hợp vi phạm được chuyển tuyến xử lý ra sao – đặc biệt là khi đối tượng liên quan là thanh thiếu niên, nhóm đối tượng dễ bị tổn thương và có tâm lý bất ổn.
Sự kiện này đang thúc đẩy Canada xem xét lại toàn bộ khung pháp lý đối với trí tuệ nhân tạo. Ông Solomon cho biết chính phủ đang rà soát các biện pháp rộng hơn nhằm đảm bảo các hệ thống AI hoạt động tại Canada phải tuân thủ "các tiêu chuẩn rõ ràng và có trách nhiệm giải trình". Điều này có nghĩa là trong tương lai, việc báo cáo các hành vi đe dọa bạo lực trên nền tảng AI có thể không còn là sự lựa chọn mang tính đạo đức của doanh nghiệp, mà sẽ trở thành một nghĩa vụ pháp lý bắt buộc.
Các công ty như OpenAI sẽ phải đối mặt với sự giám sát chặt chẽ hơn về cách họ cân bằng giữa quyền riêng tư của người dùng và trách nhiệm bảo vệ cộng đồng. Vụ xả súng tại Tumbler Ridge không chỉ là một thảm kịch quốc gia mà còn là hồi chuông cảnh tỉnh cho toàn bộ ngành công nghiệp AI: khi công nghệ ngày càng thông minh hơn, trách nhiệm của những người tạo ra nó cũng phải lớn hơn, bởi cái giá phải trả cho một sai lầm trong thuật toán đánh giá rủi ro có thể được đo bằng sinh mạng con người.
Bùi Tú