ChatGPT vô tình 'lộ tội' người dùng? Câu chuyện rúng động từ vụ cháy ở California

ChatGPT vô tình 'lộ tội' người dùng? Câu chuyện rúng động từ vụ cháy ở California
3 giờ trướcBài gốc
Jonathan Lindknecht bị bắt và buộc tội phóng hỏa từ những tương tác với ChatGPT. Ảnh: Reuters.
Mười tháng sau, Lindknecht bị buộc tội phóng hỏa - chính quyền cho biết anh ta đã gây ra một đám cháy nhỏ và ngọn lửa bùng phát trở lại một tuần sau đó, cuối cùng trở thành vụ cháy lớn ở Palisades xảy ra suốt tháng 1/2025 ở Los Angeles thiêu hủy 9.300 ha rừng, 6.800 ngôi nhà và làm chết 12 người.
Theo cáo trạng liên bang, Lindknecht trước đó đã chia sẻ với chatbot AI cảm giác "tuyệt vời" mà anh ta đã trải qua vài tháng trước đó khi đốt một cuốn Kinh Thánh, và cũng yêu cầu một bức tranh "phản địa đàng" (utopia) mô tả một nhóm người nghèo chạy trốn khỏi đám cháy rừng trong khi một nhóm người giàu chế giễu họ từ phía sau cánh cửa. Bị cáo đã không nhận tội.
Công tố viên liên bang cho rằng những tương tác này với AI đã xác nhận tâm lý, động cơ và ý định phóng hỏa của Lindknecht. Kết hợp với dữ liệu GPS xác định vị trí của ông ta tại địa điểm xảy ra hỏa hoạn ban đầu, đã đủ để bắt giữ và đưa ra nhiều cáo buộc, bao gồm cả tội phóng hỏa và phá hoại tài sản. Diễn biến đáng lo ngại này là một hồi chuông cảnh báo cho hệ thống tư pháp.
Khi ngày càng nhiều người coi chatbot AI như người bạn tâm giao, nhà trị liệu và cố vấn, cần sớm xây dựng cơ chế pháp lý mới để bảo vệ quyền riêng tư trong tương tác giữa người và máy tính. Đây được gọi là "quyền tương tác AI" (AI Interaction Privilege).
Những bức tranh về đám cháy do Jonathan Lindknecht yêu cầu ChatGPT vẽ lưu trong máy tính, Ảnh: Guardian.
Tất cả các đặc quyền pháp lý đều dựa trên cùng một ý tưởng: các mối quan hệ cụ thể luật sư và khách hàng, bác sĩ và bệnh nhân, linh mục và tín đồ - đều dựa trên cùng một nguyên tắc sự tin cậy và thẳng thắn trong giao tiếp để thúc đẩy sự phát triển của toàn xã hội. Nếu không có quyền riêng tư, mọi người sẽ tự kiểm duyệt, và xã hội sẽ mất đi những lợi ích của sự trung thực.
Greg Mitchell, giáo sư luật tại Đại học Virginia, nói tòa án từ trước đến nay vẫn hiếm khi công nhận các đặc quyền mới trừ khi "tính bảo mật trở thành một điều kiện tiên quyết để duy trì mối quan hệ đó". Ngày nay, nhiều tương tác của người dùng với AI đã đạt đến ngưỡng đó.
AI – người lắng nghe mới của thời đại số
Con người ngày càng tương tác với các hệ thống AI một cách tự nhiên, không còn xem chúng như nhật ký nữa mà là đối tác trò chuyện thực sự. Điều này là do các cuộc trò chuyện mà những hệ thống này tham gia không thể phân biệt được với giao tiếp của con người. Máy móc dường như lắng nghe, lý luận và phản hồi - trong một số trường hợp, nó không chỉ phản ánh suy nghĩ và cảm xúc của người dùng mà còn định hình chúng.
Hệ thống AI có thể định hướng biểu đạt của con người như những luật sư hay nhà trị liệu xuất sắc. Nhiều người tìm đến AI vì họ thiếu một người bạn tâm giao an toàn và giá cả phải chăng, đối tác mà họ có thể tâm sự những suy nghĩ cấm kỵ hoặc dễ bị tổn thương.
Điều này không phải là ngẫu nhiên. Vừa tháng trước, Giám đốc điều hành OpenAI, Sam Altman, đã tuyên bố rằng thế hệ tiếp theo của nền tảng ChatGPT sẽ "nới lỏng" một số hạn chế của người dùng, cho phép người dùng điều khiển ChatGPT của họ "phản hồi theo cách rất con người".
Vụ cháy Palisades xảy ra suốt tháng 1/2025 ở Los Angeles, Ảnh: Reuters.
Nhưng nếu cho phép chính phủ truy cập vào những đoạn trò chuyện chưa qua sàng lọc này và sử dụng chúng làm lời khai pháp lý sẽ gây ra hậu quả vô cùng to lớn. Nếu một ngày nào đó, mọi suy nghĩ riêng tư đều có thể trở thành chứng cứ tại tòa án, người dùng AI chắc chắn sẽ tự kiểm duyệt, làm suy yếu một số chức năng giá trị nhất của hệ thống. Điều này sẽ phá hủy những mối quan hệ thẳng thắn mà AI dựa vào để giải quyết các vấn đề sức khỏe tâm thần, pháp lý và tài chính, biến những gì có thể là một công cụ mạnh mẽ để tự khám phá và thể hiện bản thân thành một rủi ro pháp lý tiềm ẩn.
“Nguyên tắc bên thứ ba” và lỗ hổng của luật hiện hành
Hiện nay, hầu hết các tương tác kỹ thuật số đều tuân theo "nguyên tắc bên thứ ba", quy định rằng bất kỳ thông tin nào được tự nguyện tiết lộ cho bên thứ ba - hoặc dữ liệu được lưu trữ trên máy chủ của công ty - "đều không được coi là riêng tư". Điều này cho phép chính phủ thu thập một lượng lớn hồ sơ hoạt động trực tuyến (chẳng hạn như lịch sử tìm kiếm trên Google) mà không cần lệnh.
Nhưng liệu các cuộc trò chuyện AI có cấu thành "tự nguyện tiết lộ" theo nghĩa này không? Nếu người dùng coi AI là cố vấn cá nhân hơn là công cụ tìm kiếm, các tiêu chuẩn pháp lý nên được phát triển để phản ánh kỳ vọng về tính bảo mật này. Lượng dữ liệu riêng tư do các công ty AI nắm giữ vượt xa phạm vi quyền riêng tư mà bất kỳ nhà trị liệu hay luật sư nào có thể tiếp cận, nhưng chúng vẫn chưa được pháp luật bảo vệ rõ ràng.
Hậu quả khủng khiếp của vụ cháy. Ảnh: Getty.
"Quyền tương tác AI" nên dựa trên các đặc quyền pháp lý hiện hành ở ba khía cạnh.
Thứ nhất, việc giao tiếp với AI để tìm kiếm tư vấn hoặc hỗ trợ tinh thần nên được bảo vệ khỏi bị ép tiết lộ tại tòa án. Người dùng có thể đánh dấu cuộc trò chuyện “bảo mật” thông qua cài đặt ứng dụng hoặc yêu cầu đặc quyền khi dữ liệu bị thu thập.
Thứ hai, đặc quyền này phải bao gồm "nghĩa vụ cảnh báo", nghĩa là các dịch vụ AI có quyền báo cáo khi chúng xác định một người gây ra mối đe dọa sắp xảy ra cho chính họ hoặc người khác hoặc hành vi phạm pháp đã gây ra.
Thứ ba, phải có ngoại lệ đối với tội phạm và gian lận. Nếu AI được sử dụng để lên kế hoạch hoặc thực hiện tội phạm, các bản ghi cuộc trò chuyện có liên quan có thể được thu thập làm bằng chứng dưới sự giám sát tư pháp.
Theo logic này, trường hợp của Lindknecht đồng thời cho thấy sự cần thiết và cả những hạn chế của đặc quyền mới. Câu hỏi của ông về việc một điếu thuốc gây ra hỏa hoạn về cơ bản tương đương với một cuộc tìm kiếm trên internet và không đủ để được bảo vệ; tuy nhiên, theo "đặc quyền tương tác AI", lời thú nhận của ông về việc đốt Kinh thánh lại là biểu đạt cảm xúc nên được bảo vệ theo “đặc quyền AI”—đó không phải là một kế hoạch phạm tội hay một mối đe dọa sắp xảy ra.
Việc thiết lập một đặc quyền mới phù hợp với mô hình pháp luật đang phát triển, thích ứng với các mối quan hệ tin cậy mới. Quyền bảo mật giữa nhà trị liệu tâm lý và bệnh nhân chỉ được chính thức công nhận vào năm 1996, khi Tòa án Tối cao Mỹ phán quyết rằng bảo mật có giá trị đáng kể trong liệu pháp tâm lý. Logic tương tự cũng đúng với AI ngày nay: lợi ích xã hội của sự tương tác thẳng thắn vượt xa cái giá phải trả khi đôi khi mất đi một số bằng chứng.
Nếu những cuộc đối thoại giữa người và máy tính không có cơ chế bảo vệ, người dân sẽ luôn sống trong nỗi sợ hãi rằng mọi tâm sự kỹ thuật số một ngày nào đó có thể trở thành bằng chứng trước tòa. Cho dù đó là giao tiếp riêng tư với luật sư, nhà trị liệu hay chatbot AI—nó phải được tự do khỏi nỗi sợ bị nhà nước giám sát.
Theo NYTimes
Thu Thủy
Nguồn VietTimes : https://viettimes.vn/chatgpt-vo-tinh-lo-toi-nguoi-dung-cau-chuyen-rung-dong-tu-vu-chay-o-california-post191543.html