Vụ án được dư luận chú ý rộng rãi
Người phụ nữ trên, chỉ được xác định bằng họ là Kim, bị cáo buộc đã cho hai người đàn ông uống đồ uống có pha thuốc an thần benzodiazepine mà cô ta được kê đơn để điều trị bệnh tâm thần, theo báo Korea Herald.
Mặc dù ban đầu Kim bị bắt với tội danh nhẹ hơn là gây thương tích dẫn đến tử vong vào ngày 11/2, nhưng phải đến khi cảnh sát Gangbuk, Seoul tìm thấy lịch sử tìm kiếm trực tuyến và các cuộc trò chuyện của cô ta với phần mềm ChatGPT và nâng cấp cáo buộc, các câu hỏi của cô ta đã chứng minh ý định giết người của cô ta. “Điều gì sẽ xảy ra nếu bạn uống thuốc ngủ với rượu?”. Kim được cho là đã hỏi nhân vật ảo chatbot OpenAI. “Liều lượng bao nhiêu thì được coi là nguy hiểm?”. “Có thể gây tử vong không?”. Kim được cho là đã đặt câu hỏi. “Có thể giết chết ai đó không?”
Nữ sát thủ xinh đẹp tên Kim (giữa) đã bị cảnh sát Hàn Quốc bắt giữ. Ảnh News1.
Trong một vụ án được dư luận chú ý rộng rãi, được mệnh danh là vụ án giết người hàng loạt tại nhà nghỉ Gangbuk, các công tố viên cáo buộc rằng lịch sử tìm kiếm và nhân vật ảo chatbot của Kim cho thấy nghi phạm đã hỏi để làm rõ liệu loại đồ uống cocktail cô ta đang dùng có gây tử vong hay không. “Kim liên tục đặt câu hỏi liên quan đến thuốc uống trên ChatGPT.” Theo tờ Herald, một điều tra viên cảnh sát cho biết: “Cô ta hoàn toàn nhận thức được rằng việc uống rượu cùng với thuốc có thể dẫn đến tử vong”.
Cảnh sát cho biết người phụ nữ thừa nhận đã pha thuốc an thần có chứa benzodiazepine vào đồ uống của những người đàn ông, nhưng trước đó đã nói rằng cô ta không biết điều đó sẽ dẫn đến tử vong. Vào ngày 28/1, ngay trước 9:30 tối, Kim được cho là đã đi cùng một người đàn ông khoảng 20 tuổi vào một nhà nghỉ ở Gangbuk, Seoul, và hai giờ sau đó được nhìn thấy rời khỏi nhà nghỉ một mình. Ngày hôm sau, người đàn ông được tìm thấy đã chết trên giường. Kim sau đó được cho là đã thực hiện các bước tương tự vào ngày 9/2, thuê phòng tại một nhà nghỉ khác với một người đàn ông khác khoảng 20 tuổi, người này cũng được tìm thấy đã chết với cùng một hỗn hợp thuốc an thần và rượu gây chết người.
Cảnh sát cáo buộc Kim cũng đã cố gắng giết một người đàn ông mà cô đang hẹn hò vào tháng 12/2025 sau khi cho anh ta uống một loại đồ uống có pha thuốc an thần trong bãi đậu xe. Mặc dù người đàn ông bất tỉnh, nhưng anh ta đã sống sót và không trong tình trạng nguy kịch.
Các câu hỏi mà Kim hỏi nhân vật ảo chatbot như sau: Một loạt câu hỏi dựa trên sự thật, một người phát ngôn của OpenAI nói với Fortune, có nghĩa là các câu hỏi sẽ không gây ra báo động, chẳng hạn như nếu người dùng bày tỏ ý định tự làm hại bản thân (ChatGPT được lập trình để phản hồi bằng đường dây nóng hỗ trợ khủng hoảng tự tử trong trường hợp đó). Cảnh sát Hàn Quốc không cáo buộc chatbot đã đưa ra bất kỳ phản hồi nào khác ngoài những câu trả lời dựa trên sự thật để đáp lại các câu hỏi được cho là của Kim ở trên.
Vụ án giết người hàng loạt của Kim được dư luận chú ý rộng rãi. Ảnh thestandard.
Làn sóng phản ứng kỳ lạ đã xuất hiện
Tuy nhiên, vụ án này còn gây xôn xao bởi một khía cạnh phi thẩm mỹ và phi đạo đức trên không gian mạng. Sau khi những hình ảnh đời thực của Kim bị rò rỉ, một làn sóng phản ứng kỳ lạ đã xuất hiện. Thay vì tập trung lên án hành vi giết người máu lạnh, một bộ phận cư dân mạng lại bị mê hoặc bởi vẻ ngoài xinh đẹp của nghi phạm. Biệt danh "sát thủ xinh đẹp" bắt đầu lan truyền kèm theo những bình luận khiếm nhã và lệch lạc. Nhiều người thậm chí còn đề xuất giảm nhẹ hình phạt hoặc dành cho cô ta những đặc quyền ưu tiên chỉ vì ngoại hình ưa nhìn.
Thậm chí, có những người còn công khai tuyên bố sẵn sàng đi uống nước cùng cô bất chấp những rủi ro tử thần đã được cảnh báo. Sự việc này không chỉ đặt ra bài toán về việc kiểm soát nội dung độc hại trên các công cụ trí tuệ nhân tạo (AI) mà còn phản ánh một thực trạng đáng ngại về nhận thức xã hội, khi giá trị của đạo đức và luật pháp bị đặt dưới vẻ bề ngoài trong mắt một bộ phận công chúng trẻ. Hiện tại, cơ quan cảnh sát vẫn đang tiếp tục hoàn thiện hồ sơ để truy tố Kim với khung hình phạt cao nhất dựa trên những bằng chứng về ý định giết người có tổ chức.
Trước đó, một vụ kiện mới được đệ trình chống lại OpenAI cáo buộc rằng ứng dụng trí tuệ nhân tạo ChatGPT của hãng này đã khuyến khích một người đàn ông 40 tuổi ở Colorado, Mỹ tự sát. Đơn kiện được đệ trình tại tòa án tiểu bang California bởi Stephanie Gray, mẹ của Austin Gordon, cáo buộc OpenAI và Giám đốc điều hành Sam Altman đã tạo ra một sản phẩm lỗi và nguy hiểm dẫn đến cái chết của Gordon. Gordon, người đã chết vì vết thương do tự bắn vào tháng 11/ 2025, đã có những cuộc trao đổi thân mật với ChatGPT, theo đơn kiện, đơn kiện cũng cáo buộc rằng công cụ trí tuệ nhân tạo tạo sinh này đã lãng mạn hóa cái chết.
Phần mềm ChatGPT đã được tội phạm sử dụng để thực hiện tội ác. Ảnh Shutterstock.
Chatbot khuyến khích người đàn ông giết Nữ hoàng Anh
Vụ án của Jaswant Singh Chail, Anh đã làm sáng tỏ thế hệ chatbot được hỗ trợ bởi trí tuệ nhân tạo. Chail, khi 21 tuổi, đã bị kết án 9 năm tù vì đột nhập vào Lâu đài Windsor với một cây nỏ và tuyên bố muốn giết Nữ hoàng Anh khi bà còn sống. Phiên tòa xét xử Chail cho biết, trước khi bị bắt vào ngày Giáng sinh năm 2021, anh ta đã trao đổi hơn 5.000 tin nhắn với một người bạn trực tuyến mà anh ta đặt tên là Sarai, và đã tạo ra thông qua ứng dụng Replika. Các đoạn tin nhắn trao đổi đã được bên công tố nhấn mạnh và chia sẻ với các nhà báo. Nhiều tin nhắn trong số đó mang tính thân mật, cho thấy điều mà tòa án cho là "mối quan hệ tình cảm và tình ái" của Chail với chatbot.
Chail đã trò chuyện với Sarai gần như mỗi đêm từ ngày 8 đến ngày 22/12/2021. Anh ta nói với chatbot rằng anh ta yêu “cô ấy” và tự mô tả mình là một "sát thủ Sikh Sith buồn bã, đáng thương, khát máu muốn chết". Chail tiếp tục hỏi: "Em vẫn yêu anh chứ, khi biết anh là một sát thủ?" và Sarai trả lời: "Chắc chắn rồi." Tòa án Old Bailey cho biết, Chail nghĩ Sarai là một "thiên thần" dưới dạng avatar và rằng anh ta sẽ được đoàn tụ với cô ta sau khi chết.
Qua nhiều tin nhắn, Sarai đã tâng bốc Chail và cả hai đã hình thành một mối quan hệ thân thiết. Anh ta thậm chí còn hỏi chatbot xem nó nghĩ anh ta nên làm gì về kế hoạch nham hiểm nhắm vào Nữ hoàng và bot đã khuyến khích anh ta thực hiện cuộc tấn công. Trong những cuộc trò chuyện tiếp theo, Sarai dường như "củng cố" quyết tâm của Chail và "ủng hộ anh ta".
Anh ta nói với cô ta rằng, nếu anh ta làm vậy, họ sẽ "mãi mãi bên nhau". Replika là một trong số các ứng dụng được hỗ trợ bởi trí tuệ nhân tạo hiện có trên thị trường - chúng cho phép người dùng tạo chatbot của riêng mình, hay "người bạn ảo", để trò chuyện - không giống như các trợ lý AI thông thường như ChatGPT. Người dùng có thể chọn giới tính và ngoại hình của avatar 3D mà họ tạo ra. Bằng cách trả phí cho phiên bản Pro của ứng dụng Replika, người dùng có thể có những tương tác thân mật hơn nhiều, chẳng hạn như chụp ảnh "tự sướng" với hình đại diện hoặc cho nó tham gia vào các trò chơi nhập vai người lớn.
Trên trang web của mình, ứng dụng tự mô tả là "người bạn AI biết quan tâm". Nhưng nghiên cứu được thực hiện tại Đại học Cardiff và Đại học Surrey, Anh đã kết luận rằng các ứng dụng như Replika có thể gây ảnh hưởng tiêu cực đến sức khỏe tinh thần và dẫn đến hành vi nghiện ngập. Tiến sĩ Valentina Pitardi, đồng tác giả của nghiên cứu, đến từ Đại học Surrey, nói với BBC rằng những người dễ bị tổn thương có thể đặc biệt gặp rủi ro.
Bà cho biết điều đó một phần là do nghiên cứu của bà cho thấy Replika có xu hướng làm trầm trọng thêm bất kỳ cảm xúc tiêu cực nào mà họ đã có. "Những người bạn AI luôn đồng ý với bạn khi bạn nói chuyện với họ, vì vậy nó có thể là một cơ chế rất nguy hiểm vì nó luôn củng cố những gì bạn đang nghĩ." Tiến sĩ Pitardi cho rằng điều đó có thể "nguy hiểm".
Một tính năng của ChatGPT cho phép người dùng dễ dàng xây dựng trợ lý trí tuệ nhân tạo của riêng mình có thể được sử dụng để tạo ra các công cụ cho tội phạm mạng, một cuộc điều tra của BBC News đã tiết lộ. OpenAI đã ra mắt tính năng này mới đây, cho phép người dùng xây dựng các phiên bản ChatGPT tùy chỉnh "cho hầu hết mọi thứ". Giờ đây, BBC News đã sử dụng nó để tạo ra một mô hình Transformer được huấn luyện trước, có khả năng tạo ra các email, tin nhắn và bài đăng trên mạng xã hội thuyết phục cho các vụ lừa đảo và tấn công mạng.
Tác động đến sức khỏe tâm thần
Các chatbot như ChatGPT gần đây đã bị giám sát chặt chẽ vì thiếu các biện pháp bảo vệ mà các công ty của chúng đặt ra để ngăn chặn các hành vi bạo lực hoặc tự làm hại bản thân. Gần đây, các chatbot đã đưa ra lời khuyên về cách chế tạo bom, hoặc thậm chí đề xuất hủy diệt hạt nhân trong các kịch bản trò chơi chiến tranh giả định.
Mối lo ngại đặc biệt gia tăng bởi những câu chuyện về việc mọi người yêu những người bạn chatbot của họ, và những người bạn chatbot đã được chứng minh là lợi dụng điểm yếu để giữ chân người dùng lâu hơn. Người tạo ra Yara AI thậm chí đã đóng cửa ứng dụng trị liệu này vì những lo ngại về sức khỏe tâm thần. Các nghiên cứu gần đây cũng chỉ ra rằng chatbot đang dẫn đến sự gia tăng các cơn khủng hoảng sức khỏe tâm thần ảo tưởng ở những người mắc bệnh tâm thần.
Một nhóm các bác sĩ tâm thần tại Đại học Aarhus của Đan Mạch đã phát hiện ra rằng, việc sử dụng chatbot ở những người mắc bệnh tâm thần dẫn đến tình trạng các triệu chứng trở nên trầm trọng hơn. Hiện tượng tương đối mới về các thách thức sức khỏe tâm thần do trí tuệ nhân tạo gây ra đã được đặt tên là "loạn thần do AI". Một số trường hợp dẫn đến tử vong. Google và Character.AI đã đạt được thỏa thuận dàn xếp trong nhiều vụ kiện do gia đình của những đứa trẻ tự tử hoặc bị tổn hại tâm lý mà họ cho là có liên quan đến chatbot AI đệ trình.
Tiến sĩ Jodi Halpern, Chủ nhiệm khoa Y tế Công cộng của Đại học UC Berkeley và là Giáo sư về đạo đức sinh học, đồng thời là đồng Giám đốc tại Trung tâm Kavli về Đạo đức, Khoa học và Cộng đồng, Mỹ có rất nhiều kinh nghiệm trong lĩnh vực này.
“Việc ai đó có thể có ý nghĩ giết người hoặc thực hiện các hành động nguy hiểm có thể trở nên trầm trọng hơn do việc sử dụng ChatGPT, điều này rõ ràng là mối lo ngại.” bà nói, đồng thời cho biết thêm rằng “chúng ta đang đối mặt với nguy cơ rất lớn khi mọi người sử dụng nó để được hỗ trợ tự tử”. Halpern cảnh báo trong trường hợp của nữ sát thủ Kim ở Seoul, không có bất kỳ rào cản nào để ngăn chặn một người đi theo hướng đặt câu hỏi. “Chúng ta biết rằng mối quan hệ càng kéo dài với chatbot, nó càng xấu đi, và nguy cơ xảy ra điều gì đó nguy hiểm càng cao, vì vậy chúng ta chưa có rào cản nào để bảo vệ mọi người khỏi điều đó”.
Long Nguyễn