TikTok phổ biến vì tính đa dạng, sáng tạo và cá nhân hóa theo sở thích người dùng
Gợi ý tìm kiếm hướng trẻ em tới nội dung người lớn
Trong báo cáo công bố ngày 3.10, tổ chức Global Witness cho biết họ đã thiết lập bảy tài khoản TikTok mới tại Anh, sử dụng các thiết bị đã được khôi phục cài đặt gốc, không có lịch sử tìm kiếm và khai báo tuổi là 13, độ tuổi tối thiểu để mở tài khoản TikTok.
Mặc dù các tài khoản này đều bật chế độ hạn chế nội dung không phù hợp (Restricted Mode) nhưng nền tảng vẫn hiển thị các gợi ý tìm kiếm có tính khiêu dâm cao, chỉ sau vài thao tác đơn giản.
“Quan điểm của chúng tôi không chỉ là TikTok cho phép hiển thị nội dung khiêu dâm với trẻ vị thành niên, mà là thuật toán tìm kiếm chủ động hướng các em đến loại nội dung này,” báo cáo nêu rõ.
Báo cáo của Global Witness được công bố trong bối cảnh Đạo luật An toàn Trực tuyến (Online Safety Act) năm 2023 của Vương quốc Anh chính thức có hiệu lực từ cuối tháng 7.
Luật yêu cầu các nền tảng trực tuyến triển khai kiểm tra độ tuổi nghiêm ngặt, nhằm ngăn trẻ vị thành niên tiếp cận nội dung có hại như khiêu dâm, tự gây thương tích hay các hành vi nguy hiểm khác.
Luật sư truyền thông Mark Stephens, được trích dẫn trong báo cáo, cho rằng các phát hiện của Global Witness “là minh chứng rõ ràng về việc vi phạm luật”.
Phản hồi từ TikTok
Trả lời CNN, người phát ngôn TikTok cho biết nền tảng này cam kết đảm bảo an toàn cho người dùng, đồng thời đã tiến hành điều tra, gỡ bỏ nội dung vi phạm và cập nhật hệ thống gợi ý tìm kiếm.
Người phát ngôn TikTok cho biết trong một tuyên bố: "Ngay khi nhận được phản ánh về các khiếu nại này, chúng tôi đã ngay lập tức tiến hành điều tra, gỡ bỏ những nội dung vi phạm chính sách và cải tiến tính năng đề xuất tìm kiếm."
Đồng thời, đại diện TikTok cũng nhấn mạnh, nền tảng sở hữu hơn 50 tính năng và cài đặt được thiết kế riêng nhằm bảo vệ sự an toàn và sức khỏe tinh thần của thanh thiếu niên.
Tuyên bố cũng khẳng định TikTok cam kết mang đến trải nghiệm an toàn, phù hợp với từng nhóm tuổi, đồng thời cho biết đã xóa bỏ 9 trên 10 video vi phạm trước khi nội dung này được người dùng tiếp cận.
Nguyên tắc cộng đồng của TikTok nghiêm cấm các nội dung có ảnh khỏa thân, hoạt động tình dục, dịch vụ tình dục, cũng như mọi hình thức hành vi gợi dục và phơi bày cơ thể đáng kể liên quan đến trẻ em.
Trong báo cáo minh bạch từ tháng 1 đến tháng 3.2025, TikTok cho biết khoảng 30% nội dung bị xóa khỏi nền tảng do vi phạm chính sách liên quan đến các chủ đề nhạy cảm và dành cho người lớn.
Theo phát ngôn viên của TikTok, mỗi tháng, nền tảng này xóa khoảng 6 triệu tài khoản dưới tuổi vị thành niên trên toàn cầu bằng nhiều phương pháp phát hiện độ tuổi khác nhau, trong đó có công nghệ xác định khi nào tài khoản có thể do trẻ em dưới 13 tuổi sử dụng.
Đồng thời, TikTok cũng thường xuyên đào tạo đội ngũ kiểm duyệt nhằm nhận biết các dấu hiệu cho thấy trẻ em dưới 13 tuổi đang sử dụng nền tảng.
Không chỉ TikTok, nhiều nền tảng mạng xã hội lớn cũng đang phải đối mặt với sức ép ngày càng tăng về trách nhiệm bảo vệ trẻ em.
YouTube đã giới thiệu một hệ thống mới vào tháng 8, sử dụng trí tuệ nhân tạo để ước tính độ tuổi người dùng và tự động kích hoạt các biện pháp bảo vệ phù hợp theo từng nhóm tuổi khi cần thiết.
Trong khi đó, Instagram từ năm ngoái đã triển khai cài đặt dành riêng cho tài khoản thanh thiếu niên, tự động đặt các tài khoản này ở chế độ riêng tư nhằm tăng cường bảo vệ quyền riêng tư cho nhóm người dùng trẻ tuổi.
ĐỨC AN