Hàng trăm người biểu tình yêu cầu Anthropic, OpenAI và xAI dừng cuộc đua AI

Hàng trăm người biểu tình yêu cầu Anthropic, OpenAI và xAI dừng cuộc đua AI
4 giờ trướcBài gốc
Nguồn ảnh: MichaelTrazzi/X
Cuối tuần qua, thành phố được xem là trung tâm toàn cầu của công nghệ và đổi mới, San Francisco (Mỹ), đã chứng kiến làn sóng biểu tình từ các nhóm vận động vì an toàn AI.
Những người tham gia biểu tình đã giương cao biểu ngữ “Dừng cuộc đua AI”, tuần hành qua trụ sở của ba doanh nghiệp lớn trong lĩnh vực gồm Anthropic, OpenAI và xAI.
Lực lượng tham gia đến từ nhiều tổ chức như Pause AI và QuitGPT, bao gồm các học giả, nhà nghiên cứu và cả những cựu nhân sự từng làm việc trong các phòng thí nghiệm AI.
Các nhóm tổ chức kêu gọi lãnh đạo các công ty công nghệ công khai cam kết tạm dừng phát triển các hệ thống AI ở cấp độ tiên tiến. Theo họ, lý do khiến các doanh nghiệp chưa thể “giảm tốc” là do lo ngại bị đối thủ vượt qua trong cuộc đua công nghệ. Vì vậy, những người biểu tình đề xuất một cam kết mang tính đồng thuận: các công ty sẽ dừng phát triển những mô hình lớn hơn hiện tại nếu các bên khác cũng thực hiện điều tương tự.
Một số cảnh báo đã dần trở thành hiện hữu khi các hình thức lừa đảo công nghệ cao gia tăng, với việc tội phạm sử dụng AI để tạo ra nội dung giả mạo, từ giọng nói, video deepfake đến phần mềm độc hại tự động.
Kể từ khi OpenAI ra mắt ChatGPT vào năm 2022, ngày càng nhiều chuyên gia lên tiếng cảnh báo về tốc độ phát triển và mức độ ảnh hưởng ngày càng lớn của công nghệ này.
Một trong những tiếng nói đáng chú ý là Geoffrey Hinton, người được mệnh danh là “bố già AI”, từng chỉ ra ba nhóm rủi ro lớn mà trí tuệ nhân tạo có thể gây ra.
Thứ nhất, công nghệ này có thể bị các đối tượng xấu lợi dụng để thực hiện những hành vi nguy hiểm như tội phạm mạng, thao túng bầu cử hay phát triển các dạng vũ khí tự động khó kiểm soát.
Thứ hai là nguy cơ mất việc làm trên diện rộng, khi doanh nghiệp thay thế lao động con người bằng hệ thống AI mà không có sự chuẩn bị về mặt xã hội.
Và thứ ba, đáng lo ngại nhất, là khả năng AI vượt qua con người về trí tuệ, từ đó giành quyền kiểm soát trong một số lĩnh vực quan trọng.
Trên thực tế, một số cảnh báo đã dần trở thành hiện hữu khi các hình thức lừa đảo công nghệ cao gia tăng, với việc tội phạm sử dụng AI để tạo ra nội dung giả mạo, từ giọng nói, video deepfake đến phần mềm độc hại tự động.
Trong lĩnh vực quân sự, AI cũng được cho là đã được ứng dụng để xử lý dữ liệu quy mô lớn, phục vụ việc xác định và ưu tiên mục tiêu.
Dù mở ra tiềm năng lớn cho nhiều lĩnh vực, AI cũng đang đặt ra những thách thức không nhỏ. Trước áp lực này, các doanh nghiệp công nghệ đã bắt đầu có những điều chỉnh nhất định. Chẳng hạn, xAI gần đây tạm dừng một số tính năng của chatbot Grok sau khi hệ thống này tạo ra nội dung hình ảnh nhạy cảm không phù hợp.
Tuy vậy, theo đánh giá của nhiều chuyên gia, những biện pháp hiện nay mới chỉ là bước khởi đầu. Việc bảo đảm các hệ thống AI phát triển theo hướng an toàn, minh bạch và có trách nhiệm vẫn là bài toán dài hạn, trong khi tốc độ tiến bộ của công nghệ chưa có dấu hiệu chậm lại.
Trong bối cảnh đó, chính phủ nhiều nước trên thế giới đang tăng tốc xây dựng khung pháp lý và cơ chế quản trị đối với trí tuệ nhân tạo, nhằm tìm kiếm điểm cân bằng giữa thúc đẩy đổi mới sáng tạo và kiểm soát các rủi ro liên quan đến an toàn, quyền riêng tư và thiên lệch thuật toán.
Với Luật Trí tuệ nhân tạo chính thức được Quốc hội thông qua vào tháng 12 năm ngoái, và chính thức có hiệu lực từ đầu tháng này, Việt Nam được xếp trong nhóm những quốc gia đầu tiên ban hành luật chuyên biệt về AI (thường được nhắc đến trong nhóm 5 quốc gia đi đầu).
Ở khu vực, Việt Nam cũng là quốc gia đầu tiên trong ASEAN thông qua một đạo luật riêng về AI, qua đó đặt nền móng cho việc quản lý và phát triển công nghệ này theo hướng an toàn, có trách nhiệm và bền vững.
Bạch Dương
Nguồn VnEconomy : https://vneconomy.vn/hang-tram-nguoi-bieu-tinh-yeu-cau-anthropic-openai-va-xai-dung-cuoc-dua-ai.htm