California thông qua Luật An toàn trí tuệ nhân tạo đầu tiên tại Mỹ

California thông qua Luật An toàn trí tuệ nhân tạo đầu tiên tại Mỹ
4 giờ trướcBài gốc
Việc California ban hành luật quản lý AI có ý nghĩa vượt xa phạm vi một bang của nước Mỹ
Siết quản lý, kiểm soát AI
Đạo luật luật SB 53 có tên đầy đủ là Đạo luật Đổi mới an toàn và bảo mật cho các mô hình AI tiên phong đã được Thống đốc bang California Gavin Newsom đã ký ban hành ngày 29-9. Nội dung cốt lõi tập trung vào việc yêu cầu các công ty công nghệ sở hữu hoặc phát triển mô hình AI quy mô lớn như OpenAI, Meta, Google DeepMind, Anthropic… phải thực hiện các biện pháp công khai và báo cáo về tính an toàn.
Theo quy định, các doanh nghiệp phải nộp công khai các giao thức an toàn dưới dạng biên tập, vừa đảm bảo tính minh bạch, vừa giữ bí mật sở hữu trí tuệ. Các doanh nghiệp AI phải báo cáo sự cố nghiêm trọng trong vòng 15 ngày nếu hệ thống có nguy cơ gây hại như hỗ trợ phát triển vũ khí, bị tin tặc tấn công, hoặc mất kiểm soát mô hình.
Đáng chú ý, doanh nghiệp AI phải báo cáo hành vi lừa đảo nguy hiểm trong giai đoạn thử nghiệm, một điều khoản được coi là “lần đầu tiên trên thế giới”. Cùng với đó, phải thực hiện kiểm tra, mô phỏng các cuộc tấn công mạng trước khi triển khai sản phẩm, đồng thời cài đặt các cơ chế phòng ngừa rủi ro, bảo vệ người tố cáo nếu nhân viên phát hiện và báo cáo vi phạm. Đặc biệt, đạo luật còn đặt nền tảng cho dự án CalCompute, hệ thống điện toán đám mây do bang điều hành, nhằm hỗ trợ nghiên cứu và phát triển AI nhưng đi kèm những tiêu chuẩn kiểm soát chặt chẽ.
Có thể thấy, so với Đạo luật AI của Liên minh châu Âu, vốn chỉ yêu cầu doanh nghiệp báo cáo cho chính phủ, bang California lớn nhất của Mỹ với GDP lên tới 4.100 tỷ USD (đứng thứ 4 thế giới tính về thực thể) đi xa hơn khi bắt buộc công khai thông tin để tăng tính trách nhiệm giải trình. Có nhiều nguyên nhân khiến California, trung tâm công nghệ của Mỹ và là nơi tập trung thung lũng Silicon, lại đi đầu trong việc ban hành Luật An toàn AI. Trước hết, AI thời gian qua phát triển quá nhanh và khó kiểm soát. Chỉ trong vài năm, các mô hình AI như ChatGPT, Claude, Gemini hay Llama đã trở thành công cụ quen thuộc với hàng trăm triệu người dùng. Song song với cơ hội là nguy cơ AI có thể bị khai thác để tạo ra vũ khí mạng, sản xuất tin giả, thao túng thông tin bầu cử, hoặc tự động hóa tấn công lừa đảo ở quy mô chưa từng có.
Không chỉ dư luận mà giới hoạch định chính sách ngày càng lo ngại cũng lo ngại về việc AI vượt tầm kiểm soát. Sau nhiều cảnh báo từ các nhà khoa học và doanh nhân công nghệ, kể cả những tỷ phủ công nghệ hàng đầu thế giới như Elon Musk, Sam Altman… cũng lên tiếng cảnh báo về rủi ro “AI vượt tầm kiểm soát”. Trong khi đó, bang California có truyền thống đi đầu trong luật công nghệ. Trước đây, bang này từng ban hành luật bảo mật dữ liệu người tiêu dùng (CCPA) sớm hơn liên bang, tạo hiệu ứng lan tỏa toàn nước Mỹ. Lần này, với đạo luật “siết” kiểm soát AI, California tiếp tục khẳng định vai trò “người mở đường”.
Tuy nhiên, không phải mọi ý kiến đều ủng hộ đạo luật vừa được bang California ban hành. Trong khi những người ủng hộ cho rằng, đạo luật là rào chắn cần thiết để hạn chế nguy cơ từ AI, đặc biệt trong bối cảnh công nghệ này đang phát triển quá nhanh so với khả năng kiểm soát; buộc doanh nghiệp phải có trách nhiệm hơn với xã hội; giúp tạo niềm tin của công chúng, từ đó thúc đẩy AI phát triển bền vững thay vì gây ra khủng hoảng niềm tin…
Thế nhưng, những ý kiến phản đối lại cảnh báo, việc mỗi bang đặt ra một tiêu chuẩn riêng sẽ tạo ra tình trạng “hỗn loạn pháp lý”, gây khó khăn cho doanh nghiệp AI hoạt động trên toàn nước Mỹ; yêu cầu công khai giao thức có thể làm lộ bí mật thương mại, khiến doanh nghiệp mất lợi thế cạnh tranh; những quy định chặt chẽ có nguy cơ kìm hãm đổi mới, khiến start-up non trẻ bị đẩy ra khỏi cuộc chơi, nhường sân cho các tập đoàn công nghệ lớn vốn có đủ nguồn lực tuân thủ luật…
Phải đặt trong khuôn khổ an toàn và trách nhiệm xã hội
Tranh cãi quanh đạo luật kiểm soát AI của bang California cũng cho thấy vấn đề lớn hơn khi AI vừa có thể là cơ hội lớn, song lại vừa là thách thức chưa có tiền lệ. Dù mới phát triển, nhưng AI đã bước đầu góp phần cách mạng hóa kinh tế, từ sản xuất, y tế, giáo dục, đến tài chính… giúp tối ưu hóa quy trình và giảm chi phí. AI góp phần thúc đẩy sáng tạo, tạo ra nhạc, viết văn, thiết kế hình ảnh, và thậm chí hỗ trợ nghiên cứu khoa học.
Với lĩnh vực quân sự, AI đang được tận dụng triệt để nhằm nâng cao năng lực an ninh quốc phòng của các quốc gia, trong đó Mỹ, Trung Quốc, châu Âu đều coi AI là “lõi” của vũ khí thông minh và tác chiến mạng. Dù mới phát triển, nhưng AI đã mở ra thị trường khổng lồ. Theo nhiều dự báo, thị trường AI toàn cầu có thể đạt 1.800-2.000 tỷ USD vào năm 2030, trở thành một trong những ngành công nghiệp giá trị nhất hành tinh. Chính vì vậy, các tập đoàn công nghệ và chính phủ đang rót hàng trăm tỷ USD vào AI. Trong đó, Google đầu tư hàng chục tỷ USD để phát triển Gemini, đồng thời xây dựng hạ tầng AI đám mây phục vụ khách hàng toàn cầu. Meta dồn lực vào Llama, với mục tiêu tạo ra AI mã nguồn mở để phổ biến rộng rãi, đồng thời chi hàng tỷ USD cho phần cứng, trung tâm dữ liệu và chip AI.
Nvidia, nhà sản xuất chip hàng đầu, đã trở thành “xương sống” của cuộc cách mạng AI, với vốn hóa thị trường vượt 2.000 tỷ USD nhờ cung cấp GPU cho gần như mọi công ty phát triển AI. Microsoft cũng đầu tư hơn 13 tỷ USD vào OpenAI, startup đứng sau ChatGPT để biến ChatGPT thành nền tảng phổ biến nhất hiện nay. Trung Quốc với sự trỗi dậy mạnh mẽ về mọi mặt của mình đang đầu tư rất lớn để phát triển AI. Trung Quốc sau khi coi AI là mũi nhọn chiến lược quốc gia đã đưa AI vào kế hoạch “Made in China 2025” và đặt mục tiêu đến năm 2030 trở thành cường quốc AI số một thế giới. Theo ước tính, Trung Quốc đã đầu tư hàng trăm tỷ USD vào nghiên cứu AI, hạ tầng dữ liệu và đào tạo nhân lực. Nhiều “kỳ lân công nghệ” của Trung Quốc như Baidu, Alibaba, Tencent… đã chi hàng chục tỷ USD đang cạnh tranh trực diện với các ông lớn Mỹ.
Cuộc đua quyết liệt trên thế giới cho thấy AI không chỉ là công nghệ, mà còn là lợi ích địa chính trị và chiến lược toàn cầu. Cuộc đua tranh này có thể dẫn tới nhiều nguy cơ, hệ lụy. Đó có thể là thông tin giả mạo và thao túng chính trị khi AI có thể tạo ra video “deepfake” cực kỳ tinh vi, hay khủng hoảng lao động khi hàng triệu việc làm có thể biến mất… nguy hại hơn là những kẻ cực đoan lợi dụng để tấn công mạng, tạo vũ khí. Đặc biệt, vũ khí sẽ trở lên đáng sợ, nguy hiểm hơn rất nhiều khi được phát triển ở tầm mức quốc gia, nhất là các cường quốc.
Trong bối cảnh đó, việc California ban hành luật quản lý AI có ý nghĩa vượt xa phạm vi một bang của nước Mỹ. Từ đây, có thể thấy cần xây dựng khung pháp lý toàn diện và hài hòa chung ở mỗi quốc gia cũng như phối hợp toàn cầu để buộc các công ty AI phải công khai cách họ quản lý rủi ro, để xã hội có thể giám sát. AI là công nghệ xuyên biên giới, do đó kiểm soát AI cũng phải mang tính toàn cầu. Việc Mỹ, EU, Trung Quốc và các cường quốc khác tìm tiếng nói chung là yếu tố rất quan trọng.
Thế nên, việc bang California thông qua đạo luật an toàn AI đầu tiên của Mỹ đánh dấu một cột mốc lịch sử trong quá trình nhân loại tìm cách “chế ngự” công nghệ đầy tiềm năng nhưng cũng lắm nguy cơ, rủi ro. Điều này cho thấy, AI không thể phát triển tự do hoàn toàn, mà phải đặt trong khuôn khổ an toàn và trách nhiệm xã hội. Tương lai của AI không chỉ được quyết định bởi công nghệ, mà còn bởi những quyết định chính trị, pháp lý và đạo đức ngay từ hôm nay.
Hoàng Hà
Nguồn ANTĐ : https://anninhthudo.vn/california-thong-qua-luat-an-toan-tri-tue-nhan-tao-dau-tien-tai-my-post625526.antd