'Bố già AI' đưa ra lời cảnh báo mới về nguy cơ tuyệt chủng của nhân loại

'Bố già AI' đưa ra lời cảnh báo mới về nguy cơ tuyệt chủng của nhân loại
18 giờ trướcBài gốc
Ảnh minh họa: Getty.
Ông Geoffrey Hinton, một nhân vật tiên phong trong lĩnh vực trí tuệ nhân tạo (AI) và là người nhận Giải Nobel Vật lý năm 2024, cho rằng AI có thể dẫn đến sự tuyệt chủng của con người trong vòng 3 thập kỷ với khả năng lên tới 20%. Con số này đánh dấu sự gia tăng từ mức rủi ro 10% mà ông ước tính cách đây 1 năm.
Trong một cuộc phỏng vấn trên BBC Radio 4 trong tuần, ông Hinton đã được hỏi liệu có bất kỳ thay đổi nào kể từ ước tính 10% trước đó của mà ông đưa ra về ngày tận thế AI hay không. Nhà khoa học từng đoạt Giải thưởng Turing đã trả lời, "không hẳn, từ 10% đến 20%".
Điều này khiến biên tập viên khách mời của chương trình, cựu hiệu trưởng Sajid Javid, nói đùa rằng "vậy là đang tăng lên". Nhà khoa học máy tính, người đã nghỉ việc tại Google vào năm ngoái, đã trả lời: "Nếu có bất kỳ điều gì. Ông thấy đấy, chúng ta chưa bao giờ phải đối phó với những thứ thông minh hơn chính mình trước đây".
Nhà khoa học người Anh-Canada, người đã nhận giải Nobel Vật lý năm nay nhờ những đóng góp của ông cho AI, đã nêu bật những thách thức trong việc kiểm soát các hệ thống AI tiên tiến.
“Bạn biết bao nhiêu ví dụ về một thứ thông minh hơn được điều khiển bởi một thứ kém thông minh hơn?...Quá trình tiến hóa đã bỏ ra rất nhiều công sức để cho phép đứa con điều khiển người mẹ, nhưng đó là ví dụ duy nhất mà tôi biết”, ông Hinton, người thường được gọi là ‘Bố già AI’, cho biết.
Ông gợi ý “hãy tưởng tượng bạn và một đứa trẻ 3 tuổi. Chúng ta sẽ là đứa trẻ 3 tuổi” so với một AI “thông minh hơn con người” trong tương lai.
Hinton lưu ý rằng tiến trình này đã “nhanh hơn nhiều so với tôi mong đợi” và kêu gọi ban hành quy định để đảm bảo an toàn. Ông cảnh báo không nên chỉ dựa vào động cơ lợi nhuận của các công ty, tuyên bố rằng “điều duy nhất có thể buộc những công ty lớn đó nghiên cứu nhiều hơn về an toàn là quy định của chính phủ”.
Vào tháng 5/2023, Trung tâm An toàn AI đã công bố một tuyên bố có chữ ký của các nhà khoa học nổi tiếng trong lĩnh vực này, bao gồm cả ông Hinton, cảnh báo rằng "giảm thiểu nguy cơ tuyệt chủng do AI nên là ưu tiên toàn cầu cùng với các rủi ro khác như đại dịch và chiến tranh hạt nhân".
Trong số những người ký tên có Giám đốc điều hành Tesla Elon Musk, đồng sáng lập Apple Steve Wozniak và Yoshua Bengio, được coi là người tiên phong về AI vì công trình nghiên cứu của ông về mạng nơ-ron.
Ông Hinton tin rằng các hệ thống AI cuối cùng có thể vượt qua trí thông minh của con người, thoát khỏi sự kiểm soát của con người và có khả năng gây ra tác hại thảm khốc cho nhân loại. Ông ủng hộ việc dành nhiều nguồn lực đáng kể để đảm bảo an toàn cho AI và sử dụng công nghệ này một cách có đạo đức, đồng thời nhấn mạnh nhu cầu cấp thiết về các biện pháp chủ động trước khi quá muộn.
Yann LeCun, Nhà khoa học AI trưởng tại Meta, đã bày tỏ quan điểm trái ngược với ông Hinton, tuyên bố rằng công nghệ này "thực sự có thể cứu nhân loại khỏi sự tuyệt chủng".
Huyền Chi
Nguồn VietTimes : https://viettimes.vn/bo-gia-ai-dua-ra-loi-canh-bao-moi-ve-nguy-co-tuyet-chung-cua-nhan-loai-post181413.html