Cha đẻ của AI kêu gọi cấm phát triển siêu AI

Một nhóm hơn 850 chuyên gia và các nhân vật nổi tiếng kêu gọi cấm phát triển trí tuệ nhân tạo "siêu thông minh".

Một nhóm các chuyên gia và nhân vật có tầm ảnh hưởng trong lĩnh vực công nghệ và trí tuệ nhân tạo (AI) vừa kêu gọi chấm dứt nỗ lực phát triển "siêu trí tuệ nhân tạo" (superintelligence) - dạng AI có khả năng vượt trội con người trong hầu hết các nhiệm vụ nhận thức.

Theo tuyên bố được công bố ngày thứ Tư, hơn 850 người, trong đó có nhà sáng lập Virgin Group Richard Branson và đồng sáng lập Apple Steve Wozniak, đã cùng ký tên yêu cầu tạm dừng phát triển công nghệ này.

Cha đẻ của AI kêu gọi cấm phát triển siêu AI- Ảnh 1.

Ông Yoshua Bengio - cha đẻ" của trí tuệ nhân tạo hiện đại cũng ký vào tuyên bố kêu gọi cấm phát triển siêu AI

Đáng chú ý, nhiều nhà tiên phong hàng đầu trong ngành AI cũng có tên trong danh sách, như Yoshua Bengio và Geoff Hinton - hai "cha đẻ" của trí tuệ nhân tạo hiện đại, cùng Stuart Russell, giáo sư tại Đại học California, Berkeley.

Cảnh báo nguy cơ "mất kiểm soát" với siêu trí tuệ nhân tạo

Trong bối cảnh các tập đoàn lớn như xAI của CEO Elon Musk, OpenAI của CEO Sam Altman hay Meta đua nhau phát triển các mô hình ngôn ngữ lớn (LLM), thuật ngữ "superintelligence" đang trở thành tâm điểm tranh luận trong giới công nghệ.

Meta thậm chí còn đặt tên bộ phận phát triển LLM của mình là "Meta Superintelligence Labs"

Tuy nhiên, nhóm ký tên trong tuyên bố cảnh báo rằng triển vọng phát triển siêu trí tuệ nhân tạo "gây ra nhiều mối lo ngại sâu sắc", từ nguy cơ con người bị thay thế trong lao động, mất quyền tự chủ, tự do, phẩm giá và quyền kiểm soát, cho tới đe dọa an ninh quốc gia, thậm chí nguy cơ tuyệt chủng của loài người.

Tuyên bố kêu gọi cấm phát triển siêu trí tuệ nhân tạo cho tới khi có được sự ủng hộ rộng rãi của công chúng và đồng thuận khoa học rằng công nghệ này có thể được xây dựng và kiểm soát an toàn.

Danh sách người ký tên thể hiện liên minh đa dạng, bao gồm học giả, lãnh đạo tôn giáo, nhân vật truyền thông và các chính trị gia của Mỹ. Trong số đó có cựu Chủ tịch Hội đồng Tham mưu trưởng Liên quân Mỹ Mike Mullen và cựu Cố vấn An ninh Quốc gia Susan Rice.

Các thành viên Hoàng gia Anh gồm Hoàng tử Harry và nữ công tước xứ Sussex, công nương Meghan, cùng cựu Tổng thống Ireland Mary Robinson cũng nằm trong nhóm ký tên. Theo cập nhật, số lượng người ủng hộ tuyên bố vẫn tiếp tục tăng.

Cha đẻ của AI kêu gọi cấm phát triển siêu AI- Ảnh 2.

Trong một bài viết năm 2015, trước khi trở thành CEO của OpenAI, Sam Altman từng nhận định rằng: "Sự phát triển của trí tuệ máy siêu việt có thể là mối đe dọa lớn nhất đối với sự tồn tại của nhân loại".

"AI tích cực" và "AI hủy diệt"

Cuộc tranh luận trong giới công nghệ đang ngày càng gay gắt giữa hai phe: Một bên coi AI là động lực tích cực, thúc đẩy tiến bộ nhân loại và bên còn lại cho rằng AI đang phát triển quá nhanh, tiềm ẩn rủi ro và cần được kiểm soát chặt chẽ.

Trang web của tuyên bố "Statement on Superintelligence" nhấn mạnh rằng ngay cả các nhà lãnh đạo hàng đầu trong ngành AI như Elon Musk và Sam Altman cũng từng cảnh báo về mối nguy của siêu trí tuệ nhân tạo.

Trong một bài viết năm 2015, trước khi trở thành CEO của OpenAI, Sam Altman từng nhận định rằng: "Sự phát triển của trí tuệ máy siêu việt có thể là mối đe dọa lớn nhất đối với sự tồn tại của nhân loại".

Trong khi đó, Elon Musk, trong một podcast gần đây, cho rằng "chỉ có 20% khả năng nhân loại bị hủy diệt" nếu AI vượt qua trí thông minh con người.

Tuyên bố cũng trích dẫn khảo sát mới của Viện Tương lai Cuộc sống (Future of Life Institute), cho thấy chỉ 5% người trưởng thành tại Mỹ ủng hộ việc phát triển AI siêu thông minh một cách tự do, không kiểm soát.

Khảo sát với 2.000 người Mỹ cho thấy đa số muốn ngừng phát triển AI vượt trội con người cho tới khi chứng minh được tính an toàn và khả năng kiểm soát, đồng thời kêu gọi ban hành khung pháp lý mạnh mẽ cho AI tiên tiến.

Nhà khoa học máy tính Yoshua Bengio - người đồng ký tên tuyên bố - nhận định rằng AI có thể vượt qua hầu hết con người trong nhiều nhiệm vụ nhận thức chỉ trong vài năm tới.

"Để tiến tới siêu trí tuệ một cách an toàn, chúng ta cần xác định rõ cách thiết kế hệ thống AI sao cho không thể gây hại cho con người, dù do lỗi căn chỉnh hay bị sử dụng sai mục đích", ông nói.

"Đồng thời, công chúng cần có tiếng nói mạnh mẽ hơn trong các quyết định sẽ định hình tương lai chung của chúng ta", chuyên gia này nói thêm.