Khi máy móc tự định hình số phận
Mở đầu bức thư, Giáo sư John Vu nhắc lại lời cảnh báo mà nhà vật lý Stephen Hawking đã đưa ra vào nhiều năm trước, cho rằng sự phát triển của Trí tuệ Nhân tạo (AI) có thể làm sâu sắc thêm khoảng cách giữa các quốc gia giàu và nghèo. Nguyên nhân là vì các nước phát triển với tiềm lực công nghệ mạnh sẽ tận dụng AI để mở rộng lợi thế kinh tế, trong khi những quốc gia chậm hơn sẽ bị bỏ lại phía sau, không thể bắt kịp đà tiến hóa của công nghệ. Cùng với đó, việc tự động hóa ngày càng phổ biến sẽ khiến hàng triệu người lao động mất việc, còn sinh viên mới tốt nghiệp phải đối mặt với thị trường việc làm bị co hẹp.
Nhưng mối nguy không chỉ dừng lại ở bất bình đẳng xã hội. Điều đáng sợ nhất không phải là con người làm gì với AI, mà là AI sẽ làm gì với con người. Trong phần sâu hơn của bài viết, Giáo sư JohnVu trích dẫn lại lời của Hawking: “Sự phát triển của trí thông minh nhân tạo sẽ vượt khỏi tầm kiểm soát của con người khi máy móc có thể tự động điều chỉnh sự hiểu biết của nó, tự thiết kế lấy mà không cần con người can dự vào. Khi máy móc bắt đầu tự định hình số phận của nó thì cũng là lúc nó sẽ chi phối loài người”.
Trong cuộc phỏng vấn với BBC vào năm 2014, Hawking đã giải thích thêm về mối quan ngại của mình. Ông cho rằng con người tiến hóa rất chậm, phát triển từng bước một, từ thế hệ này qua thế hệ khác, từ văn minh này qua văn minh khác, trải qua hàng chục ngàn năm mới tiến đến mức như ngày nay. Ngược lại, AI thay đổi rất nhanh, chỉ vài chục năm nó đã nhảy vọt từ những máy móc thô sơ trong phòng thí nghiệm để trở thành những công cụ vô cùng thông minh. Và ít lâu nữa, sẽ thông minh hơn con người. Cuối cùng, Hawking đã khẳng định: “Đây không phải là vấn đề có xảy ra hay không, mà là khi nào xảy ra”.
Về điều này, Giáo sư John Vu chia sẻ: “Là chuyên gia trong lĩnh vực này, chúng tôi đã thảo luận với nhau về điều này trong nhiều năm. Tôi thường hỏi các bạn mình, nếu AI làm sai thì ai sẽ là người chịu trách nhiệm? Người hay máy? Làm sao có thể dạy cho máy móc biết thế nào là nhân tính? Thế nào là giá trị của đời sống con người? Đây là điều cần phải nói đến vì đã đến lúc máy móc đang tiến đến mức thông minh như con người. Đa số các bạn đồng nghiệp của tôi tin rằng việc này chưa thể xảy ra hay ít ra có lẽ sẽ mất khoảng mười năm hay lâu hơn nữa”.
Khả năng kiểm soát của con người dần bị thu hẹp
Nhưng chính ông đã rất bàng hoàng khi Viện Công nghệ Massachusetts (MIT) công bố nghiên cứu mới nhất về mô hình ngôn ngữ tự thích ứng có tên SEAL – một bước ngoặt trong lịch sử phát triển của AI. Khác với các hệ thống hiện nay vốn phải dựa vào dữ liệu do con người cung cấp, SEAL có khả năng tự tạo dữ liệu huấn luyện, tự viết lại mã nguồn và tự điều chỉnh các quy trình nội bộ để tối ưu hiệu suất. Nói cách khác, đây là một hệ thống có khả năng học hỏi và cải tiến mà không cần con người giám sát.
Một đồng nghiệp của Giáo sư John Vu tại MIT xác nhận rằng SEAL chính là “bước đầu để tạo ra hệ thống AI có thể tự nâng cao khả năng thông minh, định nghĩa lại giới hạn những gì máy móc có thể đạt được và tự động giải quyết các vấn đề mà không cần con người ra lệnh”.
Đối với Giáo sư John Vu, đó là một cột mốc vừa vĩ đại vừa đáng sợ. Ông thừa nhận rằng về mặt khoa học, SEAL mở ra khả năng cho các hệ thống tự thích ứng, tự điều chỉnh để phục vụ các mục tiêu phức tạp hơn. Nhưng khi các mô hình như SEAL có thể tự huấn luyện và thích ứng, khả năng kiểm soát của con người dần bị thu hẹp. Điều đó đặt ra một câu hỏi lớn hơn: Liệu rằng, khi chúng ta chỉ dạy AI cách đạt hiệu quả, một ngày nào đó, chúng có kết luận rằng con người là phần tử kém hiệu quả nhất trong hệ thống mà chúng đang vận hành không?
Nhưng Giáo sư John Vu cũng thẳng thắn chỉ ra rằng mối đe dọa lớn nhất của thời đại này không đến từ sự ác ý của máy móc, mà từ lòng tham và sự thiếu kiềm chế của con người. Ông kết lại bức thư bằng một đoạn mà Hawking từng viết trong cuốn “Brief Answers to the Big Questions”: “Nếu AI gây hại cho con người, đó không phải vì ác ý, mà chính vì con người đã quá chú trọng vào hiệu quả mà họ muốn đạt được hay các nguồn lợi về tài chính họ thu nhập được mà không đếm xỉa gì đến các vấn đề khác”.
Có lẽ, điều nhân loại cần làm lúc này không phải là sợ hãi hay phủ nhận AI, mà là học cách quản trị và đặt ràng buộc lên nó trước khi quá muộn.
- First News
>> Đọc thêm bài viết cùng chủ đề: