Các tỷ phú công nghệ âm thầm chuẩn bị cho ngày tận thế
Các tỷ phú công nghệ đang đổ tiền xây hầm trú ẩn, khiến thế giới tự hỏi họ đang phòng xa hay lo sợ điều gì sắp xảy ra?
Nhiều người xem việc xây hầm trú ẩn là “làm màu”, nhưng các tỷ phú công nghệ lại chi hàng trăm triệu USD cho những công trình họ hy vọng sẽ chẳng bao giờ phải dùng tới.

Những năm gần đây, hàng loạt tỷ phú công nghệ như Mark Zuckerberg, Sam Altman hay Reid Hoffman bị đồn đoán đang xây dựng hầm trú ẩn, khu phức hợp bí mật hoặc tham gia các chương trình “bảo hiểm ngày tận thế”. Dù thông tin này không còn quá lạ, nó vẫn khiến công chúng đặt câu hỏi: liệu họ đang biết điều gì mà phần còn lại của thế giới chưa biết, như một thảm họa sắp xảy ra vì trí tuệ nhân tạo, biến đổi khí hậu hay chiến tranh toàn cầu?
Giới chuyên gia cho rằng nỗi lo này phần nhiều bị phóng đại. Khái niệm “Trí tuệ nhân tạo tổng quát” (AGI), tức cỗ máy thông minh ngang hoặc vượt con người, đến nay vẫn chỉ là giả thuyết. Nhiều người coi việc bàn về AGI hiện tại là chiêu tiếp thị hơn là nguy cơ thật sự. Tuy nhiên, điều đó cũng không ngăn được giới siêu giàu đầu tư vào các công trình an toàn tuyệt đối.
Ở Hawaii, Mark Zuckerberg được cho là xây dựng một khu phức hợp khổng lồ với hầm ngầm kiên cố, dù anh phủ nhận đây là “hầm trú ẩn ngày tận thế”. Reid Hoffman, nhà sáng lập LinkedIn, thừa nhận có bất động sản “bảo hiểm tận thế” ở New Zealand. Những hành động này củng cố nghi vấn rằng các tỷ phú đang chuẩn bị cho một kịch bản xã hội sụp đổ, khí hậu hỗn loạn hoặc trí tuệ nhân tạo mất kiểm soát.
Một số nhân vật trong Thung lũng Silicon thừa nhận họ thực sự lo sợ. Ilya Sutskever, đồng sáng lập OpenAI, từng nói: “Chúng tôi chắc chắn sẽ xây hầm trú ẩn trước khi phát hành AGI”. Nỗi lo về việc AI trở nên không thể kiểm soát, cùng nguy cơ chiến tranh hạt nhân, dịch bệnh hay khủng hoảng môi trường, đã thôi thúc họ tìm nơi “sống sót” khi mọi thứ sụp đổ.
Trái lại, những người lạc quan cho rằng AGI sẽ mở ra kỷ nguyên mới đó là chữa trị bệnh nan y, giải quyết biến đổi khí hậu và tạo nguồn năng lượng sạch vô tận. Elon Musk thậm chí tin rằng AI có thể giúp toàn nhân loại đạt mức thu nhập cao.
Song không phải ai trong giới khoa học cũng đồng tình. Nhiều chuyên gia, như Giáo sư Wendy Hall (Đại học Southampton), cho rằng AGI vẫn còn xa vời. “AI hiện nay rất giỏi trong việc xử lý dữ liệu và mô phỏng suy luận, nhưng nó không hiểu, không cảm nhận và không có ý thức”, bà nói. Theo bà, những tuyên bố về “AGI sắp ra đời” chủ yếu mang tính quảng bá, nhằm thu hút tài trợ và sự chú ý.
Chính phủ Mỹ dưới thời Joe Biden từng đề xuất quy định về thử nghiệm an toàn AI, nhưng chính quyền kế tiếp lại bác bỏ, cho rằng điều này cản trở đổi mới. Trong khi đó, Anh đã thành lập Viện An toàn AI để nghiên cứu rủi ro tiềm ẩn.
Tuy nhiên, một số nhà khoa học cảnh báo rằng việc sa đà vào viễn cảnh “AI hủy diệt nhân loại” có thể khiến xã hội quên đi những vấn đề cấp bách hơn như định kiến thuật toán, thông tin sai lệch, thất nghiệp do tự động hóa và quyền lực tập trung vào tay các tập đoàn công nghệ lớn.
Giáo sư Neil Lawrence cho rằng khái niệm “AGI” thực chất vô nghĩa, bởi “trí thông minh luôn phụ thuộc vào ngữ cảnh”. Ông ví von: “Tưởng tượng một phương tiện vừa bay, vừa lướt, vừa lái tốt như nhau điều đó đơn giản là không thể”. Thay vì mải lo về AI viễn tưởng, ông kêu gọi tập trung vào cách công nghệ hiện tại đang tác động tới xã hội.
Theo nhiều chuyên gia, việc các tỷ phú xây hầm trú ẩn phản ánh hai điều đó là nỗi sợ thực sự mất kiểm soát trước công nghệ do chính họ tạo ra và khát khao khẳng định địa vị, khi ngay cả “chuẩn bị cho tận thế” cũng trở thành biểu tượng xa hoa.
Dù vậy, phần lớn giới khoa học đồng thuận rằng “siêu trí tuệ” vẫn còn rất xa và điều đáng quan tâm hơn là cách con người sử dụng AI trong hiện tại. Bởi lẽ, nguy cơ lớn nhất không phải là ngày tận thế, mà là tương lai nơi con người đánh mất quyền kiểm soát chính mình.

