stars

Trí tuệ nhân tạo (AI) đã phát triển với tốc độ đáng kinh ngạc trong vài năm qua. Một số nhà khoa học hiện đang hướng tới việc phát triển trí tuệ siêu nhân tạo (ASI) - một hình thức AI không chỉ vượt trội hơn trí tuệ con người mà còn không bị giới hạn bởi tốc độ học tập của con người.

Nhưng liệu cột mốc này có phải chỉ là một thành tựu đáng chú ý? Sẽ ra sao nếu nó còn đại diện cho một rào cản lớn trong quá trình phát triển của tất cả các nền văn minh, một trở ngại lớn đến mức cản trở sự tồn tại lâu dài của những nền văn minh đó?

Ý tưởng này là trọng tâm của một bài báo nghiên cứu mà tôi mới đăng trên Acta Astronautica. Liệu AI có phải là "bộ lọc vĩ đại" của vũ trụ không - một ngưỡng khó vượt qua đến mức nó ngăn cản hầu hết các hình thái sống phát triển thành các nền văn minh có thể du hành xuyên không gian?

Ý tưởng này có thể giải thích cho việc tại sao cuộc tìm kiếm trí tuệ ngoài Trái Đất (SETI) vẫn chưa phát hiện ra dấu hiệu của các nền văn minh phát triển công nghệ ở đâu đó khác trong thiên hà.

Giả thuyết bộ lọc vĩ đại là một giải pháp đề xuất cho nghịch lý Fermi. Nó đặt ra câu hỏi tại sao trong một vũ trụ rộng lớn và cổ xưa đủ để chứa hàng tỷ hành tinh có thể cư trú, chúng ta lại không phát hiện ra bất kỳ dấu hiệu nào của các nền văn minh ngoài Trái Đất. Giả thuyết này cho rằng có những trở ngại không thể vượt qua trong dòng thời gian tiến hóa của các nền văn minh ngăn cản họ phát triển thành các thực thể du hành vũ trụ.

Tôi tin rằng sự xuất hiện của ASI có thể là một bộ lọc như vậy. Sự tiến bộ nhanh chóng của AI, có thể dẫn đến ASI, có thể liên đới tới một giai đoạn quan trọng trong sự phát triển của một nền văn minh - quá trình chuyển hóa từ sinh vật đơn hành tinh thành sinh vật đa hành tinh.

Đây là thời điểm khiến nhiều nền văn minh có thể gặp khó khăn, với AI tiến bộ nhanh hơn nhiều so với khả năng của chúng ta trong việc kiểm soát nó hoặc khám phá và sinh sống khắp nơi một cách lâu dài trong Hệ Mặt Trời.

Thách thức với AI, và cụ thể là ASI, nằm ở bản chất tự động, tự tăng cường và tự cải thiện của nó. Nó có thể tự nâng cao khả năng của chính mình với tốc độ vượt trội so với dòng thời gian tiến hóa của chúng ta khi không có AI.

Khả năng xảy ra điều gì đó rất tồi tệ là rất lớn, dẫn đến sự suy tàn của cả nền văn minh sinh học và AI trước khi họ có cơ hội trở thành sinh vật đa hành tinh. Ví dụ, nếu các quốc gia ngày càng phụ thuộc vào và nhượng quyền cho các hệ thống AI tự động cạnh tranh với nhau, khả năng quân sự có thể được sử dụng để giết chóc và phá hủy ở quy mô chưa từng có. Điều này có thể dẫn đến sự hủy diệt của toàn bộ nền văn minh của chúng ta, bao gồm cả các hệ thống AI.

Trong kịch bản này, tôi ước tính tuổi thọ điển hình của một nền văn minh công nghệ có thể ít hơn 100 năm. Đó là khoảng thời gian từ khi có khả năng nhận và phát tín hiệu liên sao (1960) và sự xuất hiện dự kiến của ASI (2040) trên Trái Đất. Điều này đáng báo động khi đặt trong bối cảnh thời gian hàng tỷ năm của vũ trụ.

Ước tính này, khi được đưa vào các phiên bản lạc quan của phương trình Drake - một công thức nhằm ước tính số lượng các nền văn minh ngoài hành tinh có khả năng giao tiếp trong thiên hà Milky Way - cho thấy, vào bất kỳ thời điểm nào, chỉ có một vài nền văn minh thông minh tồn tại. Hơn nữa, giống như chúng ta, các hoạt động công nghệ tương đối khiêm tốn của họ có thể khiến họ khó được phát hiện.

 

Lời cảnh báo

Nghiên cứu này không chỉ là một câu chuyện cảnh báo về nguy cơ tiềm ẩn. Nó giống như một lời kêu gọi thức tỉnh cho nhân loại để thiết lập các khung quy định vững chắc để hướng dẫn sự phát triển của AI, bao gồm cả các hệ thống quân sự.

Điều này không chỉ có mục tiêu ngăn chặn việc sử dụng AI với mục đích xấu trên Trái Đất; nó còn là đảm bảo sự tiến hóa của AI phù hợp với sự sống còn lâu dài của giống loài chúng ta. Điều này cho thấy chúng ta cần đầu tư nhiều hơn vào việc trở thành một xã hội đa hành tinh càng sớm càng tốt - một mục tiêu đã bị bỏ ngỏ từ những ngày đầy hào hứng của dự án Apollo, nhưng gần đây đã được khơi dậy trở lại bởi những tiến bộ do các công ty tư nhân thực hiện.

Như nhà sử học Yuval Noah Harari đã lưu ý, không có gì trong lịch sử chuẩn bị cho chúng ta trước tác động của việc đưa những thực thể siêu thông minh không có ý thức vào hành tinh của chúng ta. Gần đây, hậu quả của việc ra quyết định tự động của AI đã dẫn đến những lời kêu gọi từ các nhà lãnh đạo nổi bật trong lĩnh vực này về việc tạm ngừng phát triển AI, cho đến khi có thể có một hình thức kiểm soát và quy định có trách nhiệm hơn.

Nhưng ngay cả khi mọi quốc gia đều đồng ý tuân thủ các quy tắc và quy định nghiêm ngặt, các tổ chức phi pháp sẽ khó kiểm soát.

Việc tích hợp AI tự động trong các hệ thống phòng thủ quân sự phải là một lĩnh vực đặc biệt được quan tâm. Đã có bằng chứng cho thấy con người sẽ tự nguyện từ bỏ quyền lực đáng kể cho các hệ thống đang ngày càng phát triển, bởi vì chúng có thể thực hiện các nhiệm vụ hữu ích nhanh hơn và hiệu quả hơn mà không cần sự can thiệp của con người. Do đó, các chính phủ do dự trong việc quy định trong lĩnh vực này vì những lợi thế chiến lược mà AI mang lại, như đã được chứng minh gần đây một cách thảm khốc ở Gaza.

Điều này có nghĩa là chúng ta đang - một cách đầy nguy hiểm - tiến gần đến bờ vực nơi mà các vũ khí tự động hoạt động vượt ra ngoài ranh giới đạo đức và lách khỏi luật pháp quốc tế. Trong một thế giới như vậy, việc nhượng quyền cho các hệ thống AI để đạt được lợi thế chiến thuật có thể vô tình khởi đầu một chuỗi các sự kiện leo thang nhanh chóng, cực kỳ tàn khốc. Trong nháy mắt, trí tuệ tập thể của hành tinh chúng ta có thể bị xoá sổ.

Nhân loại đang ở một điểm then chốt trong quỹ đạo công nghệ của mình. Những hành động của chúng ta bây giờ có thể quyết định liệu chúng ta có trở thành một nền văn minh liên sao lâu dài, hay chịu thất bại trước các thách thức do chính tạo vật của chúng ta đặt ra.

Sử dụng SETI như một lăng kính để chúng ta xem xét sự phát triển tương lai của mình chính là thêm một góc nhìn mới vào cuộc thảo luận về tương lai của AI. Chúng ta phải đảm bảo rằng khi chúng ta vươn tới các vì sao, chúng ta làm điều đó không phải như một câu chuyện cảnh báo cho các nền văn minh khác, mà như một ngọn hải đăng của hy vọng - một giống loài đã học cách sống sót cùng với AI.

Michael A. Garrett
(Bản dịch của VACA từ bài gốc của tác giả đăng trên The Conversation.)