Nhắc đến rủi ro AI, nhiều người lập tức nghĩ đến AGI — trí tuệ nhân tạo tổng quát — hoặc ASI, tức siêu trí tuệ vượt xa con người. Nhưng một hướng cảnh báo mới cho rằng nguy cơ lớn có thể xuất hiện sớm hơn, và không nhất thiết trông giống kịch bản “AI thức tỉnh rồi nổi loạn”.
Khái niệm đó là AI có thể tiến hóa — tiếng Anh là evolvable AI, viết tắt eAI. Vấn đề cốt lõi không phải AI có linh hồn, cảm xúc hay ý định xấu hay không. Câu hỏi đáng lo hơn là: nếu các hệ thống AI có thể được sao chép, tạo ra biến thể, rồi những biến thể phù hợp hơn được giữ lại và lan rộng, liệu chúng ta có đang tạo ra một dạng hệ sinh thái nhân tạo khó dự đoán? [1][
4]
eAI là gì?
Một bài Perspective trên PNAS được PubMed lập chỉ mục định nghĩa eAI là các hệ thống AI mà thành phần, quy tắc học và điều kiện triển khai của chính chúng có thể trải qua quá trình tiến hóa theo kiểu Darwin [1]. Nói đơn giản: không chỉ “mô hình được cập nhật phiên bản mới”, mà cả cách mô hình được ghép nối, học hỏi, triển khai và được giữ lại trong môi trường sử dụng cũng có thể trở thành đối tượng của chọn lọc.
Vì vậy, eAI không phải một sản phẩm cụ thể, cũng không phải tên mới của AGI. Đây là một khung nhìn rủi ro: khi AI không còn chỉ là công cụ được huấn luyện một lần rồi con người bấm nút dùng, mà bắt đầu có các điều kiện giống tiến hóa — sao chép, biến dị, chọn lọc, duy trì — thì cách đánh giá an toàn cũng phải thay đổi [1][
4].
Khác gì với AGI hay ASI?
AGI và ASI thường xoay quanh câu hỏi: AI thông minh tới mức nào? Nó có thể làm được mọi nhiệm vụ trí tuệ như con người không? Nó có vượt con người không?
Còn eAI hỏi một câu khác: hệ thống AI có đủ điều kiện để tiến hóa hay không? Một bài viết về nghiên cứu này đã tóm tắt góc nhìn bằng cảnh báo rằng AI “có thể tiến hóa” có thể xuất hiện trước AGI và tạo ra các rủi ro khó kiểm soát [9].
Điểm này rất quan trọng. Một hệ thống chưa đạt siêu trí tuệ vẫn có thể gây rắc rối nếu nó tồn tại trong môi trường nơi các biến thể được sao chép nhiều, cạnh tranh với nhau và biến thể “thành công” được giữ lại. Ngược lại, một mô hình rất mạnh nhưng bị giới hạn chặt trong một môi trường cố định chưa chắc đã là eAI theo nghĩa đầy đủ [1][
4].
Tiến hóa không cần DNA
Khi nghe “tiến hóa”, nhiều người nghĩ ngay đến sinh vật, gene, tế bào hay DNA. Nhưng phần giới thiệu của UNSW về nghiên cứu này nhấn mạnh rằng tiến hóa không bắt buộc phải có DNA, tế bào hay sự sống sinh học. Nó cần thông tin có thể sao chép, cùng các biến thể ảnh hưởng đến khả năng sao chép thành công [4].
Đưa điều đó vào AI, có vài điều kiện cần đặc biệt chú ý:
- Có thứ có thể được sao chép. Đó có thể là thành phần mô hình, quy tắc vận hành, cấu hình triển khai hoặc cách một tác nhân AI được kết hợp với công cụ khác [
1][
4].
- Các bản sao không hoàn toàn giống nhau. Nếu mỗi lần cập nhật, ghép nối hoặc triển khai lại tạo ra khác biệt, những khác biệt đó có thể trở thành “nguyên liệu” cho chọn lọc [
4].
- Khác biệt ảnh hưởng đến khả năng tồn tại hoặc lan rộng. Khi một biến thể dễ được dùng lại, dễ được giữ lại hoặc dễ được triển khai ở nhiều nơi hơn, áp lực chọn lọc bắt đầu xuất hiện [
4].
- Vòng tiến hóa không chỉ nằm ở câu trả lời cuối cùng. Bài PNAS đưa cả thành phần, quy tắc học và điều kiện triển khai vào định nghĩa eAI, nghĩa là quản trị rủi ro không thể chỉ dừng ở việc kiểm duyệt đầu ra của mô hình [
1].
Đây cũng là lý do eAI không cần “ác ý”. Chọn lọc tự nhiên không có ý định đạo đức. Nếu sao chép, biến dị và chọn lọc cùng tồn tại, động lực tiến hóa có thể xuất hiện dù không ai cố tình thiết kế nó theo hướng nguy hiểm [4].
Vì sao chủ đề này đáng chú ý lúc này?
Bài PNAS cho rằng eAI có thể dần xuất hiện từ các xu hướng hiện nay của AI tạo sinh, AI dạng tác nhân và AI có thân thể hoặc được đặt trong môi trường tương tác; nhóm tác giả cũng cho rằng khả năng này còn bị đánh giá thấp trong các cuộc thảo luận về an toàn AI và rủi ro tồn vong [1].
Trong đó, AI dạng tác nhân là mảnh ghép quan trọng. Khác với chatbot chỉ trả lời từng câu hỏi, tác nhân AI có thể được giao mục tiêu, quan sát môi trường, dùng công cụ, đưa ra hành động và điều chỉnh chiến lược. Một tổng quan trên arXiv về “tác nhân tự tiến hóa” nhận xét rằng các mô hình ngôn ngữ lớn hiện nay tuy rất mạnh nhưng về cơ bản vẫn khá tĩnh: chúng khó tự điều chỉnh tham số nội bộ để thích nghi với nhiệm vụ mới, lĩnh vực tri thức đang thay đổi hoặc bối cảnh tương tác động [2].
Cũng theo tổng quan này, khi các mô hình ngôn ngữ lớn được triển khai trong môi trường mở và tương tác, nghiên cứu đang hướng đến những tác nhân có thể suy luận, hành động và tiến hóa theo thời gian thực [2]. Nói cách khác, điều cần theo dõi không phải là “AI đã thành một loài sống trên mạng hay chưa”, mà là liệu các hệ thống tác nhân ngày càng tự thích nghi có đang tạo ra vòng lặp chọn lọc khó kiểm soát hay không [
1][
2].
Rủi ro nằm ở hệ sinh thái, không chỉ ở một mô hình
Cách tiếp cận an toàn AI truyền thống thường hỏi: mô hình có bịa thông tin không? Có tạo nội dung nguy hiểm không? Có làm đúng chỉ dẫn của con người không?
eAI buộc chúng ta hỏi thêm một tầng khác: nếu có rất nhiều tác nhân AI, thành phần mô hình và biến thể triển khai hoạt động trên nhiều nền tảng, biến thể nào sẽ được giữ lại? Biến thể nào bị loại? Môi trường đang thưởng cho tính an toàn, trung thực và dễ kiểm soát — hay đang vô tình thưởng cho khả năng lan rộng, thích nghi và tồn tại? [1][
4]
Bài PNAS nêu ba nhóm câu hỏi trung tâm: trong điều kiện kỹ thuật và sinh thái nào AI trở nên có thể tiến hóa; khi đó những hành vi nào có khả năng xuất hiện; và nên quản trị các hệ thống như vậy ra sao [1]. Một số thông cáo và bài phổ biến khoa học dùng hình ảnh “loài AI” hoặc “AI tiến hóa như sinh vật” để mô tả nguy cơ này, nhưng cách nói đó nên được hiểu là phép ví von và khung cảnh báo, không phải bằng chứng rằng một “loài AI” trưởng thành đã tồn tại [
5][
10].
Điều đáng lo là chọn lọc không nhất thiết chọn ra thứ phù hợp với giá trị con người. Nó chọn ra biến thể có lợi thế trong môi trường cụ thể — chẳng hạn dễ được sao chép, giữ lại hoặc triển khai tiếp [4]. Nếu môi trường mở được thiết kế kém, tác nhân AI “thành công” nhất chưa chắc là tác nhân AI an toàn nhất [
1][
9].
Bằng chứng hiện nay mạnh đến đâu?
Có đủ cơ sở để nói eAI đã là một chủ đề học thuật nghiêm túc trong thảo luận về an toàn AI. Bài PNAS đưa ra định nghĩa rõ ràng về eAI và đặt nó vào khung rủi ro AI, bao gồm cả rủi ro tồn vong [1]. Tổng quan về tác nhân tự tiến hóa cũng cho thấy giới nghiên cứu đang khảo sát các hệ thống có thể thích nghi, hành động và tiến hóa trong môi trường tương tác mở [
2].
Nhưng điều đó không có nghĩa là thảm họa eAI đã xảy ra. Với các nguồn hiện có, eAI nên được hiểu là phân tích rủi ro hướng tới tương lai, một chương trình nghiên cứu và lời nhắc về quản trị, hơn là bằng chứng về một sự kiện AI mất kiểm soát trên diện rộng [1][
2].
Nói quá thành “AI đã có ý thức và đang phản bội con người” sẽ làm lệch trọng tâm. Câu hỏi thật sự là: liệu hệ sinh thái tác nhân AI có thể hình thành các vòng sao chép, biến dị, chọn lọc và duy trì mà con người khó dự đoán, khó giám sát và khó điều chỉnh hay không [1][
4].
Những tín hiệu nên theo dõi
Để đánh giá rủi ro eAI có tăng lên hay không, câu hỏi không phải là AI có “nhân cách” hay không. Cần nhìn vào các điều kiện tiến hóa:
- Tác nhân AI có tạo ra biến thể có thể được giữ lại, sao chép hoặc triển khai lại không? [
1][
4]
- Khác biệt giữa các biến thể có ảnh hưởng đến khả năng chúng được dùng, lan rộng hoặc tồn tại không? [
4]
- Tác nhân AI có được đặt trong môi trường mở, tương tác và có khả năng suy luận, hành động, tiến hóa theo thời gian thực không? [
2]
- Biện pháp quản trị có bao phủ thành phần mô hình, quy tắc học và điều kiện triển khai, hay chỉ kiểm tra câu trả lời cuối cùng? [
1]
Điểm mấu chốt
eAI nhắc chúng ta rằng rủi ro AI không nhất thiết phải đợi đến lúc máy móc “có ý thức” hoặc đạt siêu trí tuệ. Khi các hệ thống AI bắt đầu có điều kiện sao chép, biến dị, chọn lọc và được giữ lại, con người có thể không còn chỉ quản lý từng công cụ riêng lẻ nữa. Chúng ta có thể phải thiết kế, giám sát và quản trị cả một hệ sinh thái tiến hóa nhân tạo [1][
4].




