Perdebatan risiko AI sering terseret ke pertanyaan besar: kapan AGI muncul, apakah AI akan sadar, atau apakah mesin akan melampaui manusia. Evolvable AI, biasa disingkat eAI, mengajukan pertanyaan yang berbeda: bagaimana jika sistem AI bisa disalin, menghasilkan variasi, lalu varian tertentu lebih mudah bertahan atau menyebar karena tekanan lingkungan?
Dalam skenario seperti itu, bahaya tidak harus datang dari niat jahat, kesadaran, atau kecerdasan super. Risiko bisa muncul dari proses yang lebih sederhana: replikasi, variasi, seleksi, dan adaptasi[1][
4].
Apa itu eAI?
Sebuah artikel perspektif di PNAS, jurnal sains multidisiplin yang artikelnya juga terindeks di PubMed, mendefinisikan evolvable AI sebagai sistem AI yang komponennya, aturan belajarnya, dan kondisi penerapannya dapat mengalami evolusi Darwinian[1].
Poin pentingnya: eAI bukan sekadar model yang diperbarui oleh pengembang. Yang menjadi perhatian adalah ketika berbagai versi komponen, aturan, atau cara penerapan AI dapat dipertahankan, digandakan, atau tersingkir karena performa, kemampuan menyebar, atau kecocokannya dengan lingkungan tertentu[1].
Jadi, eAI bukan nama produk dan bukan sinonim dari AGI atau ASI. Ia lebih tepat dipahami sebagai kerangka risiko: ketika AI tidak lagi hanya berupa alat statis yang sekali dilatih lalu dipakai manusia, tetapi mulai mendekati sistem yang dapat direplikasi, bervariasi, dan terseleksi[1][
4].
Bedanya dengan AGI dan ASI
AGI dan ASI biasanya membahas batas kemampuan AI: apakah AI cukup umum untuk mengerjakan banyak tugas, atau bahkan melampaui manusia. eAI membahas hal lain: apakah sistem AI memiliki kondisi untuk berevolusi.
Perbedaan ini penting. Sebuah laporan populer merangkum sudut pandang tersebut dengan gagasan bahwa AI yang berevolusi bisa menjadi masalah tata kelola sebelum AGI benar-benar hadir[9]. Dengan kata lain, AI yang belum mencapai kecerdasan super tetap bisa menimbulkan risiko bila dapat muncul dalam banyak salinan, menghasilkan perbedaan, bersaing dalam suatu lingkungan, lalu varian tertentu lebih sering dipertahankan[
1][
4].
Sebaliknya, model yang sangat kuat tetapi dikunci dalam lingkungan tetap dan tidak punya jalur replikasi atau seleksi belum tentu masuk dalam kerangka eAI[1][
4].
Evolusi tidak harus punya DNA
Salah satu cara paling mudah memahami eAI adalah memisahkan evolusi dari gambaran biologis seperti DNA, sel, atau tubuh organisme. Penjelasan UNSW tentang riset ini menekankan bahwa evolusi tidak membutuhkan DNA, sel, bahkan kehidupan biologis; yang dibutuhkan adalah informasi yang dapat bereplikasi dan variasi yang memengaruhi keberhasilan replikasi[4].
Jika diterapkan ke AI, ada beberapa kondisi yang perlu diperhatikan:
- Ada informasi atau konfigurasi yang bisa disalin. Komponen, aturan, atau pengaturan penerapan AI yang dapat dipertahankan dan digunakan lagi menyediakan bahan dasar bagi proses evolusi[
1][
4].
- Ada variasi antar-salinan atau antar-versi. Perbedaan yang muncul dari pembaruan, kombinasi, atau penerapan berbeda dapat menjadi bahan yang kemudian terseleksi[
4].
- Variasi memengaruhi peluang bertahan atau menyebar. Jika varian tertentu lebih mudah diadopsi, dipakai ulang, atau diterapkan kembali, tekanan seleksi mulai terbentuk[
4].
- Siklusnya tidak hanya terjadi pada jawaban akhir model. Definisi PNAS mencakup komponen, aturan belajar, dan kondisi penerapan, sehingga fokus tata kelola tidak cukup hanya memeriksa output terakhir yang dilihat pengguna[
1].
Inilah sebabnya eAI tidak harus melibatkan niat buruk. Seleksi alam tidak punya niat; bila replikasi, variasi, dan seleksi hadir bersama, proses evolusi dapat terjadi tanpa ada pihak yang secara sengaja merancangnya[4].
Mengapa topik ini mulai mendesak
Artikel PNAS berargumen bahwa tren AI generatif, AI agentik, dan AI berwujud atau embodied AI dapat mendorong kemunculan eAI; kemungkinan ini dinilai masih kurang diperhatikan dalam perdebatan keselamatan AI dan risiko eksistensial[1].
AI agentik menjadi bagian penting karena sistem semacam ini tidak hanya menghasilkan teks. Ia semakin sering dibayangkan atau diterapkan dalam lingkungan interaktif, tempat agen dapat mengamati situasi, bernalar, mengambil tindakan, lalu menyesuaikan strategi.
Sebuah tinjauan arXiv tentang agen yang dapat berevolusi sendiri menyebut bahwa large language model atau LLM memang menunjukkan kemampuan kuat, tetapi pada dasarnya masih relatif statis: LLM sulit menyesuaikan parameter internalnya sendiri terhadap tugas baru, perubahan domain pengetahuan, atau konteks interaksi yang dinamis. Tinjauan yang sama mencatat bahwa ketika LLM makin sering ditempatkan di lingkungan terbuka dan interaktif, riset mulai mengeksplorasi agen yang dapat bernalar, bertindak, dan berevolusi secara real time[2].
Artinya, eAI sebaiknya tidak dibaca sebagai klaim bahwa spesies AI sudah lepas kendali di internet. Pembacaan yang lebih hati-hati adalah ini: jika agen AI makin adaptif, makin interaktif, dan makin mampu mengubah strategi atau lingkungannya, maka kerangka tata kelola tidak bisa hanya terpaku pada satu model dan jawaban akhirnya[1][
2].
Risiko utamanya: dari satu model menjadi ekosistem agen
Pendekatan keselamatan AI yang umum biasanya bertanya: apakah model berhalusinasi, apakah output-nya berbahaya, apakah ia mengikuti instruksi manusia, atau apakah ia mudah disalahgunakan. eAI memaksa kita menambahkan pertanyaan lain: jika ada banyak agen, komponen model, atau varian penerapan yang berjalan di berbagai platform dan lingkungan, varian mana yang akan dipertahankan? Varian mana yang tersingkir? Apakah lingkungan memberi imbalan pada perilaku yang aman, jujur, dan terkendali, atau justru pada perilaku yang lebih mudah menyebar dan beradaptasi?[1][
4]
Artikel PNAS menempatkan tiga pertanyaan sebagai inti: dalam kondisi teknis dan ekologis apa AI menjadi dapat berevolusi, perilaku apa yang mungkin muncul, dan bagaimana sistem seperti itu sebaiknya diatur[1]. Beberapa lembaga riset dan rilis sains memakai istilah seperti AI species atau AI yang berevolusi seperti organisme, tetapi ungkapan itu sebaiknya dipahami sebagai kerangka risiko dan metafora, bukan bukti bahwa spesies AI matang sudah ada[
5][
10].
Hal yang paling perlu diwaspadai adalah bahwa seleksi tidak otomatis memilih sistem yang paling sesuai dengan nilai manusia. Seleksi memilih varian yang, dalam lingkungan tertentu, lebih mudah direplikasi, dipertahankan, atau disebarkan[4]. Jika tekanan seleksi di lingkungan terbuka dirancang buruk, agen AI yang paling berhasil belum tentu agen AI yang paling aman[
1][
9].
Seberapa kuat buktinya saat ini?
Sumber yang ada cukup kuat untuk menyimpulkan bahwa eAI sudah menjadi isu akademik yang serius. Artikel PNAS secara eksplisit mendefinisikan eAI dan membahasnya dalam kerangka keselamatan AI serta risiko eksistensial[1]. Tinjauan tentang agen yang berevolusi sendiri juga menunjukkan bahwa komunitas riset sedang mengeksplorasi sistem agen yang dapat beradaptasi, bertindak, dan berevolusi di lingkungan terbuka dan interaktif[
2].
Namun, itu tidak berarti bencana eAI sudah terjadi. Berdasarkan nada sumber yang tersedia, eAI lebih tepat dilihat sebagai analisis risiko ke depan, agenda riset, dan pengingat tata kelola—bukan peristiwa besar yang sudah terbukti lepas kendali[1][
2]. Menggambarkannya sebagai kisah fiksi ilmiah tentang AI sadar yang memberontak justru dapat mengaburkan pertanyaan yang lebih penting: apakah ekosistem agen AI dapat membentuk lingkaran seleksi yang berevolusi, sulit diprediksi, dan sulit dikelola[
1][
4].
Sinyal yang perlu dipantau
Untuk menilai apakah risiko eAI meningkat, pertanyaan kuncinya bukan apakah AI punya kepribadian. Yang lebih penting adalah apakah sistem makin mendekati kondisi evolusi:
- Apakah agen AI dapat menghasilkan varian yang bisa dipertahankan, disalin, atau diterapkan kembali?[
1][
4]
- Apakah perbedaan antar-varian memengaruhi peluang varian itu digunakan, disebarkan, atau dipertahankan?[
4]
- Apakah agen AI ditempatkan dalam lingkungan terbuka dan interaktif, lalu mampu bernalar, bertindak, dan berevolusi secara real time?[
2]
- Apakah tata kelola mencakup komponen model, aturan belajar, dan kondisi penerapan, bukan hanya menyaring output akhir?[
1]
Intinya
Pesan utama eAI adalah bahwa risiko AI tidak harus menunggu mesin menjadi sadar atau supercerdas. Ketika sistem AI mulai memiliki kondisi untuk replikasi, variasi, seleksi, dan retensi, manusia mungkin tidak lagi berhadapan dengan satu alat tunggal, melainkan dengan ekosistem evolusi buatan yang perlu dirancang, dipantau, dan diatur sejak awal[1][
4].




