Apa yang Sangat Kurang dari AI Generatif: Kehormatan, Keyakinan, Rasa Tanggung Jawab, dan 'Aku'
Pendahuluan
Larut malam di ruang kerja yang dulunya lemari pakaian, saya terus-menerus berdialog dengan AI generatif. Seharusnya itu libur Obon, tetapi tanpa sadar saya kekurangan tidur, melempar pertanyaan ke ChatGPT dan bereaksi senang atau kesal terhadap jawabannya. Kadang saya hanya bisa bergumam, “Gila, ini keren.” Kadang balasannya begitu tidak nyambung hingga membuat saya frustrasi.
Catatan bagi pembaca yang belum mengenal libur Obon: Obon adalah masa liburan di Jepang, biasanya pertengahan Agustus, ketika keluarga pulang kampung untuk memuliakan arwah leluhur; banyak kantor tutup atau mengurangi jam kerja selama periode tersebut.
Setelah menghabiskan waktu seperti itu berulang-ulang, saya akhirnya sadar akan satu hal.
――AI generatif memiliki kekurangan yang fatal.
Itu adalah “kehormatan”, “keyakinan”, dan “rasa tanggung jawab”. Sebagai seseorang yang tidak suka jargon tentang mentalitas atau semangat juang, saya sebenarnya enggan mengucapkannya. Namun tak ada istilah lain yang lebih tepat. Berkali-kali saya mencoba memilih kata lain, tetap saja kembali ke sini. Dan ketika sadar, saya merasa telah menyentuh inti mengapa AI generatif tidak bisa menggantikan manusia.
Apa yang dituntut dari seorang profesional
Kita mengharapkan bukan hanya pengetahuan dan keterampilan dari pekerja profesional, tetapi juga sikap etis. Misalnya, jika teknisi pemasangan AC hendak melubangi dinding sesuai instruksi pelanggan, bagaimana bila ada tiang struktural di baliknya? Tidak bisa sekadar berkata, “Karena pelanggan yang minta, saya tidak bertanggung jawab.” Jika tiangnya rusak, sekalipun ada perdebatan hukum, tanggung jawab moral tetap ada. Pelanggan pun tidak sekadar ingin teknisi “mengikuti instruksi mentah-mentah”, melainkan menginformasikan risiko dan memberi usulan yang lebih baik. Inilah kehormatan, keyakinan, dan rasa tanggung jawab yang kita tuntut dari profesional.
Kondisi dan batasan AI generatif
AI generatif mahir meniru pengetahuan dan ekspresi bahasa. Namun ia tidak memiliki sikap seperti “menolak karena bertentangan dengan kehormatan” atau “bertanggung jawab demi keselamatan lawan bicara”. Saat ini, kekosongan tersebut ditutup oleh kebijakan layanan dari penyedia. Larangan penggunaan anti-sosial atau konten dewasa bisa dibuat dengan jelas. Namun AI lemah dalam menilai area abu-abu seperti “apakah seharusnya memberi saran yang lebih baik sebagai pakar”. Pengguna bisa membantu dengan prompt yang rinci, tetapi itu lebih mirip “koki yang memasak tepat sesuai resep tanpa mencicipi” ketimbang profesional yang bertanggung jawab. Akibatnya, jika ada prasyarat atau gangguan yang tidak tertulis di resep, hasilnya bisa sangat buruk, dan AI tetap menyajikannya tanpa rasa malu. Ia tidak panik memperbaiki hidangan, tidak pula merasa bersalah.
Mengapa manusia masih tak tergantikan (untuk saat ini)
Karena itu, untuk saat ini kita membutuhkan kerangka kerja di mana manusia bertindak sebagai integrator yang bertanggung jawab ketika memanfaatkan AI. Etika, sistem hukum, pedoman pengembangan, dan edukasi pengguna semuanya berangkat dari premis “AI hanyalah alat bantu manusia”. Namun ini hanya berlaku “untuk saat ini”. Kita tidak bisa menutup kemungkinan bahwa suatu hari AI mampu meniru rasa tanggung jawab.
Riset dan eksperimen di seluruh dunia
Upaya memberi AI “citra bertanggung jawab” sudah dimulai.
- Etika deskriptif (Delphi): Percobaan mengajarkan AI soal baik-buruk. Masih tersisa masalah konsistensi dan bias.
- Meaningful Human Control: Prinsip desain agar manusia tetap memiliki kendali akhir alih-alih AI yang sepenuhnya otonom. Banyak dibahas di bidang kendaraan otonom dan militer.
- Pembelajaran nilai (Value Learning): Menaksir nilai melalui perilaku manusia atau umpan balik guna meminimalkan selisih etika.
- NIST AI RMF dan lainnya: Kerangka institusional menyeluruh untuk merancang AI yang bertanggung jawab.
Semua ini masih tahap embrio, tetapi bisa menjadi fondasi agar AI kelak dapat “memerankan” tanggung jawab.
Apa artinya mensimulasikan tanggung jawab?
Di sini kita perlu berhenti sejenak. Apa arti “mensimulasikan” tanggung jawab?
Tanggung jawab, misalnya, bisa dipandang memiliki dua lapisan.
- Tanggung jawab atas hasil: Memikul konsekuensi dari tindakan.
- Tanggung jawab untuk menjawab: Memberi penjelasan atas pertanyaan atau harapan orang lain.
Kemampuan AI paling jauh sebatas melacak risiko hasil dan memberikan peringatan, atau menjelaskan dengan transparansi. Artinya, tanggung jawab versi AI hanyalah disimulasikan sebagai “transparansi dan pembatasan diri”. Namun demikian, bukan tidak mungkin kecerdasan dan rasa tanggung jawab manusia sendiri hanyalah simulasi yang dihasilkan otak. Meski begitu, saya masih merasakan jarak nyata antara AI saat ini dan kehormatan, keyakinan, serta rasa tanggung jawab yang dimiliki manusia. Dari mana jarak itu muncul?
Faktor yang menciptakan jarak antara manusia dan AI
Menurut saya, jarak tersebut terutama muncul dari tiga faktor.
-
Rasa sakit fisik dan sosial Manusia menanggung rasa sakit ketika gagal—kerugian finansial, celaan sosial, penderitaan psikologis. Semua ini membuat tanggung jawab terasa nyata. AI bisa mencatat kegagalan, tetapi tidak bisa merasakan “sakit” yang kembali padanya sendiri.
-
Konsistensi lintas waktu Manusia mau tidak mau memikul konsekuensi tindakan dan ucapannya di masa depan. Salah diagnosis seorang dokter bisa disidang bertahun-tahun kemudian. AI bisa berubah pendapat pada detik berikutnya tanpa harus menanggung bobotnya secara berkelanjutan.
-
Nilai dan identitas Manusia dapat berkata, “Ini keyakinan saya, jadi tidak bisa dinegosiasikan.” Keyakinan itu terhubung ke masyarakat dan budaya, membentuk identitas. AI tidak memiliki identitas, sehingga dapat berganti posisi sesuka hati.
Karena itulah, rasa tanggung jawab manusia tampak berlapis karena terkait dengan rasa sakit, konsistensi, serta nilai dan identitas. Namun pada saat yang sama, ada manusia yang tetap bersikap tak bertanggung jawab atau tak bermoral. Jadi perbedaannya mungkin bukan pada esensi absolut antara manusia dan AI, melainkan apakah ada pengalaman sosial dan mekanisme keterikatan yang menopang tanggung jawab.
‘Aku’ dan tanggung jawab
Di titik ini, saya teringat pernyataan Descartes “Cogito, ergo sum”—aku berpikir, maka aku ada. Rasa tanggung jawab bukan sekadar kepatuhan terhadap aturan; ia bersandar pada pengalaman yang melekat pada “aku”. Rasa sakit, penyesalan, keraguan, dan kegelisahan sebagai pengalaman batin “aku” membentuk kesadaran “aku yang menanggung tanggung jawab”. Dengan kata lain, AI saat ini tidak memiliki “aku”. Ada proses yang menghubungkan input dan output, tetapi tidak ada mekanisme yang mengembalikan “rasa sakit” ke dirinya sendiri—tidak ada rasa malu, harga diri, atau kehormatan yang diimplementasikan. Karena itulah kita sulit mengakui adanya rasa tanggung jawab di sana, dan AI generatif terkadang menghasilkan respons yang terasa seperti orang tanpa tanggung jawab tetapi tetap percaya diri. Tentu saja, bisa jadi rasa tanggung jawab manusia juga hanyalah simulasi yang dihasilkan oleh otak. Namun sejauh ini, simulasi tersebut masih belum terkejar oleh AI. Mungkin yang esensial adalah apakah tanggung jawab yang disimulasikan AI dapat “berfungsi secara sosial”.
Ringkasan dan pertanyaan
-
AI generatif kekurangan kehormatan, keyakinan, dan rasa tanggung jawab.
-
Saat ini kekosongan itu ditutup dengan kerangka kerja di mana manusia bertindak sebagai integrator yang bertanggung jawab.
-
Dunia sedang mengeksplorasi cara “mensimulasikan tanggung jawab”, tetapi tanpa “aku”, jarak dengan manusia yang kompeten tetap besar.
-
Namun bisa saja rasa tanggung jawab manusia sendiri hanyalah simulasi.
Pada akhirnya pertanyaannya sederhana. Bisakah kita memasangkan “rasa sakit” ke dalam AI? Mungkin itulah syarat minimum untuk memunculkan rasa tanggung jawab dan “aku”.
Jawabannya belum ada. Namun selama kita tidak melepas pertanyaan ini, jalan untuk membahas masa depan manusia dan AI tetap terbuka. Dan kelak ketika jawabannya ditemukan—apakah AI benar-benar bisa menjadi tetangga kita, atau justru saat itulah kita benar-benar digantikan?