Kecerdasan Buatan dan Pertanggungjawaban Pidana: Rekonstruksi Subjek Hukum dan Mekanisme Pemidanaan dalam Paradigma KUHP Nasional

Transformasi digital yang dipicu oleh perkembangan pesat kecerdasan buatan atau Artificial Intelligence (AI) telah membawa peradaban manusia ke ambang revolusi hukum yang fundamental. Di satu sisi, teknologi ini menawarkan efisiensi tanpa batas dalam sektor kesehatan, keuangan, hingga sistem peradilan pidana itu sendiri. Namun, di sisi lain, otonomi yang dimiliki oleh AI menciptakan tantangan besar bagi doktrin hukum pidana tradisional yang selama berabad-abad didasarkan pada asumsi bahwa kejahatan adalah perbuatan eksklusif manusia. Pertanyaan provokatif mengenai “siapa yang masuk penjara jika robot melanggar hukum” bukan lagi sekadar premis fiksi ilmiah, melainkan sebuah kebutuhan mendesak untuk dijawab dalam kerangka hukum positif Indonesia terbaru, terutama dengan disahkannya Undang-Undang Nomor 1 Tahun 2023 tentang Kitab Undang-Undang Hukum Pidana (KUHP Nasional) dan revisi kedua Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) melalui UU Nomor 1 Tahun 2024.   

Ontologi dan Taksonomi Kejahatan Kecerdasan Buatan

Memahami pertanggungjawaban pidana AI memerlukan pemahaman mendalam mengenai karakteristik teknologi itu sendiri. AI didefinisikan sebagai sistem yang mampu meniru fungsi kognitif manusia, seperti belajar, pemecahan masalah, dan pengambilan keputusan. Berdasarkan kemampuannya, AI diklasifikasikan menjadi tiga tingkatan: Artificial Narrow Intelligence (ANI) yang dirancang untuk tugas tertentu, Artificial General Intelligence (AGI) yang setara dengan kecerdasan manusia, dan Artificial Super Intelligence (ASI) yang secara teoritis melampaui kapasitas manusia. Di Indonesia, penggunaan AI sudah merambah ke berbagai sektor, mulai dari sistem navigasi cerdas, chatbot perbankan, hingga teknologi pengenalan wajah untuk keamanan publik.   

Dalam konteks hukum pidana, kejahatan yang melibatkan AI dapat dikategorikan dalam tiga tipe besar yang menentukan arah penyelidikan dan penuntutan :   

Kategori Kejahatan AIDeskripsi MekanismeImplikasi Pertanggungjawaban
Kejahatan yang Difasilitasi AIAI digunakan untuk mempermudah kejahatan konvensional, seperti otomatisasi akun palsu atau peretasan sistem.Tanggung jawab penuh pada pelaku manusia sebagai pengguna alat.
Kejahatan yang Didukung AIKejahatan yang tidak mungkin terjadi tanpa adanya AI, seperti manipulasi pasar keuangan melalui algoritma frekuensi tinggi.Memerlukan pembuktian kesalahan pada perancang dan pengawas sistem.
Kejahatan yang Didorong AIKejahatan di mana AI mengambil keputusan otonom yang melanggar hukum tanpa instruksi langsung dari manusia.Menimbulkan tantangan terbesar dalam mencari mens rea (sikap batin).

Fenomena deepfake merupakan salah satu contoh paling nyata dari penyalahgunaan AI yang merugikan martabat manusia. Teknologi ini mampu menciptakan konten audio dan visual manipulatif yang menyerupai kenyataan, yang sering digunakan untuk penyebaran pornografi non-konsensual, pencemaran nama baik, hingga disinformasi politik. Meskipun UU ITE dan KUHP Nasional telah mengatur perlindungan terhadap data pribadi dan kehormatan, masih terdapat celah hukum (legal vacuum) terkait konten deepfake yang bersifat asusila namun tidak secara eksplisit terakomodasi dalam rumusan delik konvensional.   

Dilema Subjek Hukum: Antara Alat dan Entitas Mandiri

Hukum pidana Indonesia secara tradisional menganut paradigma antroposentris, di mana subjek hukum utama adalah manusia (natuurlijk persoon) yang dianggap memiliki akal dan kehendak bebas (free will). Namun, evolusi korporasi sebagai subjek hukum pidana telah membuka jalan bagi pengakuan entitas non-manusia lainnya. Dalam diskursus hukum saat ini, terdapat perdebatan sengit mengenai apakah AI harus tetap dianggap sebagai objek hukum (alat), atau sudah waktunya diakui sebagai subjek hukum terbatas.   

AI sebagai Agen Elektronik

Dalam perspektif UU ITE, AI dikategorikan sebagai “Agen Elektronik,” yakni perangkat dari suatu sistem elektronik yang dibuat untuk melakukan tindakan otomatis terhadap informasi elektronik tertentu. Sebagai agen elektronik, segala akibat hukum yang timbul dari tindakannya secara otomatis menjadi tanggung jawab penyelenggara sistem elektronik (PSE) tersebut. Konstruksi ini mengasumsikan bahwa AI hanyalah perpanjangan tangan dari subjek hukum manusia atau badan hukum yang menyelenggarakannya.   

Namun, pandangan ini mulai goyah ketika AI menunjukkan kemampuan “belajar mandiri” (machine learning) yang menghasilkan keputusan yang tidak pernah dibayangkan oleh penciptanya. Jika sebuah mobil otonom memilih untuk menabrak pejalan kaki demi menghindari kecelakaan yang lebih besar, dan keputusan itu murni hasil kalkulasi algoritma otonom, maka mengkategorikan AI hanya sebagai “alat” menjadi tidak memadai secara filosofis hukum.   

Analogi Korporasi dan Status “Legal Person”

Sebagian akademisi mengusulkan agar AI diberikan status subjek hukum badan (legal person / recht person) yang dianalogikan dengan korporasi. Korporasi adalah entitas buatan yang tidak memiliki fisik namun dapat memikul hak dan kewajiban hukum. Alasan utama persamaan ini adalah baik AI maupun korporasi sama-sama beroperasi berdasarkan sistem yang dirancang manusia dan tidak memiliki kesadaran emosional.   

Pemberian status subjek hukum kepada AI akan memungkinkan sistem tersebut memiliki aset sendiri untuk membayar ganti rugi, atau dikenai sanksi administratif seperti penonaktifan permanen. Namun, hambatan terbesarnya adalah AI tidak memiliki “jiwa” atau “mentalitas” yang menjadi syarat mutlak untuk menentukan adanya kesalahan dalam hukum pidana.   

Perbandingan KarakteristikManusiaKorporasiArtificial Intelligence
Kehendak BebasAlami dan OtonomFungsional (melalui Pengurus)Algoritmik/Deterministik 
Sikap Batin (Mens Rea)Nyata/PsikologisAtribusi dari PengurusBelum Diakui (Black Box) 
Bentuk SanksiPenjara, Denda, MatiDenda, PembubaranDeaktivasi, Audit, Denda 

Doktrin Pertanggungjawaban Pidana dalam Kejahatan Algoritmik

Prinsip fundamental dalam hukum pidana adalah geen straf zonder schuld atau tiada pidana tanpa kesalahan. Untuk memidanakan seseorang, harus dipenuhi dua elemen: actus reus (perbuatan fisik yang dilarang) dan mens rea (kehendak jahat atau kelalaian). Dalam kejahatan AI, identifikasi actus reus mungkin relatif mudah melalui bukti digital, namun mencari mens rea di balik algoritma yang kompleks adalah tantangan yang sering disebut sebagai “masalah kotak hitam” (black box problem).   

Model Pertanggungjawaban Gabriel Hallevy

Kajian hukum pidana modern di Indonesia mulai mengadopsi tiga model pertanggungjawaban yang dirumuskan oleh Gabriel Hallevy untuk menjawab tantangan AI :   

  1. Model Pelaku melalui Orang Lain (Perpetration-via-Another Model): Model ini memandang AI sebagai agen yang tidak bersalah (innocent agent). Pertanggungjawaban pidana sepenuhnya diletakkan pada manusia (pemrogram atau pengguna) yang memberikan instruksi atau merancang algoritma tersebut dengan niat jahat. Jika seorang kriminal memprogram robot untuk mencuri, maka robot tersebut hanyalah alat, dan pemrogramlah yang masuk penjara.   
  2. Model Akibat yang Wajar (Natural-and-Probable-Consequence Model): Model ini digunakan jika kejahatan terjadi bukan karena instruksi langsung, melainkan akibat kelalaian manusia dalam mengawasi atau memprediksi risiko malfungsi AI. Misalnya, seorang pengembang sistem kemudi otomatis yang mengabaikan bug berbahaya dalam kodenya dapat dipidana atas dasar kealpaan (culpa) jika sistem tersebut menyebabkan kematian, karena akibat tersebut seharusnya dapat diperkirakan (foreseeable).   
  3. Model Tanggung Jawab Langsung (Direct Liability Model): Model ini secara progresif melekatkan tanggung jawab pidana langsung pada AI sebagai subjek hukum mandiri. Model ini menuntut pemenuhan unsur actus reus dan mens rea secara artifisial. Meskipun sulit diterapkan pada AI saat ini, model ini diproyeksikan untuk masa depan ketika AI mencapai tingkat otonomi penuh (AGI).   

Doktrin Vicarious Liability dan Strict Liability

Mengingat AI di Indonesia saat ini belum diakui sebagai subjek hukum mandiri, penegakan hukum cenderung menggunakan doktrin pertanggungjawaban pengganti (vicarious liability). Doktrin ini memungkinkan pertanggungjawaban pidana dibebankan kepada atasan atau pemilik atas tindakan bawahannya (dalam hal ini AI) yang dilakukan dalam lingkup pekerjaannya.   

Selain itu, prinsip tanggung jawab mutlak (strict liability) juga diusulkan untuk kejahatan yang berkaitan dengan perlindungan data pribadi dan keamanan siber. Dalam strict liability, jaksa tidak perlu membuktikan adanya niat jahat atau kelalaian; cukup dengan bukti bahwa telah terjadi pelanggaran hukum oleh sistem AI, maka pengendali sistem tersebut dapat langsung dimintai pertanggungjawaban.   

Bedah UU No. 1 Tahun 2023 (KUHP Nasional) terhadap Kejahatan AI

KUHP Nasional yang disahkan pada tahun 2023 merupakan tonggak reformasi hukum pidana Indonesia yang lebih responsif terhadap perkembangan teknologi informasi. Meskipun tidak secara eksplisit memuat kata “Kecerdasan Buatan,” beberapa ketentuan di dalamnya sangat krusial dalam menjerat pelaku kejahatan digital.   

Perluasan Subjek Hukum Korporasi

Pasal 145 KUHP Nasional menegaskan bahwa “Setiap Orang” mencakup orang perseorangan dan korporasi. Ini adalah langkah maju yang besar karena sebelumnya dalam KUHP lama (WvS), korporasi tidak dianggap sebagai subjek hukum pidana secara umum. Dengan pengakuan ini, perusahaan pengembang AI kini dapat secara langsung dituntut jika produk mereka digunakan untuk aktivitas ilegal yang menguntungkan korporasi.   

Mekanisme pertanggungjawaban korporasi dalam KUHP Nasional diatur secara detail dalam Pasal 45 sampai Pasal 50. Tindak pidana oleh korporasi terjadi jika dilakukan oleh pengurus yang mempunyai kedudukan fungsional, pemberi perintah, atau orang yang bertindak demi kepentingan korporasi.   

Unsur “Kelalaian dalam Pencegahan”

Salah satu pasal paling relevan bagi industri AI adalah Pasal 48 huruf d KUHP Nasional, yang menyatakan bahwa korporasi dapat dimintai pertanggungjawaban jika korporasi tersebut “tidak melakukan langkah-langkah yang diperlukan untuk melakukan pencegahan, mencegah dampak yang lebih besar, dan memastikan kepatuhan terhadap ketentuan hukum yang berlaku”.   

Implikasi hukum dari pasal ini sangat dalam: pengembang AI tidak bisa lagi berkelit dengan alasan bahwa AI mereka beroperasi secara otonom dan di luar kendali. Jika sebuah perusahaan teknologi meluncurkan algoritma yang terbukti melakukan diskriminasi sistemik atau membocorkan data nasabah secara masif tanpa adanya audit keamanan yang memadai, maka perusahaan tersebut telah memenuhi unsur “membiarkan terjadinya tindak pidana” atau gagal dalam pencegahan.   

Jenis Pemidanaan bagi Korporasi

Karena korporasi tidak bisa dipenjara, KUHP Nasional menetapkan sanksi yang berfokus pada kerugian ekonomi dan operasional :   

  • Pidana Pokok: Berupa denda, paling sedikit kategori IV (Rp200 juta) dan dapat mencapai kategori VIII (Rp50 miliar) tergantung pada tingkat kerugian yang ditimbulkan.   
  • Pidana Tambahan: Meliputi pembayaran ganti rugi, perbaikan akibat tindak pidana, pencabutan izin tertentu, pembekuan kegiatan usaha, hingga pembubaran korporasi secara permanen.   

Namun, Pasal 49 KUHP Nasional menegaskan bahwa penjatuhan pidana kepada korporasi tidak menghapuskan tanggung jawab pidana bagi individu pengurusnya. Artinya, jika terbukti ada elemen kesengajaan atau kelalaian besar dari jajaran direksi, mereka tetap bisa dijatuhi hukuman penjara secara individual.   

UU ITE 2024 dan UU Perlindungan Data Pribadi: Instrumen Pelengkap

Dalam konteks tindak pidana siber yang didukung AI, UU ITE (terutama perubahan kedua tahun 2024) dan UU Perlindungan Data Pribadi (UU PDP) tahun 2022 bertindak sebagai lex specialis.   

Pasal-Pasal Kunci UU ITE Terbaru

UU Nomor 1 Tahun 2024 membawa penegasan kembali terhadap beberapa delik yang sering melibatkan teknologi AI :   

  • Pasal 27A: Mengatur mengenai penyerangan kehormatan atau nama baik orang lain melalui sistem elektronik. AI yang digunakan untuk membuat konten fitnah (termasuk deepfake) dapat dijerat melalui pasal ini.   
  • Pasal 28: Mengatur mengenai penyebaran berita bohong atau informasi menyesatkan yang merugikan konsumen. Otomatisasi disinformasi melalui AI menjadi sasaran utama pasal ini.   
  • Pasal 40A: Memberikan kewajiban kepada pemerintah untuk mendorong terciptanya ekosistem digital yang adil dan aman, yang menjadi landasan bagi regulasi teknis AI di masa depan.   

Relevansi UU PDP terhadap Pemrosesan Otomatis

Kejahatan AI sering kali bersumber dari pemrosesan data pribadi tanpa izin atau dengan tujuan jahat. UU PDP secara tegas memberikan hak kepada subjek data untuk menolak pemrosesan data yang dilakukan secara otomatis, termasuk profilaksis (profiling) yang dilakukan oleh algoritma AI.   

Pasal 70 UU PDP menetapkan bahwa dalam hal tindak pidana dilakukan oleh korporasi, pidana dapat dijatuhkan kepada pengurus, pemegang kendali, hingga pemilik manfaat. Hal ini sangat relevan untuk perusahaan teknologi skala besar yang menggunakan AI untuk memanen data biometrik atau data sensitif lainnya tanpa persetujuan eksplisit dari pemilik data.   

Siapa yang Masuk Penjara? Penentuan Pelaku dalam Rantai Komando Digital

Menjawab pertanyaan inti mengenai “siapa yang masuk penjara,” hukum pidana Indonesia akan melihat pada siapa yang memiliki kendali nyata (actual control) dan niat jahat (mens rea) dalam peristiwa tersebut.   

1. Perancang dan Pemrogram (Programmer)

Seorang pemrogram dapat dijatuhi hukuman penjara jika terbukti secara sengaja menyisipkan kode berbahaya atau algoritma yang dirancang untuk melakukan kejahatan, seperti malware berbasis AI atau sistem penipuan otomatis. Tanggung jawab ini muncul dari peran mereka sebagai pihak yang memberikan “instrumen” kejahatan.   

2. Pengguna Akhir (User / Operator)

Pengguna yang memanfaatkan AI untuk melakukan tindakan kriminal, seperti menggunakan AI untuk membuat gambar asusila anak atau melakukan penipuan identitas, akan dianggap sebagai pelaku utama (pleger). Dalam konteks ini, AI hanyalah sarana atau alat bantu kejahatan, dan hukumannya setara dengan kejahatan konvensional yang dilakukan tanpa bantuan AI.   

3. Jajaran Direksi dan Manajer Korporasi

Berdasarkan KUHP Nasional, jika sebuah sistem AI melanggar hukum karena kebijakan korporasi atau kegagalan manajemen dalam mengawasi produknya, maka individu pengurus yang memiliki kedudukan fungsional dalam struktur organisasi korporasi dapat dijatuhi pidana penjara. Mereka dianggap bertanggung jawab karena membiarkan terjadinya tindak pidana dalam lingkup operasional perusahaan mereka.   

Skenario Malfungsi AIPelaku UtamaDasar Hukum
Pemrogram sengaja memasukkan algoritma pencurian data.Pemrogram/DeveloperPasal 46 UU ITE & Pasal 362 KUHP.
Perusahaan mengabaikan peringatan keamanan sistem AI yang fatal.Direksi/PengurusPasal 48 huruf d KUHP Nasional.
Pengguna menggunakan deepfake untuk memeras orang lain.Pengguna (User)Pasal 27B UU ITE & Pasal 368 KUHP.
Robot otonom melakukan kesalahan yang tidak dapat diprediksi.Masih diperdebatkanModel Natural Probable Consequence.

Keadilan Robot: AI di Meja Hijau dan Tantangan Integritas Hakim

Wacana pertanggungjawaban pidana AI tidak hanya berhenti pada pelaku, tetapi juga merambah pada penggunaan AI dalam sistem peradilan pidana itu sendiri. Di Indonesia, Mahkamah Agung telah mulai melirik penggunaan teknologi untuk meningkatkan efisiensi proses hukum, namun dengan peringatan keras agar nalar hukum tidak kalah dari robot.   

Supremasi Nurani vs Algoritma

Salah satu isu krusial adalah keterbatasan AI dalam memahami keadilan substantif. Sistem AI bekerja berdasarkan data historis yang mungkin mengandung bias diskriminatif di masa lalu. Jika AI digunakan untuk merekomendasikan vonis atau menilai risiko residivisme, terdapat bahaya besar bahwa ketidakadilan masa lalu akan direplikasi secara otomatis oleh mesin.   

Ketua Mahkamah Agung Indonesia menekankan bahwa meskipun AI dapat membantu dalam analisis data forensik dan penyusunan draf putusan, supremasi nurani hakim tidak boleh digantikan. Hakim memiliki kewajiban moral untuk melihat aspek kemanusiaan yang mungkin tidak tertangkap oleh algoritma, seperti latar belakang sosial dan kondisi psikologis terdakwa yang bersifat unik dalam setiap kasus.   

Transparansi dalam Pembuktian Digital

Penggunaan bukti digital yang dihasilkan oleh AI juga menimbulkan masalah dalam hukum acara pidana. Berdasarkan UU ITE, bukti elektronik adalah alat bukti yang sah, namun pembuktian keasliannya memerlukan keterangan ahli yang mendalam. Jika AI bertindak sebagai “kotak hitam” yang tidak bisa dijelaskan cara kerjanya, maka nilai pembuktiannya akan sangat lemah dan berisiko melanggar hak terdakwa untuk mendapatkan proses peradilan yang adil (fair trial).   

Perbandingan Global: Menakar Posisi Indonesia terhadap EU AI Act

Indonesia saat ini masih berada dalam tahap awal pengaturan AI, yang ditandai dengan Strategi Nasional Kecerdasan Artifisial 2020-2045 dan Surat Edaran Kominfo No. 9 Tahun 2023. Sebaliknya, Uni Eropa telah melangkah jauh dengan mengesahkan EU Artificial Intelligence Act (2024/1689), yang merupakan regulasi komprehensif pertama di dunia mengenai AI.   

Pendekatan Berbasis Risiko

Uni Eropa menggunakan pendekatan berbasis risiko untuk menentukan tingkat pengawasan dan sanksi :   

  1. Risiko Tidak Dapat Diterima: Praktik AI yang dilarang sepenuhnya, seperti penilaian sosial (social scoring) yang dapat menindas hak individu.   
  2. Risiko Tinggi: Penggunaan AI dalam sektor kritis (peradilan, kesehatan, infrastruktur) yang diwajibkan menjalani audit ketat, transparansi penuh, dan pengawasan manusia (human oversight).   
  3. Risiko Rendah: Aplikasi seperti filter spam yang hanya memerlukan kewajiban transparansi minimal.   

Bagi Indonesia, mengadopsi prinsip klasifikasi risiko ini sangat penting untuk memberikan kepastian hukum bagi investor teknologi sekaligus melindungi masyarakat dari dampak negatif AI. Tanpa regulasi yang eksplisit dan mengikat (bukan sekadar surat edaran), Indonesia berisiko menjadi pasar bagi teknologi AI yang tidak aman dan tidak akuntabel secara hukum.   

Kesimpulan dan Rekomendasi Kebijakan

Kehadiran AI telah mengguncang pondasi hukum pidana Indonesia yang selama ini hanya berfokus pada subjek manusia. Dengan berlakunya KUHP Nasional (UU 1/2023), sistem hukum kita telah memiliki jaring pengaman awal melalui perluasan pertanggungjawaban korporasi. Namun, jaring ini masih memerlukan penguatan substansial untuk menghadapi keunikan otonomi AI.   

Siapa yang Bertanggung Jawab?

Berdasarkan analisis hukum pidana terbaru, pihak yang paling berisiko masuk penjara jika terjadi pelanggaran hukum oleh AI adalah:

  • Pengembang/Pemrogram jika terbukti ada kesengajaan dalam desain sistem yang jahat.   
  • Pengguna Akhir yang menjadikan AI sebagai alat kejahatan.   
  • Pengurus Korporasi yang lalai dalam melakukan langkah-langkah pencegahan dan kepatuhan hukum terhadap sistem AI yang mereka kelola.   

Langkah Strategis Masa Depan

  1. Kodifikasi Regulasi AI: Pemerintah perlu segera merumuskan undang-undang khusus (lex specialis) tentang AI yang mengatur standar etika, mekanisme audit algoritma, dan pembagian tanggung jawab yang jelas dalam rantai pasokan teknologi.   
  2. Reformasi Hukum Acara: Perlu ada penyesuaian dalam hukum acara pidana untuk mengakomodasi pembuktian terhadap algoritma “kotak hitam,” termasuk penguatan peran ahli forensik digital dalam persidangan.   
  3. Audit dan Transparansi: Mewajibkan pelabelan konten hasil AI (watermarking) dan pelaporan berkala bagi penyelenggara AI berisiko tinggi untuk mencegah penyalahgunaan konten manipulatif seperti deepfake.   
  4. Edukasi Penegak Hukum: Meningkatkan kapasitas teknis bagi hakim, jaksa, dan polisi agar mampu memahami logika algoritmik dalam melakukan penilaian kesalahan pidana.   

Pada akhirnya, hukum harus tetap menjadi panglima di era digital. Meskipun kecerdasan buatan dapat melampaui kemampuan nalar manusia dalam banyak hal, tanggung jawab moral dan hukum harus tetap berakar pada subjek hukum manusia yang menciptakan, mengendalikan, dan mengambil manfaat dari teknologi tersebut. Sebagaimana prinsip keadilan substantif yang kita anut, tidak boleh ada kekosongan tanggung jawab di tengah kemajuan teknologi yang begitu pesat.   

Gulir ke Atas