Kepala Pusat
Penelitian untuk Asia Pasifik di Kaspersky, Vitaly Kamluk mengungkap bahwa
penjahat siber mulai memanfaatkan Artificial Intelligence (AI) atau kecerdasan
buatan untuk beraksi. Bahayanya, aksi mereka sulit terdeteksi.
Vitaly Kamluk
tidak membantah jika teknologi AI sangat membantu pekerjaan manusia. Namun,
bagai pedang bermata dua, kecerdasan buatan juga dimanfaatkan penjahat siber
untuk beraksi.
"Memang
benar bahwa dengan munculnya AI kita telah melihat terobosan teknologi yang
dapat meniru konten serupa dengan apa yang dilakukan manusia," kata Vitaly
Kamluk dalam acara Cyber Security Weekend, di Bali, Kamis (24/8/2023).
Dia
menambahkan, mulai dari gambar hingga suara, video deepfake, dan bahkan
percakapan berbasis teks yang tidak dapat dibedakan dengan manusia.
"Seperti
kebanyakan terobosan teknologi, AI adalah pedang bermata dua. Kita selalu dapat
memanfaatkannya selama kita tahu cara menetapkan arahan yang aman untuk mesin
pintar ini,” sambung Vitaly Kamluk.
Kamluk
menjelaskan ketika penjahat siber menjalankan aksinya, mereka bisa membuat AI
yang disalahkan. Pasalnya, mereka mudah menghilangkan jejak usai beraksi.
"Menciptakan
AI yang secara ajaib mendatangkan uang atau keuntungan ilegal akan semakin
mengaburkan tindakan kriminal para penjahat siber, karena bukan mereka saja
yang harus disalahkan, melainkan AI,” jelas Kamluk.
“Sistem
pertahanan yang cerdas bisa menjadi kambing hitam. Selain itu, kehadiran
autopilot yang sepenuhnya independen mengurangi perhatian kontrol manusia,”
sambungnya.
Vitaly Kamluk
pun membagikan tips supaya AI tidak disalahgunakan oleh penjahat siber.
Beberapa hal
mesti dilakukan dari mulai pembatasan, kebijakan penggunaan, sampai edukasi.
"Mirip
dengan WWW, harus ada prosedur untuk menangani penyalahgunaan dan pelanggaran
AI serta kontak yang jelas untuk melaporkan pelanggaran," jelasnya.
Kepala Pusat
Penelitian untuk Asia Pasifik di Kaspersky, Vitaly Kamluk mengungkap bahwa
penjahat siber mulai memanfaatkan Artificial Intelligence (AI) atau kecerdasan
buatan untuk beraksi. Bahayanya, aksi mereka sulit terdeteksi.
Vitaly Kamluk
tidak membantah jika teknologi AI sangat membantu pekerjaan manusia. Namun,
bagai pedang bermata dua, kecerdasan buatan juga dimanfaatkan penjahat siber
untuk beraksi.
"Memang
benar bahwa dengan munculnya AI kita telah melihat terobosan teknologi yang
dapat meniru konten serupa dengan apa yang dilakukan manusia," kata Vitaly
Kamluk dalam acara Cyber Security Weekend, di Bali, Kamis (24/8/2023).
Dia
menambahkan, mulai dari gambar hingga suara, video deepfake, dan bahkan
percakapan berbasis teks yang tidak dapat dibedakan dengan manusia.
"Seperti
kebanyakan terobosan teknologi, AI adalah pedang bermata dua. Kita selalu dapat
memanfaatkannya selama kita tahu cara menetapkan arahan yang aman untuk mesin
pintar ini,” sambung Vitaly Kamluk.
Kamluk
menjelaskan ketika penjahat siber menjalankan aksinya, mereka bisa membuat AI
yang disalahkan. Pasalnya, mereka mudah menghilangkan jejak usai beraksi.
"Menciptakan
AI yang secara ajaib mendatangkan uang atau keuntungan ilegal akan semakin
mengaburkan tindakan kriminal para penjahat siber, karena bukan mereka saja
yang harus disalahkan, melainkan AI,” jelas Kamluk.
“Sistem
pertahanan yang cerdas bisa menjadi kambing hitam. Selain itu, kehadiran
autopilot yang sepenuhnya independen mengurangi perhatian kontrol manusia,”
sambungnya.
Vitaly Kamluk
pun membagikan tips supaya AI tidak disalahgunakan oleh penjahat siber.
Beberapa hal
mesti dilakukan dari mulai pembatasan, kebijakan penggunaan, sampai edukasi.
"Mirip
dengan WWW, harus ada prosedur untuk menangani penyalahgunaan dan pelanggaran
AI serta kontak yang jelas untuk melaporkan pelanggaran," jelasnya.
Dia
menambahkan, kontak tersebut juga harus dapat diverifikasi dengan dukungan
berbasis AI lini pertama dan jika diperlukan, divalidasi oleh manusia dalam
beberapa kasus.
"Uni Eropa
telah memulai diskusi mengenai penandaan konten yang diproduksi dengan bantuan
AI," kata Vitaly Kamluk.
Dengan begitu,
tambahnya, pengguna setidaknya dapat memiliki cara cepat dan andal untuk
mendeteksi citra, suara, video, atau teks yang dihasilkan AI.
"Akan
selalu ada pelanggar, tapi mereka akan menjadi minoritas dan harus selalu lari
dan bersembunyi dan dibayangi akan hukuman," terang dia.
Sedangkan bagi
pengembang AI, masuk akal untuk melisensikan aktivitas terkait teknologi
pintar, karena sistem tersebut mungkin berbahaya.
Ini adalah
teknologi penggunaan ganda, dan sama halnya dengan peralatan militer atau
penggunaan ganda, manufaktur harus dikontrol, termasuk pembatasan ekspor jika
diperlukan.
"Pembuat
kode perangkat lunak harus diedukasi untuk menggunakan teknologi secara
bertanggung jawab dan mengetahui hukuman atas penyalahgunaannya,"
tutupnya.[SB]