Kecerdasan buatan ternyata mulai menarik banyak pelaku kejahatan. Kemudahan akses untuk menggunakan kecerdasan buatan dan fasilitas kecerdasan buatan yang makin popular ternyata juga memperbanyak orang membuat modus baru kejahatan. Kerumunan orang membahas kecerdasan buatan tentu menambah melek orang tentang teknologi ini, namun pada saat bersamaan di antara kerumunan itu terdapat orang yang berniat jahat.
Semua orang menjadi akrab dengan kecerdasan buatan ketika produk ChatGPT terbaru dari Open AI dikeluarkan pada tahun lalu dan langsung menarik perhatian banyak orang. Mereka itu dari para pembuat konten, artis, hingga pengembang, dan banyak lagi. Akan tetapi di antara mereka terdapat juga para pelaku kejahatan. Laman Logicloop mengatakan, semua orang berpikir tentang bagaimana mereka dapat memanfaatkan teknologi terbaru untuk menjadi lebih produktif dalam peran mereka masing-masing. Tidak mengherankan, teknologi kecerdasan buatan juga menarik para penipu di internet.
Berbagai perangkat lunak untuk menyusun teks dan membuat gambar menyebabkan outlet kreatif baru bermunculan dan dieksploitasi oleh penipu. Ambil contoh ChatGPT yang mempunyai kemampuan menghasilkan teks dengan bahasa naturalnya. ChatGPT dapat digunakan untuk membuat surat elektronik atau pesan phishing yang tampaknya berasal dari sumber yang sah, seperti bank atau lembaga keuangan lainnya. Pesan-pesan ini dapat digunakan untuk mengelabui individu agar memberikan informasi pribadi atau mentransfer uang.
ChatGPT dapat digunakan untuk membuat skrip telepon, yang dapat digunakan oleh penipu untuk menyamar sebagai perwakilan layanan pelanggan dan mengelabui individu agar memberikan informasi sensitif. Pesan palsu ini bisa sangat riil karena berbasis teknologi bahasa alami yang dikembangkan saat membangun tekenologi kecerdasan generatif. Semua komunikasi seolah berlangsung antarmanusia. Mereka yang menerima pesan akan tersugesti semua pesan atau perbicangan itu asli.
Perkembangan terbaru FBI telah memperingatkan bahwa peretas bekerja sangat liar dengan alat kecerdasan buatan generative, seperti ChatGPT. Mereka dengan cepat membuat kode berbahaya dan meluncurkan kejahatan dunia maya yang akan membutuhkan lebih banyak upaya untuk menangkal dibanding pada masa lalu. FBI merinci keprihatinannya dan menjelaskan bahwa chatbot AI telah mendorong semua jenis aktivitas terlarang, mulai dari penipu yang makim mudah menyempurnakan teknik mereka hingga teroris yang berkedok berkonsultasi tentang cara meluncurkan serangan kimia yang lebih merusak.
_(Lanjutan)_
Menurut seorang pejabat senior FBI yang dikutip Digitaltrends, mereka melihat seiring dengan berjalannya waktu adopsi dan demokratisasi kecerdasan buatan yang berlanjut, tren kejahatan seperti itu akan meningkat. Aktor jahat menggunakan kecerdasan buatan untuk melengkapi kegiatan kriminal rutin mereka, termasuk menggunakan generator suara berbasis kecerdasan buatan untuk menyamar sebagai orang tepercaya untuk menipu orang yang dicintai atau orang tua mereka.
Beberapa data juga menunjukkan bahwa penggunaan deepfake yang dibikin oleh kecerdasan buatan untuk melakukan kejahatan sedang meningkat. Sebuah perusahaan yang menawarkan solusi know-your-customer (KYC), know-your-business (KYB), pemantauan transaksi, dan anti pencucian uang Sumsub merilis data pada pekan lalu yang menunjukkan peningkatan penipuan deepfake selama setahun terakhir. Deepfakes menggunakan data biometrik untuk menghasilkan gambar dan audio palsu yang tampak riil bagi pemirsa atau pendengar tanpa disadari.
Kepala Departemen Kecerdasan buatan dan Pembelajaran Mesin di Sumsub Pavel Goldman-Kalaydin seperti dikutip Fox Business menjelaskan hubungan antara kecanggihan yang berkembang dan ketersediaan alat kecerdasan buatan generatif dan penggunaan deepfake. Semakin alat kecerdasan buatan digunakan oleh orang maka kejahatan dengan fasilitas itu akan meningkat dan lebih bervariasi.
“Ini bukan kebetulan, melainkan konsekuensi logis. Dengan meningkatnya tren alat berbasis kecerdasan buatan generatif dan penggunaan deepfake untuk produksi gambar, terbukti bahwa produksi deepfake menjadi lebih umum dalam beberapa bulan terakhir. Faktanya, kami telah melihat lebih banyak deepfake dalam tiga bulan terakhir daripada yang telah kita lihat dalam beberapa tahun terakhir,” katanya.
Kita juga berharap pengamanan teknologi kecerdasan buatan makin ketat menjelang pemilihan umum di beberapa negara sehingga teknologi ini tidak diselewengkan untuk keperluan kejahatan lain. Publik tentu masih ingat dengan kasus Cambridge Analytica yang membuat hasil pemilihan umum bisa distir untuk kepentingan salah satu calon.
Akan tetapi meski perusahaan teknologi telah membuat komitmen untuk menekan penyalahgunaan teknologi kecerdasan buatan, muncul satu pertanyaan : apakah perusahaan teknologi bisa mengawasi dirinya sendiri? Apakah mereka sekaligus menjadi polisi bagi dirinya sendiri? Publik masih belum yakin dengan komitmen perusahaan teknologi. Pengawas yang berasal dari pihak ketiga tentu masih diharapkan lebih menjamin keamanan kecerdasan buatan.
_*SUMBER:*_ https://komp.as/b