Selasa, Juli 1, 2025
33.9 C
Palangkaraya

Awas! Penjahat Siber Modus ChatGPT Palsu, Ini Modus & Cara Kerjanya

PENJAHAT siber kini menyamar sebagai layanan Artificial Intelligence (AI) ternama seperti ChatGPT untuk menyusup ke perangkat para pelaku usaha kecil.

Menurut laporan dari perusahaan keamanan siber Kaspersky, hampir 8.500 pengguna dari sektor UMKM menjadi korban serangan siber hanya dalam enam bulan pertama tahun ini.

Modusnya? Malware atau perangkat lunak berbahaya yang menyamar sebagai aplikasi produktivitas populer seperti Zoom, Microsoft Office, hingga layanan AI seperti ChatGPT dan DeepSeek.

Yang mengejutkan, jumlah ancaman siber yang meniru ChatGPT melonjak 115 persen dibanding tahun lalu. Dalam empat bulan pertama 2025 saja, tercatat 177 file berbahaya yang mengaku sebagai ChatGPT, dan 83 file lainnya meniru DeepSeek, dua nama yang sedang naik daun di ranah AI.

Fenomena ini menunjukkan bagaimana ketenaran teknologi justru dimanfaatkan oleh pihak tak bertanggung jawab untuk mengelabui korban.

“Pelaku ancaman siber tidak asal memilih. Mereka memilih alat yang sedang ramai dibicarakan. Kalau sebuah aplikasi sedang viral atau populer, besar kemungkinan versi palsunya akan muncul di internet,” ujar Vasily Kolesnikov, pakar keamanan di Kaspersky melalui catatannya.

Tak hanya AI, platform kolaborasi kerja pun menjadi sasaran empuk. File jahat yang mengaku sebagai Zoom naik hampir 13 persen di 2025, mencapai 1.652 kasus. Sementara Microsoft Teams dan Google Drive ikut terkena dampaknya, masing-masing meningkat 100 persen dan 12 persen.

Zoom jadi primadona para penjahat digital, menyumbang 41 persen dari seluruh file palsu yang terdeteksi. Disusul oleh Outlook, PowerPoint, Excel, dan Word, aplikasi-aplikasi yang umum digunakan oleh bisnis skala kecil hingga menengah.

Jenis ancaman yang paling sering ditemukan meliputi:

  • Downloaders: untuk mengunduh malware tambahan ke perangkat korban.
  • Trojan: menyamar sebagai software biasa tapi mencuri data.
  • Adware: membanjiri layar pengguna dengan iklan-iklan yang tidak diinginkan.
Baca Juga :  Enam Manfaat Ajaib Lidah Buaya untuk Tanaman

Selain malware, masyarakat awam khususnya juga diserang lewat email phishing dan spam.

Modusnya pun makin canggih, misalnya dengan janji meningkatkan penjualan lewat iklan di platform X (dulu Twitter), padahal ujung-ujungnya hanya untuk mencuri kredensial akun Google milik korban.

Email spam kini juga dibumbui AI, dari tawaran otomatisasi proses bisnis hingga pengelolaan reputasi daring. Semua dibuat seolah relevan dan menguntungkan, padahal menjebak.

Yang jelas, di tengah kemudahan yang ditawarkan teknologi seperti AI, ancaman yang mengintai pun makin kompleks. Jangan asal klik, karena yang terlihat seperti ChatGPT, bisa saja adalah jebakan yang mengintai data Anda.

CEO OpenAI, Sam Altman, Terkejut Banyak Orang Terlalu Percaya pada ChatGPT

Melalui podcast resmi OpenAI, Altman secara terbuka menyampaikan keheranannya atas tingginya tingkat kepercayaan masyarakat terhadap ChatGPT, meski teknologi tersebut masih kerap memberikan informasi yang keliru atau bahkan mengada-ada.

“Saya terkejut karena orang-orang sangat mempercayai ChatGPT, padahal AI itu bisa berhalusinasi,” ujar Altman dalam episode terbaru podcast tersebut. “Seharusnya ini adalah teknologi yang justru tidak terlalu layak dipercaya,” tambahnya dengan nada serius.

Dilansir dari The Economic Times, Senin (30/6/2025), pernyataan ini menjadi sorotan global karena datang langsung dari figur utama di balik pengembangan teknologi AI generatif. Altman menyatakan bahwa pengguna perlu menyadari bahwa AI seperti ChatGPT “lebih didesain untuk menyenangkan pengguna ketimbang selalu berkata jujur.”

Halusinasi dalam konteks AI merujuk pada saat sistem seperti ChatGPT menyampaikan informasi palsu secara meyakinkan. Ini bukan sekadar kesalahan teknis, tetapi kesalahan yang dirancang agar terdengar benar demi memenuhi ekspektasi pengguna. “Anda bisa memintanya mendefinisikan istilah yang sebenarnya tidak ada, dan ChatGPT akan tetap memberi penjelasan yang terdengar meyakinkan, tapi salah,” jelas Altman.

Baca Juga :  Mau Berhasil Tanam Seledri dari Awal hingga Panen, Ini Tips Lengkapnya!

Fenomena ini menjadi lebih mengkhawatirkan karena AI kini telah terintegrasi ke dalam banyak aspek kehidupan, mulai dari aplikasi pribadi, perangkat lunak korporasi, hingga sektor pendidikan. Dalam banyak kasus, pengguna mungkin tidak cukup kritis untuk memverifikasi setiap jawaban, sehingga risiko penyebaran informasi palsu pun meningkat.

Altman juga menyinggung tentang upaya yang lammy telo7ah dilakukan OpenAI untuk mengurangi kecenderungan ChatGPT yang disebutnya “sycophantic tendencies” atau kecenderungan untuk menyetujui dan menyenangkan pengguna, walau dengan mengorbankan kebenaran. Namun, Altman menegaskan bahwa persoalan ini belum sepenuhnya teratasi.

Yang membuat “halusinasi AI” ini semakin berbahaya adalah sifatnya yang halus dan tidak mudah dikenali. “Jika pengguna tidak memiliki pengetahuan yang cukup, sangat sulit membedakan mana yang fakta dan mana yang fiksi buatan mesin,” kata Altman. Hal ini membuka celah bagi AI untuk memengaruhi pemikiran publik secara tidak sadar.

Salah satu kasus ekstrem yang sempat diberitakan melibatkan seorang pengguna ChatGPT yang diyakini mulai percaya bahwa dirinya terjebak dalam simulasi ala film The Matrix. Meski tergolong anekdotal dan jarang terjadi, kasus tersebut menyoroti potensi dampak psikologis jika AI digunakan tanpa pengawasan dan kesadaran kritis.

Pernyataan Altman ini pun dinilai sebagai alarm dini dari dalam tubuh industri AI sendiri. Sebagai tokoh yang berada di garis depan pengembangan teknologi ini, pengakuannya mencerminkan urgensi untuk menyeimbangkan euforia terhadap AI dengan literasi digital dan skeptisisme yang sehat.

Dengan pesatnya perkembangan AI generatif, masyarakat global perlu semakin bijak dalam menggunakannya. Keandalan teknologi tidak semata-mata bergantung pada kecanggihan sistemnya, tetapi juga pada kesadaran kita terhadap keterbatasan yang melekat di dalamnya. Seperti yang ditegaskan Altman, “AI harus diperlakukan sebagai asisten, bukan sebagai sumber kebenaran mutlak.”
(jpc)

PENJAHAT siber kini menyamar sebagai layanan Artificial Intelligence (AI) ternama seperti ChatGPT untuk menyusup ke perangkat para pelaku usaha kecil.

Menurut laporan dari perusahaan keamanan siber Kaspersky, hampir 8.500 pengguna dari sektor UMKM menjadi korban serangan siber hanya dalam enam bulan pertama tahun ini.

Modusnya? Malware atau perangkat lunak berbahaya yang menyamar sebagai aplikasi produktivitas populer seperti Zoom, Microsoft Office, hingga layanan AI seperti ChatGPT dan DeepSeek.

Yang mengejutkan, jumlah ancaman siber yang meniru ChatGPT melonjak 115 persen dibanding tahun lalu. Dalam empat bulan pertama 2025 saja, tercatat 177 file berbahaya yang mengaku sebagai ChatGPT, dan 83 file lainnya meniru DeepSeek, dua nama yang sedang naik daun di ranah AI.

Fenomena ini menunjukkan bagaimana ketenaran teknologi justru dimanfaatkan oleh pihak tak bertanggung jawab untuk mengelabui korban.

“Pelaku ancaman siber tidak asal memilih. Mereka memilih alat yang sedang ramai dibicarakan. Kalau sebuah aplikasi sedang viral atau populer, besar kemungkinan versi palsunya akan muncul di internet,” ujar Vasily Kolesnikov, pakar keamanan di Kaspersky melalui catatannya.

Tak hanya AI, platform kolaborasi kerja pun menjadi sasaran empuk. File jahat yang mengaku sebagai Zoom naik hampir 13 persen di 2025, mencapai 1.652 kasus. Sementara Microsoft Teams dan Google Drive ikut terkena dampaknya, masing-masing meningkat 100 persen dan 12 persen.

Zoom jadi primadona para penjahat digital, menyumbang 41 persen dari seluruh file palsu yang terdeteksi. Disusul oleh Outlook, PowerPoint, Excel, dan Word, aplikasi-aplikasi yang umum digunakan oleh bisnis skala kecil hingga menengah.

Jenis ancaman yang paling sering ditemukan meliputi:

  • Downloaders: untuk mengunduh malware tambahan ke perangkat korban.
  • Trojan: menyamar sebagai software biasa tapi mencuri data.
  • Adware: membanjiri layar pengguna dengan iklan-iklan yang tidak diinginkan.
Baca Juga :  Enam Manfaat Ajaib Lidah Buaya untuk Tanaman

Selain malware, masyarakat awam khususnya juga diserang lewat email phishing dan spam.

Modusnya pun makin canggih, misalnya dengan janji meningkatkan penjualan lewat iklan di platform X (dulu Twitter), padahal ujung-ujungnya hanya untuk mencuri kredensial akun Google milik korban.

Email spam kini juga dibumbui AI, dari tawaran otomatisasi proses bisnis hingga pengelolaan reputasi daring. Semua dibuat seolah relevan dan menguntungkan, padahal menjebak.

Yang jelas, di tengah kemudahan yang ditawarkan teknologi seperti AI, ancaman yang mengintai pun makin kompleks. Jangan asal klik, karena yang terlihat seperti ChatGPT, bisa saja adalah jebakan yang mengintai data Anda.

CEO OpenAI, Sam Altman, Terkejut Banyak Orang Terlalu Percaya pada ChatGPT

Melalui podcast resmi OpenAI, Altman secara terbuka menyampaikan keheranannya atas tingginya tingkat kepercayaan masyarakat terhadap ChatGPT, meski teknologi tersebut masih kerap memberikan informasi yang keliru atau bahkan mengada-ada.

“Saya terkejut karena orang-orang sangat mempercayai ChatGPT, padahal AI itu bisa berhalusinasi,” ujar Altman dalam episode terbaru podcast tersebut. “Seharusnya ini adalah teknologi yang justru tidak terlalu layak dipercaya,” tambahnya dengan nada serius.

Dilansir dari The Economic Times, Senin (30/6/2025), pernyataan ini menjadi sorotan global karena datang langsung dari figur utama di balik pengembangan teknologi AI generatif. Altman menyatakan bahwa pengguna perlu menyadari bahwa AI seperti ChatGPT “lebih didesain untuk menyenangkan pengguna ketimbang selalu berkata jujur.”

Halusinasi dalam konteks AI merujuk pada saat sistem seperti ChatGPT menyampaikan informasi palsu secara meyakinkan. Ini bukan sekadar kesalahan teknis, tetapi kesalahan yang dirancang agar terdengar benar demi memenuhi ekspektasi pengguna. “Anda bisa memintanya mendefinisikan istilah yang sebenarnya tidak ada, dan ChatGPT akan tetap memberi penjelasan yang terdengar meyakinkan, tapi salah,” jelas Altman.

Baca Juga :  Mau Berhasil Tanam Seledri dari Awal hingga Panen, Ini Tips Lengkapnya!

Fenomena ini menjadi lebih mengkhawatirkan karena AI kini telah terintegrasi ke dalam banyak aspek kehidupan, mulai dari aplikasi pribadi, perangkat lunak korporasi, hingga sektor pendidikan. Dalam banyak kasus, pengguna mungkin tidak cukup kritis untuk memverifikasi setiap jawaban, sehingga risiko penyebaran informasi palsu pun meningkat.

Altman juga menyinggung tentang upaya yang lammy telo7ah dilakukan OpenAI untuk mengurangi kecenderungan ChatGPT yang disebutnya “sycophantic tendencies” atau kecenderungan untuk menyetujui dan menyenangkan pengguna, walau dengan mengorbankan kebenaran. Namun, Altman menegaskan bahwa persoalan ini belum sepenuhnya teratasi.

Yang membuat “halusinasi AI” ini semakin berbahaya adalah sifatnya yang halus dan tidak mudah dikenali. “Jika pengguna tidak memiliki pengetahuan yang cukup, sangat sulit membedakan mana yang fakta dan mana yang fiksi buatan mesin,” kata Altman. Hal ini membuka celah bagi AI untuk memengaruhi pemikiran publik secara tidak sadar.

Salah satu kasus ekstrem yang sempat diberitakan melibatkan seorang pengguna ChatGPT yang diyakini mulai percaya bahwa dirinya terjebak dalam simulasi ala film The Matrix. Meski tergolong anekdotal dan jarang terjadi, kasus tersebut menyoroti potensi dampak psikologis jika AI digunakan tanpa pengawasan dan kesadaran kritis.

Pernyataan Altman ini pun dinilai sebagai alarm dini dari dalam tubuh industri AI sendiri. Sebagai tokoh yang berada di garis depan pengembangan teknologi ini, pengakuannya mencerminkan urgensi untuk menyeimbangkan euforia terhadap AI dengan literasi digital dan skeptisisme yang sehat.

Dengan pesatnya perkembangan AI generatif, masyarakat global perlu semakin bijak dalam menggunakannya. Keandalan teknologi tidak semata-mata bergantung pada kecanggihan sistemnya, tetapi juga pada kesadaran kita terhadap keterbatasan yang melekat di dalamnya. Seperti yang ditegaskan Altman, “AI harus diperlakukan sebagai asisten, bukan sebagai sumber kebenaran mutlak.”
(jpc)

Artikel Terkait

Terpopuler

Artikel Terbaru

/