Pengenalan
AI Generatif – sistem kecerdasan buatan yang mampu mencipta kandungan atau ramalan baharu – sedang muncul sebagai kuasa transformatif dalam keselamatan siber. Alat seperti GPT-4 OpenAI telah menunjukkan keupayaan untuk menganalisis data yang kompleks dan menjana teks seperti manusia, membolehkan pendekatan baharu untuk mempertahankan diri daripada ancaman siber. Profesional keselamatan siber dan pembuat keputusan perniagaan merentasi industri sedang meneroka bagaimana AI generatif boleh mengukuhkan pertahanan terhadap serangan yang berkembang. Daripada kewangan dan penjagaan kesihatan kepada peruncitan dan kerajaan, organisasi dalam setiap sektor menghadapi percubaan pancingan data yang canggih, perisian hasad dan ancaman lain yang mungkin dapat diatasi oleh AI generatif. Dalam kertas putih ini, kami mengkaji bagaimana AI generatif boleh digunakan dalam keselamatan siber , mengetengahkan aplikasi dunia sebenar, kemungkinan masa depan dan pertimbangan penting untuk diterima pakai.
AI Generatif berbeza daripada AI analitik tradisional bukan sahaja dengan mengesan corak tetapi juga mencipta kandungan – sama ada mensimulasikan serangan untuk melatih pertahanan atau menghasilkan penjelasan bahasa semula jadi untuk data keselamatan yang kompleks. Keupayaan dwi-keupayaan ini menjadikannya pedang bermata dua: ia menawarkan alat pertahanan baharu yang berkuasa, tetapi pelaku ancaman juga boleh memanfaatkannya. Bahagian berikut meneroka pelbagai kes penggunaan untuk AI generatif dalam keselamatan siber, daripada mengautomasikan pengesanan pancingan data kepada meningkatkan tindak balas insiden. Kami juga membincangkan manfaat yang dijanjikan oleh inovasi AI ini, di samping risiko (seperti "halusinasi" AI atau penyalahgunaan adversarial) yang mesti diuruskan oleh organisasi. Akhir sekali, kami menyediakan panduan praktikal untuk membantu perniagaan menilai dan mengintegrasikan AI generatif secara bertanggungjawab ke dalam strategi keselamatan siber mereka.
AI Generatif dalam Keselamatan Siber: Gambaran Keseluruhan
AI Generatif dalam keselamatan siber merujuk kepada model AI – selalunya model bahasa yang besar atau rangkaian saraf lain – yang boleh menjana pandangan, cadangan, kod atau data sintetik untuk membantu dalam tugasan keselamatan. Tidak seperti model ramalan semata-mata, AI generatif boleh mensimulasikan senario dan menghasilkan output yang boleh dibaca oleh manusia (cth. laporan, amaran atau sampel kod berniat jahat) berdasarkan data latihannya. Keupayaan ini dimanfaatkan untuk meramalkan, mengesan dan bertindak balas terhadap ancaman dengan cara yang lebih dinamik berbanding sebelum ini ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ). Contohnya, model generatif boleh menganalisis log yang luas atau repositori risikan ancaman dan menghasilkan ringkasan ringkas atau tindakan yang disyorkan, berfungsi hampir seperti "pembantu" AI kepada pasukan keselamatan.
Pelaksanaan awal AI generatif untuk pertahanan siber telah menunjukkan potensi. Pada tahun 2023, Microsoft memperkenalkan Security Copilot , pembantu berkuasa GPT-4 untuk penganalisis keselamatan, untuk membantu mengenal pasti pelanggaran dan menapis 65 trilion isyarat yang diproses oleh Microsoft setiap hari ( Microsoft Security Copilot ialah pembantu AI GPT-4 baharu untuk keselamatan siber | The Verge ). Penganalisis boleh menggesa sistem ini dalam bahasa semula jadi (cth. “Ringkaskan semua insiden keselamatan dalam 24 jam terakhir” AI Perisikan Ancaman Google menggunakan model generatif yang dipanggil Gemini untuk mendayakan carian perbualan melalui pangkalan data perisikan ancaman Google yang luas, menganalisis kod yang mencurigakan dengan cepat dan meringkaskan penemuan untuk membantu pemburu perisian hasad ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Contoh-contoh ini menggambarkan potensi: AI generatif boleh mencerna data keselamatan siber berskala besar yang kompleks dan membentangkan pandangan dalam bentuk yang mudah diakses, mempercepatkan proses membuat keputusan.
Pada masa yang sama, AI generatif boleh mencipta kandungan palsu yang sangat realistik, yang merupakan satu kelebihan untuk simulasi dan latihan (dan, malangnya, untuk penyerang yang mencipta kejuruteraan sosial). Semasa kita beralih kepada kes penggunaan tertentu, kita akan melihat bahawa keupayaan AI generatif untuk mensintesis dan menganalisis maklumat menyokong banyak aplikasi keselamatan sibernya. Di bawah, kita akan mengkaji kes penggunaan utama, merangkumi segala-galanya daripada pencegahan pancingan data kepada pembangunan perisian yang selamat, dengan contoh bagaimana setiap satu digunakan merentasi industri.
Aplikasi Utama AI Generatif dalam Keselamatan Siber
Rajah: Kes penggunaan utama untuk AI generatif dalam keselamatan siber termasuk juruterbang bersama AI untuk pasukan keselamatan, analisis kerentanan kod, pengesanan ancaman adaptif, simulasi serangan hari sifar, keselamatan biometrik yang dipertingkatkan dan pengesanan pancingan data ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ).
Pengesanan dan Pencegahan Pancingan Data
Pancingan data kekal sebagai salah satu ancaman siber yang paling berleluasa, memperdaya pengguna untuk mengklik pautan berniat jahat atau mendedahkan kelayakan. AI Generatif sedang digunakan untuk mengesan percubaan pancingan data dan meningkatkan latihan pengguna bagi mencegah serangan yang berjaya. Dari segi pertahanan, model AI boleh menganalisis kandungan e-mel dan tingkah laku penghantar untuk mengenal pasti tanda-tanda pancingan data yang halus yang mungkin terlepas pandang oleh penapis berasaskan peraturan. Dengan belajar daripada set data besar e-mel yang sah berbanding palsu, model generatif boleh menandakan anomali dalam nada, perkataan atau konteks yang menunjukkan penipuan – walaupun tatabahasa dan ejaan tidak lagi mendedahkannya. Malah, penyelidik Palo Alto Networks menyatakan bahawa AI generatif boleh mengenal pasti "tanda-tanda halus e-mel pancingan data yang mungkin tidak dikesan," membantu organisasi kekal selangkah di hadapan penipu ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ).
Pasukan keselamatan juga menggunakan AI generatif untuk mensimulasikan serangan pancingan data untuk latihan dan analisis. Contohnya, Ironscales memperkenalkan alat simulasi pancingan data berkuasa GPT yang secara automatik menjana e-mel pancingan data palsu yang disesuaikan untuk pekerja organisasi ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). E-mel yang direka AI ini mencerminkan taktik penyerang terkini, memberikan kakitangan latihan realistik dalam mengenal pasti kandungan pancingan data. Latihan peribadi sedemikian adalah penting kerana penyerang sendiri menggunakan AI untuk mencipta gewang yang lebih meyakinkan. Terutamanya, walaupun AI generatif boleh menghasilkan mesej pancingan data yang sangat halus (zaman bahasa Inggeris yang rosak mudah dikesan telah berlalu), pembela mendapati bahawa AI tidak dapat dikalahkan. Pada tahun 2024, penyelidik Keselamatan IBM menjalankan eksperimen yang membandingkan e-mel pancingan data yang ditulis oleh manusia dengan e-mel yang dihasilkan oleh AI, dan "mengejutkan, e-mel yang dihasilkan oleh AI masih mudah dikesan walaupun tatabahasanya betul" ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Ini menunjukkan bahawa intuisi manusia yang digabungkan dengan pengesanan berbantukan AI masih boleh mengenali ketidakkonsistenan atau isyarat metadata yang halus dalam penipuan yang ditulis oleh AI.
AI Generatif juga membantu pertahanan pancingan data dengan cara lain. Model boleh digunakan untuk menjana respons atau penapis automatik yang menguji e-mel yang mencurigakan. Contohnya, sistem AI boleh membalas e-mel dengan pertanyaan tertentu untuk mengesahkan kesahihan penghantar atau menggunakan LLM untuk menganalisis pautan dan lampiran e-mel dalam kotak pasir, kemudian meringkaskan sebarang niat jahat. Platform keselamatan NVIDIA, Morpheus, menunjukkan kuasa AI dalam arena ini – ia menggunakan model NLP generatif untuk menganalisis dan mengklasifikasikan e-mel dengan pantas, dan didapati dapat meningkatkan pengesanan e-mel pancingan data secara spear-phishing sebanyak 21% berbanding alat keselamatan tradisional ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Morpheus juga memprofilkan corak komunikasi pengguna untuk mengesan tingkah laku luar biasa (seperti pengguna tiba-tiba menghantar e-mel kepada banyak alamat luaran), yang boleh menunjukkan akaun yang dikompromi menghantar e-mel pancingan data.
Dalam praktiknya, syarikat merentasi industri mula mempercayai AI untuk menapis e-mel dan trafik web bagi serangan kejuruteraan sosial. Firma kewangan, sebagai contoh, menggunakan AI generatif untuk mengimbas komunikasi bagi percubaan penyamaran yang boleh membawa kepada penipuan wayar, manakala penyedia penjagaan kesihatan menggunakan AI untuk melindungi data pesakit daripada pelanggaran berkaitan pancingan data. Dengan menjana senario pancingan data yang realistik dan mengenal pasti ciri-ciri mesej berniat jahat, AI generatif menambah lapisan yang berkuasa pada strategi pencegahan pancingan data. Kesimpulannya: AI boleh membantu mengesan dan melumpuhkan serangan pancingan data dengan lebih pantas dan lebih tepat, walaupun penyerang menggunakan teknologi yang sama untuk meningkatkan prestasi mereka.
Pengesanan Perisian Hasad dan Analisis Ancaman
Perisian hasad moden sentiasa berkembang – penyerang menjana varian baharu atau mengaburkan kod untuk memintas tandatangan antivirus. AI Generatif menawarkan teknik baharu untuk mengesan perisian hasad dan memahami kelakuannya. Satu pendekatan ialah menggunakan AI untuk menjana "kembar jahat" perisian hasad : penyelidik keselamatan boleh memasukkan sampel perisian hasad yang diketahui ke dalam model generatif untuk mencipta banyak varian bermutasi perisian hasad tersebut. Dengan berbuat demikian, mereka menjangkakan perubahan yang mungkin dibuat oleh penyerang secara berkesan. Varian yang dijana AI ini kemudiannya boleh digunakan untuk melatih sistem antivirus dan pengesanan pencerobohan, supaya versi perisian hasad yang diubah suai pun dikenali secara meluas ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Strategi proaktif ini membantu memutuskan kitaran di mana penggodam mengubah sedikit perisian hasad mereka untuk mengelak pengesanan dan pembela mesti berebut-rebut untuk menulis tandatangan baharu setiap kali. Seperti yang dinyatakan dalam satu podcast industri, pakar keselamatan kini menggunakan AI generatif untuk "mensimulasikan trafik rangkaian dan menjana muatan berniat jahat yang meniru serangan canggih," menguji tekanan pertahanan mereka terhadap seluruh keluarga ancaman dan bukannya satu contoh. Pengesanan ancaman adaptif bermakna alat keselamatan menjadi lebih berdaya tahan terhadap perisian hasad polimorfik yang sebaliknya akan terlepas.
Selain pengesanan, AI generatif membantu dalam analisis perisian hasad dan kejuruteraan terbalik , yang secara tradisinya merupakan tugas intensif buruh untuk penganalisis ancaman. Model bahasa yang besar boleh ditugaskan untuk memeriksa kod atau skrip yang mencurigakan dan menerangkan dalam bahasa mudah apa yang dimaksudkan oleh kod tersebut. Contoh dunia sebenar ialah VirusTotal Code Insight , satu ciri oleh VirusTotal Google yang memanfaatkan model AI generatif (Sec-PaLM Google) untuk menghasilkan ringkasan bahasa semula jadi bagi kod yang berpotensi berniat jahat ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Ia pada asasnya "sejenis ChatGPT yang dikhaskan untuk pengekodan keselamatan," bertindak sebagai penganalisis perisian hasad AI yang berfungsi 24/7 untuk membantu penganalisis manusia memahami ancaman ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Daripada meneliti skrip atau kod binari yang tidak dikenali, ahli pasukan keselamatan boleh mendapatkan penjelasan segera daripada AI – contohnya, "Skrip ini cuba memuat turun fail daripada pelayan XYZ dan kemudian mengubah suai tetapan sistem, yang menunjukkan tingkah laku perisian hasad." Ini mempercepatkan tindak balas insiden secara mendadak, kerana penganalisis boleh menilai dan memahami perisian hasad baharu dengan lebih pantas berbanding sebelum ini.
AI Generatif juga digunakan untuk mengenal pasti perisian hasad dalam set data yang besar . Enjin antivirus tradisional mengimbas fail untuk tandatangan yang diketahui, tetapi model generatif boleh menilai ciri-ciri fail dan juga meramalkan sama ada ia berniat jahat berdasarkan corak yang dipelajari. Dengan menganalisis atribut berbilion fail (berniat jahat dan tidak berbahaya), AI mungkin mengesan niat jahat jika tiada tandatangan eksplisit wujud. Contohnya, model generatif boleh menandakan fail boleh laku sebagai mencurigakan kerana profil tingkah lakunya "kelihatan" seperti sedikit variasi ransomware yang dilihatnya semasa latihan, walaupun binari itu baharu. Pengesanan berasaskan tingkah laku ini membantu mengatasi perisian hasad baharu atau sifar hari. AI Perisikan Ancaman Google (sebahagian daripada Chronicle/Mandiant) dilaporkan menggunakan model generatifnya untuk menganalisis kod yang berpotensi berniat jahat dan "membantu profesional keselamatan dengan lebih cekap dan berkesan dalam memerangi perisian hasad dan jenis ancaman lain." ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ).
Sebaliknya, kita mesti mengakui bahawa penyerang juga boleh menggunakan AI generatif di sini – untuk mencipta perisian hasad yang menyesuaikan dirinya secara automatik. Malah, pakar keselamatan memberi amaran bahawa AI generatif boleh membantu penjenayah siber membangunkan perisian hasad yang lebih sukar dikesan ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ). Model AI boleh diarahkan untuk mengubah suai perisian hasad berulang kali (mengubah struktur failnya, kaedah penyulitan, dsb.) sehingga ia mengelak daripada semua semakan antivirus yang diketahui. Penggunaan permusuhan ini merupakan kebimbangan yang semakin meningkat (kadangkala dirujuk sebagai "perisian hasad berkuasa AI" atau perisian hasad polimorfik sebagai perkhidmatan). Kita akan membincangkan risiko sedemikian kemudian, tetapi ia menggariskan bahawa AI generatif adalah alat dalam permainan kucing-dan-tikus ini yang digunakan oleh kedua-dua pembela dan penyerang.
Secara keseluruhan, AI generatif meningkatkan pertahanan perisian hasad dengan membolehkan pasukan keselamatan berfikir seperti penyerang – menjana ancaman dan penyelesaian baharu secara dalaman. Sama ada menghasilkan perisian hasad sintetik untuk meningkatkan kadar pengesanan atau menggunakan AI untuk menerangkan dan mengandungi perisian hasad sebenar yang terdapat dalam rangkaian, teknik ini digunakan merentasi industri. Bank mungkin menggunakan analisis perisian hasad yang dipacu AI untuk menganalisis makro yang mencurigakan dengan cepat dalam hamparan, manakala firma pembuatan mungkin bergantung pada AI untuk mengesan perisian hasad yang menyasarkan sistem kawalan perindustrian. Dengan menambah analisis perisian hasad tradisional dengan AI generatif, organisasi boleh bertindak balas terhadap kempen perisian hasad dengan lebih pantas dan lebih proaktif berbanding sebelum ini.
Perisikan Ancaman dan Analisis Automasi
Setiap hari, organisasi dihujani dengan data risikan ancaman – daripada suapan petunjuk kompromi (IOC) yang baru ditemui kepada laporan penganalisis tentang taktik penggodam yang baru muncul. Cabaran bagi pasukan keselamatan adalah untuk menapis limpahan maklumat ini dan mengekstrak pandangan yang boleh diambil tindakan. AI generatif terbukti sangat berharga dalam mengautomasikan analisis dan penggunaan risikan ancaman . Daripada membaca berpuluh-puluh laporan atau entri pangkalan data secara manual, penganalisis boleh menggunakan AI untuk meringkaskan dan mengkontekstualisasikan risikan ancaman pada kelajuan mesin.
Threat Intelligence Google , yang mengintegrasikan AI generatif (model Gemini) dengan himpunan data ancaman Google daripada Mandiant dan VirusTotal. AI ini menyediakan "carian perbualan merentasi repositori kecerdasan ancaman Google yang luas" , yang membolehkan pengguna bertanya soalan semula jadi tentang ancaman dan mendapatkan jawapan yang disuling ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Contohnya, seorang penganalisis boleh bertanya, "Adakah kita pernah melihat sebarang perisian hasad yang berkaitan dengan Threat Group X yang menyasarkan industri kita?" dan AI akan menarik maklumat risikan yang berkaitan, mungkin dengan menyatakan "Ya, Threat Group X telah dikaitkan dengan kempen pancingan data bulan lepas menggunakan perisian hasad Y" , berserta ringkasan tingkah laku perisian hasad tersebut. Ini mengurangkan masa untuk mengumpulkan pandangan yang sebaliknya memerlukan pertanyaan berbilang alat atau membaca laporan yang panjang.
AI Generatif juga boleh menghubungkan dan meringkaskan trend ancaman . Ia mungkin meneliti beribu-ribu catatan blog keselamatan, berita pelanggaran dan perbualan web gelap dan kemudian menjana ringkasan eksekutif "ancaman siber utama minggu ini" untuk taklimat CISO. Secara tradisinya, tahap analisis dan pelaporan ini memerlukan usaha manusia yang ketara; kini model yang ditala dengan baik boleh mendrafkannya dalam beberapa saat, dengan manusia hanya memperhalusi output. Syarikat seperti ZeroFox telah membangunkan FoxGPT , alat AI generatif yang direka khusus untuk "mempercepatkan analisis dan ringkasan risikan merentasi set data yang besar," termasuk kandungan berniat jahat dan data pancingan data ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Dengan mengautomasikan kerja berat membaca dan merujuk silang data, AI membolehkan pasukan risikan ancaman memberi tumpuan kepada membuat keputusan dan tindak balas.
Satu lagi kes penggunaan ialah pemburuan ancaman perbualan . Bayangkan seorang penganalisis keselamatan berinteraksi dengan pembantu AI: “Tunjukkan kepada saya sebarang tanda-tanda penyusupan data dalam tempoh 48 jam yang lalu” atau “Apakah kelemahan baharu utama yang dieksploitasi oleh penyerang minggu ini?” AI boleh mentafsir pertanyaan, mencari log dalaman atau sumber risikan luaran dan bertindak balas dengan jawapan yang jelas atau senarai insiden yang berkaitan. Ini tidaklah mustahil – sistem pengurusan maklumat dan peristiwa keselamatan (SIEM) moden mula menggabungkan pertanyaan bahasa semula jadi. Suit keselamatan QRadar IBM, sebagai contoh, akan menambah ciri AI generatif pada tahun 2024 untuk membolehkan penganalisis “bertanya […] soalan khusus tentang laluan serangan yang diringkaskan” bagi insiden dan mendapatkan jawapan terperinci. Ia juga boleh “mentafsir dan meringkaskan risikan ancaman yang sangat relevan” secara automatik ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Pada asasnya, AI generatif menukarkan pergunungan data teknikal kepada cerapan bersaiz sembang atas permintaan.
Merentasi industri, ini mempunyai implikasi yang besar. Penyedia penjagaan kesihatan boleh menggunakan AI untuk sentiasa dikemas kini tentang kumpulan ransomware terkini yang menyasarkan hospital, tanpa mendedikasikan penganalisis untuk penyelidikan sepenuh masa. SOC syarikat runcit boleh meringkaskan taktik perisian hasad POS baharu dengan cepat semasa memberi taklimat kepada kakitangan IT kedai. Dan dalam kerajaan, di mana data ancaman daripada pelbagai agensi mesti disintesis, AI boleh menghasilkan laporan seragam yang menonjolkan amaran utama. Dengan mengautomasikan pengumpulan dan tafsiran risikan ancaman , AI generatif membantu organisasi bertindak balas dengan lebih pantas terhadap ancaman yang muncul dan mengurangkan risiko terlepas amaran kritikal yang tersembunyi dalam hingar.
Pengoptimuman Pusat Operasi Keselamatan (SOC)
Pusat Operasi Keselamatan terkenal dengan keletihan amaran dan jumlah data yang banyak. Seorang penganalisis SOC biasa mungkin meneliti beribu-ribu amaran dan peristiwa setiap hari, menyiasat insiden yang berpotensi. AI Generatif bertindak sebagai pengganda daya dalam SOC dengan mengautomasikan kerja rutin, menyediakan ringkasan pintar dan juga mengatur beberapa respons. Matlamatnya adalah untuk mengoptimumkan aliran kerja SOC supaya penganalisis manusia boleh memberi tumpuan kepada isu yang paling kritikal manakala pembantu juruterbang AI mengendalikan yang lain.
Satu aplikasi utama ialah menggunakan AI generatif sebagai "Pembantu Juruterbang Penganalisis" . Pembantu Juruterbang Keselamatan Microsoft, yang dinyatakan sebelum ini, mencontohi perkara ini: ia "direka bentuk untuk membantu kerja penganalisis keselamatan dan bukannya menggantikannya," membantu dengan penyiasatan dan pelaporan insiden ( Pembantu Juruterbang Keselamatan Microsoft ialah pembantu AI GPT-4 baharu untuk keselamatan siber | The Verge ). Dalam praktiknya, ini bermakna penganalisis boleh memasukkan data mentah – log tembok api, garis masa peristiwa atau penerangan insiden – dan meminta AI untuk menganalisisnya atau meringkaskannya. Pembantu juruterbang mungkin mengeluarkan naratif seperti, "Nampaknya pada pukul 2:35 PG, log masuk yang mencurigakan daripada IP X berjaya di Pelayan Y, diikuti dengan pemindahan data yang luar biasa, menunjukkan potensi pelanggaran pelayan tersebut." Kontekstualisasi segera seperti ini sangat berharga apabila masa adalah penting.
Juruterbang pembantu AI juga membantu mengurangkan beban triaj tahap-1. Menurut data industri, pasukan keselamatan boleh menghabiskan 15 jam seminggu hanya menyusun kira-kira 22,000 amaran dan positif palsu ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Dengan AI generatif, banyak amaran ini boleh ditriaj secara automatik – AI boleh menolak amaran yang jelas tidak berbahaya (dengan alasan yang diberikan) dan menonjolkan amaran yang benar-benar memerlukan perhatian, kadangkala mencadangkan keutamaan. Malah, kekuatan AI generatif dalam memahami konteks bermakna ia boleh menghubungkan amaran yang mungkin kelihatan tidak berbahaya secara berasingan tetapi bersama-sama menunjukkan serangan berbilang peringkat. Ini mengurangkan peluang untuk terlepas serangan disebabkan oleh "keletihan amaran".
Penganalisis SOC juga menggunakan bahasa semula jadi dengan AI untuk mempercepatkan pemburuan dan penyiasatan. Purple AI , sebagai contoh, menggabungkan antara muka berasaskan LLM dengan data keselamatan masa nyata, yang membolehkan penganalisis "menanyakan soalan pemburuan ancaman yang kompleks dalam bahasa Inggeris biasa dan mendapatkan jawapan yang cepat dan tepat" ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Seorang penganalisis boleh menaip, "Adakah sebarang titik akhir telah berkomunikasi dengan domain badguy123[.]com pada bulan lalu?" , dan Purple AI akan mencari melalui log untuk bertindak balas. Ini menjimatkan penganalisis daripada menulis pertanyaan atau skrip pangkalan data – AI melakukannya secara sembunyi-sembunyi. Ini juga bermakna penganalisis junior boleh mengendalikan tugas yang sebelum ini memerlukan jurutera berpengalaman yang mahir dalam bahasa pertanyaan, meningkatkan kemahiran pasukan dengan berkesan melalui bantuan AI . Sesungguhnya, penganalisis melaporkan bahawa panduan AI generatif “meningkatkan kemahiran dan kecekapan mereka” , kerana kakitangan junior kini boleh mendapatkan sokongan pengekodan atas permintaan atau petua analisis daripada AI, sekali gus mengurangkan pergantungan kepada sentiasa meminta bantuan daripada ahli pasukan kanan ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ).
Satu lagi pengoptimuman SOC ialah ringkasan dan dokumentasi insiden automatik . Selepas insiden dikendalikan, seseorang mesti menulis laporan – tugas yang ramai anggap membosankan. AI Generatif boleh mengambil data forensik (log sistem, analisis perisian hasad, garis masa tindakan) dan menjana laporan insiden draf pertama. IBM sedang membina keupayaan ini ke dalam QRadar supaya dengan "satu klik" ringkasan insiden boleh dihasilkan untuk pihak berkepentingan yang berbeza (eksekutif, pasukan IT, dll.) ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Ini bukan sahaja menjimatkan masa tetapi juga memastikan tiada apa yang diabaikan dalam laporan, kerana AI boleh memasukkan semua butiran yang berkaitan secara konsisten. Begitu juga, untuk pematuhan dan pengauditan, AI boleh mengisi borang atau jadual bukti berdasarkan data insiden.
Hasil dunia sebenar memang menarik. Penerima awal SOAR (orkestrasi keselamatan, automasi dan respons) yang dipacu AI Swimlane melaporkan peningkatan produktiviti yang besar – Global Data Systems, sebagai contoh, menyaksikan pasukan SecOps mereka menguruskan beban kes yang jauh lebih besar; seorang pengarah berkata “apa yang saya lakukan hari ini dengan 7 penganalisis mungkin memerlukan 20 kakitangan tanpa” automasi berkuasa AI ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber ). Dalam erti kata lain, AI dalam SOC boleh menggandakan kapasiti . Merentasi industri, sama ada syarikat teknologi yang berurusan dengan amaran keselamatan awan atau kilang pembuatan yang memantau sistem OT, pasukan SOC berpeluang memperoleh pengesanan dan respons yang lebih pantas, lebih sedikit insiden terlepas dan operasi yang lebih cekap dengan menerima pakai pembantu AI generatif. Ia adalah tentang bekerja lebih pintar – membolehkan mesin mengendalikan tugasan berulang dan berat data supaya manusia boleh menggunakan intuisi dan kepakaran mereka di tempat yang paling penting.
Pengurusan Kerentanan dan Simulasi Ancaman
Mengenal pasti dan mengurus kerentanan – kelemahan dalam perisian atau sistem yang boleh dieksploitasi oleh penyerang – merupakan fungsi teras keselamatan siber. AI Generatif mempertingkatkan pengurusan kerentanan dengan mempercepatkan penemuan, membantu dalam pengutamaan tampalan, malah mensimulasikan serangan ke atas kerentanan tersebut untuk meningkatkan kesiapsiagaan. Pada dasarnya, AI membantu organisasi mencari dan membaiki lubang pada perisai mereka dengan lebih cepat, dan secara proaktif sebelum penyerang sebenar melakukannya.
Satu aplikasi penting ialah menggunakan AI generatif untuk semakan kod automatik dan penemuan kerentanan . Pangkalan kod yang besar (terutamanya sistem legasi) sering kali mempunyai kelemahan keselamatan yang tidak disedari. Model AI generatif boleh dilatih tentang amalan pengekodan selamat dan corak pepijat biasa, kemudian dilancarkan pada kod sumber atau binari yang dikompilasi untuk mencari potensi kerentanan. Contohnya, penyelidik NVIDIA membangunkan saluran paip AI generatif yang boleh menganalisis bekas perisian legasi dan mengenal pasti kerentanan "dengan ketepatan yang tinggi — sehingga 4× lebih pantas daripada pakar manusia." ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). AI pada asasnya mempelajari rupa kod tidak selamat dan dapat mengimbas perisian berusia beberapa dekad untuk menandakan fungsi dan pustaka berisiko, mempercepatkan proses pengauditan kod manual yang biasanya perlahan. Alat jenis ini boleh menjadi pengubah permainan untuk industri seperti kewangan atau kerajaan yang bergantung pada pangkalan kod yang besar dan lama – AI membantu memodenkan keselamatan dengan menggali isu yang mungkin mengambil masa berbulan-bulan atau bertahun-tahun untuk ditemui oleh kakitangan (jika pernah).
AI Generatif juga membantu dalam aliran kerja pengurusan kerentanan ExposureAI Tenable menggunakan AI generatif untuk membolehkan penganalisis menanyakan data kerentanan dalam bahasa mudah dan mendapatkan jawapan segera ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). ExposureAI boleh "meringkaskan laluan serangan lengkap dalam naratif" untuk kerentanan kritikal tertentu, menjelaskan bagaimana penyerang boleh menghubungkannya dengan kelemahan lain untuk menjejaskan sistem. Ia juga mengesyorkan tindakan untuk memulihkan dan menjawab soalan susulan tentang risiko tersebut. Ini bermakna apabila CVE (Kerentanan dan Pendedahan Biasa) kritikal baharu diumumkan, penganalisis boleh bertanya kepada AI, "Adakah mana-mana pelayan kami terjejas oleh CVE ini dan apakah senario terburuk jika kami tidak menampal?" dan menerima penilaian yang jelas yang diambil daripada data imbasan organisasi itu sendiri. Dengan mengkontekstualisasikan kerentanan (cth. yang ini terdedah kepada internet dan pada pelayan bernilai tinggi, jadi ia menjadi keutamaan utama), AI generatif membantu pasukan menampal dengan bijak dengan sumber yang terhad.
Selain mencari dan mengurus kelemahan yang diketahui, AI generatif menyumbang kepada ujian penembusan dan simulasi serangan – pada asasnya menemui yang tidak diketahui atau menguji kawalan keselamatan. Rangkaian adversarial generatif (GAN), sejenis AI generatif, telah digunakan untuk mencipta data sintetik yang meniru trafik rangkaian sebenar atau tingkah laku pengguna, yang boleh merangkumi corak serangan tersembunyi. Satu kajian pada tahun 2023 mencadangkan penggunaan GAN untuk menjana trafik serangan sifar hari yang realistik untuk melatih sistem pengesanan pencerobohan ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Dengan memberi IDS senario serangan yang direka AI (yang tidak berisiko menggunakan perisian hasad sebenar pada rangkaian pengeluaran), organisasi boleh melatih pertahanan mereka untuk mengenali ancaman baharu tanpa menunggu untuk diserang dalam realiti. Begitu juga, AI boleh mensimulasikan penyerang yang menyelidiki sistem – contohnya, mencuba pelbagai teknik eksploitasi secara automatik dalam persekitaran yang selamat untuk melihat sama ada ia berjaya. Agensi Projek Penyelidikan Lanjutan Pertahanan AS (DARPA) melihat potensi di sini: Cabaran Siber AI 2023nya secara eksplisit menggunakan AI generatif (seperti model bahasa yang besar) untuk “mencari dan membetulkan kelemahan secara automatik dalam perisian sumber terbuka” sebagai sebahagian daripada pertandingan ( DARPA Bertujuan untuk Membangunkan AI, Aplikasi Autonomi yang Boleh Dipercayai oleh Pejuang Perang > Jabatan Pertahanan AS > Berita Jabatan Pertahanan ). Inisiatif ini menggariskan bahawa AI bukan sahaja membantu menampal lubang yang diketahui; ia secara aktif mendedahkan yang baharu dan mencadangkan pembetulan, tugas yang secara tradisinya terhad kepada penyelidik keselamatan yang mahir (dan mahal).
AI Generatif juga boleh mencipta honeypot pintar dan kembar digital untuk pertahanan. Syarikat baharu sedang membangunkan sistem umpan berpacu AI yang meniru pelayan atau peranti sebenar secara meyakinkan. Seperti yang dijelaskan oleh seorang CEO, AI generatif boleh “mengklon sistem digital untuk meniru sistem sebenar dan memikat penggodam” ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Honeypot yang dihasilkan oleh AI ini bertindak seperti persekitaran sebenar (katakan, peranti IoT palsu yang menghantar telemetri biasa) tetapi wujud semata-mata untuk menarik penyerang. Apabila penyerang menyasarkan umpan, AI pada asasnya telah memperdaya mereka untuk mendedahkan kaedah mereka, yang kemudiannya boleh dikaji dan digunakan oleh pembela untuk memperkukuh sistem sebenar. Konsep ini, yang dikuasakan oleh pemodelan generatif, menyediakan cara yang berpandangan ke hadapan untuk mengubah keadaan penyerang , menggunakan penipuan yang dipertingkatkan oleh AI.
Merentasi industri, pengurusan kerentanan yang lebih pantas dan pintar bermakna lebih sedikit pelanggaran. Dalam IT penjagaan kesihatan, sebagai contoh, AI mungkin dengan cepat mengesan pustaka ketinggalan zaman yang terdedah dalam peranti perubatan dan meminta pembetulan firmware sebelum mana-mana penyerang mengeksploitasinya. Dalam perbankan, AI boleh mensimulasikan serangan orang dalam pada aplikasi baharu untuk memastikan data pelanggan kekal selamat dalam semua senario. Oleh itu, AI generatif bertindak sebagai mikroskop dan penguji tekanan untuk postur keselamatan organisasi: ia menerangi kelemahan dan tekanan tersembunyi sistem dengan cara yang imaginatif untuk memastikan daya tahan.
Penjanaan Kod Selamat dan Pembangunan Perisian
Bakat Generatif AI tidak terhad kepada mengesan serangan – ia juga meliputi penciptaan sistem yang lebih selamat dari awal . Dalam pembangunan perisian, penjana kod AI (seperti GitHub Copilot, OpenAI Codex, dll.) boleh membantu pembangun menulis kod dengan lebih pantas dengan mencadangkan coretan kod atau keseluruhan fungsi. Sudut keselamatan siber adalah untuk memastikan bahawa kepingan kod yang dicadangkan oleh AI ini selamat dan menggunakan AI untuk menambah baik amalan pengekodan.
Di satu pihak, AI generatif boleh bertindak sebagai pembantu pengekodan yang menerapkan amalan terbaik keselamatan . Pembangun boleh meminta alat AI, "Jana fungsi penetapan semula kata laluan dalam Python," dan idealnya mendapatkan kembali kod yang bukan sahaja berfungsi tetapi juga mengikuti garis panduan selamat (cth. pengesahan input yang betul, pembalakan, pengendalian ralat tanpa membocorkan maklumat, dsb.). Pembantu sedemikian, yang dilatih tentang contoh kod selamat yang meluas, boleh membantu mengurangkan ralat manusia yang membawa kepada kerentanan. Contohnya, jika pembangun terlupa untuk membersihkan input pengguna (membuka pintu kepada suntikan SQL atau isu yang serupa), AI boleh memasukkannya secara lalai atau memberi amaran kepada mereka. Sesetengah alat pengekodan AI kini sedang diperhalusi dengan data yang berfokus pada keselamatan untuk memenuhi tujuan yang tepat ini – pada asasnya, AI memasangkan pengaturcaraan dengan kesedaran keselamatan .
Walau bagaimanapun, terdapat sisi lain: AI generatif boleh memperkenalkan kelemahan dengan mudah jika tidak dikawal dengan betul. Seperti yang dinyatakan oleh pakar keselamatan Sophos, Ben Verschaeren, penggunaan AI generatif untuk pengekodan adalah "baik untuk kod pendek yang boleh disahkan, tetapi berisiko apabila kod yang tidak disemak disepadukan" ke dalam sistem pengeluaran. Risikonya ialah AI mungkin menghasilkan kod yang betul secara logik yang tidak selamat dengan cara yang mungkin tidak disedari oleh bukan pakar. Selain itu, pelaku yang berniat jahat boleh secara sengaja mempengaruhi model AI awam dengan menyemainya dengan corak kod yang terdedah (satu bentuk keracunan data) supaya AI mencadangkan kod yang tidak selamat. Kebanyakan pembangun bukan pakar keselamatan , jadi jika AI mencadangkan penyelesaian yang mudah, mereka mungkin menggunakannya secara membuta tuli, tanpa menyedari ia mempunyai kelemahan ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Kebimbangan ini adalah nyata – sebenarnya, terdapat senarai 10 Teratas OWASP sekarang untuk LLM (model bahasa besar) yang menggariskan risiko biasa seperti ini dalam menggunakan AI untuk pengekodan.
Untuk mengatasi isu-isu ini, pakar mencadangkan "melawan AI generatif dengan AI generatif" dalam bidang pengekodan. Dalam praktiknya, ini bermakna menggunakan AI untuk menyemak dan menguji kod yang ditulis oleh AI (atau manusia) lain. AI boleh mengimbas melalui komitmen kod baharu jauh lebih pantas daripada pengulas kod manusia dan menandakan potensi kerentanan atau isu logik. Kita sudah melihat alat muncul yang disepadukan ke dalam kitaran hayat pembangunan perisian: kod ditulis (mungkin dengan bantuan AI), kemudian model generatif yang dilatih berdasarkan prinsip kod selamat menyemaknya dan menjana laporan tentang sebarang kebimbangan (katakan, penggunaan fungsi yang tidak digunakan lagi, pemeriksaan pengesahan yang hilang, dsb.). Penyelidikan NVIDIA, yang disebut sebelum ini, yang mencapai pengesanan kerentanan 4× lebih pantas dalam kod adalah contoh memanfaatkan AI untuk analisis kod selamat ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ).
Tambahan pula, AI generatif boleh membantu dalam mencipta konfigurasi dan skrip yang selamat . Contohnya, jika sesebuah syarikat perlu menggunakan infrastruktur awan yang selamat, jurutera boleh meminta AI untuk menjana skrip konfigurasi (Infrastruktur sebagai Kod) dengan kawalan keselamatan (seperti segmentasi rangkaian yang betul, peranan IAM yang paling kurang keistimewaan) yang telah dimasukkan. AI, setelah dilatih tentang beribu-ribu konfigurasi sedemikian, boleh menghasilkan garis dasar yang kemudiannya diperhalusi oleh jurutera. Ini mempercepatkan persediaan sistem yang selamat dan mengurangkan ralat salah konfigurasi – punca biasa insiden keselamatan awan.
Sesetengah organisasi juga memanfaatkan AI generatif untuk mengekalkan asas pengetahuan tentang corak pengekodan yang selamat. Jika pembangun tidak pasti cara melaksanakan ciri tertentu dengan selamat, mereka boleh membuat pertanyaan tentang AI dalaman yang telah belajar daripada projek dan garis panduan keselamatan syarikat yang lalu. AI mungkin mengembalikan pendekatan yang disyorkan atau coretan kod yang sejajar dengan keperluan fungsi dan piawaian keselamatan syarikat. Pendekatan ini telah digunakan oleh alatan seperti Automasi Soal Selidik Secureframe , yang menarik jawapan daripada dasar syarikat dan penyelesaian yang lalu untuk memastikan respons yang konsisten dan tepat (pada asasnya menjana dokumentasi yang selamat) ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Konsep ini diterjemahkan kepada pengekodan: AI yang "mengingati" bagaimana anda melaksanakan sesuatu dengan selamat sebelum ini dan membimbing anda untuk melakukannya dengan cara itu sekali lagi.
Secara ringkasnya, AI generatif mempengaruhi pembangunan perisian dengan menjadikan bantuan pengekodan selamat lebih mudah diakses . Industri yang membangunkan banyak perisian tersuai – teknologi, kewangan, pertahanan, dan sebagainya – akan mendapat manfaat daripada mempunyai pembantu juruterbang AI yang bukan sahaja mempercepatkan pengekodan tetapi bertindak sebagai pengulas keselamatan yang sentiasa berwaspada. Apabila ditadbir dengan betul, alat AI ini dapat mengurangkan pengenalan kerentanan baharu dan membantu pasukan pembangunan mematuhi amalan terbaik, walaupun pasukan tidak mempunyai pakar keselamatan yang terlibat pada setiap langkah. Hasilnya ialah perisian yang lebih mantap terhadap serangan dari hari pertama.
Sokongan Tindak Balas Insiden
Apabila insiden keselamatan siber berlaku – sama ada wabak perisian hasad, pelanggaran data atau gangguan sistem akibat serangan – masa adalah kritikal. AI generatif semakin banyak digunakan untuk menyokong pasukan tindak balas insiden (IR) dalam membendung dan memulihkan insiden dengan lebih pantas dan dengan lebih banyak maklumat tersedia. Ideanya ialah AI boleh memikul sebahagian daripada beban penyiasatan dan dokumentasi semasa insiden, dan juga mencadangkan atau mengautomasikan beberapa tindakan tindak balas.
Satu peranan penting AI dalam IR ialah analisis dan ringkasan insiden masa nyata . Di tengah-tengah insiden, responden mungkin memerlukan jawapan kepada soalan seperti "Bagaimana penyerang boleh masuk?" , "Sistem mana yang terjejas?" , dan "Data apa yang mungkin terjejas?" . AI Generatif boleh menganalisis log, amaran dan data forensik daripada sistem yang terjejas dan memberikan pandangan dengan cepat. Contohnya, Microsoft Security Copilot membolehkan responden insiden memasukkan pelbagai bukti (fail, URL, log peristiwa) dan meminta garis masa atau ringkasan ( Microsoft Security Copilot ialah pembantu AI GPT-4 baharu untuk keselamatan siber | The Verge ). AI mungkin bertindak balas dengan: "Pelanggaran itu mungkin bermula dengan e-mel pancingan data kepada pengguna JohnDoe pada 10:53 GMT yang mengandungi perisian hasad X. Setelah dilaksanakan, perisian hasad tersebut mencipta pintu belakang yang digunakan dua hari kemudian untuk bergerak secara lateral ke pelayan kewangan, di mana ia mengumpul data." Mempunyai gambaran yang koheren ini dalam beberapa minit dan bukannya berjam-jam membolehkan pasukan membuat keputusan termaklum (seperti sistem mana yang hendak diasingkan) dengan lebih pantas.
AI Generatif juga boleh mencadangkan tindakan pembendungan dan pemulihan . Contohnya, jika titik akhir dijangkiti oleh ransomware, alat AI boleh menjana skrip atau set arahan untuk mengasingkan mesin tersebut, melumpuhkan akaun tertentu dan menyekat IP berniat jahat yang diketahui pada tembok api – pada asasnya pelaksanaan buku panduan. Palo Alto Networks menyatakan bahawa AI generatif mampu “menjana tindakan atau skrip yang sesuai berdasarkan sifat kejadian” , mengautomasikan langkah awal tindak balas ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ). Dalam senario di mana pasukan keselamatan terbeban (katakan serangan meluas merentasi ratusan peranti), AI mungkin juga melaksanakan secara langsung beberapa tindakan ini di bawah syarat yang telah diluluskan terlebih dahulu, bertindak seperti responden junior yang bekerja tanpa mengenal penat lelah. Contohnya, ejen AI boleh menetapkan semula kelayakan yang dianggapnya telah dikompromi secara automatik atau mengkuarantin hos yang menunjukkan aktiviti berniat jahat yang sepadan dengan profil kejadian.
Semasa tindak balas insiden, komunikasi adalah penting – baik dalam pasukan mahupun kepada pihak berkepentingan. AI generatif boleh membantu dengan merangka laporan kemas kini insiden atau taklimat dengan pantas . Daripada jurutera menghentikan penyelesaian masalah mereka untuk menulis kemas kini e-mel, mereka boleh meminta AI, “Ringkaskan apa yang telah berlaku dalam insiden ini setakat ini untuk memaklumkan kepada eksekutif.” AI, setelah menyerap data insiden, boleh menghasilkan ringkasan yang ringkas: “Sehingga 3 petang, penyerang telah mengakses 2 akaun pengguna dan 5 pelayan. Data yang terjejas termasuk rekod klien dalam pangkalan data X. Langkah pembendungan: Akses VPN untuk akaun yang dikompromi telah dibatalkan dan pelayan diasingkan. Langkah seterusnya: mengimbas sebarang mekanisme kegigihan.” Responden kemudiannya boleh mengesahkan atau mengubah suai ini dengan cepat dan menghantarnya, memastikan pihak berkepentingan sentiasa dimaklumkan dengan maklumat yang tepat dan terkini.
Selepas keadaan reda, biasanya terdapat laporan insiden terperinci untuk disediakan dan pengajaran yang dipelajari untuk dikumpulkan. Ini adalah satu lagi bidang di mana sokongan AI menonjol. Ia boleh menyemak semua data insiden dan menjana laporan pasca insiden yang merangkumi punca utama, kronologi, impak dan cadangan. IBM, sebagai contoh, sedang mengintegrasikan AI generatif untuk mencipta "ringkasan ringkas kes dan insiden keselamatan yang boleh dikongsi dengan pihak berkepentingan" dengan hanya menekan butang ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Dengan memperkemas pelaporan selepas tindakan, organisasi boleh melaksanakan penambahbaikan dengan lebih pantas dan juga mempunyai dokumentasi yang lebih baik untuk tujuan pematuhan.
Satu kegunaan berpandangan ke hadapan yang inovatif ialah simulasi insiden yang dipacu AI . Sama seperti cara seseorang menjalankan latihan kebakaran, sesetengah syarikat menggunakan AI generatif untuk menjalankan senario insiden "bagaimana-jika". AI mungkin mensimulasikan bagaimana ransomware mungkin merebak berdasarkan susun atur rangkaian, atau bagaimana orang dalam boleh mengeluarkan data, dan kemudian menilai keberkesanan pelan tindak balas semasa. Ini membantu pasukan menyediakan dan memperhalusi buku panduan sebelum insiden sebenar berlaku. Ia seperti mempunyai penasihat tindak balas insiden yang sentiasa bertambah baik yang sentiasa menguji kesediaan anda.
Dalam industri berisiko tinggi seperti kewangan atau penjagaan kesihatan, di mana masa henti atau kehilangan data daripada insiden amat mahal, keupayaan IR yang dipacu AI ini sangat menarik. Sebuah hospital yang mengalami insiden siber tidak mampu menanggung gangguan sistem yang berpanjangan – AI yang cepat membantu dalam pembendungan mungkin benar-benar menyelamatkan nyawa. Begitu juga, institusi kewangan boleh menggunakan AI untuk mengendalikan triaj awal pencerobohan penipuan yang disyaki pada jam 3 pagi, supaya apabila manusia yang bertugas berada dalam talian, banyak kerja asas (log keluar daripada akaun yang terjejas, menyekat transaksi, dsb.) telah pun selesai. Dengan menambah pasukan tindak balas insiden dengan AI generatif , organisasi boleh mengurangkan masa tindak balas dengan ketara dan meningkatkan ketepatan pengendalian mereka, akhirnya mengurangkan kerosakan daripada insiden siber.
Analisis Tingkah Laku dan Pengesanan Anomali
Banyak serangan siber boleh dikesan dengan memerhatikan apabila sesuatu menyimpang daripada tingkah laku "biasa" – sama ada akaun pengguna memuat turun sejumlah data yang luar biasa atau peranti rangkaian yang tiba-tiba berkomunikasi dengan hos yang tidak dikenali. AI Generatif menawarkan teknik lanjutan untuk analisis tingkah laku dan pengesanan anomali , mempelajari corak normal pengguna dan sistem dan kemudian menandakan apabila sesuatu kelihatan janggal.
Pengesanan anomali tradisional selalunya menggunakan ambang statistik atau pembelajaran mesin mudah pada metrik tertentu (lonjakan penggunaan CPU, log masuk pada waktu ganjil, dsb.). AI Generatif boleh membawa perkara ini lebih jauh dengan mencipta profil tingkah laku yang lebih bernuansa. Contohnya, model AI boleh menyerap log masuk, corak akses fail dan tabiat e-mel pekerja dari semasa ke semasa dan membentuk pemahaman pelbagai dimensi tentang "normal" pengguna tersebut. Jika akaun tersebut kemudiannya melakukan sesuatu yang drastik di luar kebiasaannya (seperti log masuk dari negara baharu dan mengakses sejumlah besar fail HR pada tengah malam), AI akan mengesan sisihan bukan sahaja pada satu metrik tetapi sebagai keseluruhan corak tingkah laku yang tidak sesuai dengan profil pengguna. Dalam istilah teknikal, model generatif (seperti pengekod automatik atau model jujukan) boleh memodelkan rupa "normal" dan kemudian menjana julat tingkah laku yang dijangkakan. Apabila realiti berada di luar julat tersebut, ia ditandakan sebagai anomali ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ).
Satu pelaksanaan praktikal adalah dalam pemantauan trafik rangkaian . Menurut tinjauan pada tahun 2024, 54% organisasi AS memetik pemantauan trafik rangkaian sebagai kes penggunaan utama untuk AI dalam keselamatan siber ( Amerika Utara: kes penggunaan AI teratas dalam keselamatan siber di seluruh dunia 2024 ). AI Generatif boleh mempelajari corak komunikasi biasa rangkaian perusahaan – pelayan mana yang biasanya bercakap antara satu sama lain, jumlah data yang bergerak semasa waktu perniagaan berbanding semalaman, dsb. Jika penyerang mula mengeluarkan data daripada pelayan, walaupun secara perlahan untuk mengelakkan pengesanan, sistem berasaskan AI mungkin mendapati bahawa "Pelayan A tidak pernah menghantar 500MB data pada pukul 2 pagi ke IP luaran" dan menimbulkan amaran. Oleh kerana AI bukan sahaja menggunakan peraturan statik tetapi model tingkah laku rangkaian yang berkembang, ia boleh mengesan anomali halus yang mungkin terlepas atau tersilap ditandai oleh peraturan statik (seperti "amaran jika data > X MB"). Sifat adaptif inilah yang menjadikan pengesanan anomali dipacu AI berkuasa dalam persekitaran seperti rangkaian transaksi perbankan, infrastruktur awan atau armada peranti IoT, di mana penentuan peraturan tetap untuk normal vs tidak normal adalah sangat rumit.
AI Generatif juga membantu dengan analitik tingkah laku pengguna (UBA) , yang merupakan kunci untuk mengenal pasti ancaman orang dalam atau akaun yang dikompromi. Dengan menjana garis dasar setiap pengguna atau entiti, AI boleh mengesan perkara seperti penyalahgunaan kelayakan. Contohnya, jika Bob daripada perakaunan tiba-tiba mula membuat pertanyaan pada pangkalan data pelanggan (sesuatu yang tidak pernah dilakukannya sebelum ini), model AI untuk tingkah laku Bob akan menandakan ini sebagai luar biasa. Ia mungkin bukan perisian hasad – ia mungkin kes kelayakan Bob dicuri dan digunakan oleh penyerang, atau Bob menyelidiki di mana dia tidak sepatutnya. Walau apa pun, pasukan keselamatan mendapat amaran untuk menyiasat. Sistem UBA yang dipacu AI sedemikian wujud dalam pelbagai produk keselamatan, dan teknik pemodelan generatif meningkatkan ketepatannya dan mengurangkan penggera palsu dengan mempertimbangkan konteks (mungkin Bob sedang menjalankan projek khas, dsb., yang kadangkala boleh disimpulkan oleh AI daripada data lain).
Dalam bidang pengurusan identiti dan akses, pengesanan deepfake merupakan keperluan yang semakin meningkat – AI generatif boleh mencipta suara dan video sintetik yang memperdaya keselamatan biometrik. Menariknya, AI generatif juga boleh membantu mengesan deepfake ini dengan menganalisis artifak halus dalam audio atau video yang sukar untuk diperhatikan oleh manusia. Kita melihat contoh dengan Accenture, yang menggunakan AI generatif untuk mensimulasikan ekspresi dan keadaan wajah yang tidak terkira banyaknya bagi melatih sistem biometrik mereka bagi membezakan pengguna sebenar daripada deepfake yang dijana AI. Selama lima tahun, pendekatan ini membantu Accenture menghapuskan kata laluan untuk 90% sistemnya (berpindah kepada biometrik dan faktor lain) dan mengurangkan serangan sebanyak 60% ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Pada asasnya, mereka menggunakan AI generatif untuk mengukuhkan pengesahan biometrik, menjadikannya berdaya tahan terhadap serangan generatif (ilustrasi hebat AI yang melawan AI). Pemodelan tingkah laku jenis ini – dalam kes ini, mengenali perbezaan antara wajah manusia hidup berbanding wajah yang disintesis AI – adalah penting kerana kita lebih bergantung pada AI dalam pengesahan.
Pengesanan anomali yang dikuasakan oleh AI generatif boleh digunakan merentasi industri: dalam penjagaan kesihatan, memantau tingkah laku peranti perubatan untuk tanda-tanda penggodaman; dalam kewangan, memerhatikan sistem perdagangan untuk corak yang tidak teratur yang boleh menunjukkan penipuan atau manipulasi algoritma; dalam tenaga/utiliti, memerhatikan isyarat sistem kawalan untuk tanda-tanda pencerobohan. Gabungan keluasan (melihat semua aspek tingkah laku) dan kedalaman (memahami corak kompleks) yang disediakan oleh AI generatif menjadikannya alat yang ampuh untuk mengesan petunjuk insiden siber yang tersembunyi. Apabila ancaman menjadi lebih tersembunyi, bersembunyi di antara operasi biasa, keupayaan untuk mencirikan "normal" dengan tepat dan menjerit apabila sesuatu menyimpang menjadi penting. Oleh itu, AI generatif berfungsi sebagai pengawal yang tidak kenal lelah, sentiasa mempelajari dan mengemas kini definisi normalnya untuk mengikuti perubahan dalam persekitaran, dan memaklumkan pasukan keselamatan tentang anomali yang memerlukan pemeriksaan yang lebih dekat.
Peluang dan Manfaat AI Generatif dalam Keselamatan Siber
Aplikasi AI generatif dalam keselamatan siber membawa pelbagai peluang dan faedah kepada organisasi yang bersedia menerima pakai alatan ini. Di bawah, kami meringkaskan kelebihan utama yang menjadikan AI generatif sebagai tambahan yang menarik kepada program keselamatan siber:
-
Pengesanan dan Tindak Balas Ancaman Lebih Pantas: Sistem AI generatif boleh menganalisis sejumlah besar data dalam masa nyata dan mengenal pasti ancaman dengan lebih pantas berbanding analisis manual manusia. Kelebihan kelajuan ini bermakna pengesanan serangan lebih awal dan pembendungan insiden yang lebih pantas. Dalam praktiknya, pemantauan keselamatan yang dipacu AI boleh mengesan ancaman yang akan mengambil masa yang lebih lama untuk manusia kaitkan. Dengan bertindak balas terhadap insiden dengan segera (atau melaksanakan tindak balas awal secara autonomi), organisasi boleh mengurangkan masa penyerang dalam rangkaian mereka secara mendadak, sekali gus meminimumkan kerosakan.
-
Ketepatan dan Liputan Ancaman yang Dipertingkatkan: Oleh kerana ia sentiasa belajar daripada data baharu, model generatif boleh menyesuaikan diri dengan ancaman yang berkembang dan mengesan tanda-tanda aktiviti berniat jahat yang lebih halus. Ini membawa kepada ketepatan pengesanan yang lebih baik (kurang negatif palsu dan positif palsu) berbanding peraturan statik. Contohnya, AI yang telah mempelajari ciri-ciri e-mel pancingan data atau tingkah laku perisian hasad boleh mengenal pasti varian yang tidak pernah dilihat sebelum ini. Hasilnya ialah liputan jenis ancaman yang lebih luas – termasuk serangan baharu – mengukuhkan keseluruhan postur keselamatan. Pasukan keselamatan juga memperoleh pandangan terperinci daripada analisis AI (cth. penjelasan tentang tingkah laku perisian hasad), membolehkan pertahanan yang lebih tepat dan disasarkan ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ).
-
Automasi Tugas Berulang: AI Generatif cemerlang dalam mengautomasikan tugas keselamatan rutin yang intensif buruh – daripada menyemak log dan menyusun laporan hinggalah menulis skrip tindak balas insiden. Automasi ini mengurangkan beban penganalisis manusia , membebaskan mereka untuk menumpukan pada strategi peringkat tinggi dan membuat keputusan yang kompleks ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ). Tugas biasa tetapi penting seperti pengimbasan kerentanan, pengauditan konfigurasi, analisis aktiviti pengguna dan pelaporan pematuhan boleh dikendalikan (atau sekurang-kurangnya didraf pertama) oleh AI. Dengan mengendalikan tugas-tugas ini pada kelajuan mesin, AI bukan sahaja meningkatkan kecekapan tetapi juga mengurangkan ralat manusia (faktor penting dalam pelanggaran).
-
Pertahanan dan Simulasi Proaktif: AI Generatif membolehkan organisasi beralih daripada keselamatan reaktif kepada proaktif. Melalui teknik seperti simulasi serangan, penjanaan data sintetik dan latihan berasaskan senario, pembela boleh menjangka dan bersedia untuk ancaman sebelum ia berlaku di dunia nyata. Pasukan keselamatan boleh mensimulasikan serangan siber (kempen pancingan data, wabak perisian hasad, DDoS, dll.) dalam persekitaran yang selamat untuk menguji tindak balas mereka dan memperkukuh sebarang kelemahan. Latihan berterusan ini, yang selalunya mustahil untuk dilakukan secara menyeluruh hanya dengan usaha manusia, memastikan pertahanan sentiasa tajam dan terkini. Ia serupa dengan "latihan kebakaran" siber – AI boleh melancarkan banyak ancaman hipotetikal ke arah pertahanan anda supaya anda boleh berlatih dan menambah baik.
-
Meningkatkan Kepakaran Manusia (AI sebagai Pengganda Daya): AI Generatif bertindak sebagai penganalisis junior, penasihat dan pembantu yang tidak kenal penat lelah yang digabungkan menjadi satu. Ia boleh menyediakan ahli pasukan yang kurang berpengalaman dengan panduan dan cadangan yang biasanya dijangkakan daripada pakar berpengalaman, dengan berkesan mendemokrasikan kepakaran di seluruh pasukan ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ). Ini amat berharga memandangkan kekurangan bakat dalam keselamatan siber – AI membantu pasukan yang lebih kecil melakukan lebih banyak perkara dengan lebih sedikit. Penganalisis berpengalaman, sebaliknya, mendapat manfaat daripada AI mengendalikan kerja kasar dan mengemukakan pandangan yang tidak jelas, yang kemudiannya boleh mereka sahkan dan bertindak. Hasil keseluruhannya ialah pasukan keselamatan yang jauh lebih produktif dan berkebolehan, dengan AI menguatkan impak setiap ahli manusia ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber ).
-
Sokongan dan Pelaporan Keputusan yang Dipertingkatkan: Dengan menterjemahkan data teknikal kepada pandangan bahasa semula jadi, AI generatif meningkatkan komunikasi dan pembuatan keputusan. Pemimpin keselamatan mendapat keterlihatan yang lebih jelas tentang isu-isu melalui ringkasan yang dijana AI dan boleh membuat keputusan strategik yang termaklum tanpa perlu menghuraikan data mentah. Begitu juga, komunikasi rentas fungsi (kepada eksekutif, pegawai pematuhan, dll.) dipertingkatkan apabila AI menyediakan laporan yang mudah difahami tentang postur dan insiden keselamatan ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Ini bukan sahaja membina keyakinan dan penjajaran terhadap perkara keselamatan di peringkat kepimpinan tetapi juga membantu mewajarkan pelaburan dan perubahan dengan mengartikulasikan risiko dan jurang yang ditemui oleh AI dengan jelas.
Secara gabungan, manfaat ini bermakna organisasi yang memanfaatkan AI generatif dalam keselamatan siber boleh mencapai postur keselamatan yang lebih kukuh dengan kos operasi yang berpotensi lebih rendah. Mereka boleh bertindak balas terhadap ancaman yang sebelum ini membebankan, menutup jurang yang tidak dipantau, dan terus menambah baik melalui gelung maklum balas yang dipacu AI. Akhirnya, AI generatif menawarkan peluang untuk mengatasi musuh dengan memadankan kelajuan, skala dan kecanggihan serangan moden dengan pertahanan yang sama canggihnya. Seperti yang didapati oleh satu tinjauan, lebih separuh daripada pemimpin perniagaan dan siber menjangkakan pengesanan ancaman yang lebih pantas dan peningkatan ketepatan melalui penggunaan AI generatif ( [PDF] Tinjauan Keselamatan Siber Global 2025 | Forum Ekonomi Dunia ) ( AI Generatif dalam Keselamatan Siber: Kajian Komprehensif LLM ... ) – bukti optimisme terhadap manfaat teknologi ini.
Risiko dan Cabaran Menggunakan AI Generatif dalam Keselamatan Siber
Walaupun peluangnya besar, adalah penting untuk mendekati AI generatif dalam keselamatan siber dengan mata terbuka kepada risiko dan cabaran yang terlibat. Mempercayai AI secara membuta tuli atau menyalahgunakannya boleh memperkenalkan kelemahan baharu. Di bawah, kami menggariskan kebimbangan dan perangkap utama, berserta konteks untuk setiap satu:
-
Penggunaan Adversarial oleh Penjenayah Siber: Keupayaan generatif yang sama yang membantu pembela boleh memperkasakan penyerang. Pelakon ancaman sudah pun menggunakan AI generatif untuk mencipta e-mel pancingan data yang lebih meyakinkan, mencipta persona palsu dan video deepfake untuk kejuruteraan sosial, membangunkan perisian hasad polimorfik yang sentiasa berubah untuk mengelak pengesanan, malah mengautomasikan aspek penggodaman ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ). Hampir separuh (46%) daripada pemimpin keselamatan siber bimbang bahawa AI generatif akan membawa kepada serangan adversarial yang lebih maju ( Keselamatan AI Generatif: Trend, Ancaman & Strategi Mitigasi ). "Perlumbaan senjata AI" ini bermakna apabila pembela menerima pakai AI, penyerang tidak akan jauh ketinggalan (malah, mereka mungkin mendahului dalam beberapa bidang, menggunakan alatan AI yang tidak dikawal selia). Organisasi mesti bersedia untuk ancaman yang dipertingkatkan AI yang lebih kerap, canggih dan sukar dikesan.
-
Halusinasi dan Ketidaktepatan AI: Model AI Generatif boleh menghasilkan output yang munasabah tetapi tidak betul atau mengelirukan – satu fenomena yang dikenali sebagai halusinasi. Dalam konteks keselamatan, AI mungkin menganalisis insiden dan secara salah menyimpulkan bahawa kelemahan tertentu adalah puncanya, atau ia mungkin menghasilkan skrip pemulihan yang cacat yang gagal membendung serangan. Kesilapan ini boleh berbahaya jika diambil pada nilai nominal. Seperti yang diberi amaran oleh NTT Data, “AI generatif mungkin secara munasabah mengeluarkan kandungan yang tidak benar, dan fenomena ini dipanggil halusinasi… pada masa ini sukar untuk menghapuskannya sepenuhnya” ( Risiko Keselamatan AI Generatif dan Langkah Penanggulangan, dan Kesannya terhadap Keselamatan Siber | Kumpulan NTT DATA ). Kebergantungan berlebihan pada AI tanpa pengesahan boleh menyebabkan usaha yang salah arah atau rasa selamat yang palsu. Contohnya, AI mungkin menandakan sistem kritikal secara salah sebagai selamat sedangkan ia tidak, atau sebaliknya, mencetuskan panik dengan "mengesan" pelanggaran yang tidak pernah berlaku. Pengesahan output AI yang ketat dan memastikan manusia sentiasa mengikuti keputusan kritikal adalah penting untuk mengurangkan risiko ini.
-
Positif dan Negatif Palsu: Berkaitan dengan halusinasi, jika model AI tidak dilatih atau dikonfigurasikan dengan baik, ia mungkin melaporkan aktiviti jinak secara berlebihan sebagai berniat jahat (positif palsu) atau, lebih teruk lagi, terlepas ancaman sebenar (negatif palsu) ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber ). Amaran palsu yang berlebihan boleh membebankan pasukan keselamatan dan menyebabkan keletihan amaran (membatalkan peningkatan kecekapan yang dijanjikan oleh AI), manakala pengesanan yang terlepas menyebabkan organisasi terdedah. Menala model generatif untuk keseimbangan yang betul adalah mencabar. Setiap persekitaran adalah unik, dan AI mungkin tidak serta-merta berfungsi secara optimum di luar kotak. Pembelajaran berterusan juga ibarat pedang bermata dua – jika AI belajar daripada maklum balas yang condong atau daripada persekitaran yang berubah, ketepatannya boleh berubah-ubah. Pasukan keselamatan mesti memantau prestasi AI dan melaraskan ambang atau memberikan maklum balas pembetulan kepada model. Dalam konteks berisiko tinggi (seperti pengesanan pencerobohan untuk infrastruktur kritikal), adalah bijak untuk menjalankan cadangan AI selari dengan sistem sedia ada untuk tempoh tertentu, bagi memastikan ia sejajar dan melengkapi dan bukannya konflik.
-
Privasi dan Kebocoran Data: Sistem AI Generatif selalunya memerlukan sejumlah besar data untuk latihan dan operasi. Jika model ini berasaskan awan atau tidak diasingkan dengan betul, terdapat risiko maklumat sensitif boleh bocor. Pengguna mungkin secara tidak sengaja memasukkan data proprietari atau data peribadi ke dalam perkhidmatan AI (fikirkan meminta ChatGPT untuk meringkaskan laporan insiden sulit), dan data tersebut boleh menjadi sebahagian daripada pengetahuan model. Malah, satu kajian baru-baru ini mendapati 55% input kepada alat AI generatif mengandungi maklumat sensitif atau boleh dikenal pasti secara peribadi , menimbulkan kebimbangan serius tentang kebocoran data ( Keselamatan AI Generatif: Trend, Ancaman & Strategi Mitigasi ). Selain itu, jika AI telah dilatih tentang data dalaman dan ia ditanya dengan cara tertentu, ia mungkin mengeluarkan cebisan data sensitif tersebut kepada orang lain. Organisasi mesti melaksanakan dasar pengendalian data yang ketat (cth. menggunakan tika AI di premis atau persendirian untuk bahan sensitif) dan mendidik pekerja tentang tidak menampal maklumat rahsia ke dalam alat AI awam. Peraturan privasi (GDPR, dsb.) juga memainkan peranan – menggunakan data peribadi untuk melatih AI tanpa persetujuan atau perlindungan yang betul boleh melanggar undang-undang.
-
Keselamatan dan Manipulasi Model: Model AI Generatif itu sendiri boleh menjadi sasaran. Musuh mungkin cuba meracuni model , memasukkan data berniat jahat atau mengelirukan semasa fasa latihan atau latihan semula supaya AI mempelajari corak yang salah ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber ). Contohnya, penyerang mungkin secara halus meracuni data risikan ancaman supaya AI gagal mengenali perisian hasad penyerang itu sendiri sebagai berniat jahat. Taktik lain ialah suntikan segera atau manipulasi output , di mana penyerang mencari cara untuk mengeluarkan input kepada AI yang menyebabkannya bertindak dengan cara yang tidak diingini – mungkin untuk mengabaikan pagar keselamatannya atau untuk mendedahkan maklumat yang tidak sepatutnya (seperti gesaan atau data dalaman). Di samping itu, terdapat risiko pengelakan model : penyerang mencipta input yang direka khusus untuk memperdaya AI. Kita melihat ini dalam contoh bermusuhan – data yang sedikit terganggu yang dilihat oleh manusia sebagai normal tetapi AI salah mengklasifikasikannya. Memastikan rantaian bekalan AI selamat (integriti data, kawalan akses model, ujian keteguhan adversarial) merupakan bahagian baharu tetapi perlu dalam keselamatan siber apabila menggunakan alatan ini ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ).
-
Kebergantungan Terlalu Tinggi dan Hakisan Kemahiran: Terdapat risiko yang lebih rendah bahawa organisasi boleh menjadi terlalu bergantung pada AI dan membiarkan kemahiran manusia menjadi atrofi. Jika penganalisis junior mempercayai output AI secara membuta tuli, mereka mungkin tidak akan membangunkan pemikiran kritis dan intuisi yang diperlukan apabila AI tidak tersedia atau salah. Senario yang perlu dielakkan ialah pasukan keselamatan yang mempunyai alatan yang hebat tetapi tidak tahu cara mengendalikannya jika alatan tersebut rosak (sama seperti juruterbang yang terlalu bergantung pada autopilot). Latihan tetap tanpa bantuan AI dan memupuk pemikiran bahawa AI adalah pembantu, bukan peramal yang sempurna, adalah penting untuk memastikan penganalisis manusia sentiasa tajam. Manusia mesti kekal sebagai pembuat keputusan muktamad, terutamanya untuk pertimbangan berimpak tinggi.
-
Cabaran Etika dan Pematuhan: Penggunaan AI dalam keselamatan siber menimbulkan persoalan etika dan boleh mencetuskan isu pematuhan peraturan. Contohnya, jika sistem AI secara salah mengaitkan pekerja sebagai orang dalam yang berniat jahat disebabkan oleh anomali, ia boleh merosakkan reputasi atau kerjaya orang itu secara tidak adil. Keputusan yang dibuat oleh AI boleh menjadi legap (masalah "kotak hitam"), menjadikannya sukar untuk dijelaskan kepada juruaudit atau pengawal selia mengapa tindakan tertentu diambil. Memandangkan kandungan yang dijana AI menjadi lebih berleluasa, memastikan ketelusan dan mengekalkan akauntabiliti adalah penting. Pengawal selia mula meneliti AI – Akta AI EU, sebagai contoh, akan mengenakan keperluan ke atas sistem AI "berisiko tinggi", dan keselamatan siber AI mungkin termasuk dalam kategori tersebut. Syarikat perlu menavigasi peraturan ini dan mungkin mematuhi piawaian seperti Rangka Kerja Pengurusan Risiko NIST AI untuk menggunakan AI generatif secara bertanggungjawab ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Pematuhan juga meliputi pelesenan: menggunakan model sumber terbuka atau pihak ketiga mungkin mempunyai istilah yang menyekat penggunaan tertentu atau memerlukan penambahbaikan perkongsian.
Secara ringkasnya, AI generatif bukanlah penyelesaian mudah – jika tidak dilaksanakan dengan teliti, ia boleh memperkenalkan kelemahan baharu walaupun ia menyelesaikan kelemahan lain. Satu kajian Forum Ekonomi Dunia 2024 menekankan bahawa ~47% organisasi memetik kemajuan dalam AI generatif oleh penyerang sebagai kebimbangan utama, menjadikannya "kesan AI generatif yang paling membimbangkan" dalam keselamatan siber ( [PDF] Tinjauan Keselamatan Siber Global 2025 | Forum Ekonomi Dunia ) ( AI Generatif dalam Keselamatan Siber: Kajian Komprehensif LLM ... ). Oleh itu, organisasi mesti menerima pakai pendekatan yang seimbang: memanfaatkan faedah AI sambil menguruskan risiko ini dengan teliti melalui tadbir urus, pengujian dan pengawasan manusia. Seterusnya, kita akan membincangkan cara untuk mencapai keseimbangan tersebut secara praktikal.
Tinjauan Masa Depan: Peranan AI Generatif yang Berkembang dalam Keselamatan Siber
Menjelang masa hadapan, AI generatif bersedia untuk menjadi bahagian penting dalam strategi keselamatan siber – dan begitu juga, alat yang akan terus dieksploitasi oleh musuh siber. Dinamik kucing-dan-tikus akan dipercepatkan, dengan AI di kedua-dua belah pihak. Berikut adalah beberapa pandangan jangkaan tentang bagaimana AI generatif mungkin membentuk keselamatan siber pada tahun-tahun akan datang:
-
Pertahanan Siber Tambahan AI Menjadi Standard: Menjelang 2025 dan seterusnya, kita boleh menjangkakan bahawa kebanyakan organisasi sederhana hingga besar akan menggabungkan alat yang dipacu AI ke dalam operasi keselamatan mereka. Sama seperti antivirus dan tembok api yang menjadi standard hari ini, pembantu juruterbang AI dan sistem pengesanan anomali mungkin menjadi komponen asas seni bina keselamatan. Alat ini mungkin akan menjadi lebih khusus – contohnya, model AI berbeza yang diperhalusi untuk keselamatan awan, untuk pemantauan peranti IoT, untuk keselamatan kod aplikasi dan sebagainya, semuanya berfungsi secara serentak. Seperti yang dinyatakan oleh satu ramalan, "pada tahun 2025, AI generatif akan menjadi penting kepada keselamatan siber, membolehkan organisasi mempertahankan diri daripada ancaman yang canggih dan berkembang secara proaktif" ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber ). AI akan meningkatkan pengesanan ancaman masa nyata, mengautomasikan banyak tindakan tindak balas dan membantu pasukan keselamatan mengurus jumlah data yang jauh lebih besar daripada yang mereka boleh lakukan secara manual.
-
Pembelajaran dan Adaptasi Berterusan: Sistem AI generatif masa hadapan dalam siber akan menjadi lebih baik dalam pembelajaran secara terus daripada insiden baharu dan risikan ancaman, mengemas kini pangkalan pengetahuan mereka dalam masa hampir nyata. Ini boleh membawa kepada pertahanan yang benar-benar adaptif – bayangkan AI yang mengetahui tentang kempen pancingan data baharu yang menyerang syarikat lain pada waktu pagi dan menjelang petang telah melaraskan penapis e-mel syarikat anda sebagai tindak balas. Perkhidmatan keselamatan AI berasaskan awan mungkin memudahkan pembelajaran kolektif seperti ini, di mana pandangan tanpa nama daripada satu organisasi memberi manfaat kepada semua pelanggan (seperti perkongsian risikan ancaman, tetapi automatik). Walau bagaimanapun, ini memerlukan pengendalian yang teliti untuk mengelakkan perkongsian maklumat sensitif dan untuk mengelakkan penyerang daripada memasukkan data buruk ke dalam model yang dikongsi.
-
Konvergensi Bakat AI dan Keselamatan Siber: Set kemahiran profesional keselamatan siber akan berkembang untuk merangkumi kecekapan dalam AI dan sains data. Sama seperti penganalisis hari ini mempelajari bahasa pertanyaan dan skrip, penganalisis masa depan mungkin kerap memperhalusi model AI atau menulis "buku panduan" untuk AI laksanakan. Kita mungkin melihat peranan baharu seperti "Jurulatih Keselamatan AI" atau "Jurutera AI Keselamatan Siber" – orang yang pakar dalam menyesuaikan alatan AI dengan keperluan organisasi, mengesahkan prestasi mereka dan memastikan ia beroperasi dengan selamat. Sebaliknya, pertimbangan keselamatan siber akan semakin mempengaruhi pembangunan AI. Sistem AI akan dibina dengan ciri keselamatan dari bawah ke atas (seni bina selamat, pengesanan gangguan, log audit untuk keputusan AI, dsb.), dan rangka kerja untuk AI yang boleh dipercayai (adil, boleh dijelaskan, teguh dan selamat) akan membimbing penggunaannya dalam konteks kritikal keselamatan.
-
Serangan Berkuasa AI yang Lebih Canggih: Malangnya, landskap ancaman juga akan berkembang dengan AI. Kami menjangkakan penggunaan AI yang lebih kerap untuk menemui kelemahan zero-day, untuk mencipta pancingan data lembing yang sangat disasarkan (contohnya AI mengikis media sosial untuk mencipta umpan yang disesuaikan dengan sempurna), dan untuk menghasilkan suara atau video deepfake yang meyakinkan untuk memintas pengesahan biometrik atau melakukan penipuan. Ejen penggodaman automatik mungkin muncul yang boleh menjalankan serangan berbilang peringkat secara bebas (peninjauan, eksploitasi, pergerakan sisi, dsb.) dengan pengawasan manusia yang minimum. Ini akan memberi tekanan kepada pembela untuk juga bergantung pada AI – pada asasnya automasi vs. automasi . Sesetengah serangan mungkin berlaku pada kelajuan mesin, seperti bot AI yang mencuba seribu permutasi e-mel pancingan data untuk melihat yang mana satu melepasi penapis. Pertahanan siber perlu beroperasi pada kelajuan dan fleksibiliti yang sama untuk bersaing ( Apakah AI Generatif dalam Keselamatan Siber? - Palo Alto Networks ).
-
Peraturan dan AI Beretika dalam Keselamatan: Memandangkan AI semakin tertanam dalam fungsi keselamatan siber, akan terdapat penelitian yang lebih teliti dan mungkin peraturan untuk memastikan sistem AI ini digunakan secara bertanggungjawab. Kita boleh menjangkakan rangka kerja dan piawaian khusus untuk AI dalam keselamatan. Kerajaan mungkin menetapkan garis panduan untuk ketelusan – contohnya, mewajibkan keputusan keselamatan yang ketara (seperti menamatkan akses pekerja atas aktiviti berniat jahat yang disyaki) tidak boleh dibuat oleh AI sahaja tanpa semakan manusia. Mungkin juga terdapat pensijilan untuk produk keselamatan AI, untuk memastikan pembeli bahawa AI telah dinilai untuk berat sebelah, kekukuhan dan keselamatan. Tambahan pula, kerjasama antarabangsa mungkin berkembang sekitar ancaman siber berkaitan AI; contohnya, perjanjian mengenai pengendalian maklumat salah atau norma yang dicipta oleh AI terhadap senjata siber tertentu yang dipacu oleh AI.
-
Integrasi dengan AI dan Ekosistem IT yang Lebih Luas: AI generatif dalam keselamatan siber kemungkinan besar akan disepadukan dengan sistem AI dan alat pengurusan IT yang lain. Contohnya, AI yang mengurus pengoptimuman rangkaian boleh berfungsi dengan AI keselamatan untuk memastikan perubahan tidak membuka kelemahan. Analisis perniagaan yang dipacu AI mungkin berkongsi data dengan AI keselamatan untuk mengaitkan anomali (seperti penurunan jualan secara tiba-tiba dengan kemungkinan masalah laman web akibat serangan). Pada dasarnya, AI tidak akan hidup dalam silo – ia akan menjadi sebahagian daripada fabrik pintar yang lebih besar dalam operasi organisasi. Ini membuka peluang untuk pengurusan risiko holistik di mana data operasi, data ancaman dan juga data keselamatan fizikal boleh digabungkan oleh AI untuk memberikan pandangan 360 darjah tentang postur keselamatan organisasi.
Dalam jangka masa panjang, harapannya adalah AI generatif akan membantu mengimbangi keseimbangan yang memihak kepada pembela. Dengan mengendalikan skala dan kerumitan persekitaran IT moden, AI dapat menjadikan ruang siber lebih mudah dipertahankan. Walau bagaimanapun, ia adalah satu perjalanan, dan akan ada kesukaran yang semakin meningkat apabila kita memperhalusi teknologi ini dan belajar untuk mempercayainya dengan sewajarnya. Organisasi yang sentiasa dimaklumkan dan melabur dalam penggunaan AI yang bertanggungjawab untuk keselamatan kemungkinan besar akan menjadi pihak yang paling sesuai untuk menavigasi ancaman masa depan.
Seperti yang dinyatakan dalam laporan trend keselamatan siber Gartner baru-baru ini, “kemunculan kes penggunaan (dan risiko) AI generatif sedang mewujudkan tekanan untuk transformasi” ( Trend Keselamatan Siber: Daya Tahan Melalui Transformasi - Gartner ). Mereka yang menyesuaikan diri akan memanfaatkan AI sebagai sekutu yang kuat; mereka yang ketinggalan mungkin mendapati diri mereka diatasi oleh musuh yang diperkasakan AI. Beberapa tahun akan datang akan menjadi masa yang penting dalam menentukan bagaimana AI membentuk semula medan pertempuran siber.
Kesimpulan Praktikal untuk Mengguna Pakai AI Generatif dalam Keselamatan Siber
Bagi perniagaan yang menilai cara memanfaatkan AI generatif dalam strategi keselamatan siber mereka, berikut adalah beberapa cadangan dan panduan praktikal untuk membimbing penerimaan yang bertanggungjawab dan berkesan:
-
Mulakan dengan Pendidikan dan Latihan: Pastikan pasukan keselamatan anda (dan kakitangan IT yang lebih luas) memahami apa yang boleh dan tidak boleh dilakukan oleh AI generatif. Berikan latihan tentang asas-asas alat keselamatan yang dipacu AI dan kemas kini program kesedaran keselamatan untuk semua pekerja bagi merangkumi ancaman yang didayakan AI. Contohnya, ajar kakitangan bagaimana AI boleh menjana penipuan pancingan data dan panggilan palsu yang sangat meyakinkan. Pada masa yang sama, latih pekerja tentang penggunaan alat AI yang selamat dan diluluskan dalam kerja mereka. Pengguna yang berpengetahuan luas kurang berkemungkinan salah mengendalikan AI atau menjadi mangsa serangan yang dipertingkatkan AI ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ).
-
Tentukan Dasar Penggunaan AI yang Jelas: Layan AI generatif seperti mana-mana teknologi yang berkuasa – dengan tadbir urus. Bangunkan dasar yang menyatakan siapa yang boleh menggunakan alatan AI, alatan yang dibenarkan dan untuk tujuan apa. Sertakan garis panduan tentang pengendalian data sensitif (cth. tiada pemberian data sulit ke dalam perkhidmatan AI luaran) untuk mengelakkan kebocoran. Sebagai contoh, anda mungkin hanya membenarkan ahli pasukan keselamatan menggunakan pembantu AI dalaman untuk tindak balas insiden dan pemasaran boleh menggunakan AI yang telah disahkan untuk kandungan – semua orang lain dihadkan. Banyak organisasi kini secara eksplisit menangani AI generatif dalam dasar IT mereka dan badan piawaian terkemuka menggalakkan dasar penggunaan yang selamat dan bukannya larangan langsung ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Pastikan anda menyampaikan peraturan ini dan rasional di sebaliknya kepada semua pekerja.
-
Kurangkan “Shadow AI” dan Pantau Penggunaan: Sama seperti shadow IT, “shadow AI” timbul apabila pekerja mula menggunakan alatan atau perkhidmatan AI tanpa pengetahuan IT (cth. pembangun yang menggunakan pembantu kod AI yang tidak dibenarkan). Ini boleh menimbulkan risiko yang tidak kelihatan. Laksanakan langkah-langkah untuk mengesan dan mengawal penggunaan AI yang tidak dibenarkan . Pemantauan rangkaian boleh menandakan sambungan kepada API AI yang popular, dan tinjauan atau audit alatan boleh mendedahkan apa yang digunakan oleh kakitangan. Tawarkan alternatif yang diluluskan supaya pekerja yang berniat baik tidak tergoda untuk bertindak curang (contohnya, sediakan akaun rasmi ChatGPT Enterprise jika orang ramai mendapati ia berguna). Dengan mendedahkan penggunaan AI, pasukan keselamatan boleh menilai dan mengurus risiko. Pemantauan juga penting – catatkan aktiviti dan output alatan AI sebanyak mungkin, jadi terdapat jejak audit untuk keputusan yang dipengaruhi oleh AI ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ).
-
Manfaatkan AI Secara Defensif – Jangan Tertinggal: Kenali bahawa penyerang akan menggunakan AI, jadi pertahanan anda juga harus. Kenal pasti beberapa bidang berimpak tinggi di mana AI generatif boleh membantu operasi keselamatan anda dengan segera (mungkin triaj amaran atau analisis log automatik) dan jalankan projek perintis. Tingkatkan pertahanan anda dengan kelajuan dan skala AI untuk mengatasi ancaman yang bergerak pantas ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Malah penyepaduan mudah, seperti menggunakan AI untuk meringkaskan laporan perisian hasad atau menjana pertanyaan memburu ancaman, boleh menjimatkan masa penganalisis. Mulakan secara kecil-kecilan, nilaikan keputusan dan ulangi. Kejayaan akan membina kes untuk penerimaan AI yang lebih luas. Matlamatnya adalah untuk menggunakan AI sebagai pengganda daya – contohnya, jika serangan pancingan data mengatasi meja bantuan anda, gunakan pengelas e-mel AI untuk mengurangkan jumlah tersebut secara proaktif.
-
Melabur dalam Amalan AI yang Selamat dan Beretika: Semasa melaksanakan AI generatif, ikuti amalan pembangunan dan penggunaan yang selamat. Gunakan model persendirian atau dihoskan sendiri untuk tugas sensitif bagi mengekalkan kawalan ke atas data. Jika menggunakan perkhidmatan AI pihak ketiga, semak langkah keselamatan dan privasi mereka (penyulitan, dasar pengekalan data, dsb.). Gabungkan rangka kerja pengurusan risiko AI (seperti Rangka Kerja Pengurusan Risiko AI NIST atau panduan ISO/IEC) untuk menangani perkara seperti bias, kebolehjelasan dan kekukuhan dalam alatan AI anda secara sistematik ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Rancang juga untuk kemas kini/tampalan model sebagai sebahagian daripada penyelenggaraan – model AI juga boleh mempunyai "kelemahan" (cth. ia mungkin memerlukan latihan semula jika ia mula hanyut atau jika jenis serangan musuh baharu pada model ditemui). Dengan memasukkan keselamatan dan etika ke dalam penggunaan AI anda, anda membina kepercayaan terhadap hasilnya dan memastikan pematuhan dengan peraturan yang baru muncul.
-
Pastikan Manusia Terkini: Gunakan AI untuk membantu, bukan menggantikan sepenuhnya, pertimbangan manusia dalam keselamatan siber. Tentukan titik keputusan di mana pengesahan manusia diperlukan (contohnya, AI mungkin mendraf laporan insiden, tetapi penganalisis menyemaknya sebelum pengedaran; atau AI mungkin mencadangkan untuk menyekat akaun pengguna, tetapi manusia meluluskan tindakan tersebut). Ini bukan sahaja menghalang ralat AI daripada tidak disemak, tetapi juga membantu pasukan anda belajar daripada AI dan sebaliknya. Galakkan aliran kerja kolaboratif: penganalisis harus berasa selesa mempersoalkan output AI dan melakukan pemeriksaan kewarasan. Lama-kelamaan, dialog ini dapat meningkatkan kedua-dua AI (melalui maklum balas) dan kemahiran penganalisis. Pada asasnya, reka bentuk proses anda supaya AI dan kekuatan manusia saling melengkapi – AI mengendalikan jumlah dan halaju, manusia mengendalikan kekaburan dan keputusan muktamad.
-
Ukur, Pantau dan Laraskan: Akhir sekali, anggap alatan AI generatif anda sebagai komponen hidup ekosistem keselamatan anda. Ukur prestasinya – adakah ia mengurangkan masa tindak balas insiden? Menangkap ancaman lebih awal? Bagaimanakah trend kadar positif palsu? Dapatkan maklum balas daripada pasukan: adakah cadangan AI berguna, atau adakah ia menimbulkan gangguan? Gunakan metrik ini untuk memperhalusi model, mengemas kini data latihan atau melaraskan cara AI disepadukan. Ancaman siber dan keperluan perniagaan berkembang, dan model AI anda harus dikemas kini atau dilatih semula secara berkala untuk kekal berkesan. Mempunyai rancangan untuk tadbir urus model, termasuk siapa yang bertanggungjawab untuk penyelenggaraannya dan kekerapan ia disemak. Dengan mengurus kitaran hayat AI secara aktif, anda memastikan ia kekal sebagai aset, bukan liabiliti.
Kesimpulannya, AI generatif boleh meningkatkan keupayaan keselamatan siber dengan ketara, tetapi penggunaan yang berjaya memerlukan perancangan yang teliti dan pengawasan yang berterusan. Perniagaan yang mendidik kakitangan mereka, menetapkan garis panduan yang jelas dan mengintegrasikan AI dengan cara yang seimbang dan selamat akan meraih ganjaran daripada pengurusan ancaman yang lebih pantas dan lebih bijak. Iktibar tersebut menyediakan pelan tindakan: menggabungkan kepakaran manusia dengan automasi AI, merangkumi asas tadbir urus dan mengekalkan ketangkasan apabila teknologi AI dan landskap ancaman berkembang.
Dengan mengambil langkah-langkah praktikal ini, organisasi boleh menjawab soalan dengan yakin "Bagaimanakah AI generatif boleh digunakan dalam keselamatan siber?" – bukan sahaja dalam teori, tetapi dalam amalan seharian – dan dengan itu mengukuhkan pertahanan mereka dalam dunia kita yang semakin digital dan dipacu AI. ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber )
Kertas putih yang mungkin anda ingin baca selepas ini:
🔗 Pekerjaan Yang Tidak Dapat Digantikan oleh AI dan Pekerjaan Apakah Yang Akan Digantikan oleh AI?
Terokai pandangan global tentang peranan mana yang selamat daripada automasi dan yang mana tidak.
🔗 Bolehkah AI Meramalkan Pasaran Saham?
Pandangan yang lebih dekat tentang batasan, penemuan dan mitos tentang keupayaan AI untuk meramalkan pergerakan pasaran.
🔗 Apakah yang Boleh Diandalkan untuk AI Generatif Tanpa Campur Tangan Manusia?
Fahami di mana AI boleh beroperasi secara bebas dan di mana pengawasan manusia masih penting.