Pakar keselamatan siber menganalisis ancaman menggunakan alat AI generatif.

Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber?

pengenalan

Generatif AI – sistem kecerdasan buatan yang mampu mencipta kandungan atau ramalan baharu – muncul sebagai kuasa transformatif dalam keselamatan siber. Alat seperti GPT-4 OpenAI telah menunjukkan keupayaan untuk menganalisis data yang kompleks dan menjana teks seperti manusia, membolehkan pendekatan baharu untuk mempertahankan diri daripada ancaman siber. Profesional keselamatan siber dan pembuat keputusan perniagaan merentas industri sedang meneroka cara AI generatif boleh mengukuhkan pertahanan terhadap serangan yang berkembang. Daripada kewangan dan penjagaan kesihatan kepada peruncitan dan kerajaan, organisasi dalam setiap sektor menghadapi percubaan pancingan data yang canggih, perisian hasad dan ancaman lain yang mungkin dapat diatasi oleh AI generatif. Dalam kertas putih ini, kami mengkaji cara AI generatif boleh digunakan dalam keselamatan siber , menyerlahkan aplikasi dunia sebenar, kemungkinan masa hadapan dan pertimbangan penting untuk diterima pakai.

AI Generatif berbeza daripada AI analitik tradisional dengan bukan sahaja mengesan corak tetapi juga mencipta kandungan - sama ada mensimulasikan serangan untuk melatih pertahanan atau menghasilkan penjelasan bahasa semula jadi untuk data keselamatan yang kompleks. Keupayaan dwi ini menjadikannya pedang bermata dua: ia menawarkan alat pertahanan baharu yang berkuasa, tetapi pelakon ancaman boleh mengeksploitasinya juga. Bahagian berikut meneroka pelbagai kes penggunaan untuk AI generatif dalam keselamatan siber, daripada mengautomasikan pengesanan pancingan data kepada meningkatkan tindak balas insiden. Kami juga membincangkan faedah yang dijanjikan oleh inovasi AI ini, di samping risiko (seperti "halusinasi" AI atau penyalahgunaan musuh) yang mesti diuruskan oleh organisasi. Akhir sekali, kami menyediakan panduan praktikal untuk membantu perniagaan menilai dan mengintegrasikan AI generatif secara bertanggungjawab ke dalam strategi keselamatan siber mereka.

AI Generatif dalam Keselamatan Siber: Gambaran Keseluruhan

AI Generatif dalam keselamatan siber merujuk kepada model AI - selalunya model bahasa yang besar atau rangkaian saraf lain - yang boleh menjana cerapan, pengesyoran, kod atau data sintetik untuk membantu dalam tugas keselamatan. Tidak seperti model ramalan semata-mata, AI generatif boleh mensimulasikan senario dan menghasilkan output yang boleh dibaca manusia (cth laporan, makluman, atau bahkan sampel kod berniat jahat) berdasarkan data latihannya. Keupayaan ini dimanfaatkan untuk meramal, mengesan dan bertindak balas terhadap ancaman dengan cara yang lebih dinamik berbanding sebelum ini ( What Is Generative AI in Cybersecurity? - Palo Alto Networks ). Sebagai contoh, model generatif boleh menganalisis log besar atau repositori perisikan ancaman dan menghasilkan ringkasan ringkas atau tindakan yang disyorkan, berfungsi hampir seperti "pembantu" AI kepada pasukan keselamatan.

Pelaksanaan awal AI generatif untuk pertahanan siber telah menunjukkan harapan. Pada tahun 2023, Microsoft memperkenalkan Security Copilot , pembantu berkuasa GPT-4 untuk penganalisis keselamatan, untuk membantu mengenal pasti pelanggaran dan menapis 65 trilion isyarat yang diproses Microsoft setiap hari ( Microsoft Security Copilot ialah pembantu AI GPT-4 baharu untuk keselamatan siber | The Verge ). Penganalisis boleh menggesa sistem ini dalam bahasa semula jadi (cth. “Ringkaskan semua insiden keselamatan dalam 24 jam yang lalu” ), dan copilot akan menghasilkan ringkasan naratif yang berguna. Perisikan Ancaman Google menggunakan model generatif yang dipanggil Gemini untuk membolehkan carian perbualan melalui pangkalan data intel ancaman Google yang luas, menganalisis dengan pantas kod yang mencurigakan dan meringkaskan penemuan untuk membantu pemburu perisian hasad ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Contoh-contoh ini menggambarkan potensi: AI generatif boleh mencerna data keselamatan siber berskala besar yang kompleks dan membentangkan cerapan dalam bentuk yang boleh diakses, mempercepatkan membuat keputusan.

Pada masa yang sama, AI generatif boleh mencipta kandungan palsu yang sangat realistik, yang merupakan rahmat untuk simulasi dan latihan (dan, malangnya, untuk penyerang yang mencipta kejuruteraan sosial). Semasa kami meneruskan kes penggunaan tertentu, kami akan melihat bahawa keupayaan AI generatif untuk mensintesis dan menganalisis maklumat menyokong banyak aplikasi keselamatan sibernya. Di bawah, kami menyelami kes penggunaan utama, merangkumi segala-galanya daripada pencegahan pancingan data kepada pembangunan perisian yang selamat, dengan contoh cara setiap satu digunakan di seluruh industri.

Aplikasi Utama AI Generatif dalam Keselamatan Siber

Rajah: Kes penggunaan utama untuk AI generatif dalam keselamatan siber termasuk salinan AI untuk pasukan keselamatan, analisis kerentanan kod, pengesanan ancaman penyesuaian, simulasi serangan sifar hari, keselamatan biometrik yang dipertingkatkan dan pengesanan pancingan data ( 6 Kes Penggunaan untuk AI Generatif dalam Keselamatan Siber [+ Contoh] ).

Pengesanan dan Pencegahan Phishing

Pancingan data kekal sebagai salah satu ancaman siber yang paling meluas, memperdaya pengguna untuk mengklik pautan berniat jahat atau mendedahkan bukti kelayakan. AI Generatif sedang digunakan untuk mengesan percubaan pancingan data dan meningkatkan latihan pengguna untuk mencegah serangan yang berjaya. Dari segi pertahanan, model AI boleh menganalisis kandungan e-mel dan gelagat penghantar untuk mengesan tanda halus pancingan data yang mungkin terlepas oleh penapis berasaskan peraturan. Dengan belajar daripada set data besar e-mel yang sah berbanding penipuan, model generatif boleh membenderakan anomali dalam nada, perkataan atau konteks yang menunjukkan penipuan – walaupun tatabahasa dan ejaan tidak lagi memberikannya. Malah, penyelidik Palo Alto Networks menyatakan bahawa AI generatif boleh mengenal pasti "tanda halus e-mel pancingan data yang mungkin tidak dapat dikesan," membantu organisasi kekal selangkah di hadapan penipu ( What Is Generative AI in Cybersecurity? - Palo Alto Networks ).

Pasukan keselamatan juga menggunakan AI generatif untuk mensimulasikan serangan pancingan data untuk latihan dan analisis. Sebagai contoh, Ironscales memperkenalkan alat simulasi pancingan data berkuasa GPT yang menjana e-mel pancingan data palsu secara automatik yang disesuaikan dengan pekerja organisasi ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). E-mel buatan AI ini mencerminkan taktik penyerang terkini, memberikan kakitangan amalan realistik dalam mengesan kandungan pancingan. Latihan peribadi sedemikian adalah penting kerana penyerang sendiri menggunakan AI untuk mencipta gewang yang lebih meyakinkan. Terutamanya, sementara AI generatif boleh menghasilkan mesej pancingan data yang sangat digilap (sudahlah zaman bahasa Inggeris yang mudah dikesan), pembela telah mendapati bahawa AI tidak boleh dikalahkan. Pada tahun 2024, penyelidik IBM Security menjalankan percubaan membandingkan e-mel pancingan data yang ditulis manusia dengan yang dijana AI, dan "menghairankan, e-mel yang dijana AI masih mudah dikesan walaupun tatabahasanya betul" ( 6 Use Cases for Generative AI in Cybersecurity [+ Contoh] ). Ini menunjukkan bahawa intuisi manusia digabungkan dengan pengesanan berbantukan AI masih boleh mengenali ketidakkonsistenan atau isyarat metadata yang halus dalam penipuan bertulis AI.

AI Generatif membantu pertahanan pancingan data dengan cara lain juga. Model boleh digunakan untuk menjana respons automatik atau penapis yang menguji e-mel yang mencurigakan. Sebagai contoh, sistem AI boleh membalas e-mel dengan pertanyaan tertentu untuk mengesahkan kesahihan pengirim atau menggunakan LLM untuk menganalisis pautan dan lampiran e-mel dalam kotak pasir, kemudian meringkaskan sebarang niat jahat. Platform keselamatan NVIDIA Morpheus menunjukkan kuasa AI dalam arena ini – ia menggunakan model NLP generatif untuk menganalisis dan mengklasifikasikan e-mel dengan pantas, dan ia didapati meningkatkan pengesanan e-mel spear-phishing sebanyak 21% berbanding alat keselamatan tradisional ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Morpheus malah memprofilkan corak komunikasi pengguna untuk mengesan tingkah laku luar biasa (seperti pengguna tiba-tiba menghantar e-mel kepada banyak alamat luaran), yang boleh menunjukkan akaun terjejas menghantar e-mel pancingan data.

Dalam amalan, syarikat merentas industri mula mempercayai AI untuk menapis e-mel dan trafik web untuk serangan kejuruteraan sosial. Firma kewangan, contohnya, menggunakan AI generatif untuk mengimbas komunikasi untuk percubaan penyamaran yang boleh membawa kepada penipuan wayar, manakala penyedia penjagaan kesihatan menggunakan AI untuk melindungi data pesakit daripada pelanggaran berkaitan pancingan data. Dengan menjana senario pancingan data yang realistik dan mengenal pasti ciri khas mesej berniat jahat, AI generatif menambah lapisan yang berkuasa pada strategi pencegahan pancingan data. Pengambilalihan: AI boleh membantu mengesan dan melucutkan senjata serangan pancingan data dengan lebih pantas dan lebih tepat, walaupun penyerang menggunakan teknologi yang sama untuk meningkatkan permainan mereka.

Pengesanan Perisian Hasad dan Analisis Ancaman

Malware moden sentiasa berkembang – penyerang menjana varian baharu atau mengelirukan kod untuk memintas tandatangan antivirus. Generative AI menawarkan teknik baru untuk mengesan perisian hasad dan memahami tingkah lakunya. Satu pendekatan menggunakan AI untuk menjana "kembar jahat" perisian hasad : penyelidik keselamatan boleh memasukkan sampel perisian hasad yang diketahui ke dalam model generatif untuk mencipta banyak varian bermutasi perisian hasad itu. Dengan berbuat demikian, mereka dengan berkesan menjangkakan tweak yang mungkin dilakukan oleh penyerang. Varian yang dijana AI ini kemudiannya boleh digunakan untuk melatih sistem pengesanan antivirus dan pencerobohan, supaya walaupun versi perisian hasad yang diubah suai diiktiraf di alam liar ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Strategi proaktif ini membantu memecahkan kitaran di mana penggodam mengubah sedikit perisian hasad mereka untuk mengelakkan pengesanan dan pembela mesti berebut untuk menulis tandatangan baharu setiap kali. Seperti yang dinyatakan dalam satu podcast industri, pakar keselamatan kini menggunakan AI generatif untuk "mensimulasikan trafik rangkaian dan menjana muatan berniat jahat yang meniru serangan canggih," menguji tekanan pertahanan mereka terhadap seluruh keluarga ancaman dan bukannya satu contoh. Pengesanan ancaman penyesuaian ini bermakna alat keselamatan menjadi lebih berdaya tahan terhadap perisian hasad polimorfik yang sebaliknya akan terlepas.

Di luar pengesanan, AI generatif membantu dalam analisis perisian hasad dan kejuruteraan terbalik , yang secara tradisinya merupakan tugas intensif buruh untuk penganalisis ancaman. Model bahasa yang besar boleh ditugaskan untuk memeriksa kod atau skrip yang mencurigakan dan menerangkan dalam bahasa biasa perkara yang dimaksudkan untuk dilakukan oleh kod tersebut. Contoh dunia sebenar ialah VirusTotal Code Insight , ciri oleh VirusTotal Google yang memanfaatkan model AI generatif (Sec-PaLM Google) untuk menghasilkan ringkasan bahasa semula jadi bagi kod yang berpotensi berniat jahat ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Ia pada asasnya "sejenis ChatGPT khusus untuk pengekodan keselamatan," bertindak sebagai penganalisis perisian hasad AI yang berfungsi 24/7 untuk membantu penganalisis manusia memahami ancaman ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Daripada meneliti skrip atau kod binari yang tidak dikenali, ahli pasukan keselamatan boleh mendapatkan penjelasan segera daripada AI - contohnya, "Skrip ini cuba memuat turun fail daripada pelayan XYZ dan kemudian mengubah suai tetapan sistem, yang menunjukkan tingkah laku perisian hasad." Ini mempercepatkan tindak balas insiden secara mendadak, kerana penganalisis boleh mencuba dan memahami perisian hasad baharu dengan lebih pantas berbanding sebelum ini.

AI Generatif juga digunakan untuk menentukan perisian hasad dalam set data besar-besaran . Enjin antivirus tradisional mengimbas fail untuk mendapatkan tandatangan yang diketahui, tetapi model generatif boleh menilai ciri fail dan juga meramalkan sama ada ia berniat jahat berdasarkan corak yang dipelajari. Dengan menganalisis atribut berbilion fail (berniat jahat dan jinak), AI mungkin menangkap niat jahat apabila tiada tandatangan eksplisit wujud. Contohnya, model generatif boleh membenderakan boleh laku sebagai mencurigakan kerana profil gelagatnya "kelihatan" seperti variasi sedikit perisian tebusan yang dilihatnya semasa latihan, walaupun binari itu baharu. Pengesanan berasaskan tingkah laku ini membantu melawan perisian hasad novel atau sifar hari. AI Perisikan Ancaman Google (sebahagian daripada Chronicle/Mandiant) dilaporkan menggunakan model generatifnya untuk menganalisis kod yang berpotensi berniat jahat dan "dengan lebih cekap dan berkesan membantu profesional keselamatan dalam memerangi perisian hasad dan jenis ancaman lain." ( Bagaimanakah AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Nyata ).

Sebaliknya, kita mesti mengakui penyerang boleh menggunakan AI generatif di sini juga - untuk mencipta perisian hasad secara automatik yang menyesuaikan dirinya. Malah, pakar keselamatan memberi amaran bahawa AI generatif boleh membantu penjenayah siber membangunkan perisian hasad yang lebih sukar untuk dikesan ( What Is Generative AI in Cybersecurity? - Palo Alto Networks ). Model AI boleh diarahkan untuk mengubah sekeping perisian hasad berulang kali (menukar struktur failnya, kaedah penyulitan, dll.) sehingga ia mengelak daripada semua pemeriksaan antivirus yang diketahui. Penggunaan musuh ini menjadi kebimbangan yang semakin meningkat (kadangkala dirujuk sebagai "malware dikuasakan AI" atau malware polimorfik sebagai perkhidmatan). Kami akan membincangkan risiko sedemikian kemudian, tetapi ia menggariskan bahawa AI generatif ialah alat dalam permainan kucing-dan-tikus ini yang digunakan oleh kedua-dua pemain pertahanan dan penyerang.

Secara keseluruhan, AI generatif meningkatkan pertahanan perisian hasad dengan membolehkan pasukan keselamatan berfikir seperti penyerang – menjana ancaman dan penyelesaian baharu secara dalaman. Sama ada ia menghasilkan perisian hasad sintetik untuk meningkatkan kadar pengesanan atau menggunakan AI untuk menerangkan dan mengandungi perisian hasad sebenar yang ditemui dalam rangkaian, teknik ini digunakan merentas industri. Sebuah bank mungkin menggunakan analisis perisian hasad dipacu AI untuk menganalisis dengan cepat makro yang mencurigakan dalam hamparan, manakala firma pembuatan mungkin bergantung pada AI untuk mengesan perisian hasad yang menyasarkan sistem kawalan industri. Dengan menambah analisis perisian hasad tradisional dengan AI generatif, organisasi boleh bertindak balas terhadap kempen perisian hasad dengan lebih pantas dan lebih proaktif berbanding sebelum ini.

Perisikan Ancaman dan Analisis Automasi

Setiap hari, organisasi dihujani dengan data perisikan ancaman - daripada suapan penunjuk kompromi (IOC) yang baru ditemui kepada laporan penganalisis tentang taktik penggodam yang muncul. Cabaran untuk pasukan keselamatan ialah menyaring banjir maklumat ini dan mengekstrak cerapan yang boleh diambil tindakan. AI Generatif terbukti tidak ternilai dalam mengautomasikan analisis dan penggunaan perisikan ancaman . Daripada membaca berpuluh-puluh laporan atau entri pangkalan data secara manual, penganalisis boleh menggunakan AI untuk meringkaskan dan mengkontekstualisasikan intel ancaman pada kelajuan mesin.

Perisikan Ancaman Google , yang menyepadukan AI generatif (model Gemini) dengan data ancaman Google daripada Mandiant dan VirusTotal. AI ini menyediakan "carian perbualan merentas repositori besar perisikan ancaman Google" , membolehkan pengguna bertanya soalan semula jadi tentang ancaman dan mendapatkan jawapan yang disuling ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Nyata ). Sebagai contoh, seorang penganalisis boleh bertanya, "Adakah kami melihat sebarang perisian hasad yang berkaitan dengan Kumpulan Ancaman X yang menyasarkan industri kami?" dan AI akan menarik intel yang berkaitan, mungkin menyatakan "Ya, Ancaman Kumpulan X telah dikaitkan dengan kempen pancingan data bulan lepas menggunakan perisian hasad Y" , bersama-sama dengan ringkasan tingkah laku perisian hasad itu. Ini secara mendadak mengurangkan masa untuk mengumpulkan cerapan yang sebaliknya memerlukan pertanyaan berbilang alatan atau membaca laporan yang panjang.

AI Generatif juga boleh mengaitkan dan meringkaskan aliran ancaman . Ia mungkin menyelidik beribu-ribu catatan blog keselamatan, berita pelanggaran dan perbualan web gelap dan kemudian menjana ringkasan eksekutif "ancaman siber teratas minggu ini" untuk taklimat CISO. Secara tradisinya, tahap analisis dan pelaporan ini memerlukan usaha manusia yang ketara; kini model yang ditala dengan baik boleh mendrafnya dalam beberapa saat, dengan manusia hanya memperhalusi output. Syarikat seperti ZeroFox telah membangunkan FoxGPT , alat AI generatif yang direka khusus untuk "mempercepatkan analisis dan ringkasan perisikan merentas set data yang besar," termasuk kandungan berniat jahat dan data pancingan data ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Dengan mengautomasikan peningkatan berat data bacaan dan rujukan silang, AI membolehkan pasukan intel ancaman memberi tumpuan kepada membuat keputusan dan tindak balas.

Kes penggunaan lain ialah pemburuan ancaman perbualan . Bayangkan seorang penganalisis keselamatan berinteraksi dengan pembantu AI: "Tunjukkan kepada saya sebarang tanda penyingkiran data dalam 48 jam yang lalu" atau "Apakah kerentanan baharu teratas yang dieksploitasi oleh penyerang minggu ini?" AI boleh mentafsir pertanyaan, mencari log dalaman atau sumber intel luaran, dan bertindak balas dengan jawapan yang jelas atau malah senarai insiden yang berkaitan. Ini tidak terlalu mengada-ada – sistem maklumat keselamatan dan pengurusan acara (SIEM) moden mula menggabungkan pertanyaan bahasa semula jadi. Suite keselamatan QRadar IBM, sebagai contoh, menambah ciri AI generatif pada tahun 2024 untuk membolehkan penganalisis “menanya […] soalan khusus tentang laluan serangan ringkasan” sesuatu insiden dan mendapatkan jawapan terperinci. Ia juga boleh "mentafsir dan meringkaskan perisikan ancaman yang sangat relevan" secara automatik ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Nyata ). Pada asasnya, AI generatif mengubah segunung data teknikal menjadi cerapan bersaiz sembang atas permintaan.

Di seluruh industri, ini mempunyai implikasi yang besar. Penyedia penjagaan kesihatan boleh menggunakan AI untuk sentiasa dikemas kini tentang kumpulan perisian tebusan terkini yang menyasarkan hospital, tanpa mendedikasikan penganalisis kepada penyelidikan sepenuh masa. SOC syarikat runcit boleh dengan cepat meringkaskan taktik perisian hasad POS baharu apabila memberi taklimat kepada kakitangan IT kedai. Dan dalam kerajaan, di mana data ancaman daripada pelbagai agensi mesti disintesis, AI boleh menghasilkan laporan bersatu yang menonjolkan amaran utama. Dengan mengautomasikan pengumpulan dan tafsiran perisikan ancaman , AI generatif membantu organisasi bertindak balas dengan lebih pantas terhadap ancaman yang muncul dan mengurangkan risiko kehilangan amaran kritikal yang tersembunyi dalam bunyi bising.

Pengoptimuman Pusat Operasi Keselamatan (SOC).

Pusat Operasi Keselamatan terkenal dengan keletihan amaran dan jumlah data yang menghancurkan. Seorang penganalisis SOC biasa mungkin melalui beribu-ribu makluman dan peristiwa setiap hari, menyiasat kemungkinan insiden. AI Generatif bertindak sebagai pengganda daya dalam SOC dengan mengautomasikan kerja rutin, menyediakan ringkasan pintar, dan juga mengatur beberapa respons. Matlamatnya adalah untuk mengoptimumkan aliran kerja SOC supaya penganalisis manusia boleh menumpukan pada isu yang paling kritikal manakala kopilot AI mengendalikan yang lain.

Satu aplikasi utama adalah menggunakan AI generatif sebagai "Penyalin Penganalisis" . Copilot Keselamatan Microsoft, yang dinyatakan sebelum ini, mencontohkan perkara ini: ia "direka bentuk untuk membantu kerja penganalisis keselamatan dan bukannya menggantikannya," membantu dengan penyiasatan dan pelaporan insiden ( Microsoft Security Copilot ialah pembantu AI GPT-4 baharu untuk keselamatan siber | The Verge ). Dalam amalan, ini bermakna penganalisis boleh memasukkan data mentah - log dinding api, garis masa peristiwa atau penerangan insiden - dan meminta AI menganalisisnya atau meringkaskannya. Copilot mungkin mengeluarkan naratif seperti, "Nampaknya pada 2:35 AM, log masuk yang mencurigakan daripada IP X berjaya pada Pelayan Y, diikuti dengan pemindahan data luar biasa, menunjukkan kemungkinan pelanggaran pelayan itu." Kontekstualisasi segera seperti ini tidak ternilai apabila masa adalah intipati.

Kopilot AI juga membantu mengurangkan beban triage tahap-1. Menurut data industri, pasukan keselamatan boleh menghabiskan 15 jam seminggu hanya mengisih kira-kira 22,000 makluman dan positif palsu ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Dengan AI generatif, banyak makluman ini boleh ditriasi secara automatik - AI boleh mengetepikan yang jelas jinak (dengan alasan yang diberikan) dan menyerlahkan yang benar-benar memerlukan perhatian, malah kadangkala mencadangkan keutamaan. Malah, kekuatan AI generatif dalam memahami konteks bermakna ia boleh mengaitkan amaran silang yang mungkin kelihatan tidak berbahaya secara berasingan tetapi bersama-sama menunjukkan serangan berbilang peringkat. Ini mengurangkan peluang terlepas serangan kerana "keletihan amaran".

Penganalisis SOC juga menggunakan bahasa semula jadi dengan AI untuk mempercepatkan pemburuan dan penyiasatan. AI Ungu SentinelOne , sebagai contoh, menggabungkan antara muka berasaskan LLM dengan data keselamatan masa nyata, membolehkan penganalisis untuk "menyoal soalan memburu ancaman yang kompleks dalam bahasa Inggeris biasa dan mendapatkan jawapan yang pantas dan tepat" ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Seorang penganalisis boleh menaip, "Adakah sebarang titik akhir berkomunikasi dengan domain badguy123[.]com pada bulan lepas?" , dan Purple AI akan mencari melalui log untuk bertindak balas. Ini menjimatkan penganalisis daripada menulis pertanyaan pangkalan data atau skrip - AI melakukannya di bawah hud. Ini juga bermakna penganalisis junior boleh mengendalikan tugas yang sebelum ini memerlukan jurutera berpengalaman yang mahir dalam bahasa pertanyaan, dengan berkesan meningkatkan kemahiran pasukan melalui bantuan AI . Sesungguhnya, penganalisis melaporkan bahawa bimbingan AI generatif "meningkatkan kemahiran dan kecekapan mereka" , kerana kakitangan junior kini boleh mendapatkan sokongan pengekodan atas permintaan atau petua analisis daripada AI, mengurangkan pergantungan untuk sentiasa meminta bantuan ahli pasukan kanan ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ).

Satu lagi pengoptimuman SOC ialah ringkasan dan dokumentasi insiden automatik . Selepas insiden dikendalikan, seseorang mesti menulis laporan - tugas yang dianggap membosankan oleh ramai orang. Generatif AI boleh mengambil data forensik (log sistem, analisis perisian hasad, garis masa tindakan) dan menjana laporan insiden draf pertama. IBM sedang membina keupayaan ini ke dalam QRadar supaya dengan "satu klik" ringkasan insiden boleh dihasilkan untuk pihak berkepentingan yang berbeza (eksekutif, pasukan IT, dll.) ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Nyata ). Ini bukan sahaja menjimatkan masa tetapi juga memastikan tiada apa-apa yang terlepas pandang dalam laporan, kerana AI boleh memasukkan semua butiran yang berkaitan secara konsisten. Begitu juga, untuk pematuhan dan pengauditan, AI boleh mengisi borang atau jadual bukti berdasarkan data kejadian.

Hasil dunia sebenar adalah menarik. Pengguna awal SOAR (orkestrasi keselamatan, automasi dan tindak balas) dipacu AI Swimlane melaporkan peningkatan produktiviti yang besar – Sistem Data Global, contohnya, menyaksikan pasukan SecOps mereka menguruskan beban kes yang lebih besar; seorang pengarah berkata "apa yang saya lakukan hari ini dengan 7 penganalisis mungkin akan mengambil 20 kakitangan tanpa" automasi berkuasa AI ( How Can Generative AI be Used in Cybersecurity ). Dengan kata lain, AI dalam SOC boleh melipatgandakan kapasiti . Di seluruh industri, sama ada syarikat teknologi yang berurusan dengan makluman keselamatan awan atau sistem OT pemantauan kilang pembuatan, pasukan SOC berpeluang untuk mendapatkan pengesanan dan tindak balas yang lebih pantas, lebih sedikit insiden terlepas dan operasi yang lebih cekap dengan menerima pembantu AI generatif. Ini tentang bekerja dengan lebih bijak – membenarkan mesin mengendalikan tugasan yang berulang dan berat data supaya manusia boleh menggunakan gerak hati dan kepakaran mereka di tempat yang paling penting.

Pengurusan Keterdedahan dan Simulasi Ancaman

Mengenal pasti dan mengurus kelemahan – kelemahan dalam perisian atau sistem yang boleh dieksploitasi oleh penyerang – ialah fungsi teras keselamatan siber. AI Generatif sedang meningkatkan pengurusan kelemahan dengan mempercepatkan penemuan, membantu dalam keutamaan tampalan, dan juga mensimulasikan serangan terhadap kelemahan tersebut untuk meningkatkan kesediaan. Pada dasarnya, AI membantu organisasi mencari dan memperbaiki lubang pada perisai mereka dengan lebih cepat, dan secara proaktif sebelum penyerang sebenar melakukannya.

Satu aplikasi penting ialah menggunakan AI generatif untuk semakan kod automatik dan penemuan kerentanan . Pangkalan kod yang besar (terutamanya sistem warisan) selalunya mempunyai kelemahan keselamatan yang tidak disedari. Model AI Generatif boleh dilatih tentang amalan pengekodan selamat dan corak pepijat biasa, kemudian dikeluarkan pada kod sumber atau binari yang disusun untuk mencari potensi kelemahan. Sebagai contoh, penyelidik NVIDIA membangunkan saluran paip AI generatif yang boleh menganalisis bekas perisian warisan dan mengenal pasti kelemahan "dengan ketepatan yang tinggi - sehingga 4x lebih pantas daripada pakar manusia." ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). AI pada asasnya mempelajari rupa kod tidak selamat dan dapat mengimbas melalui perisian yang berusia berdekad-dekad untuk menandakan fungsi dan perpustakaan berisiko, dengan sangat mempercepatkan proses pengauditan kod manual yang biasanya perlahan. Alat jenis ini boleh menjadi pengubah permainan untuk industri seperti kewangan atau kerajaan yang bergantung pada pangkalan kod yang lebih besar dan lebih lama - AI membantu memodenkan keselamatan dengan mencungkil isu yang kakitangan mungkin mengambil masa berbulan-bulan atau bertahun-tahun untuk mencari (jika pernah).

Generatif AI juga membantu dalam aliran kerja pengurusan kerentanan dengan memproses keputusan imbasan kelemahan dan mengutamakannya. Alat seperti Tenable's ExposureAI menggunakan AI generatif untuk membenarkan penganalisis menanyakan data kerentanan dalam bahasa biasa dan mendapatkan jawapan segera ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). ExposureAI boleh "merumuskan laluan serangan lengkap dalam naratif" untuk kelemahan kritikal yang diberikan, menerangkan cara penyerang boleh merantainya dengan kelemahan lain untuk menjejaskan sistem. Ia juga mengesyorkan tindakan untuk membetulkan dan menjawab soalan susulan tentang risiko. Ini bermakna apabila CVE kritikal baharu (Kerentanan dan Pendedahan Biasa) diumumkan, penganalisis boleh bertanya kepada AI, "Adakah mana-mana pelayan kami terjejas oleh CVE ini dan apakah senario terburuk jika kami tidak menambal?" dan menerima penilaian yang jelas yang diambil daripada data imbasan organisasi itu sendiri. Dengan mengkontekstualisasikan kelemahan (cth yang ini terdedah kepada internet dan pada pelayan bernilai tinggi, jadi ia menjadi keutamaan), AI generatif membantu pasukan menambal secara bijak dengan sumber terhad.

Selain mencari dan mengurus kelemahan yang diketahui, AI generatif menyumbang kepada ujian penembusan dan simulasi serangan - pada asasnya menemui yang tidak diketahui atau menguji kawalan keselamatan. Rangkaian musuh generatif (GAN), sejenis AI generatif, telah digunakan untuk mencipta data sintetik yang meniru trafik rangkaian sebenar atau gelagat pengguna, yang boleh termasuk corak serangan tersembunyi. Kajian 2023 mencadangkan menggunakan GAN untuk menjana trafik serangan sifar hari yang realistik untuk melatih sistem pengesanan pencerobohan ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Dengan memberi makan kepada IDS dengan senario serangan buatan AI (yang tidak berisiko menggunakan perisian hasad sebenar pada rangkaian pengeluaran), organisasi boleh melatih pertahanan mereka untuk mengenali ancaman baru tanpa menunggu untuk dipukul olehnya secara realiti. Begitu juga, AI boleh mensimulasikan penyerang yang menyiasat sistem – contohnya, mencuba pelbagai teknik eksploitasi secara automatik dalam persekitaran yang selamat untuk melihat jika ada yang berjaya. Agensi Projek Penyelidikan Lanjutan Pertahanan AS (DARPA) melihat janji di sini: Cabaran Siber AI 2023nya secara eksplisit menggunakan AI generatif (seperti model bahasa besar) untuk "mencari dan membetulkan kelemahan secara automatik dalam perisian sumber terbuka" sebagai sebahagian daripada pertandingan ( DARPA Bertujuan Membangunkan AI, Aplikasi Autonomi Pejuang Perang Boleh Dipercayai > Jabatan Pertahanan AS > Berita Jabatan Pertahanan ). Inisiatif ini menekankan bahawa AI bukan sekadar membantu menampal lubang yang diketahui; ia secara aktif mendedahkan yang baharu dan mencadangkan pembaikan, tugas yang secara tradisinya terhad kepada penyelidik keselamatan yang mahir (dan mahal).

AI Generatif malah boleh mencipta honeypot pintar dan kembar digital untuk pertahanan. Pemula sedang membangunkan sistem umpan dipacu AI yang mencontohi pelayan atau peranti sebenar dengan meyakinkan. Seperti yang dijelaskan oleh seorang CEO, AI generatif boleh "mengklon sistem digital untuk meniru yang sebenar dan memikat penggodam" ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Honeypots yang dijana AI ini berkelakuan seperti persekitaran sebenar (katakan, peranti IoT palsu yang menghantar telemetri biasa) tetapi wujud semata-mata untuk menarik penyerang. Apabila penyerang menyasarkan umpan, AI pada dasarnya telah menipu mereka untuk mendedahkan kaedah mereka, yang kemudiannya boleh dipelajari dan digunakan oleh pembela untuk mengukuhkan sistem sebenar. Konsep ini, dikuasakan oleh pemodelan generatif, menyediakan cara yang berpandangan ke hadapan untuk mengubah kedudukan penyerang , menggunakan penipuan yang dipertingkatkan oleh AI.

Di seluruh industri, pengurusan kerentanan yang lebih pantas dan lebih bijak bermakna lebih sedikit pelanggaran. Dalam IT penjagaan kesihatan, sebagai contoh, AI mungkin dengan cepat melihat perpustakaan usang yang terdedah dalam peranti perubatan dan menggesa pembetulan perisian tegar sebelum mana-mana penyerang mengeksploitasinya. Dalam perbankan, AI boleh mensimulasikan serangan orang dalam pada aplikasi baharu untuk memastikan data pelanggan kekal selamat di bawah semua senario. Oleh itu, AI Generatif bertindak sebagai mikroskop dan penguji tekanan untuk postur keselamatan organisasi: ia menerangi kelemahan tersembunyi dan sistem tekanan dengan cara yang imaginatif untuk memastikan daya tahan.

Penjanaan Kod Selamat dan Pembangunan Perisian

Bakat AI Generatif tidak terhad kepada mengesan serangan – mereka juga meluas untuk mencipta sistem yang lebih selamat dari awal . Dalam pembangunan perisian, penjana kod AI (seperti GitHub Copilot, OpenAI Codex, dll.) boleh membantu pembangun menulis kod dengan lebih pantas dengan mencadangkan coretan kod atau malah keseluruhan fungsi. Sudut keselamatan siber memastikan bahawa kepingan kod yang dicadangkan AI ini selamat dan menggunakan AI untuk meningkatkan amalan pengekodan.

Di satu pihak, AI generatif boleh bertindak sebagai pembantu pengekodan yang membenamkan amalan terbaik keselamatan . Pembangun boleh menggesa alat AI, "Jana fungsi tetapan semula kata laluan dalam Python," dan idealnya dapatkan kembali kod yang bukan sahaja berfungsi tetapi juga mengikut garis panduan selamat (cth. pengesahan input yang betul, pengelogan, pengendalian ralat tanpa maklumat bocor, dsb.). Pembantu sedemikian, dilatih mengenai contoh kod selamat yang meluas, boleh membantu mengurangkan ralat manusia yang membawa kepada kelemahan. Sebagai contoh, jika pembangun terlupa untuk membersihkan input pengguna (membuka pintu kepada suntikan SQL atau isu yang serupa), AI boleh sama ada memasukkannya secara lalai atau memberi amaran kepada mereka. Beberapa alat pengekodan AI kini diperhalusi dengan data berfokuskan keselamatan untuk memenuhi tujuan yang tepat ini – pada asasnya, pengaturcaraan pasangan AI dengan hati nurani keselamatan .

Walau bagaimanapun, terdapat sisi lain: AI generatif boleh dengan mudah memperkenalkan kelemahan jika tidak ditadbir dengan betul. Seperti yang dinyatakan oleh pakar keselamatan Sophos Ben Verschaeren, menggunakan AI generatif untuk pengekodan adalah "baik untuk kod yang pendek dan boleh disahkan, tetapi berisiko apabila kod yang tidak disemak disepadukan" ke dalam sistem pengeluaran. Risikonya ialah AI mungkin menghasilkan kod yang betul secara logik yang tidak selamat dalam cara yang mungkin tidak diperhatikan oleh bukan pakar. Selain itu, pelaku berniat jahat boleh secara sengaja mempengaruhi model AI awam dengan membenihkan mereka dengan corak kod yang terdedah (satu bentuk keracunan data) supaya AI mencadangkan kod tidak selamat. Kebanyakan pembangun bukan pakar keselamatan , jadi jika AI mencadangkan penyelesaian yang mudah, mereka mungkin menggunakannya secara membuta tuli, tanpa menyedari ia mempunyai kecacatan ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Kebimbangan ini nyata – sebenarnya, kini terdapat senarai 10 Teratas OWASP untuk LLM (model bahasa besar) yang menggariskan risiko biasa seperti ini dalam menggunakan AI untuk pengekodan.

Untuk mengatasi isu ini, pakar mencadangkan "melawan AI generatif dengan AI generatif" dalam alam pengekodan. Dalam amalan, ini bermakna menggunakan AI untuk menyemak dan menguji kod yang AI lain (atau manusia) tulis. AI boleh mengimbas melalui kod baharu komit jauh lebih pantas daripada penyemak kod manusia dan menandakan kemungkinan kelemahan atau isu logik. Kami sudah melihat alat yang muncul yang menyepadukan ke dalam kitaran hayat pembangunan perisian: kod ditulis (mungkin dengan bantuan AI), kemudian model generatif yang dilatih mengenai prinsip kod selamat menyemaknya dan menjana laporan tentang sebarang kebimbangan (katakan, penggunaan fungsi yang ditamatkan, tiada pemeriksaan pengesahan, dsb.). Penyelidikan NVIDIA, yang disebut sebelum ini, yang mencapai pengesanan kerentanan 4x lebih pantas dalam kod ialah contoh memanfaatkan AI untuk analisis kod selamat ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ).

Tambahan pula, AI generatif boleh membantu dalam mencipta konfigurasi dan skrip yang selamat . Sebagai contoh, jika syarikat perlu menggunakan infrastruktur awan yang selamat, seorang jurutera boleh meminta AI untuk menjana skrip konfigurasi (Infrastruktur sebagai Kod) dengan kawalan keselamatan (seperti pembahagian rangkaian yang betul, peranan IAM yang paling tidak mempunyai keistimewaan). AI, setelah dilatih mengenai beribu-ribu konfigurasi sedemikian, boleh menghasilkan garis dasar yang kemudian diperhalusi oleh jurutera. Ini mempercepatkan persediaan sistem yang selamat dan mengurangkan ralat salah konfigurasi – sumber biasa insiden keselamatan awan.

Sesetengah organisasi juga memanfaatkan AI generatif untuk mengekalkan asas pengetahuan corak pengekodan selamat. Jika pembangun tidak pasti cara melaksanakan ciri tertentu dengan selamat, mereka boleh menanyakan AI dalaman yang telah belajar daripada projek masa lalu syarikat dan garis panduan keselamatan. AI mungkin mengembalikan pendekatan yang disyorkan atau bahkan coretan kod yang selaras dengan kedua-dua keperluan fungsian dan piawaian keselamatan syarikat. Pendekatan ini telah digunakan oleh alatan seperti Automasi Soal Selidik Secureframe , yang menarik jawapan daripada dasar syarikat dan penyelesaian masa lalu untuk memastikan respons yang konsisten dan tepat (pada asasnya menjana dokumentasi selamat) ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Konsep ini diterjemahkan kepada pengekodan: AI yang "mengingati" cara anda melaksanakan sesuatu dengan selamat sebelum ini dan membimbing anda untuk melakukannya dengan cara itu sekali lagi.

Ringkasnya, AI generatif mempengaruhi pembangunan perisian dengan menjadikan bantuan pengekodan selamat lebih mudah diakses . Industri yang membangunkan banyak perisian tersuai – teknologi, kewangan, pertahanan, dsb. – mendapat manfaat daripada mempunyai kopil AI yang bukan sahaja mempercepatkan pengekodan tetapi bertindak sebagai penyemak keselamatan yang sentiasa berwaspada. Apabila ditadbir dengan betul, alatan AI ini boleh mengurangkan pengenalan kelemahan baharu dan membantu pasukan pembangunan mematuhi amalan terbaik, walaupun pasukan itu tidak mempunyai pakar keselamatan yang terlibat dalam setiap langkah. Hasilnya ialah perisian yang lebih teguh terhadap serangan dari hari pertama.

Sokongan Tindak Balas Insiden

Apabila insiden keselamatan siber berlaku - sama ada wabak perisian hasad, pelanggaran data atau gangguan sistem akibat serangan - masa adalah kritikal. AI Generatif semakin digunakan untuk menyokong pasukan tindak balas insiden (IR) dalam membendung dan memulihkan insiden dengan lebih pantas dan dengan lebih banyak maklumat tersedia. Ideanya ialah AI boleh memikul beberapa beban penyiasatan dan dokumentasi semasa insiden, malah mencadangkan atau mengautomasikan beberapa tindakan tindak balas.

Satu peranan utama AI dalam IR ialah analisis dan ringkasan insiden masa nyata . Di tengah-tengah insiden, responden mungkin memerlukan jawapan kepada soalan seperti "Bagaimana penyerang masuk?" , "Sistem yang manakah terjejas?" , dan "Apakah data yang mungkin terjejas?" . AI Generatif boleh menganalisis log, makluman dan data forensik daripada sistem yang terjejas dan memberikan cerapan dengan cepat. Contohnya, Microsoft Security Copilot membenarkan responden insiden menyuap pelbagai bukti (fail, URL, log peristiwa) dan meminta garis masa atau ringkasan ( Microsoft Security Copilot ialah pembantu AI GPT-4 baharu untuk keselamatan siber | The Verge ). AI mungkin bertindak balas dengan: "Pelanggaran mungkin bermula dengan e-mel pancingan data kepada pengguna JohnDoe pada 10:53 GMT yang mengandungi perisian hasad X. Setelah dilaksanakan, perisian hasad itu mencipta pintu belakang yang digunakan dua hari kemudian untuk bergerak ke sisi ke pelayan kewangan, tempat ia mengumpul data." Mempunyai gambaran koheren ini dalam beberapa minit dan bukannya jam membolehkan pasukan membuat keputusan termaklum (seperti sistem yang hendak diasingkan) dengan lebih cepat.

AI Generatif juga boleh mencadangkan tindakan pembendungan dan pemulihan . Contohnya, jika titik akhir dijangkiti oleh perisian tebusan, alat AI boleh menjana skrip atau set arahan untuk mengasingkan mesin itu, melumpuhkan akaun tertentu dan menyekat IP berniat jahat yang diketahui pada tembok api - pada asasnya pelaksanaan buku permainan. Palo Alto Networks menyatakan bahawa AI generatif mampu "menjana tindakan atau skrip yang sesuai berdasarkan sifat kejadian" , mengautomasikan langkah awal tindak balas ( Apakah AI Generatif dalam Keselamatan Siber? - Rangkaian Palo Alto ). Dalam senario di mana pasukan keselamatan terharu (katakan serangan yang meluas merentasi ratusan peranti), AI mungkin secara langsung melaksanakan beberapa tindakan ini di bawah syarat yang telah diluluskan, bertindak seperti responden junior yang bekerja tanpa jemu. Contohnya, ejen AI boleh menetapkan semula bukti kelayakan secara automatik yang dianggapnya telah terjejas atau hos kuarantin yang mempamerkan aktiviti hasad yang sepadan dengan profil kejadian.

Semasa tindak balas insiden, komunikasi adalah penting - dalam pasukan dan pihak berkepentingan. AI Generatif boleh membantu dengan merangka laporan kemas kini insiden atau taklimat dengan segera . Daripada jurutera menghentikan penyelesaian masalah mereka untuk menulis kemas kini e-mel, mereka boleh meminta AI, "Ringkaskan apa yang berlaku dalam insiden ini setakat ini untuk memaklumkan kepada eksekutif." AI, setelah menelan data kejadian, boleh menghasilkan ringkasan ringkas: "Sehingga jam 3 petang, penyerang telah mengakses 2 akaun pengguna dan 5 pelayan. Data yang terjejas termasuk rekod pelanggan dalam pangkalan data X. Langkah-langkah pembendungan: Akses VPN untuk akaun terjejas telah dibatalkan dan pelayan diasingkan. Langkah seterusnya: mengimbas sebarang mekanisme kegigihan." Pemberi respons kemudian boleh mengesahkan atau mengubah suai ini dengan cepat dan menghantarnya, memastikan pihak berkepentingan sentiasa berada dalam gelung dengan maklumat yang tepat dan terkini.

Selepas habuk mendap, biasanya terdapat laporan insiden terperinci untuk disediakan dan pengajaran yang dipelajari untuk disusun. Ini adalah satu lagi kawasan di mana sokongan AI bersinar. Ia boleh menyemak semua data kejadian dan menjana laporan selepas kejadian yang meliputi punca, kronologi, kesan dan pengesyoran. IBM, sebagai contoh, sedang mengintegrasikan AI generatif untuk mencipta "ringkasan ringkas kes keselamatan dan insiden yang boleh dikongsi dengan pihak berkepentingan" dengan menekan satu butang ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Dengan memperkemas pelaporan selepas tindakan, organisasi boleh melaksanakan penambahbaikan dengan lebih pantas dan juga mempunyai dokumentasi yang lebih baik untuk tujuan pematuhan.

Satu penggunaan inovatif yang berpandangan ke hadapan ialah simulasi insiden dipacu AI . Sama seperti cara seseorang menjalankan latihan kebakaran, sesetengah syarikat menggunakan AI generatif untuk menjalankan senario insiden "bagaimana jika". AI mungkin mensimulasikan cara perisian tebusan mungkin merebak berdasarkan reka letak rangkaian, atau cara orang dalam boleh mengeluarkan data, dan kemudian menjaringkan keberkesanan pelan tindak balas semasa. Ini membantu pasukan menyediakan dan memperhalusi buku permainan sebelum insiden sebenar berlaku. Ia seperti mempunyai penasihat tindak balas insiden yang sentiasa bertambah baik yang sentiasa menguji kesediaan anda.

Dalam industri berkepentingan tinggi seperti kewangan atau penjagaan kesihatan, di mana masa henti atau kehilangan data akibat insiden amat mahal, keupayaan IR dipacu AI ini sangat menarik. Hospital yang mengalami insiden siber tidak mampu mengalami gangguan sistem yang berpanjangan – AI yang cepat membantu dalam pembendungan mungkin benar-benar menyelamatkan nyawa. Begitu juga, institusi kewangan boleh menggunakan AI untuk mengendalikan triage awal pencerobohan penipuan yang disyaki pada pukul 3 pagi, supaya pada masa orang yang sedang dihubungi berada dalam talian, banyak kerja asas (log keluar akaun yang terjejas, menyekat transaksi, dll.) sudah dilakukan. Dengan menambah pasukan tindak balas insiden dengan AI generatif , organisasi boleh mengurangkan masa tindak balas dengan ketara dan meningkatkan ketelitian pengendalian mereka, akhirnya mengurangkan kerosakan akibat insiden siber.

Analitis Tingkah Laku dan Pengesanan Anomali

Banyak serangan siber boleh ditangkap dengan melihat apabila sesuatu menyimpang daripada tingkah laku "biasa" - sama ada akaun pengguna yang memuat turun jumlah data yang luar biasa atau peranti rangkaian yang tiba-tiba berkomunikasi dengan hos yang tidak dikenali. AI Generatif menawarkan teknik lanjutan untuk analisis tingkah laku dan pengesanan anomali , mempelajari corak biasa pengguna dan sistem dan kemudian membenderakan apabila sesuatu kelihatan tidak berfungsi.

Pengesanan anomali tradisional selalunya menggunakan ambang statistik atau pembelajaran mesin ringkas pada metrik tertentu (lonjakan penggunaan CPU, log masuk pada waktu ganjil, dsb.). AI Generatif boleh meneruskannya dengan mencipta profil tingkah laku yang lebih bernuansa. Sebagai contoh, model AI boleh menyerap log masuk, corak akses fail dan tabiat e-mel pekerja dari semasa ke semasa dan membentuk pemahaman multidimensi tentang "normal" pengguna tersebut. Jika akaun itu kemudiannya melakukan sesuatu secara drastik di luar normanya (seperti log masuk dari negara baharu dan mengakses sekumpulan fail HR pada tengah malam), AI akan mengesan penyelewengan bukan sahaja pada satu metrik tetapi secara keseluruhan corak tingkah laku yang tidak sesuai dengan profil pengguna. Dari segi teknikal, model generatif (seperti pengekod auto atau model jujukan) boleh memodelkan rupa "biasa" dan kemudian menjana julat tingkah laku yang dijangkakan. Apabila realiti berada di luar julat itu, ia dibenderakan sebagai anomali ( What Is Generative AI in Cybersecurity? - Palo Alto Networks ).

Satu pelaksanaan praktikal adalah dalam pemantauan trafik rangkaian . Menurut tinjauan 2024, 54% organisasi AS menyebut pemantauan trafik rangkaian sebagai kes penggunaan utama untuk AI dalam keselamatan siber ( Amerika Utara: kes penggunaan AI teratas dalam keselamatan siber di seluruh dunia 2024 ). AI Generatif boleh mempelajari corak komunikasi biasa rangkaian perusahaan – pelayan yang biasanya bercakap antara satu sama lain, jumlah data yang bergerak semasa waktu perniagaan berbanding semalaman, dsb. Jika penyerang mula mengeluarkan data daripada pelayan, walaupun perlahan-lahan untuk mengelakkan pengesanan, sistem berasaskan AI mungkin menyedari bahawa "Pelayan A tidak pernah menghantar 500MB data pada 2 PG kepada amaran IP luaran" . Oleh kerana AI bukan hanya menggunakan peraturan statik tetapi model tingkah laku rangkaian yang berkembang, ia boleh menangkap anomali halus yang peraturan statik (seperti "maklumkan jika data > X MB") mungkin terlepas atau tersilap bendera. Sifat penyesuaian inilah yang menjadikan pengesanan anomali dipacu AI berkuasa dalam persekitaran seperti rangkaian transaksi perbankan, infrastruktur awan atau kumpulan peranti IoT, yang mentakrifkan peraturan tetap untuk normal vs abnormal adalah sangat rumit.

Generative AI juga membantu dengan analisis tingkah laku pengguna (UBA) , yang merupakan kunci untuk mengesan ancaman orang dalam atau akaun yang terjejas. Dengan menjana garis dasar setiap pengguna atau entiti, AI boleh mengesan perkara seperti penyalahgunaan kelayakan. Sebagai contoh, jika Bob dari perakaunan tiba-tiba mula menanyakan pangkalan data pelanggan (sesuatu yang tidak pernah dilakukannya sebelum ini), model AI untuk tingkah laku Bob akan menandakan ini sebagai luar biasa. Ia mungkin bukan perisian hasad – ia mungkin kes bukti kelayakan Bob dicuri dan digunakan oleh penyerang, atau Bob menyiasat di mana dia tidak sepatutnya. Sama ada cara, pasukan keselamatan mendapat perhatian untuk menyiasat. Sistem UBA dipacu AI sedemikian wujud dalam pelbagai produk keselamatan, dan teknik pemodelan generatif mendorong ketepatannya lebih tinggi dan mengurangkan penggera palsu dengan mempertimbangkan konteks (mungkin Bob sedang dalam projek khas, dsb., yang kadangkala AI boleh membuat kesimpulan daripada data lain).

Dalam bidang pengurusan identiti dan akses, pengesanan deepfake adalah keperluan yang semakin meningkat – AI generatif boleh mencipta suara dan video sintetik yang memperdayakan keselamatan biometrik. Menariknya, AI generatif juga boleh membantu mengesan deepfakes ini dengan menganalisis artifak halus dalam audio atau video yang sukar untuk diperhatikan oleh manusia. Kami melihat contoh dengan Accenture, yang menggunakan AI generatif untuk mensimulasikan ekspresi dan keadaan muka yang tidak terkira banyaknya untuk melatih sistem biometrik mereka untuk membezakan pengguna sebenar daripada deepfakes yang dijana AI. Selama lima tahun, pendekatan ini membantu Accenture menghapuskan kata laluan untuk 90% sistemnya (bergerak ke biometrik dan faktor lain) dan mengurangkan serangan sebanyak 60% ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Pada asasnya, mereka menggunakan AI generatif untuk mengukuhkan pengesahan biometrik, menjadikannya berdaya tahan terhadap serangan generatif (ilustrasi hebat AI melawan AI). Pemodelan tingkah laku seperti ini - dalam kes ini mengiktiraf perbezaan antara wajah manusia hidup berbanding wajah yang disintesis AI - adalah penting kerana kami lebih bergantung pada AI dalam pengesahan.

Pengesanan anomali yang dikuasakan oleh AI generatif terpakai merentas industri: dalam penjagaan kesihatan, memantau tingkah laku peranti perubatan untuk tanda-tanda penggodaman; dalam kewangan, menonton sistem perdagangan untuk corak tidak teratur yang boleh menunjukkan penipuan atau manipulasi algoritma; dalam tenaga/utiliti, memerhati isyarat sistem kawalan untuk tanda-tanda pencerobohan. Gabungan keluasan (melihat semua aspek tingkah laku) dan kedalaman (memahami corak kompleks) yang disediakan oleh AI generatif menjadikannya alat yang mujarab untuk mengesan penunjuk jarum dalam timbunan jerami kejadian siber. Apabila ancaman menjadi lebih senyap, bersembunyi di antara operasi biasa, keupayaan ini untuk mencirikan "normal" dengan tepat dan menjerit apabila sesuatu menyimpang menjadi penting. Oleh itu, AI Generatif berfungsi sebagai pengawal yang tidak mengenal penat lelah, sentiasa mempelajari dan mengemas kini definisi normalitinya untuk mengikuti perubahan dalam persekitaran, dan menyedarkan pasukan keselamatan tentang anomali yang perlu diperiksa dengan lebih teliti.

Peluang dan Faedah Generatif AI dalam Keselamatan Siber

Penerapan AI generatif dalam keselamatan siber membawa pelbagai peluang dan faedah untuk organisasi yang bersedia menerima alatan ini. Di bawah, kami meringkaskan kelebihan utama yang menjadikan AI generatif sebagai tambahan yang menarik kepada program keselamatan siber:

  • Pengesanan dan Tindak Balas Ancaman yang Lebih Pantas: Sistem AI Generatif boleh menganalisis sejumlah besar data dalam masa nyata dan mengenali ancaman dengan lebih pantas daripada analisis manusia manual. Kelebihan kelajuan ini bermakna pengesanan awal serangan dan pembendungan insiden yang lebih cepat. Dalam praktiknya, pemantauan keselamatan dipacu AI boleh menangkap ancaman yang memerlukan manusia lebih lama untuk mengaitkannya. Dengan bertindak balas kepada insiden dengan segera (atau malah melaksanakan respons awal secara autonomi), organisasi boleh mengurangkan masa tinggal penyerang secara mendadak dalam rangkaian mereka, meminimumkan kerosakan.

  • Peningkatan Ketepatan dan Liputan Ancaman: Oleh kerana mereka belajar secara berterusan daripada data baharu, model generatif boleh menyesuaikan diri dengan ancaman yang berkembang dan menangkap tanda aktiviti berniat jahat yang lebih halus. Ini membawa kepada ketepatan pengesanan yang lebih baik (kurang negatif palsu dan positif palsu) berbanding peraturan statik. Contohnya, AI yang telah mempelajari ciri e-mel pancingan data atau tingkah laku perisian hasad boleh mengenal pasti varian yang tidak pernah dilihat sebelum ini. Hasilnya ialah liputan jenis ancaman yang lebih luas - termasuk serangan baru - mengukuhkan postur keselamatan keseluruhan. Pasukan keselamatan juga mendapat cerapan terperinci daripada analisis AI (cth penjelasan tentang tingkah laku perisian hasad), membolehkan pertahanan yang lebih tepat dan disasarkan ( Apakah AI Generatif dalam Keselamatan Siber? - Rangkaian Palo Alto ).

  • Automasi Tugasan Berulang: AI Generatif cemerlang dalam mengautomasikan tugas keselamatan rutin yang intensif buruh - daripada menyisir log dan menyusun laporan kepada menulis skrip tindak balas insiden. Automasi ini mengurangkan beban penganalisis manusia , membebaskan mereka untuk menumpukan pada strategi peringkat tinggi dan membuat keputusan yang kompleks ( What Is Generative AI in Cybersecurity? - Palo Alto Networks ). Tugas biasa tetapi penting seperti pengimbasan kerentanan, pengauditan konfigurasi, analisis aktiviti pengguna dan pelaporan pematuhan boleh dikendalikan (atau sekurang-kurangnya digubal pertama) oleh AI. Dengan mengendalikan tugas ini pada kelajuan mesin, AI bukan sahaja meningkatkan kecekapan tetapi juga mengurangkan ralat manusia (faktor penting dalam pelanggaran).

  • Pertahanan dan Simulasi Proaktif: AI Generatif membolehkan organisasi beralih daripada keselamatan reaktif kepada proaktif. Melalui teknik seperti simulasi serangan, penjanaan data sintetik dan latihan berasaskan senario, pembela boleh menjangka dan bersedia menghadapi ancaman sebelum ia menjadi kenyataan di dunia nyata. Pasukan keselamatan boleh mensimulasikan serangan siber (kempen pancingan data, wabak perisian hasad, DDoS, dll.) dalam persekitaran yang selamat untuk menguji respons mereka dan menyokong sebarang kelemahan. Latihan berterusan ini, selalunya mustahil untuk dilakukan secara menyeluruh hanya dengan usaha manusia, memastikan pertahanan tajam dan terkini. Ia serupa dengan "latihan kebakaran" siber - AI boleh melemparkan banyak ancaman hipotesis pada pertahanan anda supaya anda boleh berlatih dan menambah baik.

  • Meningkatkan Kepakaran Manusia (AI sebagai Pengganda Daya): Generatif AI bertindak sebagai penganalisis junior, penasihat dan pembantu yang tidak kenal lelah yang digabungkan menjadi satu. Ia boleh memberikan ahli pasukan yang kurang berpengalaman dengan bimbingan dan pengesyoran yang biasanya dijangka daripada pakar berpengalaman, dengan berkesan mendemokrasikan kepakaran merentas pasukan ( 6 Kes Penggunaan untuk Generatif AI dalam Keselamatan Siber [+ Contoh] ). Ini amat berharga memandangkan kekurangan bakat dalam keselamatan siber - AI membantu pasukan yang lebih kecil melakukan lebih banyak dengan kurang. Penganalisis yang berpengalaman, sebaliknya, mendapat manfaat daripada AI yang mengendalikan kerja rungutan dan memaparkan cerapan yang tidak jelas, yang kemudiannya boleh mereka sahkan dan bertindak. Hasil keseluruhannya ialah pasukan keselamatan yang jauh lebih produktif dan berkebolehan, dengan AI menguatkan kesan setiap ahli manusia ( How Can Generative AI be Used in Cybersecurity ).

  • Sokongan dan Pelaporan Keputusan yang Dipertingkat: Dengan menterjemah data teknikal ke dalam cerapan bahasa semula jadi, AI generatif meningkatkan komunikasi dan membuat keputusan. Pemimpin keselamatan mendapat keterlihatan yang lebih jelas tentang isu melalui ringkasan yang dijana AI dan boleh membuat keputusan strategik termaklum tanpa perlu menghuraikan data mentah. Begitu juga, komunikasi merentas fungsi (kepada eksekutif, pegawai pematuhan, dsb.) dipertingkatkan apabila AI menyediakan laporan postur dan insiden keselamatan yang mudah difahami ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Ini bukan sahaja membina keyakinan dan penjajaran mengenai perkara keselamatan di peringkat kepimpinan tetapi juga membantu mewajarkan pelaburan dan perubahan dengan menyatakan risiko dengan jelas dan jurang yang ditemui AI.

Secara gabungan, faedah ini bermakna organisasi yang memanfaatkan AI generatif dalam keselamatan siber boleh mencapai postur keselamatan yang lebih kukuh dengan kos operasi yang berpotensi lebih rendah. Mereka boleh bertindak balas terhadap ancaman yang sebelum ini hebat, menutup jurang yang tidak dipantau dan terus menambah baik melalui gelung maklum balas dipacu AI. Akhirnya, AI generatif menawarkan peluang untuk mendahului musuh dengan memadankan kelajuan, skala dan kecanggihan serangan moden dengan pertahanan yang sama canggih. Seperti yang ditemui oleh satu tinjauan, lebih separuh daripada pemimpin perniagaan dan siber menjangkakan pengesanan ancaman yang lebih pantas dan peningkatan ketepatan melalui penggunaan AI generatif ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( Generative AI in Cybersecurity: A Comprehensive Review of LLM ... ) – bukti keyakinan terhadap manfaat teknologi ini.

Risiko dan Cabaran Penggunaan Generatif AI dalam Keselamatan Siber

Walaupun peluang adalah penting, adalah penting untuk mendekati AI generatif dalam keselamatan siber dengan mata terbuka kepada risiko dan cabaran yang terlibat. Mempercayai AI secara membuta tuli atau menyalahgunakannya boleh memperkenalkan kelemahan baharu. Di bawah, kami menggariskan kebimbangan dan perangkap utama, bersama dengan konteks untuk setiap:

  • Penggunaan Adversarial oleh Penjenayah Siber: Keupayaan generatif yang sama yang membantu pembela boleh memperkasakan penyerang. Aktor ancaman sudah pun menggunakan AI generatif untuk mencipta e-mel pancingan data yang lebih meyakinkan, mencipta persona palsu dan video palsu mendalam untuk kejuruteraan sosial, membangunkan perisian hasad polimorfik yang sentiasa berubah untuk mengelak pengesanan, dan juga mengautomasikan aspek penggodaman ( What Is Generative AI in Cybersecurity? - Palo Alto Networks ). Hampir separuh (46%) pemimpin keselamatan siber bimbang AI generatif akan membawa kepada serangan musuh yang lebih maju ( Generative AI Security: Trends, Threats & Mitigation Strategies ). "Perlumbaan senjata AI" ini bermaksud bahawa apabila pembela mengguna pakai AI, penyerang tidak akan ketinggalan (malah, mereka mungkin berada di hadapan dalam sesetengah kawasan, menggunakan alat AI yang tidak terkawal). Organisasi mesti bersedia untuk ancaman dipertingkatkan AI yang lebih kerap, canggih dan sukar untuk dikesan.

  • Halusinasi dan Ketidaktepatan AI: Model AI Generatif boleh menghasilkan output yang munasabah tetapi tidak betul atau mengelirukan - fenomena yang dikenali sebagai halusinasi. Dalam konteks keselamatan, AI mungkin menganalisis insiden dan tersilap menyimpulkan bahawa kelemahan tertentu adalah puncanya, atau ia mungkin menghasilkan skrip pemulihan yang cacat yang gagal mengandungi serangan. Kesilapan ini boleh berbahaya jika diambil pada nilai muka. Seperti yang diberi amaran oleh NTT Data, “AI generatif mungkin mengeluarkan kandungan yang tidak benar, dan fenomena ini dipanggil halusinasi… pada masa ini sukar untuk menghapuskannya sepenuhnya” ( Risiko Keselamatan AI Generatif dan Tindakan Balas, dan Kesannya terhadap Keselamatan Siber | Kumpulan DATA NTT ). Pergantungan yang berlebihan pada AI tanpa pengesahan boleh menyebabkan usaha tersalah arah atau rasa selamat yang salah. Sebagai contoh, AI mungkin secara palsu membenderakan sistem kritikal sebagai selamat apabila ia tidak, atau sebaliknya, mencetuskan panik dengan "mengesan" pelanggaran yang tidak pernah berlaku. Pengesahan output AI yang rapi dan mempunyai manusia dalam gelung untuk keputusan kritikal adalah penting untuk mengurangkan risiko ini.

  • Positif dan Negatif Palsu: Berkaitan dengan halusinasi, jika model AI kurang dilatih atau dikonfigurasikan, ia mungkin terlebih melaporkan aktiviti jinak sebagai berniat jahat (positif palsu) atau, lebih teruk, terlepas ancaman sebenar (negatif palsu) ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber ). Makluman palsu yang berlebihan boleh mengatasi pasukan keselamatan dan membawa kepada keletihan amaran (membatalkan keuntungan kecekapan yang dijanjikan AI), manakala pengesanan yang terlepas menyebabkan organisasi terdedah. Menala model generatif untuk keseimbangan yang betul adalah mencabar. Setiap persekitaran adalah unik dan AI mungkin tidak serta-merta berprestasi secara optimum di luar kotak. Pembelajaran berterusan adalah pedang bermata dua juga - jika AI belajar daripada maklum balas yang condong atau daripada persekitaran yang berubah, ketepatannya boleh berubah-ubah. Pasukan keselamatan mesti memantau prestasi AI dan melaraskan ambang atau memberikan maklum balas pembetulan kepada model. Dalam konteks berkepentingan tinggi (seperti pengesanan pencerobohan untuk infrastruktur kritikal), mungkin bijak untuk menjalankan cadangan AI selari dengan sistem sedia ada untuk satu tempoh, untuk memastikan ia selaras dan melengkapkan daripada konflik.

  • Privasi dan Kebocoran Data: Sistem AI Generatif selalunya memerlukan sejumlah besar data untuk latihan dan operasi. Jika model ini berasaskan awan atau tidak disilokan dengan betul, terdapat risiko maklumat sensitif boleh bocor. Pengguna mungkin secara tidak sengaja memasukkan data proprietari atau data peribadi ke dalam perkhidmatan AI (berfikir meminta ChatGPT meringkaskan laporan insiden sulit), dan data itu boleh menjadi sebahagian daripada pengetahuan model. Malah, kajian baru-baru ini mendapati 55% daripada input kepada alatan AI generatif mengandungi maklumat sensitif atau boleh dikenal pasti secara peribadi , menimbulkan kebimbangan serius tentang kebocoran data ( Generative AI Security: Trends, Threats & Mitigation Strategies ). Selain itu, jika AI telah dilatih mengenai data dalaman dan ia ditanya dalam cara tertentu, ia mungkin mengeluarkan kepingan data sensitif itu kepada orang lain. Organisasi mesti melaksanakan dasar pengendalian data yang ketat (cth menggunakan contoh AI di premis atau persendirian untuk bahan sensitif) dan mendidik pekerja tentang tidak menampal maklumat rahsia ke dalam alatan AI awam. Peraturan privasi (GDPR, dsb.) turut memainkan peranan – menggunakan data peribadi untuk melatih AI tanpa kebenaran atau perlindungan yang sewajarnya boleh melanggar undang-undang.

  • Keselamatan dan Manipulasi Model: Model AI Generatif sendiri boleh menjadi sasaran. Musuh mungkin cuba meracuni model , memberi data berniat jahat atau mengelirukan semasa fasa latihan atau latihan semula supaya AI mempelajari corak yang salah ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber ). Contohnya, penyerang mungkin secara halus meracuni data intel ancaman supaya AI gagal mengenali perisian hasad penyerang sendiri sebagai berniat jahat. Taktik lain ialah suntikan segera atau manipulasi output , di mana penyerang mencari cara untuk mengeluarkan input kepada AI yang menyebabkannya berkelakuan dengan cara yang tidak diingini – mungkin untuk mengabaikan pagar keselamatannya atau mendedahkan maklumat yang tidak sepatutnya (seperti gesaan dalaman atau data). Selain itu, terdapat risiko pengelakan model : penyerang mencipta input yang direka khusus untuk memperdaya AI. Kami melihat ini dalam contoh musuh - data yang sedikit terganggu yang dilihat manusia sebagai perkara biasa tetapi AI salah mengklasifikasikan. Memastikan rantaian bekalan AI selamat (integriti data, kawalan akses model, ujian kekukuhan lawan) ialah bahagian keselamatan siber yang baharu tetapi perlu apabila menggunakan alatan ini ( What Is Generative AI in Cybersecurity? - Palo Alto Networks ).

  • Kebergantungan Terlalu dan Hakisan Kemahiran: Terdapat risiko yang lebih rendah bahawa organisasi boleh menjadi terlalu bergantung pada AI dan membiarkan kemahiran manusia atrofi. Jika penganalisis junior mempercayai output AI secara membuta tuli, mereka mungkin tidak membangunkan pemikiran kritis dan gerak hati yang diperlukan apabila AI tidak tersedia atau salah. Senario yang perlu dielakkan ialah pasukan keselamatan yang mempunyai alatan yang hebat tetapi tidak tahu cara untuk beroperasi jika alatan tersebut rosak (sama seperti juruterbang yang terlalu bergantung pada autopilot). Latihan latihan yang kerap tanpa bantuan AI dan memupuk minda bahawa AI adalah pembantu, bukan peramal yang sempurna, adalah penting untuk memastikan penganalisis manusia sentiasa tajam. Manusia mesti kekal sebagai pembuat keputusan muktamad, terutamanya untuk pertimbangan berimpak tinggi.

  • Cabaran Etika dan Pematuhan: Penggunaan AI dalam keselamatan siber menimbulkan persoalan etika dan boleh mencetuskan isu pematuhan peraturan. Sebagai contoh, jika sistem AI secara salah mengaitkan pekerja sebagai orang dalam yang berniat jahat disebabkan oleh anomali, ia boleh merosakkan reputasi atau kerjaya orang itu secara tidak adil. Keputusan yang dibuat oleh AI boleh menjadi legap (masalah "kotak hitam"), menjadikannya sukar untuk menerangkan kepada juruaudit atau pengawal selia mengapa tindakan tertentu telah diambil. Memandangkan kandungan yang dijana AI menjadi lebih berleluasa, memastikan ketelusan dan mengekalkan akauntabiliti adalah penting. Pengawal selia mula meneliti AI - Akta AI EU, sebagai contoh, akan mengenakan keperluan pada sistem AI "berisiko tinggi", dan AI keselamatan siber mungkin termasuk dalam kategori itu. Syarikat perlu menavigasi peraturan ini dan mungkin mematuhi piawaian seperti Rangka Kerja Pengurusan Risiko NIST AI untuk menggunakan AI generatif secara bertanggungjawab ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Pematuhan juga meliputi pelesenan: menggunakan model sumber terbuka atau pihak ketiga mungkin mempunyai syarat yang menyekat penggunaan tertentu atau memerlukan perkongsian pembaikan.

Ringkasnya, AI generatif bukanlah peluru perak - jika tidak dilaksanakan dengan teliti, ia boleh memperkenalkan kelemahan baharu walaupun ia menyelesaikan yang lain. Kajian Forum Ekonomi Dunia 2024 menyerlahkan bahawa ~47% organisasi menyebut kemajuan dalam AI generatif oleh penyerang sebagai kebimbangan utama, menjadikannya "kesan AI generatif yang paling membimbangkan" dalam keselamatan siber ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( Generative AI in Cybersecurity: A Comprehensive Review of LLM ... ). Oleh itu, organisasi mesti menggunakan pendekatan yang seimbang: memanfaatkan manfaat AI sambil menguruskan risiko ini dengan teliti melalui tadbir urus, ujian dan pengawasan manusia. Kami seterusnya akan membincangkan cara mencapai keseimbangan itu secara praktikal.

Tinjauan Masa Depan: Peranan Generatif AI yang Berkembang dalam Keselamatan Siber

Memandang ke hadapan, AI generatif bersedia untuk menjadi sebahagian daripada strategi keselamatan siber – dan begitu juga, alat yang akan terus dieksploitasi oleh musuh siber. kucing -dan-tikus akan dipercepatkan, dengan AI pada kedua-dua belah pagar. Berikut ialah beberapa pandangan yang berpandangan ke hadapan tentang cara AI generatif mungkin membentuk keselamatan siber pada tahun-tahun akan datang:

  • Pertahanan Siber yang Dipertingkatkan AI Menjadi Standard: Menjelang 2025 dan seterusnya, kami boleh menjangkakan bahawa kebanyakan organisasi sederhana hingga besar akan menggabungkan alat dipacu AI ke dalam operasi keselamatan mereka. Sama seperti antivirus dan tembok api adalah standard hari ini, salinan AI dan sistem pengesanan anomali boleh menjadi komponen asas seni bina keselamatan. Alat ini mungkin akan menjadi lebih khusus – contohnya, model AI yang berbeza diperhalusi untuk keselamatan awan, untuk pemantauan peranti IoT, untuk keselamatan kod aplikasi, dan sebagainya, semuanya berfungsi secara bersama. Seperti yang dinyatakan oleh satu ramalan, "pada tahun 2025, AI generatif akan menjadi penting kepada keselamatan siber, membolehkan organisasi mempertahankan diri daripada ancaman yang canggih dan berkembang secara proaktif" ( How Can Generative AI be Used in Cybersecurity ). AI akan meningkatkan pengesanan ancaman masa nyata, mengautomasikan banyak tindakan tindak balas dan membantu pasukan keselamatan mengurus volum data yang jauh lebih besar daripada yang mereka boleh lakukan secara manual.

  • Pembelajaran Berterusan dan Penyesuaian: Sistem AI generatif masa depan dalam siber akan menjadi lebih baik dalam pembelajaran dengan segera daripada insiden baharu dan risikan ancaman, mengemas kini pangkalan pengetahuan mereka dalam masa hampir-nyata. Ini boleh membawa kepada pertahanan yang benar-benar adaptif – bayangkan AI yang mengetahui tentang kempen pancingan data baharu yang menyerang syarikat lain pada waktu pagi dan menjelang tengah hari telah melaraskan penapis e-mel syarikat anda sebagai tindak balas. Perkhidmatan keselamatan AI berasaskan awan mungkin memudahkan pembelajaran kolektif jenis ini, di mana cerapan tanpa nama daripada satu organisasi memberi manfaat kepada semua pelanggan (sama seperti mengancam perkongsian intel, tetapi automatik). Walau bagaimanapun, ini memerlukan pengendalian yang teliti untuk mengelakkan perkongsian maklumat sensitif dan untuk menghalang penyerang daripada menyuap data yang tidak baik ke dalam model yang dikongsi.

  • Konvergensi AI dan Bakat Keselamatan Siber: Set kemahiran profesional keselamatan siber akan berkembang untuk memasukkan kecekapan dalam AI dan sains data. Sama seperti penganalisis hari ini mempelajari bahasa pertanyaan dan skrip, penganalisis esok mungkin sentiasa memperhalusi model AI atau menulis "buku permainan" untuk AI dilaksanakan. Kami mungkin melihat peranan baharu seperti “Jurulatih Keselamatan AI” atau “Jurutera AI Keselamatan Siber” – orang yang pakar dalam menyesuaikan alatan AI kepada keperluan organisasi, mengesahkan prestasi mereka dan memastikan ia beroperasi dengan selamat. Sebaliknya, pertimbangan keselamatan siber akan semakin mempengaruhi pembangunan AI. Sistem AI akan dibina dengan ciri keselamatan dari awal (seni bina selamat, pengesanan gangguan, log audit untuk keputusan AI, dll.), dan rangka kerja untuk AI yang boleh dipercayai (adil, boleh dijelaskan, teguh dan selamat) akan membimbing penggunaannya dalam konteks kritikal keselamatan.

  • Serangan Dikuasakan AI yang Lebih Canggih: Malangnya, landskap ancaman juga akan berkembang dengan AI. Kami menjangkakan penggunaan AI yang lebih kerap untuk menemui kelemahan sifar hari, untuk mencipta pancingan data lembing yang sangat disasarkan (cth AI mengikis media sosial untuk mencipta umpan yang disesuaikan dengan sempurna), dan untuk menjana suara atau video palsu mendalam yang meyakinkan untuk memintas pengesahan biometrik atau melakukan penipuan. Ejen penggodaman automatik mungkin muncul yang boleh melakukan serangan berbilang peringkat secara bebas (peninjauan, eksploitasi, pergerakan sisi, dll.) dengan pengawasan manusia yang minimum. Ini akan memberi tekanan kepada pembela untuk turut bergantung pada AI – pada asasnya automasi lwn automasi . Sesetengah serangan mungkin berlaku pada kelajuan mesin, seperti bot AI yang mencuba seribu permutasi e-mel pancingan data untuk melihat mana satu yang melepasi penapis. Pertahanan siber perlu beroperasi pada kelajuan dan fleksibiliti yang sama untuk bersaing ( Apakah Generatif AI dalam Keselamatan Siber? - Rangkaian Palo Alto ).

  • Peraturan dan AI Beretika dalam Keselamatan: Memandangkan AI menjadi sangat tertanam dalam fungsi keselamatan siber, akan ada penelitian yang lebih besar dan mungkin peraturan untuk memastikan sistem AI ini digunakan secara bertanggungjawab. Kita boleh mengharapkan rangka kerja dan piawaian khusus untuk AI dalam keselamatan. Kerajaan mungkin menetapkan garis panduan untuk ketelusan – contohnya, menghendaki keputusan keselamatan yang penting (seperti menamatkan akses pekerja untuk aktiviti yang disyaki berniat jahat) tidak boleh dibuat oleh AI sahaja tanpa semakan manusia. Mungkin juga terdapat pensijilan untuk produk keselamatan AI, untuk memastikan pembeli bahawa AI telah dinilai untuk berat sebelah, kekukuhan dan keselamatan. Tambahan pula, kerjasama antarabangsa mungkin berkembang di sekitar ancaman siber berkaitan AI; contohnya, perjanjian mengenai pengendalian maklumat palsu atau norma yang dicipta AI terhadap senjata siber dipacu AI tertentu.

  • Penyepaduan dengan AI yang Lebih Luas dan Ekosistem IT: AI Generatif dalam keselamatan siber berkemungkinan besar akan berintegrasi dengan sistem AI dan alatan pengurusan IT yang lain. Sebagai contoh, AI yang mengurus pengoptimuman rangkaian boleh berfungsi dengan AI keselamatan untuk memastikan perubahan tidak membuka celah. Analitis perniagaan dipacu AI mungkin berkongsi data dengan AI keselamatan untuk mengaitkan anomali (seperti penurunan mendadak dalam jualan dengan kemungkinan isu tapak web disebabkan oleh serangan). Pada dasarnya, AI tidak akan hidup dalam silo – ia akan menjadi sebahagian daripada fabrik pintar yang lebih besar dalam operasi organisasi. Ini membuka peluang untuk pengurusan risiko holistik yang mana data operasi, data ancaman dan juga data keselamatan fizikal boleh digabungkan oleh AI untuk memberikan pandangan 360 darjah postur keselamatan organisasi.

Dalam jangka panjang, harapannya ialah AI generatif akan membantu menyelaraskan keseimbangan memihak kepada pembela. Dengan mengendalikan skala dan kerumitan persekitaran IT moden, AI boleh menjadikan ruang siber lebih boleh dipertahankan. Walau bagaimanapun, ia adalah satu perjalanan, dan akan ada kesakitan yang semakin meningkat apabila kami memperhalusi teknologi ini dan belajar untuk mempercayainya dengan sewajarnya. Organisasi yang kekal bermaklumat dan melabur dalam penggunaan AI yang bertanggungjawab untuk keselamatan berkemungkinan besar akan menjadi yang terbaik untuk menavigasi ancaman masa depan.

Seperti yang dinyatakan dalam laporan aliran keselamatan siber Gartner baru-baru ini, "kemunculan kes penggunaan AI generatif (dan risiko) mewujudkan tekanan untuk transformasi" ( Trend Keselamatan Siber: Ketahanan Melalui Transformasi - Gartner ). Mereka yang menyesuaikan diri akan memanfaatkan AI sebagai sekutu yang kuat; mereka yang ketinggalan mungkin mendapati diri mereka diatasi oleh musuh yang diperkasakan AI. Beberapa tahun akan datang akan menjadi masa yang penting dalam menentukan cara AI membentuk semula medan pertempuran siber.

Ambilan Praktikal untuk Mengguna pakai AI Generatif dalam Keselamatan Siber

Untuk perniagaan yang menilai cara memanfaatkan AI generatif dalam strategi keselamatan siber mereka, berikut ialah beberapa petua praktikal dan cadangan untuk membimbing penggunaan yang bertanggungjawab dan berkesan:

  1. Mulakan dengan Pendidikan dan Latihan: Pastikan pasukan keselamatan anda (dan kakitangan IT yang lebih luas) memahami perkara yang boleh dan tidak boleh dilakukan oleh AI generatif. Sediakan latihan tentang asas alat keselamatan dipacu AI dan kemas kini program kesedaran keselamatan untuk semua pekerja bagi menampung ancaman yang didayakan AI. Sebagai contoh, ajar kakitangan cara AI boleh menjana penipuan pancingan data dan panggilan palsu yang sangat meyakinkan. Pada masa yang sama, latih pekerja tentang penggunaan alatan AI yang selamat dan diluluskan dalam kerja mereka. Pengguna yang berpengetahuan baik kurang berkemungkinan salah mengendalikan AI atau menjadi mangsa serangan yang dipertingkatkan AI ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Nyata ).

  2. Tentukan Dasar Penggunaan AI yang Jelas: Rawat AI generatif seperti mana-mana teknologi berkuasa – dengan tadbir urus. Bangunkan dasar yang menentukan siapa yang boleh menggunakan alatan AI, alat yang dibenarkan dan untuk tujuan apa. Sertakan garis panduan tentang pengendalian data sensitif (cth. tidak memasukkan data sulit ke dalam perkhidmatan AI luaran) untuk mengelakkan kebocoran. Sebagai contoh, anda mungkin membenarkan hanya ahli pasukan keselamatan menggunakan pembantu AI dalaman untuk tindak balas insiden, dan pemasaran boleh menggunakan AI yang disemak untuk kandungan - orang lain adalah terhad. Banyak organisasi kini secara eksplisit menangani AI generatif dalam dasar IT mereka, dan badan piawaian terkemuka menggalakkan dasar penggunaan selamat dan bukannya larangan langsung ( How Can Generative AI Be Used in Cybersecurity? 10 Real-World Examples ). Pastikan untuk menyampaikan peraturan ini dan rasional di sebalik peraturan ini kepada semua pekerja.

  3. Kurangkan “Shadow AI” dan Pantau Penggunaan: Sama seperti shadow IT, “shadow AI” timbul apabila pekerja mula menggunakan alatan atau perkhidmatan AI tanpa pengetahuan IT (cth. pembangun menggunakan pembantu kod AI yang tidak dibenarkan). Ini boleh memperkenalkan risiko yang tidak kelihatan. Laksanakan langkah untuk mengesan dan mengawal penggunaan AI yang tidak dibenarkan . Pemantauan rangkaian boleh membenderakan sambungan kepada API AI yang popular, dan tinjauan atau audit alat boleh mendedahkan perkara yang digunakan oleh kakitangan. Tawarkan alternatif yang diluluskan supaya pekerja yang berniat baik tidak tergoda untuk menjadi penyangak (contohnya, sediakan akaun ChatGPT Enterprise rasmi jika orang mendapati ia berguna). Dengan memperkenalkan penggunaan AI kepada cahaya, pasukan keselamatan boleh menilai dan mengurus risiko. Pemantauan juga penting – catatkan aktiviti dan output alat AI sebanyak yang boleh, jadi terdapat jejak audit untuk keputusan yang dipengaruhi AI ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Nyata ).

  4. Manfaatkan AI Secara Bertahan – Jangan Tertinggal: Kenali bahawa penyerang akan menggunakan AI, jadi pertahanan anda juga harus. Kenal pasti beberapa kawasan berimpak tinggi di mana AI generatif boleh membantu operasi keselamatan anda dengan segera (mungkin triage amaran, atau analisis log automatik) dan menjalankan projek perintis. Tingkatkan pertahanan anda dengan kelajuan dan skala AI untuk menentang ancaman yang bergerak pantas ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Nyata ). Malah penyepaduan mudah, seperti menggunakan AI untuk meringkaskan laporan perisian hasad atau menjana pertanyaan memburu ancaman, boleh menjimatkan jam penganalisis. Mulakan dengan kecil, nilai hasil dan ulangi. Kejayaan akan membina kes untuk penggunaan AI yang lebih luas. Matlamatnya adalah untuk menggunakan AI sebagai pengganda daya - contohnya, jika serangan pancingan data mengatasi meja bantuan anda, gunakan pengelas e-mel AI untuk mengurangkan volum itu secara proaktif.

  5. Melabur dalam Amalan AI Selamat dan Beretika: Apabila melaksanakan AI generatif, ikuti amalan pembangunan dan penggunaan yang selamat. Gunakan model peribadi atau dihoskan sendiri untuk tugas sensitif untuk mengekalkan kawalan ke atas data. Jika menggunakan perkhidmatan AI pihak ketiga, semak langkah keselamatan dan privasi mereka (penyulitan, dasar pengekalan data, dsb.). Menggabungkan rangka kerja pengurusan risiko AI (seperti Rangka Kerja Pengurusan Risiko AI NIST atau panduan ISO/IEC) untuk menangani perkara secara sistematik seperti berat sebelah, kebolehjelasan dan keteguhan dalam alatan AI anda ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber? 10 Contoh Dunia Sebenar ). Rancang juga untuk kemas kini/tampalan model sebagai sebahagian daripada penyelenggaraan - model AI juga boleh mempunyai "kelemahan" (cthnya mereka mungkin memerlukan latihan semula jika mereka mula hanyut atau jika jenis serangan musuh baharu pada model ditemui). Dengan memasukkan keselamatan dan etika ke dalam penggunaan AI anda, anda membina kepercayaan terhadap hasil dan memastikan pematuhan dengan peraturan baru muncul.

  6. Keep Humans in the Loop: Gunakan AI untuk membantu, bukan menggantikan sepenuhnya, pertimbangan manusia dalam keselamatan siber. Tentukan titik keputusan yang memerlukan pengesahan manusia (contohnya, AI mungkin mendraf laporan insiden, tetapi penganalisis menyemaknya sebelum pengedaran; atau AI mungkin mencadangkan menyekat akaun pengguna, tetapi manusia meluluskan tindakan itu). Ini bukan sahaja menghalang ralat AI daripada tidak disekat, tetapi juga membantu pasukan anda belajar daripada AI dan sebaliknya. Galakkan aliran kerja kolaboratif: penganalisis harus berasa selesa mempersoalkan output AI dan melakukan pemeriksaan kewarasan. Dari masa ke masa, dialog ini boleh meningkatkan kedua-dua AI (melalui maklum balas) dan kemahiran penganalisis. Pada asasnya, reka proses anda supaya AI dan kekuatan manusia saling melengkapi - AI mengendalikan kelantangan dan halaju, manusia mengendalikan kekaburan dan keputusan muktamad.

  7. Ukur, Pantau dan Laraskan: Akhir sekali, layan alat AI generatif anda sebagai komponen hidup ekosistem keselamatan anda. Mengukur prestasi mereka secara berterusan - adakah mereka mengurangkan masa tindak balas insiden? Menangkap ancaman lebih awal? Bagaimanakah arah aliran kadar positif palsu? Minta maklum balas daripada pasukan: adakah cadangan AI berguna, atau adakah ia menimbulkan bunyi? Gunakan metrik ini untuk memperhalusi model, mengemas kini data latihan atau melaraskan cara AI disepadukan. Ancaman siber dan keperluan perniagaan berkembang, dan model AI anda harus dikemas kini atau dilatih semula secara berkala untuk kekal berkesan. Mempunyai rancangan untuk model tadbir urus, termasuk siapa yang bertanggungjawab untuk penyelenggaraannya dan kekerapan ia disemak. Dengan menguruskan kitaran hayat AI secara aktif, anda memastikan ia kekal sebagai aset, bukan liabiliti.

Kesimpulannya, AI generatif boleh meningkatkan keupayaan keselamatan siber dengan ketara, tetapi penerimaan yang berjaya memerlukan perancangan yang teliti dan pengawasan berterusan. Perniagaan yang mendidik kakitangan mereka, menetapkan garis panduan yang jelas dan menyepadukan AI dengan cara yang seimbang dan selamat akan mendapat ganjaran daripada pengurusan ancaman yang lebih pantas dan lebih bijak. Pengambilalihan tersebut menyediakan peta jalan: menggabungkan kepakaran manusia dengan automasi AI, meliputi asas tadbir urus dan mengekalkan ketangkasan apabila kedua-dua teknologi AI dan landskap ancaman tidak dapat dielakkan berkembang.

Dengan mengambil langkah praktikal ini, organisasi boleh menjawab soalan "Bagaimana AI generatif boleh digunakan dalam keselamatan siber?" – bukan sahaja dalam teori, tetapi dalam amalan seharian – dan dengan itu mengukuhkan pertahanan mereka dalam dunia kita yang semakin digital dan dipacu AI. ( Bagaimana AI Generatif Boleh Digunakan dalam Keselamatan Siber )

Kertas putih yang mungkin anda suka baca selepas ini:

🔗 Pekerjaan yang AI Tidak Boleh Gantikan dan Pekerjaan Apakah yang Akan AI Gantikan?
Terokai pandangan global mengenai peranan mana yang selamat daripada automasi dan mana yang tidak.

🔗 Bolehkah AI Meramalkan Pasaran Saham?
Melihat lebih dekat pada had, penemuan dan mitos sekitar keupayaan AI untuk meramalkan pergerakan pasaran.

🔗 Apa yang Boleh Diharapkan AI Generatif Tanpa Campur Tangan Manusia?
Fahami di mana AI boleh beroperasi secara bebas dan di mana pengawasan manusia masih penting.

Kembali ke blog