ແນະນຳ
Generative AI - ລະບົບປັນຍາປະດິດທີ່ມີຄວາມສາມາດສ້າງເນື້ອຫາໃຫມ່ຫຼືການຄາດເດົາ - ກໍາລັງປະກົດຕົວເປັນກໍາລັງການປ່ຽນແປງໃນຄວາມປອດໄພທາງອິນເຕີເນັດ. ເຄື່ອງມືເຊັ່ນ GPT-4 ຂອງ OpenAI ໄດ້ສະແດງໃຫ້ເຫັນຄວາມສາມາດໃນການວິເຄາະຂໍ້ມູນທີ່ຊັບຊ້ອນແລະສ້າງຂໍ້ຄວາມທີ່ຄ້າຍຄືກັບມະນຸດ, ເຮັດໃຫ້ວິທີການໃຫມ່ເພື່ອປ້ອງກັນໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດ. ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທາງໄຊເບີ ແລະຜູ້ຕັດສິນໃຈທາງທຸລະກິດໃນທົ່ວອຸດສາຫະກໍາກໍາລັງຄົ້ນຫາວິທີການທີ່ AI ທົ່ວໄປສາມາດເສີມສ້າງການປ້ອງກັນການໂຈມຕີທີ່ພັດທະນາ. ຈາກການເງິນ ແລະການດູແລສຸຂະພາບຈົນເຖິງຮ້ານຂາຍຍ່ອຍ ແລະລັດຖະບານ, ອົງການຈັດຕັ້ງໃນທຸກຂະແໜງການຕ້ອງປະເຊີນກັບຄວາມພະຍາຍາມຫຼອກລວງທີ່ຊັບຊ້ອນ, ມັລແວ ແລະໄພຂົ່ມຂູ່ອື່ນໆທີ່ AI ທົ່ວໄປອາດຈະຊ່ວຍຕ້ານ. ໃນເຈ້ຍສີຂາວນີ້, ພວກເຮົາກວດເບິ່ງ ວ່າ AI ທົ່ວໄປສາມາດຖືກນໍາໃຊ້ໃນການຮັກສາຄວາມປອດໄພທາງອິນເຕີເນັດ , ເນັ້ນໃສ່ຄໍາຮ້ອງສະຫມັກໃນໂລກທີ່ແທ້ຈິງ, ຄວາມເປັນໄປໄດ້ໃນອະນາຄົດ, ແລະການພິຈາລະນາທີ່ສໍາຄັນສໍາລັບການຮັບຮອງເອົາ.
Generative AI ແຕກຕ່າງຈາກ AI ການວິເຄາະແບບດັ້ງເດີມໂດຍບໍ່ພຽງແຕ່ກວດຫາຮູບແບບເທົ່ານັ້ນ ແຕ່ຍັງ ສ້າງ ເນື້ອຫາ – ບໍ່ວ່າຈະເປັນການຈຳລອງການໂຈມຕີເພື່ອຝຶກການປ້ອງກັນ ຫຼື ການຜະລິດຄຳອະທິບາຍທີ່ເປັນພາສາທຳມະຊາດສຳລັບຂໍ້ມູນຄວາມປອດໄພທີ່ຊັບຊ້ອນ. ຄວາມສາມາດສອງດ້ານນີ້ເຮັດໃຫ້ມັນເປັນດາບສອງຄົມ: ມັນສະຫນອງເຄື່ອງມືປ້ອງກັນໃຫມ່ທີ່ມີປະສິດທິພາບ, ແຕ່ນັກສະແດງໄພຂົ່ມຂູ່ສາມາດຂຸດຄົ້ນມັນໄດ້ເຊັ່ນກັນ. ພາກສ່ວນຕໍ່ໄປນີ້ສຳຫຼວດກໍລະນີການນຳໃຊ້ຢ່າງກວ້າງຂວາງສຳລັບ AI ທົ່ວໄປໃນການຮັກສາຄວາມປອດໄພທາງອິນເຕີເນັດ, ຕັ້ງແຕ່ການຊອກຄົ້ນຫາ phishing ໂດຍອັດຕະໂນມັດຈົນເຖິງການເພີ່ມການຕອບໂຕ້ເຫດການ. ພວກເຮົາຍັງປຶກສາຫາລືກ່ຽວກັບຜົນປະໂຫຍດທີ່ສັນຍາການປະດິດສ້າງ AI ເຫຼົ່ານີ້, ຄຽງຄູ່ກັບຄວາມສ່ຽງ (ເຊັ່ນ: AI "ຄວາມຫຶງຫວງ" ຫຼືການໃຊ້ໃນທາງທີ່ຜິດ) ທີ່ອົງການຈັດຕັ້ງຕ້ອງຄຸ້ມຄອງ. ສຸດທ້າຍ, ພວກເຮົາສະຫນອງການປະຕິບັດຕົວຈິງເພື່ອຊ່ວຍໃຫ້ທຸລະກິດປະເມີນແລະຄວາມຮັບຜິດຊອບລວມ AI ການຜະລິດເຂົ້າໃນຍຸດທະສາດຄວາມປອດໄພທາງອິນເຕີເນັດຂອງພວກເຂົາ.
Generative AI ໃນ Cybersecurity: ພາບລວມ
AI ທົ່ວໄປໃນຄວາມປອດໄພທາງອິນເຕີເນັດຫມາຍເຖິງຕົວແບບ AI - ຮູບແບບພາສາຂະຫນາດໃຫຍ່ຫຼືເຄືອຂ່າຍ neural ອື່ນໆ - ທີ່ສາມາດສ້າງຄວາມເຂົ້າໃຈ, ຄໍາແນະນໍາ, ລະຫັດ, ຫຼືແມ້ກະທັ້ງຂໍ້ມູນສັງເຄາະເພື່ອຊ່ວຍໃນວຽກງານຄວາມປອດໄພ. ບໍ່ເຫມືອນກັບແບບຈໍາລອງທີ່ຄາດເດົາໄດ້ຢ່າງບໍລິສຸດ, AI ທົ່ວໄປສາມາດຈໍາລອງສະຖານະການແລະຜະລິດຜົນໄດ້ຮັບທີ່ສາມາດອ່ານໄດ້ຂອງມະນຸດ (ເຊັ່ນ: ບົດລາຍງານ, ການແຈ້ງເຕືອນ, ຫຼືແມ້ກະທັ້ງຕົວຢ່າງລະຫັດທີ່ເປັນອັນຕະລາຍ) ໂດຍອີງໃສ່ຂໍ້ມູນການຝຶກອົບຮົມຂອງມັນ. ຄວາມສາມາດນີ້ຖືກນຳໃຊ້ເພື່ອ ຄາດຄະເນ, ກວດພົບ, ແລະຕອບສະໜອງ ຕໍ່ໄພຂົ່ມຂູ່ໃນແບບເຄື່ອນໄຫວກວ່າແຕ່ກ່ອນ ( ແມ່ນຫຍັງຄື Generative AI in Cybersecurity? - Palo Alto Networks ). ຕົວຢ່າງເຊັ່ນ, ຮູບແບບການຜະລິດສາມາດວິເຄາະບັນທຶກທີ່ກວ້າງຂວາງຫຼືບ່ອນເກັບມ້ຽນຂ່າວລັບແລະສ້າງບົດສະຫຼຸບສັ້ນໆຫຼືການປະຕິບັດທີ່ແນະນໍາ, ເຮັດວຽກເກືອບຄືກັບ AI "ຜູ້ຊ່ວຍ" ກັບທີມງານຄວາມປອດໄພ.
ການປະຕິບັດເບື້ອງຕົ້ນຂອງ AI ທົ່ວໄປສໍາລັບການປ້ອງກັນທາງອິນເຕີເນັດໄດ້ສະແດງໃຫ້ເຫັນຄໍາສັນຍາ. ໃນປີ 2023, Microsoft ໄດ້ນຳສະເໜີ Security Copilot , ຜູ້ຊ່ວຍທີ່ໃຊ້ GPT-4 ສໍາລັບນັກວິເຄາະດ້ານຄວາມປອດໄພ, ເພື່ອຊ່ວຍລະບຸການລະເມີດ ແລະ sift ຜ່ານ 65 ພັນຕື້ສັນຍານທີ່ Microsoft ດໍາເນີນການປະຈໍາວັນ ( Microsoft Security Copilot ແມ່ນ GPT-4 AI Assistant ໃຫມ່ສໍາລັບ cybersecurity | The Verge ). ນັກວິເຄາະສາມາດກະຕຸ້ນລະບົບນີ້ເປັນພາສາທໍາມະຊາດ (ເຊັ່ນ: "ສະຫຼຸບເຫດການຄວາມປອດໄພທັງຫມົດໃນ 24 ຊົ່ວໂມງທີ່ຜ່ານມາ" ), ແລະ copilot ຈະສ້າງບົດສະຫຼຸບການເທື່ອເນື່ອງຈາກທີ່ເປັນປະໂຫຍດ. ເຊັ່ນດຽວກັນ, AI Threat Intelligence ໃຊ້ຕົວແບບທົ່ວໄປທີ່ເອີ້ນວ່າ Gemini ເພື່ອເຮັດໃຫ້ການຄົ້ນຫາການສົນທະນາຜ່ານຖານຂໍ້ມູນ intel ໄພຂົ່ມຂູ່ອັນໃຫຍ່ຫຼວງຂອງ Google, ການວິເຄາະລະຫັດທີ່ຫນ້າສົງໄສຢ່າງໄວວາແລະສະຫຼຸບຜົນການຄົ້ນພົບເພື່ອຊ່ວຍເຫຼືອຜູ້ລ່າ malware ( How Can Generative AI Be used in Cybersecurity? 10 Real-World Examples ). ຕົວຢ່າງເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງທ່າແຮງ: AI ທົ່ວໄປສາມາດຍ່ອຍຂໍ້ມູນທີ່ຊັບຊ້ອນ, ຂໍ້ມູນຄວາມປອດໄພທາງອິນເຕີເນັດຂະຫນາດໃຫຍ່ແລະນໍາສະເຫນີຄວາມເຂົ້າໃຈໃນຮູບແບບທີ່ສາມາດເຂົ້າເຖິງໄດ້, ເລັ່ງການຕັດສິນໃຈ.
ໃນເວລາດຽວກັນ, AI ທົ່ວໄປສາມາດສ້າງເນື້ອຫາປອມທີ່ມີຄວາມເປັນຈິງສູງ, ເຊິ່ງເປັນຜົນປະໂຫຍດສໍາລັບການຈໍາລອງແລະການຝຶກອົບຮົມ (ແລະ, ແຕ່ຫນ້າເສຍດາຍ, ສໍາລັບຜູ້ໂຈມຕີທີ່ສ້າງວິສະວະກໍາສັງຄົມ). ໃນຂະນະທີ່ພວກເຮົາດໍາເນີນການຕໍ່ກໍລະນີການນໍາໃຊ້ສະເພາະ, ພວກເຮົາຈະເຫັນວ່າຄວາມສາມາດຂອງ AI ທົ່ວໄປໃນທັງ ການສັງເຄາະ ແລະ ການວິເຄາະ ຂໍ້ມູນສະຫນັບສະຫນູນຄໍາຮ້ອງສະຫມັກດ້ານຄວາມປອດໄພທາງອິນເຕີເນັດຈໍານວນຫຼາຍຂອງມັນ. ຂ້າງລຸ່ມນີ້, ພວກເຮົາເຂົ້າໄປໃນກໍລະນີການນໍາໃຊ້ທີ່ສໍາຄັນ, ກວມເອົາທຸກສິ່ງທຸກຢ່າງຈາກການປ້ອງກັນ phishing ເພື່ອຮັບປະກັນການພັດທະນາຊອບແວ, ໂດຍມີຕົວຢ່າງຂອງວິທີການທີ່ແຕ່ລະຄົນຖືກນໍາໃຊ້ໃນທົ່ວອຸດສາຫະກໍາ.
ຄໍາຮ້ອງສະຫມັກທີ່ສໍາຄັນຂອງ Generative AI ໃນ Cybersecurity
ຮູບພາບ: ກໍລະນີການນໍາໃຊ້ທີ່ສໍາຄັນສໍາລັບ AI ທົ່ວໄປໃນຄວາມປອດໄພທາງໄຊເບີປະກອບມີ AI copilots ສໍາລັບທີມງານຄວາມປອດໄພ, ການວິເຄາະຄວາມອ່ອນແອຂອງລະຫັດ, ການກວດສອບໄພຂົ່ມຂູ່ທີ່ປັບຕົວ, ການຈໍາລອງການໂຈມຕີແບບສູນ, ການປັບປຸງຄວາມປອດໄພທາງຊີວະພາບ, ແລະການກວດສອບ phishing ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ).
ການກວດຫາ ແລະປ້ອງກັນການຫຼອກເອົາຂໍ້ມູນ
Phishing ຍັງຄົງເປັນຫນຶ່ງໃນໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດທີ່ແຜ່ລາມຫຼາຍທີ່ສຸດ, ຫຼອກລວງຜູ້ໃຊ້ໃຫ້ຄລິກລິ້ງທີ່ເປັນອັນຕະລາຍຫຼືເຜີຍແຜ່ຂໍ້ມູນປະຈໍາຕົວ. AI ທົ່ວໄປກໍາລັງຖືກນໍາໄປໃຊ້ເພື່ອ ກວດຫາຄວາມພະຍາຍາມ phishing ແລະຊຸກຍູ້ການຝຶກອົບຮົມຜູ້ໃຊ້ເພື່ອປ້ອງກັນການໂຈມຕີທີ່ປະສົບຜົນສໍາເລັດ. ໃນດ້ານປ້ອງກັນ, ແບບຈໍາລອງ AI ສາມາດວິເຄາະເນື້ອຫາອີເມລ໌ແລະພຶດຕິກໍາຂອງຜູ້ສົ່ງເພື່ອສັງເກດເຫັນອາການອ່ອນໆຂອງ phishing ທີ່ຕົວກອງທີ່ອີງໃສ່ກົດລະບຽບອາດຈະພາດ. ໂດຍການຮຽນຮູ້ຈາກຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່ທີ່ຖືກຕ້ອງກັບອີເມວທີ່ຫຼອກລວງ, ຮູບແບບທົ່ວໄປສາມາດລາຍງານຄວາມຜິດປົກກະຕິໃນໂຕນ, ຄໍາສັບ, ຫຼືສະພາບການທີ່ຊີ້ໃຫ້ເຫັນເຖິງການຫລອກລວງ - ເຖິງແມ່ນວ່າໄວຍາກອນແລະການສະກົດຄໍາຈະບໍ່ປ່ອຍໃຫ້ມັນໄປ. ໃນຄວາມເປັນຈິງ, ນັກຄົ້ນຄວ້າ Palo Alto Networks ສັງເກດເຫັນວ່າ AI ທົ່ວໄປສາມາດກໍານົດ "ອາການອ່ອນໆຂອງອີເມລ໌ phishing ທີ່ອາດຈະບໍ່ສາມາດກວດພົບໄດ້", ຊ່ວຍໃຫ້ອົງການຈັດຕັ້ງຢູ່ຂ້າງຫນ້າຜູ້ຫລອກລວງຫນຶ່ງຂັ້ນຕອນ ( ແມ່ນຫຍັງ Generative AI ໃນ Cybersecurity? - Palo Alto Networks ).
ທີມງານຄວາມປອດໄພຍັງໃຊ້ AI ທົ່ວໄປເພື່ອ ຈໍາລອງການໂຈມຕີ phishing ສໍາລັບການຝຶກອົບຮົມແລະການວິເຄາະ. ຕົວຢ່າງເຊັ່ນ, Ironscales ໄດ້ນໍາສະເຫນີເຄື່ອງມືການຈໍາລອງ phishing ທີ່ໃຊ້ GPT ທີ່ສ້າງອີເມວ phishing ປອມໂດຍອັດຕະໂນມັດທີ່ເຫມາະສົມກັບພະນັກງານຂອງອົງການ ( ວິທີການທີ່ Generative AI ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ອີເມວທີ່ເຮັດດ້ວຍ AI ເຫຼົ່ານີ້ສະທ້ອນເຖິງກົນລະຍຸດການໂຈມຕີຫຼ້າສຸດ, ໃຫ້ພະນັກງານປະຕິບັດຕົວຈິງໃນການແນມເບິ່ງເນື້ອຫາທີ່ຫຼອກລວງ. ການຝຶກອົບຮົມສ່ວນບຸກຄົນດັ່ງກ່າວມີຄວາມສໍາຄັນຫຼາຍຍ້ອນວ່າຜູ້ໂຈມຕີຕົນເອງນໍາໃຊ້ AI ເພື່ອສ້າງການລໍ້ລວງທີ່ຫນ້າເຊື່ອຖືຫຼາຍຂຶ້ນ. ເປັນທີ່ຫນ້າສັງເກດ, ໃນຂະນະທີ່ AI ທົ່ວໄປສາມາດຜະລິດຂໍ້ຄວາມ phishing ທີ່ສວຍງາມຫຼາຍ (ຫມົດໄປແມ່ນວັນເວລາຂອງພາສາອັງກິດທີ່ແຕກຫັກໄດ້ງ່າຍ), ຜູ້ປົກປ້ອງໄດ້ພົບວ່າ AI ບໍ່ສາມາດເອົາຊະນະໄດ້. ໃນປີ 2024, ນັກຄົ້ນຄວ້າ IBM Security ໄດ້ດໍາເນີນການທົດລອງປຽບທຽບອີເມວ phishing ທີ່ຂຽນໂດຍມະນຸດກັບອີເມລ໌ທີ່ສ້າງໂດຍ AI, ແລະ "ເປັນເລື່ອງແປກທີ່, ອີເມວທີ່ສ້າງໂດຍ AI ແມ່ນຍັງງ່າຍຕໍ່ການກວດສອບເຖິງວ່າຈະມີໄວຍາກອນທີ່ຖືກຕ້ອງ" ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). ນີ້ຊີ້ໃຫ້ເຫັນວ່າ intuition ຂອງມະນຸດລວມກັບ AI ການຊ່ວຍເຫຼືອການກວດສອບຍັງສາມາດຮັບຮູ້ຄວາມບໍ່ສອດຄ່ອງ subtle ຫຼືສັນຍານ metadata ໃນການຫລອກລວງທີ່ຂຽນໂດຍ AI.
Generative AI ຊ່ວຍປ້ອງກັນ phishing ໃນທາງອື່ນເຊັ່ນກັນ. ຕົວແບບສາມາດຖືກນໍາໃຊ້ເພື່ອສ້າງ ຄໍາຕອບອັດຕະໂນມັດຫຼືຕົວກອງ ທີ່ທົດສອບອີເມວທີ່ຫນ້າສົງໄສ. ຕົວຢ່າງເຊັ່ນ, ລະບົບ AI ສາມາດຕອບກັບອີເມວທີ່ມີຄໍາຖາມບາງຢ່າງເພື່ອກວດສອບຄວາມຖືກຕ້ອງຂອງຜູ້ສົ່ງຫຼືໃຊ້ LLM ເພື່ອວິເຄາະການເຊື່ອມຕໍ່ແລະໄຟລ໌ແນບຂອງອີເມວໃນ sandbox, ຫຼັງຈາກນັ້ນສະຫຼຸບຄວາມຕັ້ງໃຈທີ່ເປັນອັນຕະລາຍ. ແພລດຟອມຄວາມປອດໄພຂອງ NVIDIA Morpheus ສະແດງໃຫ້ເຫັນເຖິງພະລັງຂອງ AI ໃນເວທີນີ້ – ມັນໃຊ້ແບບຈໍາລອງ NLP ທົ່ວໄປເພື່ອວິເຄາະ ແລະຈັດປະເພດອີເມວຢ່າງໄວວາ, ແລະມັນໄດ້ຖືກພົບເຫັນວ່າມີການປັບປຸງການກວດຫາອີເມລ໌ spear-phishing 21% ເມື່ອປຽບທຽບກັບເຄື່ອງມືຄວາມປອດໄພແບບດັ້ງເດີມ ( 6 ກໍລະນີທີ່ໃຊ້ສໍາລັບ AI Generative ໃນ Cybersecurity [+ ຕົວຢ່າງ] ). Morpheus ແມ່ນແຕ່ສະແດງຮູບແບບການສື່ສານຂອງຜູ້ໃຊ້ເພື່ອກວດຫາພຶດຕິກໍາທີ່ຜິດປົກກະຕິ (ຄືກັບວ່າຜູ້ໃຊ້ສົ່ງອີເມລ໌ຢູ່ພາຍນອກຫຼາຍອັນຢ່າງກະທັນຫັນ), ເຊິ່ງສາມາດຊີ້ບອກເຖິງບັນຊີທີ່ຖືກເຄາະຮ້າຍທີ່ສົ່ງອີເມວ phishing.
ໃນທາງປະຕິບັດ, ບໍລິສັດໃນທົ່ວອຸດສາຫະກໍາກໍາລັງເລີ່ມໄວ້ວາງໃຈ AI ໃນການກັ່ນຕອງອີເມລ໌ແລະການເຂົ້າຊົມເວັບສໍາລັບການໂຈມຕີທາງວິສະວະກໍາສັງຄົມ. ຕົວຢ່າງເຊັ່ນບໍລິສັດການເງິນ, ໃຊ້ AI ທົ່ວໄປເພື່ອສະແກນການສື່ສານສໍາລັບຄວາມພະຍາຍາມປອມຕົວທີ່ອາດຈະນໍາໄປສູ່ການສໍ້ໂກງສາຍ, ໃນຂະນະທີ່ຜູ້ໃຫ້ບໍລິການດ້ານສຸຂະພາບນໍາໃຊ້ AI ເພື່ອປົກປ້ອງຂໍ້ມູນຄົນເຈັບຈາກການລະເມີດທີ່ກ່ຽວຂ້ອງກັບ phishing. ໂດຍການສ້າງສະຖານະການ phishing ທີ່ແທ້ຈິງແລະການກໍານົດຈຸດເດັ່ນຂອງຂໍ້ຄວາມທີ່ເປັນອັນຕະລາຍ, AI ການຜະລິດຈະເພີ່ມຊັ້ນທີ່ມີປະສິດທິພາບໃຫ້ກັບຍຸດທະສາດການປ້ອງກັນ phishing. Takeaway: AI ສາມາດຊ່ວຍກວດຫາ ແລະປົດອາວຸດການໂຈມຕີ phishing ໄດ້ໄວຂຶ້ນ ແລະຖືກຕ້ອງຍິ່ງຂຶ້ນ, ເຖິງແມ່ນວ່າຜູ້ໂຈມຕີຈະໃຊ້ເທັກໂນໂລຍີດຽວກັນເພື່ອເປີດເກມຂອງເຂົາເຈົ້າ.
ການກວດຫາ Malware ແລະການວິເຄາະໄພຂົ່ມຂູ່
ມັລແວທີ່ທັນສະໄຫມພັດທະນາຢ່າງຕໍ່ເນື່ອງ – ຜູ້ໂຈມຕີສ້າງຕົວແປໃໝ່ ຫຼືລະຫັດທີ່ສັບສົນເພື່ອຂ້າມລາຍເຊັນຕ້ານໄວຣັສ. Generative AI ສະເຫນີເຕັກນິກໃຫມ່ສໍາລັບທັງການກວດສອບ malware ແລະຄວາມເຂົ້າໃຈພຶດຕິກໍາຂອງມັນ. ວິທີການຫນຶ່ງແມ່ນການນໍາໃຊ້ AI ເພື່ອ ສ້າງ "ຄູ່ແຝດຊົ່ວ" ຂອງ malware : ນັກຄົ້ນຄວ້າຄວາມປອດໄພສາມາດເອົາຕົວຢ່າງ malware ທີ່ຮູ້ຈັກເຂົ້າໄປໃນຮູບແບບການຜະລິດເພື່ອສ້າງຕົວແປທີ່ປ່ຽນແປງຫຼາຍຂອງ malware ນັ້ນ. ໂດຍການເຮັດແນວນັ້ນ, ພວກເຂົາເຈົ້າຄາດຄະເນປະສິດທິຜົນຂອງ tweaks ທີ່ຜູ້ໂຈມຕີອາດຈະເຮັດ. ຕົວແປທີ່ສ້າງຂຶ້ນໂດຍ AI ເຫຼົ່ານີ້ສາມາດນຳໃຊ້ເພື່ອຝຶກອົບຮົມລະບົບການກວດຫາໄວຣັດ ແລະ ການບຸກລຸກ, ດັ່ງນັ້ນແມ້ແຕ່ສະບັບປັບປຸງຂອງ malware ຈະຖືກຮັບຮູ້ໃນທຳມະຊາດ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). ຍຸດທະສາດແບບບຸກທະລຸນີ້ຊ່ວຍທໍາລາຍວົງຈອນທີ່ແຮກເກີແກ້ໄຂ malware ຂອງເຂົາເຈົ້າເລັກນ້ອຍເພື່ອຫຼີກລ່ຽງການຊອກຄົ້ນຫາ ແລະຜູ້ຖືກກ່າວຟ້ອງຕ້ອງພະຍາຍາມຂຽນລາຍເຊັນໃໝ່ໃນແຕ່ລະຄັ້ງ. ດັ່ງທີ່ບັນທຶກໄວ້ໃນ podcast ອຸດສາຫະກໍາຫນຶ່ງ, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພໃນປັດຈຸບັນໃຊ້ AI ການຜະລິດເພື່ອ "ຈໍາລອງການຈະລາຈອນເຄືອຂ່າຍແລະສ້າງ payloads malicious ທີ່ mimic ການໂຈມຕີທີ່ຊັບຊ້ອນ", ການທົດສອບ ຄວາມກົດດັນ - ການທົດສອບການປ້ອງກັນຂອງເຂົາເຈົ້າຕໍ່ກັບຄອບຄົວຂອງໄພຂົ່ມຂູ່ທັງຫມົດແທນທີ່ຈະເປັນຕົວຢ່າງດຽວ. ການກວດຫາໄພຂົ່ມຂູ່ແບບປັບຕົວ ນີ້ ໝາຍຄວາມວ່າເຄື່ອງມືຄວາມປອດໄພກາຍເປັນຄວາມຢືດຢຸ່ນຕໍ່ກັບ malware polymorphic ທີ່ບໍ່ດັ່ງນັ້ນຈະຜ່ານໄປ.
ນອກເຫນືອຈາກການກວດພົບ, AI ທົ່ວໄປຊ່ວຍໃນ ການວິເຄາະ malware ແລະວິສະວະກໍາຍ້ອນກັບ , ເຊິ່ງຕາມປະເພນີແມ່ນວຽກງານທີ່ໃຊ້ແຮງງານຫຼາຍສໍາລັບນັກວິເຄາະໄພຂົ່ມຂູ່. ຮູບແບບພາສາຂະຫນາດໃຫຍ່ສາມາດຖືກມອບຫມາຍໃຫ້ກວດເບິ່ງລະຫັດຫຼືສະຄິບທີ່ຫນ້າສົງໄສແລະອະທິບາຍໃນພາສາທໍາມະດາວ່າລະຫັດມີຈຸດປະສົງເຮັດ. ຕົວຢ່າງໃນໂລກທີ່ແທ້ຈິງແມ່ນ VirusTotal Code Insight , ຄຸນສົມບັດໂດຍ VirusTotal ຂອງ Google ທີ່ນໍາໃຊ້ຕົວແບບ AI ການຜະລິດ (Google's Sec-PaLM) ເພື່ອຜະລິດບົດສະຫຼຸບພາສາທໍາມະຊາດຂອງລະຫັດທີ່ເປັນອັນຕະລາຍ ( ວິທີການ AI Generative ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ມັນເປັນສິ່ງຈໍາເປັນ "ປະເພດຂອງ ChatGPT ທີ່ອຸທິດຕົນເພື່ອລະຫັດຄວາມປອດໄພ," ເຮັດຫນ້າທີ່ເປັນນັກວິເຄາະ AI malware ທີ່ເຮັດວຽກ 24/7 ເພື່ອຊ່ວຍໃຫ້ນັກວິເຄາະຂອງມະນຸດເຂົ້າໃຈໄພຂົ່ມຂູ່ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). ແທນທີ່ຈະ poring ຫຼາຍກວ່າ script ທີ່ບໍ່ຄຸ້ນເຄີຍຫຼື binary code, ສະມາຊິກທີມງານຄວາມປອດໄພສາມາດໄດ້ຮັບຄໍາອະທິບາຍທັນທີທັນໃດຈາກ AI ໄດ້ - ຕົວຢ່າງ, "script ນີ້ພະຍາຍາມດາວນ໌ໂຫລດໄຟລ໌ຈາກເຄື່ອງແມ່ຂ່າຍຂອງ XYZ ແລະຫຼັງຈາກນັ້ນປັບປຸງແກ້ໄຂການຕັ້ງຄ່າລະບົບ, ຊຶ່ງເປັນຕົວຊີ້ບອກເຖິງພຶດຕິກໍາ malware." ນີ້ເລັ່ງການຕອບໂຕ້ເຫດການຢ່າງຫຼວງຫຼາຍ, ຍ້ອນວ່ານັກວິເຄາະສາມາດທົດລອງແລະເຂົ້າໃຈ malware ໃຫມ່ໄວກວ່າທີ່ເຄີຍມີ.
Generative AI ຍັງຖືກໃຊ້ເພື່ອ ຊີ້ໃຫ້ເຫັນ malware ໃນຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່ . ເຄື່ອງຈັກຕ້ານໄວຣັສແບບດັ້ງເດີມສະແກນໄຟລ໌ສໍາລັບລາຍເຊັນທີ່ຮູ້ຈັກ, ແຕ່ຕົວແບບທົ່ວໄປສາມາດປະເມີນຄຸນລັກສະນະຂອງໄຟລ໌ແລະເຖິງແມ່ນວ່າຈະຄາດຄະເນວ່າມັນເປັນອັນຕະລາຍໂດຍອີງໃສ່ຮູບແບບທີ່ໄດ້ຮຽນຮູ້. ໂດຍການວິເຄາະຄຸນລັກສະນະຂອງໄຟລ໌ຫຼາຍຕື້ໄຟລ໌ (ເປັນອັນຕະລາຍ ແລະບໍ່ດີ), AI ອາດຈະຈັບຄວາມຕັ້ງໃຈທີ່ເປັນອັນຕະລາຍທີ່ບໍ່ມີລາຍເຊັນທີ່ຊັດເຈນ. ສໍາລັບຕົວຢ່າງ, ຮູບແບບການຜະລິດສາມາດຫມາຍການດໍາເນີນການທີ່ຫນ້າສົງໄສເພາະວ່າໂປຣໄຟລ໌ພຶດຕິກໍາຂອງມັນ "ເບິ່ງ" ຄືກັບການປ່ຽນແປງເລັກນ້ອຍຂອງ ransomware ທີ່ມັນເຫັນໃນລະຫວ່າງການຝຶກອົບຮົມ, ເຖິງແມ່ນວ່າ binary ແມ່ນໃຫມ່. ການກວດຫາທີ່ອີງໃສ່ພຶດຕິກຳນີ້ຊ່ວຍຕ້ານມາລແວໃໝ່ ຫຼື ບໍ່ມີວັນ. Google's Threat Intelligence AI (ສ່ວນໜຶ່ງຂອງ Chronicle/Mandiant) ລາຍງານວ່າໄດ້ໃຊ້ຕົວແບບການຜະລິດຂອງຕົນເພື່ອວິເຄາະລະຫັດທີ່ເປັນອັນຕະລາຍ ແລະ "ຊ່ວຍຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພໃນການຕໍ່ສູ້ກັບ malware ແລະໄພຂົ່ມຂູ່ປະເພດອື່ນໆຢ່າງມີປະສິດທິພາບ ແລະ ປະສິດທິຜົນຫຼາຍຂຶ້ນ." ( AI Generative ສາມາດໃຊ້ໃນ Cybersecurity ໄດ້ແນວໃດ? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ).
ໃນທາງກົງກັນຂ້າມ, ພວກເຮົາຕ້ອງຮັບຮູ້ວ່າຜູ້ໂຈມຕີສາມາດໃຊ້ AI ທົ່ວໄປຢູ່ທີ່ນີ້ເຊັ່ນກັນ - ເພື່ອສ້າງ malware ທີ່ປັບຕົວມັນເອງໂດຍອັດຕະໂນມັດ. ໃນຄວາມເປັນຈິງ, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພເຕືອນວ່າ AI ທົ່ວໄປສາມາດຊ່ວຍໃຫ້ອາດຊະຍາກໍາທາງອິນເຕີເນັດພັດທະນາ malware ທີ່ກວດພົບໄດ້ຍາກກວ່າ ( What Is Generative AI in Cybersecurity? - Palo Alto Networks ). ຮູບແບບ AI ສາມາດຖືກສັ່ງໃຫ້ morph ຊິ້ນສ່ວນຂອງ malware ເລື້ອຍໆ (ການປ່ຽນແປງໂຄງສ້າງໄຟລ໌ຂອງມັນ, ວິທີການເຂົ້າລະຫັດ, ແລະອື່ນໆ) ຈົນກ່ວາມັນຫລີກລ້ຽງການກວດສອບ antivirus ທີ່ຮູ້ຈັກທັງຫມົດ. ການໃຊ້ແບບກົງກັນຂ້າມນີ້ແມ່ນຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນ (ບາງຄັ້ງເອີ້ນວ່າ "ມັນແວທີ່ຂັບເຄື່ອນດ້ວຍ AI" ຫຼື malware polymorphic ເປັນບໍລິການ). ພວກເຮົາຈະປຶກສາຫາລືກ່ຽວກັບຄວາມສ່ຽງດັ່ງກ່າວໃນພາຍຫຼັງ, ແຕ່ມັນເນັ້ນວ່າ AI ທົ່ວໄປແມ່ນເຄື່ອງມືໃນເກມ cat-and-mouse ທີ່ໃຊ້ໂດຍທັງຜູ້ປ້ອງກັນ ແລະຜູ້ໂຈມຕີ.
ໂດຍລວມແລ້ວ, AI ທົ່ວໄປປັບປຸງການປ້ອງກັນ malware ໂດຍການເຮັດໃຫ້ທີມງານຄວາມປອດໄພ ຄິດຄືກັບຜູ້ໂຈມຕີ - ສ້າງໄພຂົ່ມຂູ່ແລະການແກ້ໄຂໃຫມ່ພາຍໃນເຮືອນ. ບໍ່ວ່າມັນຈະຜະລິດ malware ສັງເຄາະເພື່ອປັບປຸງອັດຕາການກວດພົບຫຼືການນໍາໃຊ້ AI ເພື່ອອະທິບາຍແລະບັນຈຸ malware ທີ່ແທ້ຈິງທີ່ພົບເຫັນຢູ່ໃນເຄືອຂ່າຍ, ເຕັກນິກເຫຼົ່ານີ້ນໍາໃຊ້ໃນທົ່ວອຸດສາຫະກໍາ. ທະນາຄານອາດຈະໃຊ້ການວິເຄາະ malware ທີ່ຂັບເຄື່ອນດ້ວຍ AI ເພື່ອວິເຄາະມະຫາພາກທີ່ໜ້າສົງໄສໃນສະເປຣດຊີດຢ່າງໄວວາ, ໃນຂະນະທີ່ບໍລິສັດຜະລິດອາດຈະອີງໃສ່ AI ເພື່ອກວດຫາ malware ທີ່ແນໃສ່ລະບົບຄວບຄຸມອຸດສາຫະກໍາ. ໂດຍການເພີ່ມການວິເຄາະ malware ແບບດັ້ງເດີມດ້ວຍ AI ການຜະລິດ, ອົງການຈັດຕັ້ງສາມາດຕອບສະຫນອງການໂຄສະນາ malware ໄດ້ໄວຂຶ້ນແລະມີການເຄື່ອນໄຫວຫຼາຍກວ່າແຕ່ກ່ອນ.
ໄພຂົ່ມຂູ່ທາງປັນຍາແລະການວິເຄາະອັດຕະໂນມັດ
ທຸກໆມື້, ອົງການຈັດຕັ້ງໄດ້ຖືກໂຈມຕີດ້ວຍຂໍ້ມູນຂ່າວລັບໄພຂົ່ມຂູ່ - ຈາກຟີດຂອງຕົວຊີ້ວັດການປະນີປະນອມທີ່ຄົ້ນພົບໃຫມ່ (IOCs) ໄປຫາບົດລາຍງານນັກວິເຄາະກ່ຽວກັບກົນລະຍຸດແຮກເກີທີ່ເກີດຂື້ນ. ສິ່ງທ້າທາຍສໍາລັບທີມງານຄວາມປອດໄພແມ່ນ sifting ຜ່ານນ້ໍາຖ້ວມຂອງຂໍ້ມູນຂ່າວສານນີ້ແລະສະກັດຄວາມເຂົ້າໃຈທີ່ປະຕິບັດໄດ້. Generative AI ກໍາລັງພິສູດວ່າບໍ່ມີຄ່າໃນ ການວິເຄາະທາງປັນຍາໄພຂົ່ມຂູ່ອັດຕະໂນມັດແລະການບໍລິໂພກ . ແທນທີ່ຈະອ່ານບົດລາຍງານຫຼາຍສິບບົດຫຼືລາຍການຖານຂໍ້ມູນດ້ວຍຕົນເອງ, ນັກວິເຄາະສາມາດຈ້າງ AI ເພື່ອສະຫຼຸບແລະສະພາບການຂົ່ມຂູ່ intel ດ້ວຍຄວາມໄວຂອງເຄື່ອງຈັກ.
Threat Intelligence ຂອງ Google , ເຊິ່ງປະສົມປະສານ AI ທົ່ວໄປ (ຮູບແບບ Gemini) ກັບຂໍ້ມູນໄພຂົ່ມຂູ່ຂອງ Google ຈາກ Mandiant ແລະ VirusTotal. AI ນີ້ສະຫນອງ "ການຄົ້ນຫາການສົນທະນາທົ່ວບ່ອນເກັບມ້ຽນໄພຂົ່ມຂູ່ອັນໃຫຍ່ຫຼວງຂອງ Google" , ໃຫ້ຜູ້ໃຊ້ສາມາດຖາມຄໍາຖາມທໍາມະຊາດກ່ຽວກັບໄພຂົ່ມຂູ່ແລະໄດ້ຮັບຄໍາຕອບທີ່ກັ່ນ ( ວິທີການ AI Generative ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ຕົວຢ່າງເຊັ່ນ, ນັກວິເຄາະສາມາດຖາມວ່າ, "ພວກເຮົາໄດ້ເຫັນ malware ທີ່ກ່ຽວຂ້ອງກັບ Threat Group X ເປົ້າຫມາຍອຸດສາຫະກໍາຂອງພວກເຮົາບໍ?" ແລະ AI ຈະດຶງ intel ທີ່ກ່ຽວຂ້ອງ, ອາດຈະສັງເກດເຫັນວ່າ "ແມ່ນແລ້ວ, Threat Group X ໄດ້ເຊື່ອມຕໍ່ກັບແຄມເປນ phishing ໃນເດືອນແລ້ວນີ້ໂດຍໃຊ້ malware Y" , ພ້ອມກັບບົດສະຫຼຸບຂອງພຶດຕິກໍາຂອງ malware ນັ້ນ. ອັນນີ້ຈະຊ່ວຍຫຼຸດເວລາໃນການເກັບກຳຂໍ້ມູນຄວາມເຂົ້າໃຈທີ່ອາດຈະຕ້ອງການການສອບຖາມຫຼາຍເຄື່ອງມື ຫຼືອ່ານບົດລາຍງານທີ່ຍາວນານ.
Generative AI ຍັງສາມາດພົວພັນ ແລະ ສະຫຼຸບທ່າອ່ຽງໄພຂົ່ມຂູ່ . ມັນອາດຈະຜ່ານຫລາຍພັນບົດຄວາມ blog ຄວາມປອດໄພ, ການລະເມີດຂ່າວ, ແລະການສົນທະນາເວັບຊ້ໍາແລະຫຼັງຈາກນັ້ນສ້າງບົດສະຫຼຸບຂອງ "ໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດສູງສຸດໃນອາທິດນີ້" ສໍາລັບສະຫຼຸບໂດຍຫຍໍ້ຂອງ CISO. ຕາມປະເພນີ, ລະດັບການວິເຄາະແລະການລາຍງານນີ້ໄດ້ໃຊ້ຄວາມພະຍາຍາມຂອງມະນຸດຢ່າງຫຼວງຫຼາຍ; ດຽວນີ້, ຮູບແບບທີ່ປັບແຕ່ງໄດ້ດີສາມາດຮ່າງມັນໄດ້ພາຍໃນວິນາທີ, ໂດຍມະນຸດພຽງແຕ່ປັບປຸງຜົນຜະລິດ. ບໍລິສັດເຊັ່ນ ZeroFox ໄດ້ພັດທະນາ FoxGPT , ເຄື່ອງມື AI ທົ່ວໄປທີ່ຖືກອອກແບບມາເປັນພິເສດເພື່ອ "ເລັ່ງການວິເຄາະແລະການສະຫຼຸບຄວາມສະຫລາດໃນທົ່ວຊຸດຂໍ້ມູນຂະຫນາດໃຫຍ່," ລວມທັງເນື້ອຫາທີ່ເປັນອັນຕະລາຍແລະຂໍ້ມູນ phishing ( ວິທີການ AI Generative ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ໂດຍອັດຕະໂນມັດການຍົກຢ່າງຫນັກຂອງການອ່ານແລະການອ້າງອີງຂ້າມຂໍ້ມູນ, AI ຊ່ວຍໃຫ້ທີມງານ intel ຂົ່ມຂູ່ທີ່ຈະສຸມໃສ່ການຕັດສິນໃຈແລະການຕອບສະຫນອງ.
ກໍລະນີການນໍາໃຊ້ອື່ນແມ່ນ ການລ່າສັດຂົ່ມຂູ່ການສົນທະນາ . ຈິນຕະນາການນັກວິເຄາະດ້ານຄວາມປອດໄພພົວພັນກັບຜູ້ຊ່ວຍ AI: "ສະແດງໃຫ້ຂ້ອຍເຫັນອາການໃດໆຂອງການຂູດຂໍ້ມູນໃນ 48 ຊົ່ວໂມງທີ່ຜ່ານມາ" ຫຼື "ສິ່ງທີ່ຜູ້ໂຈມຕີທີ່ມີຊ່ອງໂຫວ່ໃຫມ່ທີ່ສຸດກໍາລັງໃຊ້ປະໂຫຍດໃນອາທິດນີ້?" AI ສາມາດຕີຄວາມຫມາຍການສອບຖາມ, ຄົ້ນຫາບັນທຶກພາຍໃນຫຼືແຫຼ່ງ intel ພາຍນອກ, ແລະຕອບສະຫນອງດ້ວຍຄໍາຕອບທີ່ຊັດເຈນຫຼືແມ້ກະທັ້ງບັນຊີລາຍຊື່ຂອງເຫດການທີ່ກ່ຽວຂ້ອງ. ນີ້ບໍ່ແມ່ນເລື່ອງໄກ - ຂໍ້ມູນຄວາມປອດໄພທີ່ທັນສະໄຫມແລະລະບົບການຈັດການເຫດການ (SIEM) ກໍາລັງເລີ່ມລວມເອົາການສອບຖາມພາສາທໍາມະຊາດ. ຕົວຢ່າງເຊັ່ນຊຸດຄວາມປອດໄພ QRadar ຂອງ IBM ກໍາລັງເພີ່ມຄຸນສົມບັດ AI ທົ່ວໄປໃນປີ 2024 ເພື່ອໃຫ້ນັກວິເຄາະ "ຖາມຄໍາຖາມສະເພາະກ່ຽວກັບເສັ້ນທາງການໂຈມຕີສະຫຼຸບ" ຂອງເຫດການແລະໄດ້ຮັບຄໍາຕອບຢ່າງລະອຽດ. ມັນຍັງສາມາດ “ຕີຄວາມໝາຍ ແລະສະຫຼຸບຄວາມລັບດ້ານໄພຂົ່ມຂູ່ທີ່ມີຄວາມກ່ຽວຂ້ອງສູງ” ໂດຍອັດຕະໂນມັດ ( ວິທີການທີ່ Generative AI ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ໂດຍພື້ນຖານແລ້ວ, AI ທົ່ວໄປຈະປ່ຽນພູເຂົາຂອງຂໍ້ມູນດ້ານວິຊາການເຂົ້າໄປໃນຄວາມເຂົ້າໃຈຂະຫນາດການສົນທະນາຕາມຄວາມຕ້ອງການ.
ໃນທົ່ວອຸດສາຫະກໍາ, ນີ້ມີຜົນກະທົບອັນໃຫຍ່ຫຼວງ. ຜູ້ໃຫ້ບໍລິການດ້ານສຸຂະພາບສາມາດໃຊ້ AI ເພື່ອສືບຕໍ່ປັບປຸງກຸ່ມ ransomware ຫຼ້າສຸດທີ່ແນໃສ່ໂຮງຫມໍ, ໂດຍບໍ່ມີການອຸທິດນັກວິເຄາະເພື່ອການຄົ້ນຄວ້າເຕັມເວລາ. SOC ຂອງບໍລິສັດຂາຍຍ່ອຍສາມາດສະຫຼຸບໄດ້ໄວ ຍຸດທະວິທີ malware POS ໃໝ່ ໃນເວລາສະຫຼຸບຫຍໍ້ພະນັກງານໄອທີຂອງຮ້ານ. ແລະໃນລັດຖະບານ, ບ່ອນທີ່ຂໍ້ມູນໄພຂົ່ມຂູ່ຈາກອົງການຕ່າງໆຕ້ອງໄດ້ຮັບການສັງເຄາະ, AI ສາມາດຜະລິດບົດລາຍງານທີ່ເປັນເອກະພາບທີ່ເນັ້ນໃສ່ຄໍາເຕືອນທີ່ສໍາຄັນ. ໂດຍ ອັດຕະໂນມັດການເກັບກຳ ແລະ ການຕີຄວາມໝາຍຂອງໄພຂົ່ມຂູ່ແບບອັດຕະໂນມັດ , AI ທົ່ວໄປຊ່ວຍໃຫ້ອົງກອນປະຕິກິລິຍາໄວຂຶ້ນຕໍ່ກັບໄພຂົ່ມຂູ່ທີ່ກຳລັງເກີດຂຶ້ນ ແລະ ຫຼຸດຜ່ອນຄວາມສ່ຽງຕໍ່ການສູນຫາຍຄຳເຕືອນທີ່ສຳຄັນທີ່ເຊື່ອງໄວ້ໃນສິ່ງລົບກວນ.
ການເພີ່ມປະສິດທິພາບຂອງສູນປະຕິບັດງານຄວາມປອດໄພ (SOC).
ສູນປະຕິບັດການຄວາມປອດໄພມີຊື່ສຽງໂດ່ງດັງຕໍ່ກັບຄວາມເມື່ອຍລ້າທີ່ແຈ້ງເຕືອນ ແລະປະລິມານຂໍ້ມູນທີ່ແຕກຫັກ. ນັກວິເຄາະ SOC ທົ່ວໄປອາດຈະແລ່ນຜ່ານການແຈ້ງເຕືອນແລະເຫດການຫຼາຍພັນຄັ້ງໃນແຕ່ລະມື້, ສືບສວນເຫດການທີ່ອາດຈະເກີດຂຶ້ນ. Generative AI ກໍາລັງເຮັດຫນ້າທີ່ເປັນຕົວຄູນຜົນບັງຄັບໃຊ້ໃນ SOCs ໂດຍການເຮັດວຽກປົກກະຕິອັດຕະໂນມັດ, ສະຫນອງການສະຫຼຸບອັດສະລິຍະ, ແລະແມ້ກະທັ້ງການວາງແຜນການຕອບສະຫນອງບາງຢ່າງ. ເປົ້າຫມາຍແມ່ນເພື່ອເພີ່ມປະສິດທິພາບການເຮັດວຽກຂອງ SOC ເພື່ອໃຫ້ນັກວິເຄາະຂອງມະນຸດສາມາດສຸມໃສ່ບັນຫາທີ່ສໍາຄັນທີ່ສຸດໃນຂະນະທີ່ AI copilot ຈັດການກັບສ່ວນທີ່ເຫຼືອ.
ຄໍາຮ້ອງສະຫມັກທີ່ສໍາຄັນຫນຶ່ງແມ່ນການນໍາໃຊ້ AI ທົ່ວໄປເປັນ "ນັກວິເຄາະຂອງ Copilot" . Microsoft's Security Copilot, ສັງເກດເຫັນກ່ອນຫນ້ານີ້, ເປັນຕົວຢ່າງນີ້: ມັນ "ຖືກອອກແບບມາເພື່ອຊ່ວຍເຫຼືອວຽກງານຂອງນັກວິເຄາະດ້ານຄວາມປອດໄພແທນທີ່ຈະທົດແທນມັນ", ຊ່ວຍໃຫ້ການສືບສວນແລະການລາຍງານເຫດການ ( Microsoft Security Copilot ແມ່ນ GPT-4 AI ຜູ້ຊ່ວຍໃຫມ່ສໍາລັບຄວາມປອດໄພທາງອິນເຕີເນັດ | The Verge ). ໃນການປະຕິບັດ, ນີ້ຫມາຍຄວາມວ່ານັກວິເຄາະສາມາດປ້ອນຂໍ້ມູນດິບ - ບັນທຶກໄຟວໍ, ໄລຍະເວລາເຫດການ, ຫຼືຄໍາອະທິບາຍເຫດການ - ແລະຂໍໃຫ້ AI ວິເຄາະມັນຫຼືສະຫຼຸບມັນ. copilot ອາດຈະອອກຄໍາບັນຍາຍເຊັ່ນ: "ປະກົດວ່າເວລາ 2: 35 AM, ການເຂົ້າສູ່ລະບົບທີ່ຫນ້າສົງໄສຈາກ IP X ໄດ້ປະສົບຜົນສໍາເລັດໃນເຄື່ອງແມ່ຂ່າຍ Y, ຕິດຕາມດ້ວຍການໂອນຂໍ້ມູນທີ່ຜິດປົກກະຕິ, ຊີ້ໃຫ້ເຫັນເຖິງການລະເມີດຂອງເຄື່ອງແມ່ຂ່າຍນັ້ນ." ປະເພດຂອງ contextualization ທັນທີທັນໃດນີ້ແມ່ນ invaluable ໃນເວລາທີ່ເວລາແມ່ນສໍາຄັນ.
AI copilots ຍັງຊ່ວຍຫຼຸດຜ່ອນພາລະຂອງ triage ລະດັບ 1. ອີງຕາມຂໍ້ມູນຂອງອຸດສາຫະກໍາ, ທີມງານຄວາມປອດໄພສາມາດໃຊ້ເວລາ 15 ຊົ່ວໂມງຕໍ່ອາທິດ ພຽງແຕ່ຈັດຮຽງຜ່ານບາງ 22,000 ການແຈ້ງເຕືອນແລະຜົນບວກທີ່ບໍ່ຖືກຕ້ອງ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). ດ້ວຍ AI ທົ່ວໄປ, ຫຼາຍໆການແຈ້ງເຕືອນເຫຼົ່ານີ້ສາມາດຖືກທົດລອງໂດຍອັດຕະໂນມັດ - AI ສາມາດຍົກເລີກສິ່ງທີ່ເປັນຕາອ່ອນໂຍນຢ່າງຈະແຈ້ງ (ດ້ວຍການໃຫ້ເຫດຜົນ) ແລະເນັ້ນໃສ່ສິ່ງທີ່ຕ້ອງການຄວາມສົນໃຈຢ່າງແທ້ຈິງ, ບາງຄັ້ງກໍ່ຊີ້ໃຫ້ເຫັນຄວາມສໍາຄັນ. ໃນຄວາມເປັນຈິງ, ຄວາມເຂັ້ມແຂງຂອງ AI ໂດຍທົ່ວໄປໃນການເຂົ້າໃຈສະພາບການຫມາຍຄວາມວ່າມັນສາມາດຕິດຕໍ່ກັນກັບການແຈ້ງເຕືອນທີ່ເບິ່ງຄືວ່າບໍ່ເປັນອັນຕະລາຍໃນການໂດດດ່ຽວແຕ່ຮ່ວມກັນຊີ້ໃຫ້ເຫັນການໂຈມຕີຫຼາຍຂັ້ນຕອນ. ນີ້ຫຼຸດຜ່ອນໂອກາດທີ່ຈະຂາດການໂຈມຕີເນື່ອງຈາກ "ຄວາມເມື່ອຍລ້າເຕືອນ."
ນັກວິເຄາະ SOC ຍັງໃຊ້ພາສາທໍາມະຊາດກັບ AI ເພື່ອເລັ່ງການລ່າສັດແລະການສືບສວນ. AI ສີມ່ວງ ຂອງ SentinelOne , ປະສົມປະສານການໂຕ້ຕອບທີ່ອີງໃສ່ LLM ກັບຂໍ້ມູນຄວາມປອດໄພໃນເວລາທີ່ແທ້ຈິງ, ໃຫ້ນັກວິເຄາະ "ຖາມຄໍາຖາມການລ່າສັດໄພຂົ່ມຂູ່ທີ່ສັບສົນໃນພາສາອັງກິດທໍາມະດາແລະໄດ້ຮັບຄໍາຕອບທີ່ໄວ, ຖືກຕ້ອງ" ( How Can Generative AI Be used in Cybersecurity? 10 Real-World Examples ). ນັກວິເຄາະສາມາດພິມໄດ້, "ມີຈຸດສິ້ນສຸດໃດໆຕິດຕໍ່ກັບໂດເມນ badguy123[.]com ໃນເດືອນທີ່ຜ່ານມາບໍ?" , ແລະສີມ່ວງ AI ຈະຄົ້ນຫາຜ່ານບັນທຶກເພື່ອຕອບສະຫນອງ. ນີ້ຊ່ວຍປະຢັດນັກວິເຄາະຈາກການສອບຖາມຖານຂໍ້ມູນຫຼືສະຄິບ - AI ເຮັດມັນພາຍໃຕ້ຜ້າຄຸມ. ມັນຍັງຫມາຍຄວາມວ່ານັກວິເຄາະຊັ້ນສູງສາມາດຈັດການກັບວຽກງານທີ່ເຄີຍຕ້ອງການວິສະວະກອນທີ່ມີລະດູການທີ່ມີຄວາມຊໍານິຊໍານານໃນພາສາສອບຖາມ, ປັບປຸງທີມງານຢ່າງມີປະສິດທິພາບໂດຍຜ່ານການຊ່ວຍເຫຼືອ AI . ແທ້ຈິງແລ້ວ, ນັກວິເຄາະລາຍງານວ່າຄໍາແນະນໍາ AI ໂດຍທົ່ວໄປ "ເພີ່ມທັກສະແລະຄວາມຊໍານານຂອງພວກເຂົາ" , ຍ້ອນວ່າພະນັກງານຊັ້ນສູງສາມາດໄດ້ຮັບການຊ່ວຍເຫຼືອດ້ານການຂຽນລະຫັດຕາມຄວາມຕ້ອງການຫຼືຄໍາແນະນໍາການວິເຄາະຈາກ AI, ຫຼຸດຜ່ອນການເອື່ອຍອີງໃສ່ການຮ້ອງຂໍໃຫ້ສະມາຊິກທີມອາວຸໂສສະເຫມີສໍາລັບການຊ່ວຍເຫຼືອ ( 6 Use Cases for Generative AI in Cybersecurity [+ ຕົວຢ່າງ] ).
ການເພີ່ມປະສິດທິພາບ SOC ອື່ນແມ່ນ ການສະຫຼຸບເຫດການອັດຕະໂນມັດແລະເອກະສານ . ຫຼັງຈາກເຫດການຖືກຈັດການ, ຜູ້ໃດຜູ້ຫນຶ່ງຕ້ອງຂຽນບົດລາຍງານ - ວຽກງານທີ່ຫຼາຍຄົນເຫັນວ່າຫນ້າເບື່ອຫນ່າຍ. AI ທົ່ວໄປສາມາດເອົາຂໍ້ມູນ forensic (ບັນທຶກລະບົບ, ການວິເຄາະ malware, ໄລຍະເວລາຂອງການປະຕິບັດ) ແລະສ້າງບົດລາຍງານເຫດການສະບັບຮ່າງຄັ້ງທໍາອິດ. IBM ກໍາລັງສ້າງຄວາມສາມາດນີ້ເຂົ້າໄປໃນ QRadar ເພື່ອໃຫ້ມີ "ຄລິກດຽວ" ບົດສະຫຼຸບຂອງເຫດການສາມາດຜະລິດສໍາລັບຜູ້ມີສ່ວນຮ່ວມທີ່ແຕກຕ່າງກັນ (ຜູ້ບໍລິຫານ, ທີມ IT, ແລະອື່ນໆ) ( AI Generative ສາມາດນໍາໃຊ້ໃນ Cybersecurity ໄດ້ແນວໃດ? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ນີ້ບໍ່ພຽງແຕ່ປະຫຍັດເວລາ, ແຕ່ຍັງຮັບປະກັນວ່າບໍ່ມີຫຍັງຖືກມອງຂ້າມໃນບົດລາຍງານ, ເພາະວ່າ AI ສາມາດລວມເອົາລາຍລະອຽດທີ່ກ່ຽວຂ້ອງທັງຫມົດຢ່າງສອດຄ່ອງ. ເຊັ່ນດຽວກັນ, ສໍາລັບການປະຕິບັດຕາມແລະການກວດສອບ, AI ສາມາດຕື່ມແບບຟອມຫຼືຕາຕະລາງຫຼັກຖານໂດຍອີງໃສ່ຂໍ້ມູນເຫດການ.
ຜົນໄດ້ຮັບໃນໂລກທີ່ແທ້ຈິງແມ່ນຫນ້າສົນໃຈ. ຜູ້ຮັບຮອງເອົາຕົ້ນໆຂອງ Swimlane's AI-driven SOAR (ການກວດກາຄວາມປອດໄພ, ອັດຕະໂນມັດ, ແລະການຕອບໂຕ້) ລາຍງານຜົນກໍາໄລອັນໃຫຍ່ຫຼວງ - Global Data Systems, ສໍາລັບຕົວຢ່າງ, ໄດ້ເຫັນທີມງານ SecOps ຂອງພວກເຂົາຈັດການກໍລະນີທີ່ໃຫຍ່ກວ່າ; ຜູ້ອໍານວຍການຄົນຫນຶ່ງກ່າວວ່າ "ສິ່ງທີ່ຂ້ອຍເຮັດໃນມື້ນີ້ກັບນັກວິເຄາະ 7 ຄົນອາດຈະເອົາພະນັກງານ 20 ຄົນໂດຍບໍ່ມີ" ອັດຕະໂນມັດທີ່ໃຊ້ AI ( ວິທີການຜະລິດ AI ຖືກນໍາໃຊ້ໃນ Cybersecurity ). ໃນຄໍາສັບຕ່າງໆອື່ນໆ, AI ໃນ SOC ສາມາດທະວີຄູນຄວາມສາມາດ . ໃນທົ່ວອຸດສາຫະກໍາ, ບໍ່ວ່າຈະເປັນບໍລິສັດເຕັກໂນໂລຢີທີ່ຈັດການກັບການແຈ້ງເຕືອນຄວາມປອດໄພຂອງເມຄຫຼືໂຮງງານຜະລິດທີ່ຕິດຕາມລະບົບ OT, ທີມງານ SOC ຢືນຢູ່ໃນການກວດສອບແລະການຕອບສະຫນອງໄວ, ເຫດການທີ່ພາດຫນ້ອຍລົງ, ແລະການປະຕິບັດງານທີ່ມີປະສິດທິພາບຫຼາຍຂຶ້ນໂດຍການຮັບເອົາຜູ້ຊ່ວຍ AI ທົ່ວໄປ. ມັນກ່ຽວກັບການເຮັດວຽກທີ່ສະຫຼາດຂຶ້ນ – ອະນຸຍາດໃຫ້ເຄື່ອງຈັກສາມາດຈັດການກັບວຽກງານທີ່ຊໍ້າຊ້ອນ ແລະ ໜັກໜ່ວງໄດ້ ເພື່ອໃຫ້ມະນຸດສາມາດນຳໃຊ້ສະຫຼາດ ແລະ ຄວາມຊຳນານຂອງເຂົາເຈົ້າໃນບ່ອນທີ່ມັນສຳຄັນທີ່ສຸດ.
ການຄຸ້ມຄອງຄວາມສ່ຽງແລະການຈໍາລອງໄພຂົ່ມຂູ່
ການລະບຸ ແລະຈັດການຊ່ອງໂຫວ່ – ຈຸດອ່ອນໃນຊອບແວ ຫຼືລະບົບທີ່ຜູ້ໂຈມຕີສາມາດຂຸດຄົ້ນໄດ້ – ແມ່ນຫນ້າທີ່ຫຼັກຄວາມປອດໄພທາງໄຊເບີ. Generative AI ກໍາລັງປັບປຸງການຈັດການຊ່ອງໂຫວ່ໂດຍການເລັ່ງການຄົ້ນພົບ, ການຊ່ວຍເຫຼືອໃນການຈັດລໍາດັບຄວາມສໍາຄັນຂອງ patch, ແລະແມ້ກະທັ້ງການຈໍາລອງການໂຈມຕີກ່ຽວກັບຈຸດອ່ອນເຫຼົ່ານັ້ນເພື່ອປັບປຸງການກຽມພ້ອມ. ໂດຍເນື້ອແທ້ແລ້ວ, AI ກໍາລັງຊ່ວຍໃຫ້ອົງການຈັດຕັ້ງຊອກຫາແລະແກ້ໄຂຂຸມໃນລົດຫຸ້ມເກາະຂອງພວກເຂົາໄວຂຶ້ນ, ແລະ ຢ່າງຈິງຈັງ ກ່ອນທີ່ຜູ້ໂຈມຕີຕົວຈິງຈະເຮັດ.
ຄໍາຮ້ອງສະຫມັກທີ່ສໍາຄັນອັນຫນຶ່ງແມ່ນການນໍາໃຊ້ AI ທົ່ວໄປສໍາລັບ ການທົບທວນລະຫັດອັດຕະໂນມັດແລະການຄົ້ນພົບຊ່ອງໂຫວ່ . ຖານຂໍ້ມູນຂະຫນາດໃຫຍ່ (ໂດຍສະເພາະລະບົບເກົ່າ) ມັກຈະມີຂໍ້ບົກພ່ອງດ້ານຄວາມປອດໄພທີ່ບໍ່ມີໃຜສັງເກດເຫັນ. ແບບຈໍາລອງ AI ທົ່ວໄປສາມາດໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບການປະຕິບັດລະຫັດທີ່ປອດໄພແລະຮູບແບບ bug ທົ່ວໄປ, ຫຼັງຈາກນັ້ນ unleashed ໃນ source code ຫຼື binaries ລວບລວມເພື່ອຊອກຫາຈຸດອ່ອນທີ່ເປັນໄປໄດ້. ຕົວຢ່າງເຊັ່ນ, ນັກຄົ້ນຄວ້າ NVIDIA ພັດທະນາທໍ່ AI ທົ່ວໄປທີ່ສາມາດວິເຄາະບັນຈຸຊໍແວທີ່ເປັນມໍລະດົກແລະກໍານົດຈຸດອ່ອນ "ດ້ວຍຄວາມຖືກຕ້ອງສູງ - ໄວກວ່າຜູ້ຊ່ຽວຊານຂອງມະນຸດເຖິງ 4 ×." ( 6 ໃຊ້ກໍລະນີສໍາລັບ AI ທົ່ວໄປໃນ Cybersecurity [+ ຕົວຢ່າງ] ). AI ໄດ້ຮຽນຮູ້ສິ່ງທີ່ລະຫັດທີ່ບໍ່ປອດໄພເບິ່ງຄືວ່າເປັນແນວໃດແລະສາມາດສະແກນຜ່ານຊອບແວທີ່ມີອາຍຸຫລາຍສິບປີເພື່ອລາຍງານຫນ້າທີ່ມີຄວາມສ່ຽງແລະຫ້ອງສະຫມຸດ, ຢ່າງຫຼວງຫຼາຍເລັ່ງຂະບວນການຊ້າໆຂອງການກວດສອບລະຫັດຄູ່ມື. ເຄື່ອງມືປະເພດນີ້ສາມາດເປັນຕົວປ່ຽນແປງເກມສໍາລັບອຸດສາຫະກໍາເຊັ່ນ: ການເງິນຫຼືລັດຖະບານທີ່ອີງໃສ່ລະຫັດຂະຫນາດໃຫຍ່, ເກົ່າແກ່ - AI ຊ່ວຍໃຫ້ຄວາມປອດໄພທີ່ທັນສະໄຫມໂດຍການຂຸດຄົ້ນບັນຫາທີ່ພະນັກງານອາດຈະໃຊ້ເວລາຫຼາຍເດືອນຫຼືຫຼາຍປີເພື່ອຊອກຫາ (ຖ້າມີ).
Generative AI ຍັງຊ່ວຍໃນ ຂັ້ນຕອນການຈັດການຊ່ອງໂຫວ່ ໂດຍການປະມວນຜົນຜົນການສະແກນຄວາມສ່ຽງ ແລະຈັດລໍາດັບຄວາມສໍາຄັນ. ExposureAI ຂອງ Tenable ໃຊ້ AI ທົ່ວໄປເພື່ອໃຫ້ນັກວິເຄາະສອບຖາມຂໍ້ມູນຄວາມອ່ອນແອໃນພາສາທໍາມະດາແລະໄດ້ຮັບຄໍາຕອບທັນທີ ( ວິທີການ AI Generative ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ExposureAI ສາມາດ "ສະຫຼຸບເສັ້ນທາງການໂຈມຕີທີ່ສົມບູນໃນຄໍາບັນຍາຍ" ສໍາລັບຈຸດອ່ອນທີ່ສໍາຄັນ, ອະທິບາຍວ່າຜູ້ໂຈມຕີສາມາດຕ່ອງໂສ້ມັນກັບຈຸດອ່ອນອື່ນໆເພື່ອປະນີປະນອມລະບົບ. ມັນຍັງແນະນໍາໃຫ້ປະຕິບັດການແກ້ໄຂແລະຕອບຄໍາຖາມຕິດຕາມກ່ຽວກັບຄວາມສ່ຽງ. ນີ້ຫມາຍຄວາມວ່າເມື່ອ CVE ທີ່ສໍາຄັນໃຫມ່ (Vulnerabilities and Exposures) ຖືກປະກາດ, ນັກວິເຄາະສາມາດຖາມ AI, "ມີເຄື່ອງແມ່ຂ່າຍຂອງພວກເຮົາໃດໄດ້ຮັບຜົນກະທົບຈາກ CVE ນີ້ແລະສະຖານະການທີ່ຮ້າຍແຮງທີ່ສຸດຖ້າພວກເຮົາບໍ່ patch?" ແລະໄດ້ຮັບການປະເມີນທີ່ຊັດເຈນຈາກຂໍ້ມູນການສະແກນຂອງອົງການ. ໂດຍການສ້າງຊ່ອງໂຫວ່ຕາມບໍລິບົດ (ເຊັ່ນ: ອັນນີ້ຖືກເປີດເຜີຍກັບອິນເຕີເນັດ ແລະໃນເຊີບເວີທີ່ມີມູນຄ່າສູງ, ສະນັ້ນມັນເປັນສິ່ງສຳຄັນອັນດັບຕົ້ນໆ), AI ທົ່ວໄປຈະຊ່ວຍໃຫ້ທີມງານແກ້ໄຂໄດ້ຢ່າງສະຫຼາດດ້ວຍຊັບພະຍາກອນທີ່ຈຳກັດ.
ນອກເໜືອໄປຈາກການຊອກຫາ ແລະຈັດການຊ່ອງໂຫວ່ທີ່ຮູ້ຈັກແລ້ວ, AI ທົ່ວໄປຍັງປະກອບສ່ວນເຂົ້າໃນ ການທົດສອບການເຈາະເຈາະຂໍ້ມູນ ແລະການໂຈມຕີແບບຈຳລອງ - ທີ່ສຳຄັນແມ່ນການຄົ້ນພົບ ທີ່ບໍ່ຮູ້ຈັກ ຫຼືການທົດສອບການຄວບຄຸມຄວາມປອດໄພ. Generative adversarial networks (GANs), ປະເພດຂອງ AI generative, ໄດ້ຖືກນໍາໃຊ້ເພື່ອສ້າງຂໍ້ມູນສັງເຄາະທີ່ຮຽນແບບການຈະລາຈອນເຄືອຂ່າຍທີ່ແທ້ຈິງຫຼືພຶດຕິກໍາຂອງຜູ້ໃຊ້, ເຊິ່ງສາມາດປະກອບມີຮູບແບບການໂຈມຕີທີ່ເຊື່ອງໄວ້. ການສຶກສາປີ 2023 ໄດ້ແນະນຳໃຫ້ໃຊ້ GANs ເພື່ອສ້າງການຈະລາຈອນການໂຈມຕີແບບບໍ່ມີວັນທີ່ແທ້ຈິງເພື່ອຝຶກລະບົບການກວດພົບການບຸກລຸກ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). ໂດຍການໃຫ້ອາຫານ IDS ກັບສະຖານະການການໂຈມຕີທີ່ເຮັດດ້ວຍ AI (ບໍ່ມີຄວາມສ່ຽງຕໍ່ການໃຊ້ malware ຕົວຈິງໃນເຄືອຂ່າຍການຜະລິດ), ອົງການຈັດຕັ້ງສາມາດຝຶກອົບຮົມການປ້ອງກັນຂອງພວກເຂົາເພື່ອຮັບຮູ້ການຂົ່ມຂູ່ໃຫມ່ໂດຍບໍ່ຕ້ອງລໍຖ້າໃຫ້ພວກເຂົາຢູ່ໃນຄວາມເປັນຈິງ. ເຊັ່ນດຽວກັນ, AI ສາມາດຈໍາລອງຜູ້ໂຈມຕີທີ່ສືບສວນລະບົບ - ຕົວຢ່າງ, ອັດຕະໂນມັດພະຍາຍາມເຕັກນິກການຂູດຮີດຕ່າງໆໃນສະພາບແວດລ້ອມທີ່ປອດໄພເພື່ອເບິ່ງວ່າອັນໃດປະສົບຜົນສໍາເລັດ. ອົງການໂຄງການຄົ້ນຄວ້າຂັ້ນສູງດ້ານປ້ອງກັນຊາດຂອງສະຫະລັດ (DARPA) ເຫັນຄຳສັນຍາຢູ່ທີ່ນີ້: AI Cyber Challenge ໃນປີ 2023 ຂອງຕົນໄດ້ນຳໃຊ້ AI ທົ່ວໄປຢ່າງຈະແຈ້ງ (ຄືກັບຮູບແບບພາສາຂະໜາດໃຫຍ່) ເພື່ອ “ຊອກຫາ ແລະແກ້ໄຂຊ່ອງໂຫວ່ອັດຕະໂນມັດໃນຊອບແວໂອເພນຊອດ” ເປັນສ່ວນຫນຶ່ງຂອງການແຂ່ງຂັນ ( DARPA ມີຈຸດປະສົງເພື່ອພັດທະນາ AI, Autonomy Applications Warfighters News Department of US ). ການລິເລີ່ມນີ້ເນັ້ນໜັກວ່າ AI ບໍ່ພຽງແຕ່ຊ່ວຍແກ້ໄຂຮູຂຸມຂົນທີ່ຮູ້ຈັກເທົ່ານັ້ນ; ມັນເປັນການເປີດເຜີຍອັນໃໝ່ ແລະສະເໜີການແກ້ໄຂຢ່າງຫ້າວຫັນ, ວຽກງານທີ່ປົກກະຕິຈຳກັດໃຫ້ນັກວິໄຈຄວາມປອດໄພທີ່ມີຄວາມຊຳນິຊຳນານ (ແລະມີລາຄາແພງ).
AI ທົ່ວໄປສາມາດສ້າງ honeypots ອັດສະລິຍະແລະຄູ່ແຝດດິຈິຕອນ ສໍາລັບການປ້ອງກັນ. Startups ກໍາລັງພັດທະນາລະບົບ AI-driven decoy ທີ່ເຮັດຕາມເຄື່ອງແມ່ຂ່າຍຫຼືອຸປະກອນທີ່ແທ້ຈິງທີ່ຫນ້າເຊື່ອຖື. ດັ່ງທີ່ CEO ຄົນໜຶ່ງໄດ້ອະທິບາຍ, AI ທົ່ວໄປສາມາດ “ໂຄນລະບົບດິຈິຕອນເພື່ອເຮັດແບບຢ່າງຈິງໆ ແລະ ລໍ້ລວງແຮກເກີ” ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). Honeypots ທີ່ສ້າງ AI ເຫຼົ່ານີ້ປະຕິບັດຕົວຄືກັບສະພາບແວດລ້ອມທີ່ແທ້ຈິງ (ເວົ້າວ່າ, ອຸປະກອນ IoT ປອມສົ່ງ telemetry ປົກກະຕິ) ແຕ່ມີຢູ່ພຽງແຕ່ເພື່ອດຶງດູດຜູ້ໂຈມຕີ. ເມື່ອຜູ້ໂຈມຕີເປົ້າ ໝາຍ ຫຼອກລວງ, AI ໄດ້ຫຼອກລວງພວກເຂົາໃຫ້ເປີດເຜີຍວິທີການຂອງພວກເຂົາ, ເຊິ່ງຜູ້ປ້ອງກັນສາມາດສຶກສາແລະ ນຳ ໃຊ້ເພື່ອເສີມສ້າງລະບົບຕົວຈິງ. ແນວຄວາມຄິດນີ້, ຂັບເຄື່ອນໂດຍການສ້າງແບບຈໍາລອງແບບທົ່ວໄປ, ສະຫນອງວິທີການເບິ່ງໄປຂ້າງຫນ້າເພື່ອ ຫັນຕາຕະລາງໄປຫາຜູ້ໂຈມຕີ , ໂດຍໃຊ້ການຫຼອກລວງທີ່ປັບປຸງໂດຍ AI.
ໃນທົ່ວອຸດສາຫະກໍາ, ການຈັດການຊ່ອງໂຫວ່ໄວແລະສະຫລາດກວ່າຫມາຍຄວາມວ່າມີການລະເມີດຫນ້ອຍລົງ. ສໍາລັບຕົວຢ່າງ, ໃນການດູແລສຸຂະພາບ IT, AI ອາດຈະພົບເຫັນຫ້ອງສະຫມຸດທີ່ລ້າສະໄຫມທີ່ມີຄວາມສ່ຽງໃນອຸປະກອນການແພດແລະເຕືອນການແກ້ໄຂເຟີມແວກ່ອນທີ່ຜູ້ໂຈມຕີຈະຂຸດຄົ້ນມັນ. ໃນທະນາຄານ, AI ສາມາດຈໍາລອງການໂຈມຕີພາຍໃນໃນແອັບພລິເຄຊັນໃຫມ່ເພື່ອຮັບປະກັນຂໍ້ມູນຂອງລູກຄ້າຍັງຄົງປອດໄພພາຍໃຕ້ສະຖານະການທັງຫມົດ. AI Generative ດັ່ງນັ້ນຈຶ່ງເຮັດຫນ້າທີ່ເປັນທັງກ້ອງຈຸລະທັດແລະຕົວທົດສອບຄວາມກົດດັນສໍາລັບທ່າທາງຄວາມປອດໄພຂອງອົງການຈັດຕັ້ງ: ມັນເຮັດໃຫ້ມີແສງສະຫວ່າງທີ່ເຊື່ອງໄວ້ແລະລະບົບຄວາມກົດດັນໃນວິທີການຈິນຕະນາການເພື່ອຮັບປະກັນຄວາມຢືດຢຸ່ນ.
ການສ້າງລະຫັດທີ່ປອດໄພ ແລະການພັດທະນາຊອບແວ
ພອນສະຫວັນຂອງ Generative AI ແມ່ນບໍ່ຈໍາກັດພຽງແຕ່ການກວດສອບການໂຈມຕີ - ພວກເຂົາຍັງຂະຫຍາຍໄປສູ່ ການສ້າງລະບົບທີ່ປອດໄພກວ່າຕັ້ງແຕ່ເລີ່ມຕົ້ນ . ໃນການພັດທະນາຊອບແວ, ເຄື່ອງສ້າງລະຫັດ AI (ເຊັ່ນ GitHub Copilot, OpenAI Codex, ແລະອື່ນໆ) ສາມາດຊ່ວຍໃຫ້ນັກພັດທະນາຂຽນລະຫັດໄດ້ໄວຂຶ້ນໂດຍການແນະນໍາ snippets ລະຫັດຫຼືແມ້ກະທັ້ງຫນ້າທີ່ທັງຫມົດ. ມຸມຄວາມປອດໄພທາງອິນເຕີເນັດແມ່ນຮັບປະກັນວ່າຕ່ອນລະຫັດທີ່ແນະນໍາໂດຍ AI ເຫຼົ່ານີ້ປອດໄພ ແລະໃຊ້ AI ເພື່ອປັບປຸງການປະຕິບັດການຂຽນລະຫັດ.
ໃນອີກດ້ານຫນຶ່ງ, AI ທົ່ວໄປສາມາດເຮັດຫນ້າທີ່ເປັນ ຜູ້ຊ່ວຍການຂຽນລະຫັດທີ່ຝັງການປະຕິບັດທີ່ດີທີ່ສຸດດ້ານຄວາມປອດໄພ . ນັກພັດທະນາສາມາດກະຕຸ້ນເຄື່ອງມື AI, "ສ້າງຫນ້າທີ່ຕັ້ງລະຫັດຜ່ານໃຫມ່ໃນ Python," ແລະໂດຍວິທີທາງການໄດ້ຮັບລະຫັດຄືນໃຫມ່ທີ່ບໍ່ພຽງແຕ່ເປັນປະໂຫຍດເທົ່ານັ້ນ, ແຕ່ຍັງປະຕິບັດຕາມຄໍາແນະນໍາທີ່ປອດໄພ (ເຊັ່ນ: ການກວດສອບຄວາມຖືກຕ້ອງຂອງວັດສະດຸປ້ອນ, ການບັນທຶກ, ການຈັດການຄວາມຜິດພາດໂດຍບໍ່ມີການຮົ່ວໄຫລ, ແລະອື່ນໆ). ຜູ້ຊ່ວຍດັ່ງກ່າວ, ການຝຶກອົບຮົມກ່ຽວກັບຕົວຢ່າງລະຫັດທີ່ປອດໄພຢ່າງກວ້າງຂວາງ, ສາມາດຊ່ວຍຫຼຸດຜ່ອນຄວາມຜິດພາດຂອງມະນຸດທີ່ນໍາໄປສູ່ຄວາມອ່ອນແອ. ຍົກຕົວຢ່າງ, ຖ້ານັກພັດທະນາລືມເຮັດອະນາໄມວັດສະດຸປ້ອນຂອງຜູ້ໃຊ້ (ເປີດປະຕູໃຫ້ສີດ SQL ຫຼືບັນຫາທີ່ຄ້າຍຄືກັນ), AI ສາມາດລວມເອົາສິ່ງນັ້ນໂດຍຄ່າເລີ່ມຕົ້ນຫຼືເຕືອນໃຫ້ເຂົາເຈົ້າ. ບາງເຄື່ອງມືການເຂົ້າລະຫັດ AI ຕອນນີ້ກຳລັງຖືກປັບໃຫ້ລະອຽດດ້ວຍຂໍ້ມູນທີ່ເນັ້ນໃສ່ຄວາມປອດໄພເພື່ອຮັບໃຊ້ຈຸດປະສົງທີ່ແນ່ນອນນີ້ - ທີ່ສຳຄັນແມ່ນ ການຂຽນໂປຣແກຣມຄູ່ AI ທີ່ມີສະຕິຄວາມປອດໄພ .
ແນວໃດກໍ່ຕາມ, ມັນມີຈຸດອ່ອນຄື: AI ທົ່ວໄປສາມາດແນະນຳຊ່ອງໂຫວ່ໄດ້ງ່າຍໆ ຖ້າບໍ່ໄດ້ຮັບການຄຸ້ມຄອງຢ່າງຖືກຕ້ອງ. ດັ່ງທີ່ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພຂອງ Sophos Ben Verschaeren ສັງເກດເຫັນ, ການໃຊ້ AI ທົ່ວໄປສໍາລັບການເຂົ້າລະຫັດແມ່ນ "ດີສໍາລັບລະຫັດສັ້ນ, ທີ່ສາມາດຢືນຢັນໄດ້, ແຕ່ມີຄວາມສ່ຽງໃນເວລາທີ່ລະຫັດທີ່ບໍ່ໄດ້ກວດກາຖືກປະສົມປະສານ" ເຂົ້າໄປໃນລະບົບການຜະລິດ. ຄວາມສ່ຽງແມ່ນວ່າ AI ອາດຈະຜະລິດລະຫັດທີ່ຖືກຕ້ອງຢ່າງມີເຫດຜົນທີ່ບໍ່ປອດໄພໃນວິທີທີ່ຜູ້ທີ່ບໍ່ແມ່ນຜູ້ຊ່ຽວຊານອາດຈະບໍ່ສັງເກດເຫັນ. ຍິ່ງໄປກວ່ານັ້ນ, ຜູ້ສະແດງທີ່ເປັນອັນຕະລາຍສາມາດມີອິດທິພົນຕໍ່ຕົວແບບ AI ສາທາລະນະໂດຍເຈດຕະນາໂດຍການສ້າງຮູບແບບລະຫັດທີ່ມີຄວາມສ່ຽງ (ຮູບແບບການເປັນພິດຂອງຂໍ້ມູນ) ເພື່ອໃຫ້ AI ຊີ້ໃຫ້ເຫັນລະຫັດທີ່ບໍ່ປອດໄພ. ນັກພັດທະນາສ່ວນໃຫຍ່ບໍ່ແມ່ນຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພ , ດັ່ງນັ້ນຖ້າ AI ແນະນໍາການແກ້ໄຂທີ່ສະດວກ, ເຂົາເຈົ້າອາດຈະໃຊ້ມັນ blindly, ບໍ່ຮູ້ວ່າມັນມີຂໍ້ບົກພ່ອງ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). ຄວາມກັງວົນນີ້ແມ່ນຈິງ - ໃນຄວາມເປັນຈິງ, ມີ OWASP Top 10 ບັນຊີລາຍຊື່ໃນປັດຈຸບັນສໍາລັບ LLMs (ຮູບແບບພາສາຂະຫນາດໃຫຍ່) ທີ່ອະທິບາຍຄວາມສ່ຽງທົ່ວໄປເຊັ່ນນີ້ໃນການນໍາໃຊ້ AI ສໍາລັບການເຂົ້າລະຫັດ.
ເພື່ອຕ້ານກັບບັນຫາເຫຼົ່ານີ້, ຜູ້ຊ່ຽວຊານແນະນໍາ "ຕໍ່ສູ້ກັບ AI ການຜະລິດກັບ AI ທົ່ວໄປ" ໃນຂົງເຂດການຂຽນລະຫັດ. ໃນການປະຕິບັດ, ນັ້ນຫມາຍຄວາມວ່າການນໍາໃຊ້ AI ເພື່ອ ທົບທວນແລະທົດສອບລະຫັດ ທີ່ AI ອື່ນໆ (ຫຼືມະນຸດ) ຂຽນ. AI ສາມາດສະແກນຜ່ານລະຫັດໃໝ່ໄດ້ໄວກວ່າຜູ້ກວດສອບລະຫັດຂອງມະນຸດ ແລະຊີ້ບອກເຖິງຄວາມອ່ອນແອ ຫຼືບັນຫາທາງເຫດຜົນ. ພວກເຮົາເຫັນເຄື່ອງມືທີ່ເກີດຂື້ນແລ້ວທີ່ປະສົມປະສານເຂົ້າໃນວົງຈອນການພັດທະນາຊອບແວ: ລະຫັດຖືກຂຽນ (ບາງທີອາດມີການຊ່ວຍເຫຼືອ AI), ຫຼັງຈາກນັ້ນຮູບແບບການຜະລິດທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຫຼັກການລະຫັດທີ່ປອດໄພຈະທົບທວນຄືນມັນແລະສ້າງບົດລາຍງານຂອງຄວາມກັງວົນໃດໆ (ເວົ້າ, ການນໍາໃຊ້ຫນ້າທີ່ຍົກເລີກ, ການກວດສອບການກວດສອບທີ່ຂາດຫາຍໄປ, ແລະອື່ນໆ). ການຄົ້ນຄວ້າຂອງ NVIDIA, ທີ່ໄດ້ກ່າວມາກ່ອນຫນ້ານີ້, ທີ່ບັນລຸໄດ້ 4 × ການກວດສອບຊ່ອງໂຫວ່ໄວໃນລະຫັດເປັນຕົວຢ່າງຂອງ harnessing AI ສໍາລັບການວິເຄາະລະຫັດທີ່ປອດໄພ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ).
ຍິ່ງໄປກວ່ານັ້ນ, AI ທົ່ວໄປສາມາດຊ່ວຍໃນ ການສ້າງການຕັ້ງຄ່າທີ່ປອດໄພແລະສະຄິບ . ຕົວຢ່າງ, ຖ້າບໍລິສັດຕ້ອງການໃຊ້ໂຄງສ້າງພື້ນຖານຂອງຄລາວທີ່ປອດໄພ, ວິສະວະກອນສາມາດຂໍໃຫ້ AI ສ້າງສະຄຣິບການຕັ້ງຄ່າ (ໂຄງສ້າງພື້ນຖານເປັນລະຫັດ) ທີ່ມີການຄວບຄຸມຄວາມປອດໄພ (ເຊັ່ນ: ການແບ່ງສ່ວນເຄືອຂ່າຍທີ່ເຫມາະສົມ, ບົດບາດ IAM ທີ່ມີສິດທິພິເສດຫນ້ອຍ) ເຂົ້າມາ. AI, ໄດ້ຮັບການຝຶກອົບຮົມໃນຫຼາຍພັນການຕັ້ງຄ່າດັ່ງກ່າວ, ວິສະວະກອນສາມາດສ້າງພື້ນຖານໄດ້. ອັນນີ້ເລັ່ງການຕິດຕັ້ງລະບົບທີ່ປອດໄພ ແລະຫຼຸດຜ່ອນຄວາມຜິດພາດໃນການຕັ້ງຄ່າທີ່ບໍ່ຖືກຕ້ອງ – ເປັນແຫຼ່ງທົ່ວໄປຂອງເຫດການຄວາມປອດໄພໃນຄລາວ.
ບາງອົງການຈັດຕັ້ງຍັງໃຊ້ AI ທົ່ວໄປເພື່ອຮັກສາພື້ນຖານຄວາມຮູ້ຂອງຮູບແບບການເຂົ້າລະຫັດທີ່ປອດໄພ. ຖ້ານັກພັດທະນາບໍ່ແນ່ໃຈວ່າຈະປະຕິບັດຄຸນສົມບັດສະເພາະໃດຫນຶ່ງຢ່າງປອດໄພ, ພວກເຂົາສາມາດສອບຖາມ AI ພາຍໃນທີ່ໄດ້ຮຽນຮູ້ຈາກໂຄງການທີ່ຜ່ານມາຂອງບໍລິສັດແລະຄໍາແນະນໍາດ້ານຄວາມປອດໄພ. AI ອາດຈະສົ່ງຄືນວິທີການທີ່ແນະນໍາຫຼືແມ້ກະທັ້ງລະຫັດຫຍໍ້ຂອງລະຫັດທີ່ສອດຄ່ອງກັບທັງຄວາມຕ້ອງການທີ່ເປັນປະໂຫຍດແລະມາດຕະຖານຄວາມປອດໄພຂອງບໍລິສັດ. ວິທີການນີ້ໄດ້ຖືກນໍາໃຊ້ໂດຍເຄື່ອງມືເຊັ່ນ Secureframe's Questionnaire Automation , ເຊິ່ງດຶງຄໍາຕອບຈາກນະໂຍບາຍຂອງບໍລິສັດແລະການແກ້ໄຂທີ່ຜ່ານມາເພື່ອຮັບປະກັນການຕອບສະຫນອງທີ່ສອດຄ່ອງແລະຖືກຕ້ອງ (ການສ້າງເອກະສານທີ່ປອດໄພ) ( ວິທີການທີ່ Generative AI ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ແນວຄວາມຄິດແປວ່າການຂຽນລະຫັດ: AI ທີ່ "ຈື່" ວິທີທີ່ທ່ານປະຕິບັດບາງສິ່ງບາງຢ່າງຢ່າງປອດໄພກ່ອນແລະແນະນໍາທ່ານໃຫ້ເຮັດມັນອີກເທື່ອຫນຶ່ງ.
ສະຫຼຸບແລ້ວ, AI ທົ່ວໄປແມ່ນມີອິດທິພົນຕໍ່ການພັດທະນາຊອບແວໂດຍ ການເຮັດໃຫ້ການຊ່ວຍເຫຼືອການເຂົ້າລະຫັດທີ່ປອດໄພສາມາດເຂົ້າເຖິງໄດ້ຫຼາຍຂຶ້ນ . ອຸດສາຫະກໍາທີ່ພັດທະນາຊອບແວທີ່ກໍາຫນົດເອງຫຼາຍ - ເຕັກໂນໂລຢີ, ການເງິນ, ການປ້ອງກັນ, ແລະອື່ນໆ - ຢືນຢູ່ທີ່ຈະໄດ້ຮັບຜົນປະໂຫຍດຈາກການມີ AI copilots ທີ່ບໍ່ພຽງແຕ່ເລັ່ງການເຂົ້າລະຫັດແຕ່ເຮັດຫນ້າທີ່ເປັນຜູ້ທົບທວນຄວາມປອດໄພທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ເມື່ອຖືກຄຸ້ມຄອງຢ່າງຖືກຕ້ອງ, ເຄື່ອງມື AI ເຫຼົ່ານີ້ສາມາດຫຼຸດຜ່ອນການນໍາສະເຫນີຊ່ອງໂຫວ່ໃຫມ່ແລະຊ່ວຍໃຫ້ທີມງານພັດທະນາປະຕິບັດຕາມການປະຕິບັດທີ່ດີທີ່ສຸດ, ເຖິງແມ່ນວ່າທີມງານບໍ່ມີຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພເຂົ້າຮ່ວມໃນທຸກຂັ້ນຕອນ. ຜົນໄດ້ຮັບແມ່ນຊອບແວທີ່ແຂງແຮງຕໍ່ກັບການໂຈມຕີຈາກມື້ຫນຶ່ງ.
ສະຫນັບສະຫນູນການຕອບໂຕ້ເຫດການ
ເມື່ອເຫດການຄວາມປອດໄພທາງໄຊເບີເກີດຂຶ້ນ – ບໍ່ວ່າຈະເປັນການລະບາດຂອງມັລແວ, ການລະເມີດຂໍ້ມູນ, ຫຼືລະບົບຢຸດຈາກການໂຈມຕີ – ເວລາແມ່ນສໍາຄັນ. Generative AI ກໍາລັງຖືກໃຊ້ເພີ່ມຂຶ້ນເພື່ອ ສະຫນັບສະຫນູນທີມງານຕອບສະຫນອງເຫດການ (IR) ໃນການບັນຈຸແລະແກ້ໄຂເຫດການໄວຂຶ້ນແລະມີຂໍ້ມູນເພີ່ມເຕີມຢູ່ໃນມື. ແນວຄວາມຄິດແມ່ນວ່າ AI ສາມາດຮັບຜິດຊອບບາງພາລະການສືບສວນແລະເອກະສານໃນລະຫວ່າງການເກີດເຫດການ, ແລະແມ້ກະທັ້ງແນະນໍາຫຼືອັດຕະໂນມັດການດໍາເນີນການຕອບສະຫນອງບາງຢ່າງ.
ບົດບາດສຳຄັນອັນໜຶ່ງຂອງ AI ໃນ IR ແມ່ນ ການວິເຄາະເຫດການໃນເວລາຈິງ ແລະສະຫຼຸບສັງລວມ . ໃນລະຫວ່າງເຫດການ, ຜູ້ຕອບອາດຈະຕ້ອງການຄໍາຕອບຕໍ່ຄໍາຖາມເຊັ່ນ: "ຜູ້ໂຈມຕີເຂົ້າໄປໃນແນວໃດ?" , "ລະບົບໃດທີ່ໄດ້ຮັບຜົນກະທົບ?" , ແລະ "ຂໍ້ມູນອັນໃດທີ່ອາດຈະຖືກທໍາລາຍ?" . Generative AI ສາມາດວິເຄາະບັນທຶກ, ການແຈ້ງເຕືອນ, ແລະຂໍ້ມູນ forensic ຈາກລະບົບທີ່ໄດ້ຮັບຜົນກະທົບ ແລະໃຫ້ຄວາມເຂົ້າໃຈໄດ້ໄວ. ຕົວຢ່າງເຊັ່ນ Microsoft Security Copilot ອະນຸຍາດໃຫ້ຜູ້ຕອບເຫດການສາມາດປ້ອນຂໍ້ມູນໃນຫຼັກຖານຕ່າງໆ (ໄຟລ໌, URLs, ບັນທຶກເຫດການ) ແລະຂໍໃຫ້ກໍານົດເວລາຫຼືສະຫຼຸບ ( Microsoft Security Copilot ແມ່ນ GPT-4 AI ຜູ້ຊ່ວຍໃຫມ່ສໍາລັບຄວາມປອດໄພທາງອິນເຕີເນັດ | The Verge ). AI ອາດຈະຕອບສະຫນອງກັບ: "ການລະເມີດອາດຈະເລີ່ມຕົ້ນດ້ວຍອີເມລ໌ phishing ກັບຜູ້ໃຊ້ JohnDoe ໃນເວລາ 10:53 GMT ທີ່ມີ malware X. ເມື່ອຖືກປະຕິບັດ, malware ໄດ້ສ້າງ backdoor ທີ່ຖືກນໍາໃຊ້ສອງມື້ຕໍ່ມາເພື່ອຍ້າຍອອກໄປຂ້າງຫນ້າກັບເຄື່ອງແມ່ຂ່າຍທາງດ້ານການເງິນ, ບ່ອນທີ່ມັນເກັບກໍາຂໍ້ມູນ." ການມີຮູບພາບທີ່ສອດຄ່ອງກັນໃນນາທີຫຼາຍກວ່າຊົ່ວໂມງເຮັດໃຫ້ທີມງານສາມາດຕັດສິນໃຈໄດ້ຢ່າງມີຂໍ້ມູນ (ເຊັ່ນວ່າລະບົບໃດທີ່ຈະແຍກອອກ) ໄດ້ໄວຂຶ້ນຫຼາຍ.
Generative AI ຍັງສາມາດ ແນະນໍາການປະຕິບັດການສະກັດກັ້ນແລະການແກ້ໄຂ . ຕົວຢ່າງເຊັ່ນ, ຖ້າຈຸດສິ້ນສຸດຖືກຕິດເຊື້ອໂດຍ ransomware, ເຄື່ອງມື AI ສາມາດສ້າງສະຄິບຫຼືຊຸດຄໍາແນະນໍາເພື່ອແຍກເຄື່ອງນັ້ນ, ປິດການທໍາງານບາງບັນຊີ, ແລະຕັນ IPs ທີ່ເປັນອັນຕະລາຍທີ່ຮູ້ຈັກໃນ firewall - ສໍາຄັນແມ່ນການປະຕິບັດ playbook. Palo Alto Networks ສັງເກດວ່າ AI ທົ່ວໄປແມ່ນມີຄວາມສາມາດ "ສ້າງການກະທໍາທີ່ເຫມາະສົມຫຼືສະຄິບໂດຍອີງໃສ່ລັກສະນະຂອງເຫດການ" , ອັດຕະໂນມັດຂັ້ນຕອນເບື້ອງຕົ້ນຂອງການຕອບສະຫນອງ ( ແມ່ນຫຍັງ Generative AI ໃນ Cybersecurity? - Palo Alto Networks ). ໃນສະຖານະການທີ່ທີມງານຮັກສາຄວາມປອດໄພຖືກຄອບງໍາ (ເວົ້າວ່າການໂຈມຕີທີ່ແຜ່ຫຼາຍໃນທົ່ວຫຼາຍຮ້ອຍອຸປະກອນ), AI ອາດຈະປະຕິບັດບາງການກະທໍາເຫຼົ່ານີ້ໂດຍກົງພາຍໃຕ້ເງື່ອນໄຂທີ່ໄດ້ຮັບການອະນຸມັດກ່ອນ, ປະຕິບັດຄືກັບຜູ້ຕອບໂຕ້ໄວຫນຸ່ມທີ່ເຮັດວຽກຢ່າງບໍ່ອິດເມື່ອຍ. ຕົວຢ່າງ, ຕົວແທນ AI ສາມາດຣີເຊັດຂໍ້ມູນປະຈຳຕົວທີ່ມັນຖືວ່າຖືກບຸກລຸກ ຫຼື ເຈົ້າພາບກັກກັນທີ່ສະແດງການເຄື່ອນໄຫວທີ່ເປັນອັນຕະລາຍທີ່ກົງກັບໂປຣໄຟລ໌ຂອງເຫດການ.
ໃນລະຫວ່າງການຕອບສະຫນອງເຫດການ, ການສື່ສານແມ່ນສໍາຄັນ - ທັງໃນທີມງານແລະຜູ້ມີສ່ວນຮ່ວມ. Generative AI ສາມາດຊ່ວຍໄດ້ໂດຍ ການຮ່າງບົດລາຍງານການປັບປຸງເຫດການຫຼືສະຫຼຸບໂດຍຫຍໍ້ . ແທນທີ່ຈະເປັນວິສະວະກອນຢຸດການແກ້ໄຂບັນຫາຂອງພວກເຂົາເພື່ອຂຽນການອັບເດດອີເມວ, ພວກເຂົາສາມາດຖາມ AI, "ສະຫຼຸບສິ່ງທີ່ເກີດຂຶ້ນໃນເຫດການນີ້ມາເຖິງຕອນນັ້ນເພື່ອແຈ້ງໃຫ້ຜູ້ບໍລິຫານ." AI, ໂດຍໄດ້ເອົາຂໍ້ມູນເຫດການ, ສາມາດສ້າງບົດສະຫຼຸບສັ້ນໆໄດ້ວ່າ: "ຕັ້ງແຕ່ເວລາ 3 ໂມງແລງ, ຜູ້ໂຈມຕີໄດ້ເຂົ້າເຖິງ 2 ບັນຊີຜູ້ໃຊ້ ແລະ 5 ເຊີບເວີ. ຂໍ້ມູນທີ່ຖືກກະທົບລວມມີບັນທຶກລູກຄ້າໃນຖານຂໍ້ມູນ X. ມາດຕະການບັນຈຸ: ການເຂົ້າເຖິງ VPN ສໍາລັບບັນຊີທີ່ຖືກລັກລອບຖືກຖອນຄືນ ແລະເຊີບເວີຖືກແຍກອອກ. ຂັ້ນຕອນຕໍ່ໄປ: ການສະແກນຫາກົນໄກການຄົງຕົວໃດໆ." ຫຼັງຈາກນັ້ນ, ຜູ້ຕອບສາມາດກວດສອບຫຼືດັດແປງມັນຢ່າງໄວວາແລະສົ່ງມັນອອກ, ຮັບປະກັນວ່າຜູ້ທີ່ກ່ຽວຂ້ອງຖືກເກັບຮັກສາໄວ້ໃນວົງຈອນທີ່ມີຂໍ້ມູນທີ່ຖືກຕ້ອງ, ທັນນາທີ.
ຫຼັງຈາກຂີ້ຝຸ່ນໄດ້ຕົກລົງ, ໂດຍທົ່ວໄປແລ້ວຈະມີບົດລາຍງານເຫດການລະອຽດເພື່ອກະກຽມແລະບົດຮຽນທີ່ຈະລວບລວມ. ນີ້ແມ່ນພື້ນທີ່ອື່ນທີ່ສະຫນັບສະຫນູນ AI ສ່ອງແສງ. ມັນສາມາດທົບທວນຄືນຂໍ້ມູນເຫດການທັງຫມົດແລະ ສ້າງບົດລາຍງານຫຼັງເກີດເຫດ ທີ່ກວມເອົາຮາກຖານ, chronology, ຜົນກະທົບ, ແລະຄໍາແນະນໍາ. ສໍາລັບຕົວຢ່າງ, IBM ກໍາລັງປະສົມປະສານ AI ທົ່ວໄປເພື່ອສ້າງ "ບົດສະຫຼຸບງ່າຍໆຂອງກໍລະນີຄວາມປອດໄພແລະເຫດການທີ່ສາມາດແບ່ງປັນກັບຜູ້ທີ່ກ່ຽວຂ້ອງ" ດ້ວຍການກົດປຸ່ມ ( ວິທີການໃຊ້ AI Generative ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ໂດຍການປັບປຸງການລາຍງານຫຼັງການປະຕິບັດ, ອົງການຈັດຕັ້ງສາມາດປະຕິບັດການປັບປຸງໄດ້ໄວຂຶ້ນ ແລະຍັງມີເອກະສານທີ່ດີຂຶ້ນເພື່ອຈຸດປະສົງການປະຕິບັດຕາມ.
ການນໍາໃຊ້ນະວັດຕະກໍາຫນຶ່ງໄປຫນ້າແມ່ນ ການຈໍາລອງເຫດການ AI ຂັບເຄື່ອນ . ຄ້າຍຄືກັນກັບວິທີການທີ່ຄົນຫນຶ່ງອາດຈະດໍາເນີນການເຈາະໄຟ, ບາງບໍລິສັດກໍາລັງໃຊ້ AI ການຜະລິດເພື່ອດໍາເນີນການຜ່ານສະຖານະການ "ຈະເປັນແນວໃດຖ້າ". AI ອາດຈະຈໍາລອງວິທີທີ່ ransomware ອາດຈະແຜ່ຂະຫຍາຍໃນຮູບແບບເຄືອຂ່າຍ, ຫຼືວິທີການພາຍໃນສາມາດສະກັດຂໍ້ມູນ, ແລະຫຼັງຈາກນັ້ນໃຫ້ຄະແນນປະສິດທິຜົນຂອງແຜນການຕອບສະຫນອງໃນປະຈຸບັນ. ນີ້ຊ່ວຍໃຫ້ທີມງານກະກຽມແລະປັບປຸງປື້ມຫຼິ້ນກ່ອນທີ່ຈະມີເຫດການທີ່ແທ້ຈິງເກີດຂື້ນ. ມັນຄືກັບການມີທີ່ປຶກສາການຕອບໂຕ້ເຫດການທີ່ປັບປຸງໃຫ້ດີຂຶ້ນເລື້ອຍໆ ທີ່ທົດສອບຄວາມພ້ອມຂອງເຈົ້າຢູ່ສະເໝີ.
ໃນອຸດສາຫະກໍາທີ່ມີສະເຕກສູງເຊັ່ນ: ການເງິນຫຼືການດູແລສຸຂະພາບ, ບ່ອນທີ່ການຢຸດງານຫຼືການສູນເສຍຂໍ້ມູນຈາກເຫດການແມ່ນມີຄ່າໃຊ້ຈ່າຍໂດຍສະເພາະ, ຄວາມສາມາດຂອງ IR ທີ່ຂັບເຄື່ອນດ້ວຍ AI ເຫຼົ່ານີ້ແມ່ນມີຄວາມດຶງດູດຫຼາຍ. ໂຮງ ໝໍ ທີ່ປະສົບກັບເຫດການທາງອິນເຕີເນັດບໍ່ສາມາດຈ່າຍໃຫ້ລະບົບຢຸດເຮັດວຽກເປັນເວລາດົນ - AI ທີ່ຊ່ວຍຄວບຄຸມໄດ້ໄວອາດຈະເປັນການຊ່ວຍຊີວິດໄດ້. ເຊັ່ນດຽວກັນ, ສະຖາບັນການເງິນສາມາດໃຊ້ AI ເພື່ອຈັດການກັບການທົດລອງເບື້ອງຕົ້ນຂອງການລ່ວງລະເມີດທີ່ສົງໃສວ່າມີການລ່ວງລະເມີດໃນເວລາ 3 ໂມງເຊົ້າ, ດັ່ງນັ້ນໃນເວລາທີ່ມະນຸດໂທຫາອອນໄລນ໌, ວຽກງານພື້ນຖານຫຼາຍຢ່າງ (ການປິດບັນຊີທີ່ໄດ້ຮັບຜົນກະທົບ, ການເຮັດທຸລະກໍາ, ຕັນ, ແລະອື່ນໆ) ແມ່ນແລ້ວ. ໂດຍ ການເພີ່ມທີມງານຕອບໂຕ້ເຫດການດ້ວຍ AI ທົ່ວໄປ , ອົງການຈັດຕັ້ງສາມາດຫຼຸດຜ່ອນເວລາຕອບສະຫນອງຢ່າງຫຼວງຫຼາຍແລະປັບປຸງການຈັດການຂອງພວກເຂົາຢ່າງລະອຽດ, ໃນທີ່ສຸດການຫຼຸດຜ່ອນຄວາມເສຍຫາຍຈາກເຫດການທາງອິນເຕີເນັດ.
ການວິເຄາະພຶດຕິກຳ ແລະການກວດຫາຄວາມຜິດປົກກະຕິ
ການໂຈມຕີທາງອິນເຕີເນັດຈໍານວນຫຼາຍສາມາດຖືກຈັບໄດ້ໂດຍການສັງເກດເຫັນໃນເວລາທີ່ບາງສິ່ງບາງຢ່າງ deviates ຈາກ "ປົກກະຕິ" ພຶດຕິກໍາ - ບໍ່ວ່າຈະເປັນບັນຊີຜູ້ໃຊ້ດາວໂຫຼດຈໍານວນຜິດປົກກະຕິຫຼືອຸປະກອນເຄືອຂ່າຍຕິດຕໍ່ສື່ສານກັບເຈົ້າພາບທີ່ບໍ່ຄຸ້ນເຄີຍ. Generative AI ສະເຫນີເຕັກນິກຂັ້ນສູງສໍາລັບ ການວິເຄາະພຶດຕິກໍາແລະການກວດຫາຄວາມຜິດປົກກະຕິ , ການຮຽນຮູ້ຮູບແບບປົກກະຕິຂອງຜູ້ໃຊ້ແລະລະບົບແລະຫຼັງຈາກນັ້ນລາຍງານເມື່ອບາງສິ່ງບາງຢ່າງເບິ່ງໄປ.
ການກວດຫາຄວາມຜິດປົກກະຕິແບບດັ້ງເດີມມັກຈະໃຊ້ເກນສະຖິຕິ ຫຼືການຮຽນຮູ້ເຄື່ອງຈັກແບບງ່າຍໆກ່ຽວກັບຕົວຊີ້ວັດສະເພາະ (ການນຳໃຊ້ CPU ເພີ່ມຂຶ້ນ, ການເຂົ້າໃຊ້ໃນຊົ່ວໂມງຄີກ, ແລະອື່ນໆ). Generative AI ສາມາດເອົາອັນນີ້ຕື່ມອີກໂດຍການສ້າງໂປຣໄຟລ໌ທີ່ມີລັກສະນະທີ່ມີລັກສະນະເດັ່ນກວ່າ. ຕົວຢ່າງເຊັ່ນ, ຮູບແບບ AI ສາມາດເຂົ້າໄປໃນການເຂົ້າສູ່ລະບົບ, ຮູບແບບການເຂົ້າເຖິງໄຟລ໌, ແລະນິໄສອີເມວຂອງພະນັກງານໃນໄລຍະເວລາແລະສ້າງຄວາມເຂົ້າໃຈຫຼາຍມິຕິຂອງ "ປົກກະຕິ." ຖ້າບັນຊີນັ້ນຕໍ່ມາເຮັດບາງສິ່ງບາງຢ່າງທີ່ຢູ່ນອກມາດຕະຖານຂອງມັນ (ເຊັ່ນ: ເຂົ້າສູ່ລະບົບຈາກປະເທດໃຫມ່ແລະການເຂົ້າເຖິງໄຟລ໌ HR ໃນເວລາທ່ຽງຄືນ), AI ຈະກວດພົບຄວາມແຕກແຍກບໍ່ພຽງແຕ່ຢູ່ໃນຫນຶ່ງ metric ແຕ່ເປັນຮູບແບບພຶດຕິກໍາທັງຫມົດທີ່ບໍ່ເຫມາະສົມກັບ profile ຂອງຜູ້ໃຊ້. ໃນຄໍາສັບຕ່າງໆດ້ານວິຊາການ, ຮູບແບບການຜະລິດ (ເຊັ່ນ: autoencoders ຫຼືຕົວແບບລໍາດັບ) ສາມາດສ້າງແບບຈໍາລອງສິ່ງທີ່ "ປົກກະຕິ" ຄ້າຍຄືແລະຫຼັງຈາກນັ້ນສ້າງຂອບເຂດທີ່ຄາດວ່າຈະມີພຶດຕິກໍາ. ເມື່ອຄວາມເປັນຈິງຢູ່ນອກຂອບເຂດນັ້ນ, ມັນຖືກທຸງວ່າເປັນຄວາມຜິດປົກກະຕິ ( ການຜະລິດ AI ໃນ Cybersecurity ແມ່ນຫຍັງ? - Palo Alto Networks ).
ການປະຕິບັດປະຕິບັດຫນຶ່ງແມ່ນໃນ ການຕິດຕາມການຈະລາຈອນເຄືອຂ່າຍ . ອີງຕາມການສໍາຫຼວດໃນປີ 2024, 54% ຂອງອົງການຈັດຕັ້ງຂອງສະຫະລັດໄດ້ອ້າງເຖິງການຕິດຕາມການຈະລາຈອນເຄືອຂ່າຍເປັນກໍລະນີການນໍາໃຊ້ອັນດັບຫນຶ່ງສໍາລັບ AI ໃນຄວາມປອດໄພທາງອິນເຕີເນັດ ( ອາເມລິກາເຫນືອ: ກໍລະນີການນໍາໃຊ້ AI ສູງສຸດໃນຄວາມປອດໄພທາງອິນເຕີເນັດທົ່ວໂລກ 2024 ). AI ທົ່ວໄປສາມາດຮຽນຮູ້ຮູບແບບການສື່ສານແບບປົກກະຕິຂອງເຄືອຂ່າຍວິສາຫະກິດ – ເຊິ່ງປົກກະຕິແລ້ວເຊີບເວີຈະລົມກັນ, ຂໍ້ມູນຈໍານວນໃດເຄື່ອນທີ່ໃນຊ່ວງເວລາເຮັດວຽກທຽບກັບກາງຄືນ, ແລະອື່ນໆ. ຖ້າຜູ້ໂຈມຕີເລີ່ມດຶງຂໍ້ມູນຈາກເຊີບເວີ, ເຖິງແມ່ນຊ້າເພື່ອຫຼີກເວັ້ນການກວດພົບ, ລະບົບທີ່ອີງໃສ່ AI ອາດຈະສັງເກດເຫັນວ່າ “ເຊີບເວີ A ບໍ່ເຄີຍສົ່ງຂໍ້ມູນ 500MB ໄປຫາ IP ພາຍນອກ” ແລະ 2AM. ເນື່ອງຈາກວ່າ AI ບໍ່ພຽງແຕ່ໃຊ້ກົດລະບຽບສະຖິດແຕ່ເປັນຕົວແບບທີ່ພັດທະນາຂອງພຶດຕິກໍາເຄືອຂ່າຍ, ມັນສາມາດຈັບຄວາມຜິດປົກກະຕິທີ່ລະອຽດອ່ອນທີ່ກົດລະບຽບຄົງທີ່ (ເຊັ່ນ: "ເຕືອນຖ້າຂໍ້ມູນ> X MB") ອາດຈະພາດຫຼືເຮັດຜິດພາດ. ລັກສະນະການປັບຕົວນີ້ແມ່ນສິ່ງທີ່ເຮັດໃຫ້ການກວດສອບຄວາມຜິດປົກກະຕິທີ່ຂັບເຄື່ອນດ້ວຍ AI ມີປະສິດທິພາບໃນສະພາບແວດລ້ອມເຊັ່ນ: ເຄືອຂ່າຍທຸລະກໍາທະນາຄານ, ໂຄງສ້າງພື້ນຖານຂອງຄລາວ, ຫຼືເຮືອອຸປະກອນ IoT, ບ່ອນທີ່ການກໍານົດກົດລະບຽບຄົງທີ່ສໍາລັບການປົກກະຕິທຽບກັບຜິດປົກກະຕິແມ່ນສັບສົນທີ່ສຸດ.
Generative AI ຍັງຊ່ວຍໃນ ການວິເຄາະພຶດຕິກໍາຂອງຜູ້ໃຊ້ (UBA) , ເຊິ່ງເປັນກຸນແຈສໍາຄັນໃນການກວດສອບໄພຂົ່ມຂູ່ພາຍໃນຫຼືບັນຊີທີ່ຖືກທໍາລາຍ. ໂດຍການສ້າງຂໍ້ມູນພື້ນຖານຂອງແຕ່ລະຜູ້ໃຊ້ ຫຼືນິຕິບຸກຄົນ, AI ສາມາດກວດພົບສິ່ງຕ່າງໆ ເຊັ່ນວ່າ ການໃຊ້ຂໍ້ມູນປະຈໍາຕົວທີ່ບໍ່ຖືກຕ້ອງ. ສໍາລັບຕົວຢ່າງ, ຖ້າ Bob ຈາກການບັນຊີຢ່າງກະທັນຫັນເລີ່ມສອບຖາມຖານຂໍ້ມູນຂອງລູກຄ້າ (ບາງສິ່ງບາງຢ່າງທີ່ລາວບໍ່ເຄີຍເຮັດມາກ່ອນ), ຮູບແບບ AI ສໍາລັບພຶດຕິກໍາຂອງ Bob ຈະຫມາຍວ່ານີ້ແມ່ນຜິດປົກກະຕິ. ມັນອາດຈະບໍ່ເປັນ malware – ມັນອາດຈະເປັນກໍລະນີຂອງຂໍ້ມູນປະຈໍາຕົວຂອງ Bob ຖືກລັກ ແລະໃຊ້ໂດຍຜູ້ໂຈມຕີ, ຫຼື Bob ສືບສວນບ່ອນທີ່ລາວບໍ່ຄວນ. ໃນກໍລະນີໃດກໍ່ຕາມ, ທີມງານຮັກສາຄວາມປອດໄພໄດ້ຮັບການເປັນຫົວຫນ້າເພື່ອສືບສວນ. ລະບົບ UBA ທີ່ຂັບເຄື່ອນດ້ວຍ AI ດັ່ງກ່າວມີຢູ່ໃນຜະລິດຕະພັນຄວາມປອດໄພຕ່າງໆ, ແລະເຕັກນິກການສ້າງແບບຈໍາລອງແບບຜະລິດກໍາລັງຊຸກຍູ້ຄວາມຖືກຕ້ອງຂອງພວກເຂົາໃຫ້ສູງຂຶ້ນແລະຫຼຸດຜ່ອນການເຕືອນໄພທີ່ບໍ່ຖືກຕ້ອງໂດຍການພິຈາລະນາສະພາບການ (ບາງທີ Bob ຢູ່ໃນໂຄງການພິເສດ, ແລະອື່ນໆ, ເຊິ່ງບາງຄັ້ງ AI ສາມາດຄາດເດົາໄດ້ຈາກຂໍ້ມູນອື່ນໆ).
ໃນຂອບເຂດຂອງຕົວຕົນແລະການຄຸ້ມຄອງການເຂົ້າເຖິງ, ການຊອກຄົ້ນຫາປອມເລິກ ແມ່ນຄວາມຕ້ອງການທີ່ເພີ່ມຂຶ້ນ - AI ທົ່ວໄປສາມາດສ້າງສຽງແລະວິດີໂອທີ່ຫຼອກລວງຄວາມປອດໄພທາງຊີວະພາບ. ເປັນທີ່ໜ້າສົນໃຈ, AI ທົ່ວໄປຍັງສາມາດຊ່ວຍກວດຫາສິ່ງປອມແປງເລິກໆເຫຼົ່ານີ້ໄດ້ໂດຍການວິເຄາະສິ່ງປະດິດທີ່ລະອຽດອ່ອນໃນສຽງ ຫຼື ວິດີໂອທີ່ມະນຸດສັງເກດໄດ້ຍາກ. ພວກເຮົາໄດ້ເຫັນຕົວຢ່າງກັບ Accenture, ເຊິ່ງໃຊ້ AI ທົ່ວໄປເພື່ອຈໍາລອງການສະແດງອອກທາງຫນ້າແລະເງື່ອນໄຂທີ່ນັບບໍ່ຖ້ວນເພື່ອ ຝຶກອົບຮົມ ລະບົບຊີວະມິຕິຂອງພວກເຂົາເພື່ອຈໍາແນກຜູ້ໃຊ້ທີ່ແທ້ຈິງຈາກ deepfakes ທີ່ສ້າງໂດຍ AI. ໃນໄລຍະຫ້າປີ, ວິທີການນີ້ຊ່ວຍໃຫ້ Accenture ກໍາຈັດລະຫັດຜ່ານສໍາລັບ 90% ຂອງລະບົບຂອງມັນ (ການເຄື່ອນຍ້າຍໄປສູ່ biometrics ແລະປັດໃຈອື່ນໆ) ແລະຫຼຸດຜ່ອນການໂຈມຕີ 60% ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). ໂດຍພື້ນຖານແລ້ວ, ພວກເຂົາເຈົ້າໄດ້ນໍາໃຊ້ AI ທົ່ວໄປເພື່ອສ້າງຄວາມເຂັ້ມແຂງການກວດສອບທາງຊີວະມິຕິ, ເຮັດໃຫ້ມັນທົນທານຕໍ່ກັບການໂຈມຕີແບບທົ່ວໄປ (ຮູບແຕ້ມທີ່ຍິ່ງໃຫຍ່ຂອງ AI ຕໍ່ສູ້ກັບ AI). ການສ້າງແບບຈໍາລອງພຶດຕິກໍານີ້ - ໃນກໍລະນີນີ້ການຮັບຮູ້ຄວາມແຕກຕ່າງລະຫວ່າງໃບຫນ້າຂອງມະນຸດທຽບກັບ AI ທີ່ສັງເຄາະ - ແມ່ນສໍາຄັນຍ້ອນວ່າພວກເຮົາອີງໃສ່ AI ຫຼາຍຂຶ້ນໃນການກວດສອບຄວາມຖືກຕ້ອງ.
ການກວດຫາຄວາມຜິດປົກກະຕິທີ່ຂັບເຄື່ອນໂດຍ AI ທົ່ວໄປແມ່ນໃຊ້ໄດ້ໃນທົ່ວອຸດສາຫະກໍາ: ໃນການດູແລສຸຂະພາບ, ການຕິດຕາມພຶດຕິກໍາອຸປະກອນທາງການແພດສໍາລັບອາການຂອງການ hack; ໃນດ້ານການເງິນ, ການສັງເກດເບິ່ງລະບົບການຄ້າສໍາລັບຮູບແບບທີ່ບໍ່ສະຫມໍ່າສະເຫມີທີ່ສາມາດຊີ້ໃຫ້ເຫັນເຖິງການສໍ້ໂກງຫຼືການຫມູນໃຊ້ algorithmic; ໃນພະລັງງານ / ສາທາລະນະສຸກ, ການສັງເກດເບິ່ງສັນຍານລະບົບການຄວບຄຸມສໍາລັບອາການຂອງການບຸກລຸກ. ການປະສົມປະສານຂອງ ຄວາມກວ້າງ (ເບິ່ງທຸກດ້ານຂອງພຶດຕິກໍາ) ແລະ ຄວາມເລິກ (ຄວາມເຂົ້າໃຈຮູບແບບທີ່ຊັບຊ້ອນ) ທີ່ AI ການຜະລິດສະຫນອງເຮັດໃຫ້ມັນເປັນເຄື່ອງມືທີ່ມີທ່າແຮງສໍາລັບການສັງເກດເຫັນຕົວຊີ້ວັດເຂັມສັກຢາຂອງເຫດການທາງອິນເຕີເນັດ. ໃນຂະນະທີ່ການຂົ່ມຂູ່ກາຍເປັນ stealthier, ເຊື່ອງໃນລະຫວ່າງການດໍາເນີນງານປົກກະຕິ, ຄວາມສາມາດນີ້ເພື່ອກໍານົດລັກສະນະ "ປົກກະຕິ" ທີ່ຊັດເຈນແລະຮ້ອງໃນເວລາທີ່ບາງສິ່ງບາງຢ່າງ deviates ໄດ້ກາຍເປັນທີ່ສໍາຄັນ. AI Generative ດັ່ງນັ້ນຈຶ່ງເຮັດຫນ້າທີ່ເປັນເຄື່ອງສົ່ງທີ່ບໍ່ຕ້ອງອິດເມື່ອຍ, ຮຽນຮູ້ແລະປັບປຸງຄໍານິຍາມຂອງຄວາມປົກກະຕິຂອງມັນສະເຫມີເພື່ອໃຫ້ທັນກັບການປ່ຽນແປງຂອງສະພາບແວດລ້ອມ, ແລະເຕືອນທີມງານຄວາມປອດໄພເຖິງຄວາມຜິດປົກກະຕິທີ່ສົມຄວນໄດ້ຮັບການກວດກາຢ່າງໃກ້ຊິດ.
ໂອກາດ ແລະຜົນປະໂຫຍດຂອງ AI ທົ່ວໄປໃນ Cybersecurity
ຄໍາຮ້ອງສະຫມັກຂອງ AI ທົ່ວໄປໃນຄວາມປອດໄພທາງອິນເຕີເນັດນໍາເອົາໂອ ກາດແລະຜົນປະໂຫຍດ ສໍາລັບອົງການຈັດຕັ້ງທີ່ເຕັມໃຈທີ່ຈະຮັບເອົາເຄື່ອງມືເຫຼົ່ານີ້. ຂ້າງລຸ່ມນີ້, ພວກເຮົາສະຫຼຸບຂໍ້ໄດ້ປຽບທີ່ສໍາຄັນທີ່ເຮັດໃຫ້ AI ທົ່ວໄປເປັນນອກຈາກນັ້ນທີ່ຫນ້າສົນໃຈກັບໂຄງການຄວາມປອດໄພ cyber:
-
ການກວດຫາໄພຂົ່ມຂູ່ທີ່ໄວກວ່າແລະຕອບສະຫນອງ: ລະບົບ AI ທົ່ວໄປສາມາດວິເຄາະຂໍ້ມູນຈໍານວນຫຼວງຫຼາຍໃນເວລາທີ່ແທ້ຈິງແລະຮັບຮູ້ໄພຂົ່ມຂູ່ໄວກວ່າການວິເຄາະຂອງມະນຸດດ້ວຍມື. ຄວາມໄດ້ປຽບຄວາມໄວນີ້ໝາຍເຖິງການກວດພົບການໂຈມຕີກ່ອນໜ້ານີ້ ແລະການຄວບຄຸມເຫດການທີ່ໄວກວ່າ. ໃນທາງປະຕິບັດ, ການຕິດຕາມຄວາມປອດໄພທີ່ຂັບເຄື່ອນໂດຍ AI ສາມາດຈັບໄພຂົ່ມຂູ່ທີ່ຈະໃຊ້ເວລາຂອງມະນຸດຫຼາຍໃນການພົວພັນກັນ. ໂດຍການຕອບສະຫນອງຕໍ່ເຫດການທັນທີທັນໃດ (ຫຼືແມ້ກະທັ້ງການປະຕິບັດການຕອບສະຫນອງເບື້ອງຕົ້ນຢ່າງເປັນເອກະລາດ), ອົງການຈັດຕັ້ງສາມາດຫຼຸດຜ່ອນເວລາທີ່ຢູ່ອາໃສຂອງຜູ້ໂຈມຕີໃນເຄືອຂ່າຍຂອງພວກເຂົາຢ່າງຫຼວງຫຼາຍ, ຫຼຸດຜ່ອນຄວາມເສຍຫາຍ.
-
ປັບປຸງຄວາມຖືກຕ້ອງ ແລະການຄຸ້ມຄອງໄພຂົ່ມຂູ່: ເນື່ອງຈາກວ່າພວກເຂົາຮຽນຮູ້ຢ່າງຕໍ່ເນື່ອງຈາກຂໍ້ມູນໃຫມ່, ຮູບແບບທົ່ວໄປສາມາດປັບຕົວເຂົ້າກັບໄພຂົ່ມຂູ່ທີ່ພັດທະນາຂຶ້ນ ແລະຈັບສັນຍານທີ່ອ່ອນກວ່າຂອງກິດຈະກໍາທີ່ເປັນອັນຕະລາຍ. ນີ້ນໍາໄປສູ່ການປັບປຸງຄວາມຖືກຕ້ອງຂອງການກວດສອບ (ຄ່າລົບທີ່ບໍ່ຖືກຕ້ອງແລະຜົນບວກທີ່ບໍ່ຖືກຕ້ອງຫນ້ອຍລົງ) ເມື່ອທຽບກັບກົດລະບຽບຄົງທີ່. ຕົວຢ່າງ, AI ທີ່ໄດ້ຮຽນຮູ້ຈຸດເດັ່ນຂອງອີເມວ phishing ຫຼືພຶດຕິກໍາ malware ສາມາດລະບຸຕົວແປທີ່ບໍ່ເຄີຍເຫັນມາກ່ອນ. ຜົນໄດ້ຮັບແມ່ນການຄຸ້ມຄອງທີ່ກວ້າງຂວາງຂອງປະເພດໄພຂົ່ມຂູ່ - ລວມທັງການໂຈມຕີແບບໃຫມ່ - ເສີມສ້າງທ່າທາງຄວາມປອດໄພໂດຍລວມ. ທີມງານຄວາມປອດໄພຍັງໄດ້ຮັບຄວາມເຂົ້າໃຈລະອຽດຈາກການວິເຄາະ AI (ເຊັ່ນ: ຄໍາອະທິບາຍກ່ຽວກັບພຶດຕິກໍາ malware), ເຮັດໃຫ້ການປ້ອງກັນທີ່ຊັດເຈນແລະເປົ້າຫມາຍຫຼາຍຂຶ້ນ ( ແມ່ນຫຍັງ Generative AI in Cybersecurity? - Palo Alto Networks ).
-
ອັດຕະໂນມັດຂອງວຽກງານທີ່ຊໍ້າຊ້ອນ: AI ທົ່ວໄປແມ່ນດີເລີດໃນການເຮັດວຽກປົກກະຕິອັດຕະໂນມັດ, ວຽກງານຄວາມປອດໄພທີ່ໃຊ້ແຮງງານຫຼາຍ - ຈາກການລວບລວມຂໍ້ມູນຜ່ານບັນທຶກແລະການລວບລວມບົດລາຍງານເພື່ອຂຽນສະຄິບຕອບສະຫນອງເຫດການ. ອັດຕະໂນມັດນີ້ ຊ່ວຍຫຼຸດຜ່ອນພາລະຕໍ່ນັກວິເຄາະຂອງມະນຸດ , ປ່ອຍໃຫ້ເຂົາເຈົ້າສຸມໃສ່ຍຸດທະສາດລະດັບສູງແລະການຕັດສິນໃຈທີ່ສັບສົນ ( ແມ່ນຫຍັງ Generative AI in Cybersecurity? - Palo Alto Networks ). ວຽກງານທີ່ເປັນໂລກ ແຕ່ທີ່ສຳຄັນເຊັ່ນ: ການສະແກນຊ່ອງໂຫວ່, ການກວດສອບການຕັ້ງຄ່າ, ການວິເຄາະການເຄື່ອນໄຫວຂອງຜູ້ໃຊ້, ແລະການລາຍງານການປະຕິບັດຕາມສາມາດຈັດການໄດ້ (ຫຼືຢ່າງນ້ອຍທໍາອິດ) ໂດຍ AI. ໂດຍການຈັດການວຽກງານເຫຼົ່ານີ້ດ້ວຍຄວາມໄວຂອງເຄື່ອງຈັກ, AI ບໍ່ພຽງແຕ່ປັບປຸງປະສິດທິພາບແຕ່ຍັງຫຼຸດຜ່ອນຄວາມຜິດພາດຂອງມະນຸດ (ເປັນປັດໃຈສໍາຄັນໃນການລະເມີດ).
-
Proactive Defense and Simulation: Generative AI ອະນຸຍາດໃຫ້ອົງການຕ່າງໆປ່ຽນຈາກປະຕິກິລິຍາໄປສູ່ຄວາມປອດໄພແບບຕັ້ງໜ້າ. ໂດຍຜ່ານເຕັກນິກຕ່າງໆເຊັ່ນການຈໍາລອງການໂຈມຕີ, ການສ້າງຂໍ້ມູນສັງເຄາະ, ແລະການຝຶກອົບຮົມໂດຍອີງໃສ່ສະຖານະການ, ຜູ້ຖືກກ່າວຟ້ອງສາມາດຄາດການແລະກຽມພ້ອມສໍາລັບໄພຂົ່ມຂູ່ ກ່ອນທີ່ ມັນຈະເກີດຂຶ້ນໃນໂລກທີ່ແທ້ຈິງ. ທີມງານຄວາມປອດໄພສາມາດຈໍາລອງການໂຈມຕີທາງອິນເຕີເນັດ (ແຄມເປນ phishing, ການລະບາດຂອງ malware, DDoS, ແລະອື່ນໆ) ໃນສະພາບແວດລ້ອມທີ່ປອດໄພເພື່ອທົດສອບການຕອບສະຫນອງຂອງພວກເຂົາແລະແກ້ໄຂຈຸດອ່ອນໃດໆ. ການຝຶກອົບຮົມຢ່າງຕໍ່ເນື່ອງນີ້, ມັກຈະເປັນໄປບໍ່ໄດ້ທີ່ຈະເຮັດຢ່າງລະອຽດພຽງແຕ່ຄວາມພະຍາຍາມຂອງມະນຸດ, ຮັກສາການປ້ອງກັນແຫຼມແລະທັນສະໄຫມ. ມັນຄ້າຍຄືກັບ "ເຄື່ອງເຈາະໄຟ" cyber – AI ສາມາດຖິ້ມໄພຂົ່ມຂູ່ສົມມຸດຕິຖານຫຼາຍໃນການປ້ອງກັນຂອງທ່ານເພື່ອໃຫ້ທ່ານສາມາດປະຕິບັດແລະປັບປຸງໄດ້.
-
ການເພີ່ມຄວາມຊຳນານດ້ານມະນຸດສະທຳ (AI ເປັນຕົວຄູນຂອງກຳລັງ): AI ທົ່ວໄປເຮັດໜ້າທີ່ເປັນນັກວິເຄາະ, ທີ່ປຶກສາ, ແລະຜູ້ຊ່ວຍທີ່ບໍ່ອິດເມື່ອຍ, ກາຍເປັນໜຶ່ງດຽວ. ມັນສາມາດໃຫ້ສະມາຊິກທີມທີ່ມີປະສົບການຫນ້ອຍດ້ວຍການຊີ້ນໍາແລະຄໍາແນະນໍາຕາມປົກກະຕິທີ່ຄາດວ່າຈະມາຈາກຜູ້ຊ່ຽວຊານທີ່ມີລະດູການ, ເຮັດໃຫ້ຄວາມຊໍານານຊາທິປະໄຕ ໃນທົ່ວທີມ ( 6 ກໍລະນີການນໍາໃຊ້ສໍາລັບ Generative AI ໃນ Cybersecurity [+ ຕົວຢ່າງ] ). ນີ້ແມ່ນສິ່ງທີ່ມີຄຸນຄ່າໂດຍສະເພາະຍ້ອນການຂາດແຄນພອນສະຫວັນດ້ານຄວາມປອດໄພທາງອິນເຕີເນັດ - AI ຊ່ວຍໃຫ້ທີມງານຂະຫນາດນ້ອຍເຮັດຫຼາຍຫນ້ອຍລົງ. ໃນທາງກົງກັນຂ້າມ, ນັກວິເຄາະທີ່ມີປະສົບການ, ໄດ້ຮັບຜົນປະໂຫຍດຈາກ AI ຈັດການກັບການເຮັດວຽກທີ່ຫນ້າເສົ້າໃຈແລະເບິ່ງຄວາມເຂົ້າໃຈທີ່ບໍ່ຊັດເຈນ, ເຊິ່ງພວກເຂົາສາມາດກວດສອບແລະປະຕິບັດໄດ້. ຜົນໄດ້ຮັບໂດຍລວມແມ່ນທີມງານຄວາມປອດໄພທີ່ມີຫຼາຍກ່ວາຜະລິດຕະພັນແລະຄວາມສາມາດ, ມີ AI ຂະຫຍາຍຜົນກະທົບຂອງສະມາຊິກຂອງມະນຸດແຕ່ລະຄົນ ( How Can Generative AI be used in Cybersecurity ).
-
ການປັບປຸງການສະຫນັບສະຫນູນການຕັດສິນໃຈແລະການລາຍງານ: ໂດຍການແປຂໍ້ມູນດ້ານວິຊາການເຂົ້າໄປໃນຄວາມເຂົ້າໃຈໃນພາສາທໍາມະຊາດ, AI ທົ່ວໄປປັບປຸງການສື່ສານແລະການຕັດສິນໃຈ. ຜູ້ນໍາດ້ານຄວາມປອດໄພໄດ້ຮັບການເບິ່ງເຫັນໄດ້ຊັດເຈນຂຶ້ນໃນບັນຫາຜ່ານບົດສະຫຼຸບທີ່ສ້າງໂດຍ AI ແລະສາມາດຕັດສິນໃຈຍຸດທະສາດທີ່ມີຂໍ້ມູນໂດຍບໍ່ຈໍາເປັນຕ້ອງວິເຄາະຂໍ້ມູນດິບ. ເຊັ່ນດຽວກັນ, ການສື່ສານຂ້າມຫນ້າທີ່ (ກັບຜູ້ບໍລິຫານ, ເຈົ້າຫນ້າທີ່ປະຕິບັດຕາມ, ແລະອື່ນໆ) ຈະຖືກປັບປຸງເມື່ອ AI ກະກຽມບົດລາຍງານທີ່ເຂົ້າໃຈງ່າຍຂອງທ່າທາງຄວາມປອດໄພແລະເຫດການ ( ວິທີການທີ່ Generative AI ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ນີ້ບໍ່ພຽງແຕ່ສ້າງຄວາມຫມັ້ນໃຈແລະຄວາມສອດຄ່ອງໃນເລື່ອງຄວາມປອດໄພໃນລະດັບຜູ້ນໍາເທົ່ານັ້ນ, ແຕ່ຍັງຊ່ວຍໃຫ້ການລົງທຶນແລະການປ່ຽນແປງພຽງແຕ່ສະແດງໃຫ້ເຫັນເຖິງຄວາມສ່ຽງແລະຊ່ອງຫວ່າງທີ່ຄົ້ນພົບໂດຍ AI ຢ່າງຊັດເຈນ.
ປະສົມປະສານ, ຜົນປະໂຫຍດເຫຼົ່ານີ້ຫມາຍຄວາມວ່າອົງການຈັດຕັ້ງທີ່ນໍາໃຊ້ AI ການຜະລິດໃນຄວາມປອດໄພທາງອິນເຕີເນັດສາມາດບັນລຸທ່າທາງຄວາມປອດໄພທີ່ເຂັ້ມແຂງກວ່າໂດຍມີຄ່າໃຊ້ຈ່າຍໃນການດໍາເນີນງານຕ່ໍາ. ເຂົາເຈົ້າສາມາດຕອບສະໜອງຕໍ່ໄພຂົ່ມຂູ່ທີ່ເຄີຍມີມາຢ່າງໜັກໜ່ວງ, ກວມເອົາຊ່ອງຫວ່າງທີ່ບໍ່ໄດ້ຮັບການຕິດຕາມ, ແລະປັບປຸງຢ່າງຕໍ່ເນື່ອງຜ່ານລະບົບການຕອບໂຕ້ທີ່ຂັບເຄື່ອນດ້ວຍ AI. ໃນທີ່ສຸດ, AI ທົ່ວໄປໃຫ້ໂອກາດທີ່ຈະກ້າວໄປຂ້າງຫນ້າຂອງສັດຕູໂດຍການຈັບຄູ່ ຄວາມໄວ, ຂະຫນາດ, ແລະຄວາມຊັບຊ້ອນ ຂອງການໂຈມຕີທີ່ທັນສະໄຫມທີ່ມີການປ້ອງກັນທີ່ຊັບຊ້ອນເທົ່າທຽມກັນ. ດັ່ງທີ່ໜຶ່ງການສໍາຫຼວດພົບວ່າ, ຫຼາຍກວ່າເຄິ່ງຫນຶ່ງຂອງທຸລະກິດ ແລະຜູ້ນໍາທາງໄຊເບີຄາດວ່າຈະມີການກວດສອບໄພຂົ່ມຂູ່ທີ່ໄວຂຶ້ນ ແລະ ຄວາມຖືກຕ້ອງເພີ່ມຂຶ້ນໂດຍຜ່ານການນໍາໃຊ້ AI ທົ່ວໄປ ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( Generation AI in Cybersecurity: A Comprehensive Review of LLM ... ) – a optimism around the tech benefits.
ຄວາມສ່ຽງແລະສິ່ງທ້າທາຍຂອງການນໍາໃຊ້ AI ທົ່ວໄປໃນ Cybersecurity
ໃນຂະນະທີ່ໂອກາດແມ່ນມີຄວາມ ສຳ ຄັນ, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ຈະເຂົ້າຫາ AI ທົ່ວໄປໃນການຮັກສາຄວາມປອດໄພທາງອິນເຕີເນັດດ້ວຍຕາເປີດເບິ່ງ ຄວາມສ່ຽງແລະສິ່ງທ້າທາຍ ທີ່ກ່ຽວຂ້ອງ. ການເຊື່ອໝັ້ນ AI ແບບຕາບອດ ຫຼືການໃຊ້ມັນໃນທາງທີ່ຜິດສາມາດແນະນຳຊ່ອງໂຫວ່ໃໝ່ໄດ້. ຂ້າງລຸ່ມນີ້, ພວກເຮົາອະທິບາຍຄວາມກັງວົນທີ່ສໍາຄັນແລະຄວາມຜິດພາດ, ຄຽງຄູ່ກັບສະພາບການສໍາລັບແຕ່ລະຄົນ:
-
ການໃຊ້ເປັນສັດຕູກັນໂດຍ Cybercriminals: ຄວາມສາມາດສ້າງແບບດຽວກັນທີ່ຊ່ວຍໃຫ້ຜູ້ຖືກກ່າວຟ້ອງສາມາດສ້າງຄວາມເຂັ້ມແຂງໃຫ້ຜູ້ໂຈມຕີ. ນັກສະແດງໄພຂົ່ມຂູ່ກໍາລັງໃຊ້ AI ທົ່ວໄປແລ້ວເພື່ອຜະລິດອີເມລ໌ phishing ທີ່ຫນ້າເຊື່ອຖືຫຼາຍຂຶ້ນ, ສ້າງຄົນປອມແປງແລະວິດີໂອປອມສໍາລັບວິສະວະກໍາສັງຄົມ, ພັດທະນາ malware polymorphic ທີ່ປ່ຽນແປງຢ່າງຕໍ່ເນື່ອງເພື່ອຫລີກລ່ຽງການກວດພົບ, ແລະແມ້ກະທັ້ງລັກສະນະອັດຕະໂນມັດຂອງການ hack ( AI Generative ແມ່ນຫຍັງໃນ Cybersecurity? - Palo Alto Networks ). ເກືອບເຄິ່ງຫນຶ່ງ (46%) ຂອງຜູ້ນໍາດ້ານຄວາມປອດໄພທາງອິນເຕີເນັດມີຄວາມກັງວົນວ່າ AI ທົ່ວໄປຈະນໍາໄປສູ່ການໂຈມຕີຂອງສັດຕູທີ່ກ້າວຫນ້າ ( Generative AI Security: Trends, Threats & Mitigation Strategies ). "ການແຂ່ງຂັນອາວຸດ AI" ນີ້ຫມາຍຄວາມວ່າຍ້ອນວ່າຜູ້ປົກປ້ອງນໍາໃຊ້ AI, ຜູ້ໂຈມຕີຈະບໍ່ຢູ່ໄກຫລັງ (ໃນຄວາມເປັນຈິງ, ພວກເຂົາອາດຈະໄປຂ້າງຫນ້າໃນບາງພື້ນທີ່, ການນໍາໃຊ້ເຄື່ອງມື AI ທີ່ບໍ່ມີການຄວບຄຸມ). ອົງການຈັດຕັ້ງຕ້ອງໄດ້ຮັບການກະກຽມສໍາລັບໄພຂົ່ມຂູ່ທີ່ປັບປຸງ AI ທີ່ເກີດຂື້ນເລື້ອຍໆ, ຊັບຊ້ອນ, ແລະຍາກທີ່ຈະຕິດຕາມ.
-
AI Hallucinations ແລະຄວາມບໍ່ຖືກຕ້ອງ: ແບບຈໍາລອງ AI ທົ່ວໄປສາມາດຜະລິດຜົນໄດ້ຮັບ ທີ່ເປັນໄປໄດ້ແຕ່ບໍ່ຖືກຕ້ອງຫຼືເຂົ້າໃຈຜິດ - ປະກົດການທີ່ເອີ້ນວ່າ hallucination. ໃນສະພາບການດ້ານຄວາມປອດໄພ, AI ອາດຈະວິເຄາະເຫດການໃດໜຶ່ງ ແລະສະຫຼຸບຢ່າງຜິດພາດວ່າມີຊ່ອງໂຫວ່ບາງອັນເປັນສາເຫດ, ຫຼືມັນອາດຈະສ້າງສະຄຣິບແກ້ໄຂຂໍ້ບົກພ່ອງທີ່ບໍ່ສາມາດບັນຈຸການໂຈມຕີໄດ້. ຄວາມຜິດພາດເຫຼົ່ານີ້ສາມາດເປັນອັນຕະລາຍຖ້າຖືກປະຕິບັດໃນມູນຄ່າໃບຫນ້າ. ດັ່ງທີ່ NTT Data ເຕືອນວ່າ, "AI ທົ່ວໄປອາດຈະອອກເນື້ອຫາທີ່ບໍ່ຖືກຕ້ອງ, ແລະປະກົດການນີ້ເອີ້ນວ່າ hallucinations ... ມັນຍາກທີ່ຈະກໍາຈັດພວກມັນໃຫ້ຫມົດໄປ" ( ຄວາມສ່ຽງດ້ານຄວາມປອດໄພຂອງ Generative AI ແລະມາດຕະການຕ້ານ, ແລະຜົນກະທົບຂອງມັນຕໍ່ Cybersecurity | NTT DATA Group ). ການເອື່ອຍອີງຫຼາຍເກີນໄປໃນ AI ໂດຍບໍ່ມີການກວດສອບສາມາດນໍາໄປສູ່ຄວາມພະຍາຍາມທີ່ບໍ່ຖືກຕ້ອງຫຼືຄວາມຮູ້ສຶກຄວາມປອດໄພທີ່ບໍ່ຖືກຕ້ອງ. ຕົວຢ່າງ, AI ອາດຈະຫຼອກລວງລະບົບທີ່ສໍາຄັນວ່າປອດໄພໃນເວລາທີ່ມັນບໍ່ແມ່ນ, ຫຼືກົງກັນຂ້າມ, ເຮັດໃຫ້ເກີດຄວາມຕື່ນຕົກໃຈໂດຍການ "ກວດພົບ" ການລະເມີດທີ່ບໍ່ເຄີຍເກີດຂຶ້ນ. ການກວດສອບຢ່າງເຂັ້ມງວດຂອງຜົນຜະລິດ AI ແລະການມີມະນຸດຢູ່ໃນວົງຈອນສໍາລັບການຕັດສິນໃຈທີ່ສໍາຄັນແມ່ນມີຄວາມຈໍາເປັນເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງນີ້.
-
ໃນທາງບວກແລະທາງລົບທີ່ບໍ່ຖືກຕ້ອງ: ກ່ຽວຂ້ອງກັບຄວາມຫຼົງໄຫຼ, ຖ້າຕົວແບບ AI ໄດ້ຮັບການຝຶກອົບຮົມຫຼືການຕັ້ງຄ່າບໍ່ດີ, ມັນອາດຈະ ລາຍງານກິດຈະກໍາທີ່ເປັນອັນຕະລາຍເກີນໄປ (ຜົນບວກທີ່ບໍ່ຖືກຕ້ອງ) ຫຼືຮ້າຍແຮງກວ່າເກົ່າ, ພາດໄພຂົ່ມຂູ່ທີ່ແທ້ຈິງ (ທາງລົບທີ່ບໍ່ຖືກຕ້ອງ) ( AI Generative ສາມາດໃຊ້ໃນ Cybersecurity ໄດ້ແນວໃດ ). ການແຈ້ງເຕືອນທີ່ບໍ່ຖືກຕ້ອງຫຼາຍເກີນໄປສາມາດ overwhelm ທີມງານຄວາມປອດໄພແລະນໍາໄປສູ່ຄວາມເມື່ອຍລ້າຂອງການແຈ້ງເຕືອນ (ຍົກເລີກການເພີ່ມປະສິດທິພາບຂອງ AI ທີ່ສັນຍາໄວ້), ໃນຂະນະທີ່ການກວດພົບທີ່ພາດໂອກາດເຮັດໃຫ້ອົງການຈັດຕັ້ງເປີດເຜີຍ. ການປັບແຕ່ງແບບຈໍາລອງການຜະລິດສໍາລັບການດຸ່ນດ່ຽງທີ່ເຫມາະສົມແມ່ນສິ່ງທ້າທາຍ. ແຕ່ລະສະພາບແວດລ້ອມແມ່ນເປັນເອກະລັກ, ແລະ AI ອາດຈະບໍ່ດໍາເນີນການທີ່ດີທີ່ສຸດທັນທີທັນໃດ. ການຮຽນຮູ້ຢ່າງຕໍ່ເນື່ອງແມ່ນດາບສອງຄົມຄືກັນ - ຖ້າ AI ຮຽນຮູ້ຈາກຄໍາຄຶດຄໍາເຫັນທີ່ຂີ້ຕົວະຫຼືຈາກສະພາບແວດລ້ອມທີ່ປ່ຽນແປງ, ຄວາມຖືກຕ້ອງຂອງມັນສາມາດປ່ຽນແປງໄດ້. ທີມງານຮັກສາຄວາມປອດໄພຕ້ອງຕິດຕາມກວດກາການປະຕິບັດຂອງ AI ແລະປັບຂອບເຂດຫຼືໃຫ້ຄໍາຄຶດຄໍາເຫັນທີ່ຖືກຕ້ອງກັບຕົວແບບ. ໃນສະພາບການທີ່ມີສະເຕກສູງ (ເຊັ່ນ: ການກວດສອບການບຸກລຸກສໍາລັບໂຄງສ້າງພື້ນຖານທີ່ສໍາຄັນ), ມັນອາດຈະມີຄວາມລະມັດລະວັງທີ່ຈະດໍາເນີນການຄໍາແນະນໍາ AI ໃນຂະຫນານກັບລະບົບທີ່ມີຢູ່ແລ້ວສໍາລັບໄລຍະເວລາ, ເພື່ອຮັບປະກັນວ່າພວກເຂົາສອດຄ່ອງແລະປະກອບຫຼາຍກວ່າການຂັດແຍ້ງ.
-
ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນແລະການຮົ່ວໄຫລ: ລະບົບ AI ຜະລິດຕະພັນມັກຈະຕ້ອງການຈໍານວນຫຼາຍຂອງຂໍ້ມູນສໍາລັບການຝຶກອົບຮົມແລະການດໍາເນີນງານ. ຖ້າຕົວແບບເຫຼົ່ານີ້ເປັນແບບຄລາວ ຫຼື ບໍ່ຖືກ siloed ຢ່າງຖືກຕ້ອງ, ມີຄວາມສ່ຽງທີ່ຂໍ້ມູນທີ່ລະອຽດອ່ອນສາມາດຮົ່ວໄດ້. ຜູ້ໃຊ້ອາດຈະປ້ອນຂໍ້ມູນທີ່ເປັນກຳມະສິດ ຫຼືຂໍ້ມູນສ່ວນຕົວເຂົ້າໄປໃນບໍລິການ AI ໂດຍບໍ່ຕັ້ງໃຈ (ຄິດວ່າຂໍໃຫ້ ChatGPT ສະຫຼຸບລາຍງານເຫດການທີ່ເປັນຄວາມລັບ), ແລະຂໍ້ມູນນັ້ນອາດຈະກາຍເປັນສ່ວນໜຶ່ງຂອງຄວາມຮູ້ຂອງຕົວແບບ. ແທ້ຈິງແລ້ວ, ການສຶກສາທີ່ຜ່ານມາພົບວ່າ 55% ຂອງວັດສະດຸປ້ອນເຂົ້າໃນເຄື່ອງມື AI ການຜະລິດມີຂໍ້ມູນທີ່ລະອຽດອ່ອນຫຼືສາມາດລະບຸຕົວຕົນໄດ້ , ເຮັດໃຫ້ຄວາມກັງວົນທີ່ຮ້າຍແຮງກ່ຽວກັບການຮົ່ວໄຫລຂອງຂໍ້ມູນ ( Generation AI Security: Trends, Threats & Mitigation Strategies ). ນອກຈາກນັ້ນ, ຖ້າ AI ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນພາຍໃນແລະມັນຖືກສອບຖາມໃນບາງວິທີ, ມັນອາດຈະ ສົ່ງ ຊິ້ນສ່ວນຂອງຂໍ້ມູນທີ່ລະອຽດອ່ອນນັ້ນໃຫ້ກັບຄົນອື່ນ. ອົງການຈັດຕັ້ງຕ້ອງປະຕິບັດນະໂຍບາຍການຈັດການຂໍ້ມູນຢ່າງເຂັ້ມງວດ (ເຊັ່ນ: ການໃຊ້ AI ພາຍໃນສະຖານທີ່ຫຼືເອກະຊົນສໍາລັບອຸປະກອນທີ່ລະອຽດອ່ອນ) ແລະສຶກສາອົບຮົມພະນັກງານກ່ຽວກັບການບໍ່ວາງຂໍ້ມູນລັບເຂົ້າໄປໃນເຄື່ອງມື AI ສາທາລະນະ. ກົດລະບຽບຄວາມເປັນສ່ວນຕົວ (GDPR, ແລະອື່ນໆ) ຍັງເຂົ້າມາ - ການໃຊ້ຂໍ້ມູນສ່ວນຕົວເພື່ອຝຶກອົບຮົມ AI ໂດຍບໍ່ມີການຍິນຍອມເຫັນດີຫຼືການປົກປ້ອງທີ່ເຫມາະສົມສາມາດດໍາເນີນການຜິດກົດຫມາຍ.
-
ຄວາມປອດໄພແບບຈໍາລອງແລະການຫມູນໃຊ້: ຕົວແບບ AI ທົ່ວໄປສາມາດກາຍເປັນເປົ້າຫມາຍ. ສັດຕູອາດຈະພະຍາຍາມ ເປັນພິດແບບຈໍາລອງ , ປ້ອນຂໍ້ມູນທີ່ເປັນອັນຕະລາຍ ຫຼື ເຮັດໃຫ້ເຂົ້າໃຈຜິດໃນໄລຍະການຝຶກອົບຮົມ ຫຼື ການຝຶກອົບຮົມຄືນໃໝ່ ເພື່ອໃຫ້ AI ຮຽນຮູ້ຮູບແບບທີ່ບໍ່ຖືກຕ້ອງ ( ວິທີການທີ່ Generative AI ຖືກນໍາໃຊ້ໃນ Cybersecurity ). ຕົວຢ່າງ, ຜູ້ໂຈມຕີອາດເປັນພິດໄພຂົ່ມຂູ່ຕໍ່ຂໍ້ມູນ intel ດັ່ງນັ້ນ AI ບໍ່ສາມາດຮັບຮູ້ malware ຂອງຕົນເອງຂອງຜູ້ໂຈມຕີວ່າເປັນອັນຕະລາຍ. ຍຸດທະວິທີອີກຢ່າງໜຶ່ງແມ່ນ ການສີດທັນທີ ຫຼືການໝູນໃຊ້ການສົ່ງອອກ , ບ່ອນທີ່ຜູ້ໂຈມຕີຊອກຫາວິທີທີ່ຈະອອກວັດສະດຸປ້ອນໃຫ້ກັບ AI ທີ່ເຮັດໃຫ້ມັນມີພຶດຕິກຳໃນແບບທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ບາງທີອາດບໍ່ສົນໃຈກັບກອງຄວາມປອດໄພຂອງມັນ ຫຼື ເປີດເຜີຍຂໍ້ມູນທີ່ບໍ່ຄວນເຮັດ (ເຊັ່ນ: ການເຕືອນ ຫຼືຂໍ້ມູນພາຍໃນ). ນອກຈາກນັ້ນ, ມີຄວາມສ່ຽງຕໍ່ ການຫລົບຫນີແບບຈໍາລອງ : ຜູ້ໂຈມຕີທີ່ສ້າງວັດສະດຸປ້ອນທີ່ຖືກອອກແບບໂດຍສະເພາະເພື່ອຫລອກລວງ AI. ພວກເຮົາເຫັນນີ້ຢູ່ໃນຕົວຢ່າງຂອງສັດຕູ - ຂໍ້ມູນລົບກວນເລັກນ້ອຍທີ່ມະນຸດເຫັນວ່າເປັນເລື່ອງປົກກະຕິແຕ່ AI ແຍກປະເພດຜິດ. ການຮັບປະກັນລະບົບຕ່ອງໂສ້ການສະຫນອງ AI ມີຄວາມຫມັ້ນຄົງ (ຄວາມສົມບູນຂອງຂໍ້ມູນ, ການຄວບຄຸມການເຂົ້າເຖິງແບບຈໍາລອງ, ການທົດສອບຄວາມທົນທານຂອງສັດຕູ) ແມ່ນພາກສ່ວນໃຫມ່ແຕ່ມີຄວາມຈໍາເປັນຂອງຄວາມປອດໄພທາງອິນເຕີເນັດໃນເວລາທີ່ນໍາໃຊ້ເຄື່ອງມືເຫຼົ່ານີ້ ( ແມ່ນຫຍັງ Generative AI ໃນ Cybersecurity? - Palo Alto Networks ).
-
ການເອື່ອຍອີງເກີນແລະການເຊາະເຈື່ອນທັກສະ: ມີຄວາມສ່ຽງທີ່ອ່ອນກວ່າທີ່ອົງການຈັດຕັ້ງສາມາດກາຍເປັນການເພິ່ງພາອາໄສ AI ຫຼາຍເກີນໄປແລະປ່ອຍໃຫ້ທັກສະຂອງມະນຸດຫຼຸດລົງ. ຖ້ານັກວິເຄາະຊັ້ນສູງມາໄວ້ວາງໃຈຜົນໄດ້ຮັບຂອງ AI ໂດຍຕາບອດ, ພວກເຂົາອາດຈະບໍ່ພັດທະນາແນວຄິດແລະສະຕິປັນຍາທີ່ຈໍາເປັນສໍາລັບເວລາທີ່ AI ບໍ່ສາມາດໃຊ້ໄດ້ຫຼືຜິດພາດ. ສະຖານະການທີ່ຈະຫຼີກລ້ຽງແມ່ນທີມງານຄວາມປອດໄພທີ່ມີເຄື່ອງມືທີ່ດີແຕ່ບໍ່ມີຄວາມຄິດທີ່ຈະດໍາເນີນການຖ້າເຄື່ອງມືເຫຼົ່ານັ້ນຫຼຸດລົງ (ຄືກັນກັບນັກບິນທີ່ອີງໃສ່ autopilot ຫຼາຍເກີນໄປ). ການຝຶກອົບຮົມແບບປົກກະຕິໂດຍບໍ່ມີການຊ່ວຍເຫຼືອ AI ແລະການສົ່ງເສີມຄວາມຄິດທີ່ວ່າ AI ເປັນຜູ້ຊ່ວຍ, ບໍ່ແມ່ນການ oracle infallible, ເປັນສິ່ງສໍາຄັນທີ່ຈະຮັກສານັກວິເຄາະຂອງມະນຸດແຫຼມ. ມະນຸດຕ້ອງຍັງຄົງເປັນຜູ້ຕັດສິນສູງສຸດ, ໂດຍສະເພາະແມ່ນການຕັດສິນທີ່ມີຜົນກະທົບສູງ.
-
ສິ່ງທ້າທາຍດ້ານຈັນຍາບັນ ແລະ ການປະຕິບັດຕາມ: ການໃຊ້ AI ໃນຄວາມປອດໄພທາງອິນເຕີເນັດເຮັດໃຫ້ເກີດຄຳຖາມດ້ານຈັນຍາບັນ ແລະສາມາດເຮັດໃຫ້ເກີດບັນຫາການປະຕິບັດຕາມກົດລະບຽບ. ຕົວຢ່າງເຊັ່ນ, ຖ້າລະບົບ AI ຫຼອກລວງພະນັກງານໃນຕົວທີ່ເປັນອັນຕະລາຍຍ້ອນຄວາມຜິດປົກກະຕິ, ມັນສາມາດທໍາລາຍຊື່ສຽງຫຼືອາຊີບຂອງບຸກຄົນນັ້ນຢ່າງບໍ່ຍຸຕິທໍາ. ການຕັດສິນໃຈທີ່ເຮັດໂດຍ AI ສາມາດມີຄວາມໂປ່ງໃສ (ບັນຫາ "ກ່ອງດໍາ"), ເຮັດໃຫ້ມັນຍາກທີ່ຈະອະທິບາຍໃຫ້ຜູ້ກວດສອບຫຼືຜູ້ຄວບຄຸມວ່າເປັນຫຍັງການປະຕິບັດບາງຢ່າງຖືກປະຕິບັດ. ເນື່ອງຈາກເນື້ອຫາທີ່ສ້າງໂດຍ AI ກາຍເປັນທີ່ແຜ່ຫຼາຍ, ການຮັບປະກັນຄວາມໂປ່ງໃສ ແລະການຮັກສາຄວາມຮັບຜິດຊອບແມ່ນສໍາຄັນ. ຜູ້ຄວບຄຸມກໍາລັງເລີ່ມກວດກາ AI - ຕົວຢ່າງ, ກົດຫມາຍ AI ຂອງ EU, ຈະກໍານົດຂໍ້ກໍານົດກ່ຽວກັບລະບົບ AI ທີ່ "ມີຄວາມສ່ຽງສູງ", ແລະ cybersecurity AI ອາດຈະຕົກຢູ່ໃນປະເພດນັ້ນ. ບໍລິສັດຈະຕ້ອງນໍາທາງກົດລະບຽບເຫຼົ່ານີ້ແລະອາດຈະປະຕິບັດຕາມມາດຕະຖານເຊັ່ນ NIST AI Risk Management Framework ເພື່ອໃຊ້ AI ທົ່ວໄປຢ່າງມີຄວາມຮັບຜິດຊອບ ( ວິທີການທີ່ Generative AI ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ການປະຕິບັດຕາມແມ່ນຂະຫຍາຍໄປສູ່ການອອກໃບອະນຸຍາດຄືກັນ: ການໃຊ້ແບບ open-source ຫຼືຕົວແບບພາກສ່ວນທີສາມອາດມີເງື່ອນໄຂທີ່ຈຳກັດການໃຊ້ບາງອັນ ຫຼືຕ້ອງການການປັບປຸງການແບ່ງປັນ.
ສະຫຼຸບແລ້ວ, AI ທົ່ວໄປບໍ່ແມ່ນລູກປືນເງິນ - ຖ້າບໍ່ໄດ້ປະຕິບັດຢ່າງລະມັດລະວັງ, ມັນສາມາດແນະນໍາຈຸດອ່ອນໃຫມ່ເຖິງແມ່ນວ່າຈະແກ້ໄຂຄົນອື່ນ. ການສຶກສາຂອງເວທີປາໄສເສດຖະກິດໂລກປີ 2024 ໄດ້ເນັ້ນໃຫ້ເຫັນວ່າ ~ 47% ຂອງອົງການຈັດຕັ້ງອ້າງເຖິງຄວາມກ້າວຫນ້າຂອງ AI ການຜະລິດໂດຍຜູ້ໂຈມຕີເປັນຄວາມກັງວົນຕົ້ນຕໍ, ເຮັດໃຫ້ມັນເປັນ "ຜົນກະທົບທີ່ກ່ຽວຂ້ອງທີ່ສຸດຂອງ AI ທົ່ວໄປ" ໃນ cybersecurity ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( Generative AI: ... ). ດັ່ງນັ້ນ, ອົງການຈັດຕັ້ງຕ້ອງໄດ້ຮັບຮອງເອົາວິທີການທີ່ສົມດູນ: ນໍາໃຊ້ຜົນປະໂຫຍດຂອງ AI ໃນຂະນະທີ່ການຄຸ້ມຄອງຄວາມສ່ຽງເຫຼົ່ານີ້ຢ່າງເຂັ້ມງວດໂດຍຜ່ານການຄຸ້ມຄອງ, ການທົດສອບ, ແລະການກວດກາຂອງມະນຸດ. ຕໍ່ໄປພວກເຮົາຈະປຶກສາຫາລືວິທີການປະຕິບັດການດຸ່ນດ່ຽງດັ່ງກ່າວ.
ການຄາດຄະເນໃນອະນາຄົດ: ພາລະບົດບາດພັດທະນາຂອງ AI ທົ່ວໄປໃນ Cybersecurity
ເບິ່ງໄປຂ້າງຫນ້າ, AI ທົ່ວໄປແມ່ນກຽມພ້ອມທີ່ຈະກາຍເປັນສ່ວນຫນຶ່ງທີ່ສໍາຄັນຂອງຍຸດທະສາດຄວາມປອດໄພທາງອິນເຕີເນັດ - ແລະເຊັ່ນດຽວກັນ, ເຄື່ອງມືທີ່ສັດຕູທາງອິນເຕີເນັດຈະສືບຕໍ່ຂຸດຄົ້ນ. ການ ເຄື່ອນໄຫວ cat-and-mouse ຈະເລັ່ງ, ມີ AI ຢູ່ທັງສອງດ້ານຂອງຮົ້ວ. ນີ້ແມ່ນບາງຄວາມເຂົ້າໃຈທີ່ເບິ່ງໄປຂ້າງຫນ້າກ່ຽວກັບວິທີການຜະລິດ AI ອາດຈະສ້າງຄວາມປອດໄພທາງອິນເຕີເນັດໃນຊຸມປີຂ້າງຫນ້າ:
-
AI-Augmented Cyber Defense ກາຍເປັນມາດຕະຖານ: ໃນປີ 2025 ແລະຕໍ່ໄປ, ພວກເຮົາສາມາດຄາດຫວັງວ່າອົງການຈັດຕັ້ງຂະຫນາດກາງຫາຂະຫນາດໃຫຍ່ສ່ວນໃຫຍ່ຈະລວມເອົາເຄື່ອງມືທີ່ຂັບເຄື່ອນດ້ວຍ AI ເຂົ້າໃນການດໍາເນີນງານຄວາມປອດໄພຂອງພວກເຂົາ. ເຊັ່ນດຽວກັບ antivirus ແລະ firewalls ເປັນມາດຕະຖານໃນມື້ນີ້, copilots AI ແລະລະບົບກວດຈັບຜິດປົກກະຕິອາດຈະກາຍເປັນອົງປະກອບພື້ນຖານຂອງສະຖາປັດຕະຄວາມປອດໄພ. ເຄື່ອງມືເຫຼົ່ານີ້ອາດຈະມີຄວາມຊ່ຽວຊານຫຼາຍຂຶ້ນ - ຕົວຢ່າງເຊັ່ນ, ແບບຈໍາລອງ AI ທີ່ແຕກຕ່າງກັນໄດ້ຖືກປັບລະອຽດສໍາລັບຄວາມປອດໄພຂອງຄລາວ, ສໍາລັບການກວດສອບອຸປະກອນ IoT, ສໍາລັບຄວາມປອດໄພລະຫັດຄໍາຮ້ອງສະຫມັກ, ແລະອື່ນໆ, ທັງຫມົດທີ່ເຮັດວຽກຢູ່ໃນຄອນເສີດ. ດັ່ງທີ່ຄາດຄະເນໄວ້ວ່າ, "ໃນປີ 2025, AI ທົ່ວໄປຈະມີຄວາມສຳຄັນກັບຄວາມປອດໄພທາງໄຊເບີ, ຊ່ວຍໃຫ້ອົງກອນສາມາດປ້ອງກັນໄພຂົ່ມຂູ່ທີ່ທັນສະໄໝ ແລະ ພັດທະນາຢ່າງຕັ້ງໜ້າ" ( How Can Generative AI be used in Cybersecurity ). AI ຈະປັບປຸງການກວດຫາໄພຂົ່ມຂູ່ໃນເວລາຈິງ, ເຮັດການຕອບໂຕ້ຫຼາຍແບບອັດຕະໂນມັດ, ແລະຊ່ວຍໃຫ້ທີມຮັກສາຄວາມປອດໄພຈັດການປະລິມານຂໍ້ມູນຂະໜາດໃຫຍ່ກວ່າທີ່ເຂົາເຈົ້າສາມາດເຮັດໄດ້ດ້ວຍຕົນເອງ.
-
ການຮຽນຮູ້ແລະການປັບຕົວຢ່າງຕໍ່ເນື່ອງ: ລະບົບ AI ການຜະລິດໃນອະນາຄົດໃນ cyber ຈະດີຂຶ້ນໃນ ການຮຽນຮູ້ໃນທັນທີ ຈາກເຫດການໃຫມ່ແລະໄພຂົ່ມຂູ່ຕໍ່ປັນຍາ, ການປັບປຸງພື້ນຖານຄວາມຮູ້ຂອງເຂົາເຈົ້າໃນເວລາໃກ້ຄຽງ. ນີ້ສາມາດນໍາໄປສູ່ການປັບຕົວປ້ອງກັນຢ່າງແທ້ຈິງ - ຈິນຕະນາການ AI ທີ່ຮຽນຮູ້ກ່ຽວກັບແຄມເປນ phishing ໃຫມ່ທີ່ຕີບໍລິສັດອື່ນໃນຕອນເຊົ້າແລະໃນຕອນບ່າຍໄດ້ປັບຕົວກອງອີເມວຂອງບໍລິສັດຂອງທ່ານໃນການຕອບສະຫນອງ. ການບໍລິການຄວາມປອດໄພ AI ທີ່ໃຊ້ໃນຄລາວອາດຈະອຳນວຍຄວາມສະດວກໃຫ້ແກ່ການຮຽນຮູ້ແບບລວມໝູ່ນີ້, ບ່ອນທີ່ຄວາມເຂົ້າໃຈແບບບໍ່ເປີດເຜີຍຊື່ຈາກອົງກອນໜຶ່ງໃຫ້ປະໂຫຍດແກ່ຜູ້ສະໝັກໃຊ້ທັງໝົດ (ຄືກັບການຂົ່ມຂູ່ຕໍ່ການແບ່ງປັນຂອງ Intel, ແຕ່ແບບອັດຕະໂນມັດ). ແນວໃດກໍ່ຕາມ, ນີ້ຈະຮຽກຮ້ອງໃຫ້ມີການຈັດການຢ່າງລະມັດລະວັງເພື່ອຫຼີກເວັ້ນການແບ່ງປັນຂໍ້ມູນທີ່ລະອຽດອ່ອນ ແລະເພື່ອປ້ອງກັນບໍ່ໃຫ້ຜູ້ໂຈມຕີສົ່ງຂໍ້ມູນທີ່ບໍ່ດີເຂົ້າໄປໃນຕົວແບບທີ່ແບ່ງປັນ.
-
Convergence of AI ແລະ Cybersecurity Talent: ຊຸດທັກສະຂອງຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທາງອິນເຕີເນັດຈະພັດທະນາເພື່ອລວມເຖິງຄວາມຊໍານານໃນ AI ແລະວິທະຍາສາດຂໍ້ມູນ. ເຊັ່ນດຽວກັນກັບນັກວິເຄາະໃນມື້ນີ້ຮຽນຮູ້ພາສາແບບສອບຖາມແລະການຂຽນສະຄິບ, ນັກວິເຄາະໃນມື້ອື່ນອາດຈະປັບຕົວແບບ AI ເປັນປະຈໍາຫຼືຂຽນ "playbooks" ສໍາລັບ AI ເພື່ອປະຕິບັດ. ພວກເຮົາອາດຈະເຫັນພາລະບົດບາດໃຫມ່ເຊັ່ນ "AI Security Trainer" ຫຼື "Cybersecurity AI Engineer" - ບຸກຄົນທີ່ຊ່ຽວຊານໃນການປັບເຄື່ອງມື AI ໃຫ້ເຫມາະສົມກັບຄວາມຕ້ອງການຂອງອົງການຈັດຕັ້ງ, ກວດສອບປະສິດທິພາບຂອງເຂົາເຈົ້າ, ແລະຮັບປະກັນວ່າພວກເຂົາເຈົ້າດໍາເນີນການຢ່າງປອດໄພ. ໃນທາງກົງກັນຂ້າມ, ການພິຈາລະນາຄວາມປອດໄພທາງອິນເຕີເນັດຈະມີອິດທິພົນຕໍ່ການພັດທະນາ AI ຫຼາຍຂຶ້ນ. ລະບົບ AI ຈະຖືກສ້າງຂື້ນດ້ວຍຄຸນສົມບັດຄວາມປອດໄພຕັ້ງແຕ່ພື້ນຖານ (ສະຖາປັດຕະຍະກໍາທີ່ປອດໄພ, ການກວດສອບການລົບກວນ, ບັນທຶກການກວດສອບສໍາລັບການຕັດສິນໃຈຂອງ AI, ແລະອື່ນໆ), ແລະກອບສໍາລັບ AI ທີ່ເຊື່ອຖືໄດ້ (ຍຸຕິທໍາ, ອະທິບາຍໄດ້, ເຂັ້ມແຂງ, ແລະຄວາມປອດໄພ) ຈະນໍາພາການນໍາໃຊ້ຂອງເຂົາເຈົ້າໃນສະພາບການຄວາມປອດໄພທີ່ສໍາຄັນ.
-
ການໂຈມຕີ AI-Powered ທີ່ຊັບຊ້ອນຫຼາຍ: ແຕ່ຫນ້າເສຍດາຍ, ພູມສັນຖານໄພຂົ່ມຂູ່ຍັງຈະພັດທະນາກັບ AI. ພວກເຮົາຄາດວ່າຈະມີການໃຊ້ AI ເລື້ອຍໆຫຼາຍຂຶ້ນເພື່ອຄົ້ນພົບຈຸດອ່ອນທີ່ບໍ່ມີວັນ, ເພື່ອສ້າງຫອກ phishing ທີ່ມີເປົ້າຫມາຍສູງ (ເຊັ່ນ: AI ຂູດສື່ສັງຄົມເພື່ອສ້າງເປັນເຫຍື່ອທີ່ປັບແຕ່ງຢ່າງສົມບູນແບບ), ແລະເພື່ອສ້າງສຽງ ຫຼືວິດີໂອທີ່ໜ້າເຊື່ອຖືເພື່ອຂ້າມຜ່ານການກວດສອບທາງຊີວະມິຕິ ຫຼືການສໍ້ໂກງ. ຕົວແທນການແຮັກອັດຕະໂນມັດອາດຈະເກີດຂື້ນທີ່ສາມາດປະຕິບັດການໂຈມຕີຫຼາຍຂັ້ນຕອນຢ່າງເປັນອິດສະຫຼະ (ການສອດແນມ, ການຂູດຮີດ, ການເຄື່ອນໄຫວຂ້າງຄຽງ, ແລະອື່ນໆ) ດ້ວຍການເບິ່ງແຍງຂອງມະນຸດຫນ້ອຍທີ່ສຸດ. ນີ້ຈະກົດດັນໃຫ້ຜູ້ຖືກກ່າວຟ້ອງຍັງອີງໃສ່ AI - ອັດຕະໂນມັດ ແລະອັດຕະໂນມັດ . ການໂຈມຕີບາງຢ່າງອາດຈະເກີດຂື້ນໃນຄວາມໄວຂອງເຄື່ອງຈັກ, ເຊັ່ນ: AI bots ພະຍາຍາມປ່ຽນອີເມວ phishing ເປັນພັນໆເພື່ອເບິ່ງວ່າອັນໃດໄດ້ຮັບການກັ່ນຕອງທີ່ຜ່ານມາ. ການປ້ອງກັນທາງອິນເຕີເນັດຈະຈໍາເປັນຕ້ອງໄດ້ປະຕິບັດໃນຄວາມໄວທີ່ຄ້າຍຄືກັນແລະຄວາມຢືດຢຸ່ນເພື່ອຮັກສາການ ( AI Generative AI ໃນ Cybersecurity ແມ່ນຫຍັງ? - Palo Alto Networks ).
-
ກົດລະບຽບແລະຈັນຍາບັນ AI ໃນຄວາມປອດໄພ: ເມື່ອ AI ເຂົ້າໄປໃນຫນ້າທີ່ຄວາມປອດໄພທາງອິນເຕີເນັດຢ່າງເລິກເຊິ່ງ, ຈະມີການກວດສອບຫຼາຍຂຶ້ນແລະອາດຈະເປັນກົດລະບຽບເພື່ອຮັບປະກັນວ່າລະບົບ AI ເຫຼົ່ານີ້ຖືກໃຊ້ຢ່າງມີຄວາມຮັບຜິດຊອບ. ພວກເຮົາສາມາດຄາດຫວັງວ່າກອບແລະມາດຕະຖານສະເພາະກັບ AI ໃນຄວາມປອດໄພ. ລັດຖະບານອາດຈະກໍານົດຄໍາແນະນໍາສໍາລັບຄວາມໂປ່ງໃສ - ຕົວຢ່າງເຊັ່ນ, ຮຽກຮ້ອງໃຫ້ການຕັດສິນໃຈດ້ານຄວາມປອດໄພທີ່ສໍາຄັນ (ເຊັ່ນການຢຸດເຊົາການເຂົ້າເຖິງຂອງພະນັກງານສໍາລັບກິດຈະກໍາທີ່ເປັນອັນຕະລາຍ) ບໍ່ສາມາດເຮັດໄດ້ໂດຍ AI ດຽວໂດຍບໍ່ມີການທົບທວນຂອງມະນຸດ. ມັນອາດຈະມີການຢັ້ງຢືນຜະລິດຕະພັນຄວາມປອດໄພ AI, ເພື່ອຮັບປະກັນຜູ້ຊື້ວ່າ AI ໄດ້ຮັບການປະເມີນຄວາມລໍາອຽງ, ຄວາມຫມັ້ນຄົງ, ແລະຄວາມປອດໄພ. ນອກຈາກນັ້ນ, ການຮ່ວມມືລະຫວ່າງປະເທດອາດຈະເຕີບໂຕຕໍ່ກັບໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດທີ່ກ່ຽວຂ້ອງກັບ AI; ຕົວຢ່າງເຊັ່ນ, ຂໍ້ຕົກລົງກ່ຽວກັບການຈັດການກັບຂໍ້ມູນປອມທີ່ສ້າງໂດຍ AI ຫຼືມາດຕະຖານຕໍ່ກັບອາວຸດ AI ທີ່ຂັບເຄື່ອນໂດຍ AI.
-
ການປະສົມປະສານກັບລະບົບນິເວດ AI ແລະ IT ທີ່ກວ້າງຂຶ້ນ: AI ທົ່ວໄປໃນຄວາມປອດໄພທາງອິນເຕີເນັດອາດຈະປະສົມປະສານກັບລະບົບ AI ແລະເຄື່ອງມືການຄຸ້ມຄອງ IT ອື່ນໆ. ຕົວຢ່າງ, AI ທີ່ຈັດການການເພີ່ມປະສິດທິພາບເຄືອຂ່າຍສາມາດເຮັດວຽກກັບ AI ຄວາມປອດໄພເພື່ອຮັບປະກັນການປ່ຽນແປງບໍ່ເປີດຊ່ອງຫວ່າງ. ການວິເຄາະທຸລະກິດທີ່ຂັບເຄື່ອນໂດຍ AI ອາດຈະແບ່ງປັນຂໍ້ມູນກັບ AIs ຄວາມປອດໄພເພື່ອພົວພັນຄວາມຜິດປົກກະຕິ (ເຊັ່ນ: ການຂາຍຫຼຸດລົງຢ່າງກະທັນຫັນກັບບັນຫາເວັບໄຊທ໌ທີ່ເປັນໄປໄດ້ຍ້ອນການໂຈມຕີ). ໂດຍເນື້ອແທ້ແລ້ວ, AI ຈະບໍ່ຢູ່ໃນ silo - ມັນຈະເປັນສ່ວນຫນຶ່ງຂອງຜ້າອັດສະລິຍະຂະຫນາດໃຫຍ່ຂອງການດໍາເນີນງານຂອງອົງການຈັດຕັ້ງ. ນີ້ເປີດໂອກາດສໍາລັບການຄຸ້ມຄອງຄວາມສ່ຽງລວມທີ່ຂໍ້ມູນການດໍາເນີນງານ, ຂໍ້ມູນໄພຂົ່ມຂູ່, ແລະແມ້ກະທັ້ງຂໍ້ມູນຄວາມປອດໄພທາງດ້ານຮ່າງກາຍສາມາດຖືກລວມເຂົ້າກັນໂດຍ AI ເພື່ອໃຫ້ທັດສະນະ 360 ອົງສາຂອງທ່າທາງຄວາມປອດໄພຂອງອົງການຈັດຕັ້ງ.
ໃນໄລຍະຍາວ, ຄວາມຫວັງແມ່ນວ່າ AI ທົ່ວໄປຈະຊ່ວຍໃຫ້ tilt ຄວາມສົມດູນໃນຄວາມໂປດປານຂອງຜູ້ປ້ອງກັນ. ໂດຍການຈັດການຂະຫນາດແລະຄວາມຊັບຊ້ອນຂອງສະພາບແວດລ້ອມ IT ທີ່ທັນສະໄຫມ, AI ສາມາດເຮັດໃຫ້ cyberspace ມີການປ້ອງກັນຫຼາຍຂຶ້ນ. ຢ່າງໃດກໍຕາມ, ມັນເປັນການເດີນທາງ, ແລະຈະມີຄວາມເຈັບປວດທີ່ເພີ່ມຂຶ້ນຍ້ອນວ່າພວກເຮົາປັບປຸງເຕັກໂນໂລຢີເຫຼົ່ານີ້ແລະຮຽນຮູ້ທີ່ຈະໄວ້ວາງໃຈພວກເຂົາຢ່າງເຫມາະສົມ. ອົງການຈັດຕັ້ງທີ່ຕິດຕາມຂ່າວສານແລະລົງທຶນໃນ ການຮັບຮອງເອົາ AI ທີ່ມີຄວາມຮັບຜິດຊອບ ສໍາລັບຄວາມປອດໄພແມ່ນອາດຈະເປັນສະຖານທີ່ທີ່ດີທີ່ສຸດທີ່ຈະນໍາທາງການຂົ່ມຂູ່ຂອງອະນາຄົດ.
ດັ່ງທີ່ລາຍງານແນວໂນ້ມຄວາມປອດໄພທາງອິນເຕີເນັດຂອງ Gartner ທີ່ຜ່ານມາ, "ການປະກົດຕົວຂອງກໍລະນີການນໍາໃຊ້ AI ທົ່ວໄປ (ແລະຄວາມສ່ຽງ) ແມ່ນການສ້າງຄວາມກົດດັນສໍາລັບການຫັນປ່ຽນ" ( Cybersecurity Trends: Resilience Through Transformation - Gartner ). ຜູ້ທີ່ປັບຕົວຈະ harness AI ເປັນພັນທະມິດທີ່ມີອໍານາດ; ຜູ້ທີ່ລ້າຊ້າອາດຈະພົບວ່າຕົນເອງຖືກເອົາຊະນະໂດຍສັດຕູທີ່ມີອໍານາດ AI. ສອງສາມປີຂ້າງຫນ້າຈະເປັນຈຸດສໍາຄັນໃນການກໍານົດວິທີການ AI ປັບປຸງສະຫນາມຮົບທາງອິນເຕີເນັດ.
ການປະຕິບັດຕົວຈິງສໍາລັບການຮັບຮອງເອົາ AI ທົ່ວໄປໃນ Cybersecurity
ສໍາລັບທຸລະກິດທີ່ປະເມີນວິທີການນໍາໃຊ້ AI ການຜະລິດໃນຍຸດທະສາດຄວາມປອດໄພ cyber ຂອງເຂົາເຈົ້າ, ນີ້ແມ່ນບາງ ປະຕິບັດແລະຄໍາແນະນໍາ ເພື່ອນໍາພາການຮັບຮອງເອົາທີ່ມີຄວາມຮັບຜິດຊອບແລະປະສິດທິພາບ:
-
ເລີ່ມຕົ້ນດ້ວຍການສຶກສາ ແລະການຝຶກອົບຮົມ: ໃຫ້ແນ່ໃຈວ່າທີມງານຄວາມປອດໄພຂອງທ່ານ (ແລະພະນັກງານໄອທີທີ່ກວ້າງຂຶ້ນ) ເຂົ້າໃຈສິ່ງທີ່ AI ທົ່ວໄປສາມາດເຮັດໄດ້ ແລະເຮັດບໍ່ໄດ້. ໃຫ້ການຝຶກອົບຮົມກ່ຽວກັບພື້ນຖານຂອງເຄື່ອງມືຄວາມປອດໄພທີ່ຂັບເຄື່ອນດ້ວຍ AI ແລະອັບເດດ ໂຄງການຮັບຮູ້ຄວາມປອດໄພ ສໍາລັບພະນັກງານທຸກຄົນເພື່ອກວມເອົາໄພຂົ່ມຂູ່ທີ່ເປີດໃຊ້ AI. ຕົວຢ່າງ, ສອນພະນັກງານວ່າ AI ສາມາດສ້າງການຫລອກລວງ phishing ທີ່ຫນ້າເຊື່ອຖືໄດ້ແນວໃດ ແລະການໂທຫາປອມ. ໃນເວລາດຽວກັນ, ຝຶກອົບຮົມພະນັກງານກ່ຽວກັບການນໍາໃຊ້ທີ່ປອດໄພແລະອະນຸມັດຂອງເຄື່ອງມື AI ໃນການເຮັດວຽກຂອງເຂົາເຈົ້າ. ຜູ້ໃຊ້ທີ່ມີຂໍ້ມູນດີມີຄວາມສ່ຽງຫນ້ອຍທີ່ຈະໃຊ້ AI ຜິດຫຼືຕົກເປັນເຫຍື່ອຂອງການໂຈມຕີທີ່ປັບປຸງ AI ( ການນໍາໃຊ້ AI Generative ໃນຄວາມປອດໄພທາງອິນເຕີເນັດໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກທີ່ແທ້ຈິງ ).
-
ກຳນົດນະໂຍບາຍການນຳໃຊ້ AI ທີ່ຈະແຈ້ງ: ປະຕິບັດຕໍ່ AI ທົ່ວໄປຄືກັບເທັກໂນໂລຍີທີ່ມີປະສິດທິພາບ - ດ້ວຍການປົກຄອງ. ພັດທະນານະໂຍບາຍທີ່ລະບຸວ່າໃຜສາມາດໃຊ້ເຄື່ອງມື AI, ເຄື່ອງມືໃດທີ່ຖືກລົງໂທດ, ແລະເພື່ອຈຸດປະສົງໃດ. ລວມເອົາຂໍ້ແນະນຳກ່ຽວກັບການຈັດການຂໍ້ມູນທີ່ລະອຽດອ່ອນ (ເຊັ່ນ: ບໍ່ມີການປ້ອນຂໍ້ມູນລັບ ເຂົ້າໄປໃນບໍລິການ AI ພາຍນອກ) ເພື່ອປ້ອງກັນການຮົ່ວໄຫຼ. ຕົວຢ່າງ, ທ່ານອາດຈະອະນຸຍາດໃຫ້ພຽງແຕ່ສະມາຊິກທີມຄວາມປອດໄພໃຊ້ຜູ້ຊ່ວຍ AI ພາຍໃນສໍາລັບການຕອບສະຫນອງເຫດການ, ແລະການຕະຫຼາດສາມາດນໍາໃຊ້ AI ທີ່ໄດ້ຮັບການກວດສອບສໍາລັບເນື້ອຫາ - ທຸກຄົນຖືກຈໍາກັດ. ປະຈຸບັນຫຼາຍອົງການຈັດຕັ້ງກໍາລັງແກ້ໄຂຢ່າງຈະແຈ້ງກ່ຽວກັບ AI ທົ່ວໄປໃນນະໂຍບາຍ IT ຂອງເຂົາເຈົ້າ, ແລະອົງການຈັດຕັ້ງມາດຕະຖານຊັ້ນນໍາຊຸກຍູ້ນະໂຍບາຍການນໍາໃຊ້ທີ່ປອດໄພແທນທີ່ຈະເປັນການຫ້າມຢ່າງຈະແຈ້ງ ( ວິທີການທີ່ Generative AI ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ໃຫ້ແນ່ໃຈວ່າການສື່ສານກົດລະບຽບເຫຼົ່ານີ້ແລະເຫດຜົນທີ່ຢູ່ເບື້ອງຫລັງໃຫ້ເຂົາເຈົ້າກັບພະນັກງານທັງຫມົດ.
-
ຫຼຸດຜ່ອນ "Shadow AI" ແລະການຕິດຕາມການນໍາໃຊ້: ຄ້າຍຄືກັບ shadow IT, "shadow AI" ເກີດຂື້ນເມື່ອພະນັກງານເລີ່ມໃຊ້ເຄື່ອງມື AI ຫຼືການບໍລິການໂດຍບໍ່ມີຄວາມຮູ້ຂອງ IT (ເຊັ່ນ: ນັກພັດທະນາທີ່ໃຊ້ຕົວຊ່ວຍລະຫັດ AI ທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ). ນີ້ສາມາດແນະນໍາຄວາມສ່ຽງທີ່ບໍ່ເຫັນໄດ້. ປະຕິບັດມາດຕະການເພື່ອ ກວດສອບແລະຄວບຄຸມການນໍາໃຊ້ AI ທີ່ບໍ່ມີການລົງໂທດ . ການຕິດຕາມເຄືອຂ່າຍສາມາດລາຍງານການເຊື່ອມຕໍ່ກັບ AI APIs ທີ່ນິຍົມ, ແລະການສໍາຫຼວດຫຼືການກວດສອບເຄື່ອງມືສາມາດຄົ້ນພົບສິ່ງທີ່ພະນັກງານກໍາລັງໃຊ້. ສະເໜີທາງເລືອກທີ່ໄດ້ຮັບການອະນຸມັດເພື່ອໃຫ້ພະນັກງານທີ່ມີຄວາມໝາຍດີບໍ່ຖືກລໍ້ລວງໃຫ້ເຮັດຜິດ (ຕົວຢ່າງ, ໃຫ້ບັນຊີບໍລິສັດ ChatGPT ທີ່ເປັນທາງການຖ້າຄົນເຫັນວ່າມັນເປັນປະໂຫຍດ). ໂດຍການນໍາເອົາການນໍາໃຊ້ AI ເຂົ້າໄປໃນແສງສະຫວ່າງ, ທີມງານຄວາມປອດໄພສາມາດປະເມີນແລະຄຸ້ມຄອງຄວາມສ່ຽງ. ການຕິດຕາມແມ່ນສໍາຄັນເຊັ່ນກັນ - ບັນທຶກກິດຈະກໍາຂອງເຄື່ອງມື AI ແລະຜົນໄດ້ຮັບຫຼາຍເທົ່າທີ່ເປັນໄປໄດ້, ດັ່ງນັ້ນຈຶ່ງມີເສັ້ນທາງການກວດສອບສໍາລັບການຕັດສິນໃຈທີ່ມີອິດທິພົນຕໍ່ AI ( ວິທີການໃຊ້ AI ທົ່ວໄປໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ).
-
Leverage AI Defensively - ຢ່າຕົກຫລັງ: ຮັບຮູ້ວ່າຜູ້ໂຈມຕີຈະໃຊ້ AI, ສະນັ້ນການປ້ອງກັນຂອງທ່ານຄວນຄືກັນ. ກໍານົດບາງພື້ນທີ່ທີ່ມີຜົນກະທົບສູງທີ່ AI ທົ່ວໄປສາມາດຊ່ວຍການດໍາເນີນງານຄວາມປອດໄພຂອງທ່ານທັນທີ (ບາງທີການເຕືອນໄພ triage, ຫຼືການວິເຄາະບັນທຶກອັດຕະໂນມັດ) ແລະດໍາເນີນໂຄງການທົດລອງ. ເພີ່ມທະວີການປ້ອງກັນຂອງທ່ານທີ່ມີຄວາມໄວແລະຂະຫນາດຂອງ AI ເພື່ອຕ້ານໄພຂົ່ມຂູ່ທີ່ເຄື່ອນໄຫວໄວ ( AI Generative AI ຈະຖືກນໍາໃຊ້ໃນຄວາມປອດໄພໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ເຖິງແມ່ນວ່າການເຊື່ອມໂຍງແບບງ່າຍດາຍ, ເຊັ່ນ: ການໃຊ້ AI ເພື່ອສະຫຼຸບລາຍງານ malware ຫຼືສ້າງຄໍາຖາມການລ່າສັດໄພຂົ່ມຂູ່, ສາມາດປະຫຍັດຊົ່ວໂມງນັກວິເຄາະ. ເລີ່ມຕົ້ນຂະຫນາດນ້ອຍ, ປະເມີນຜົນໄດ້ຮັບ, ແລະເຮັດຊ້ໍາອີກ. ຄວາມສໍາເລັດຈະສ້າງກໍລະນີສໍາລັບການຮັບຮອງເອົາ AI ຢ່າງກວ້າງຂວາງ. ເປົ້າຫມາຍແມ່ນການນໍາໃຊ້ AI ເປັນຕົວຄູນຜົນບັງຄັບໃຊ້ - ຕົວຢ່າງ, ຖ້າການໂຈມຕີ phishing ມີ overwhelming helpdesk ຂອງທ່ານ, ນໍາໃຊ້ການຈັດປະເພດອີເມລ໌ AI ເພື່ອຕັດປະລິມານດັ່ງກ່າວລົງຢ່າງຈິງຈັງ.
-
ລົງທຶນໃນການປະຕິບັດ AI ທີ່ປອດໄພ ແລະຈັນຍາບັນ: ເມື່ອປະຕິບັດ AI ທົ່ວໄປ, ປະຕິບັດຕາມການພັດທະນາທີ່ປອດໄພ ແລະການປະຕິບັດການຈັດຕັ້ງປະຕິບັດ. ໃຊ້ ຕົວແບບສ່ວນຕົວ ຫຼື ໂຮສເອງ ສຳລັບວຽກທີ່ລະອຽດອ່ອນເພື່ອຮັກສາການຄວບຄຸມຂໍ້ມູນ. ຖ້າໃຊ້ບໍລິການ AI ພາກສ່ວນທີສາມ, ກວດເບິ່ງມາດຕະການຄວາມປອດໄພ ແລະຄວາມເປັນສ່ວນຕົວ (ການເຂົ້າລະຫັດ, ນະໂຍບາຍການຮັກສາຂໍ້ມູນ, ແລະອື່ນໆ). ລວມເອົາກອບການຈັດການຄວາມສ່ຽງ AI (ເຊັ່ນ AI ຂອງ NIST's AI Risk Framework ຫຼືຄໍາແນະນໍາ ISO/IEC) ເພື່ອແກ້ໄຂຢ່າງເປັນລະບົບເຊັ່ນ: ຄວາມລໍາອຽງ, ການອະທິບາຍ, ແລະຄວາມແຂງແຮງໃນເຄື່ອງມື AI ຂອງທ່ານ ( ວິທີການ AI Generative ຖືກນໍາໃຊ້ໃນ Cybersecurity? 10 ຕົວຢ່າງທີ່ແທ້ຈິງຂອງໂລກ ). ນອກຈາກນັ້ນ, ວາງແຜນການປັບປຸງຕົວແບບ / ແຜ່ນແພເປັນສ່ວນຫນຶ່ງຂອງການບໍາລຸງຮັກສາ - ແບບຈໍາລອງ AI ສາມາດມີ "ຊ່ອງໂຫວ່" ເຊັ່ນກັນ (ເຊັ່ນ: ພວກເຂົາອາດຈະຕ້ອງການການຝຶກອົບຮົມຄືນໃຫມ່ຖ້າພວກເຂົາເລີ່ມ drifting ຫຼືຖ້າປະເພດໃຫມ່ຂອງການໂຈມຕີຂອງສັດຕູຕໍ່ຕົວແບບໄດ້ຖືກຄົ້ນພົບ). ໂດຍການເຮັດໃຫ້ຄວາມປອດໄພແລະຈັນຍາບັນເຂົ້າໄປໃນການນໍາໃຊ້ AI ຂອງທ່ານ, ທ່ານສ້າງຄວາມໄວ້ວາງໃຈໃນຜົນໄດ້ຮັບແລະຮັບປະກັນການປະຕິບັດຕາມກົດລະບຽບທີ່ເກີດຂື້ນ.
-
ຮັກສາມະນຸດຢູ່ໃນ Loop: ໃຊ້ AI ເພື່ອຊ່ວຍ, ບໍ່ແມ່ນການທົດແທນຢ່າງສົມບູນ, ການຕັດສິນຂອງມະນຸດໃນຄວາມປອດໄພທາງອິນເຕີເນັດ. ກໍານົດຈຸດຕັດສິນໃຈທີ່ຕ້ອງການການກວດສອບຂອງມະນຸດ (ຕົວຢ່າງເຊັ່ນ AI ອາດຈະຮ່າງບົດລາຍງານເຫດການ, ແຕ່ນັກວິເຄາະທົບທວນມັນກ່ອນທີ່ຈະແຈກຢາຍ; ຫຼື AI ອາດຈະແນະນໍາການປິດບັນຊີຜູ້ໃຊ້, ແຕ່ມະນຸດອະນຸມັດການກະທໍານັ້ນ). ນີ້ບໍ່ພຽງແຕ່ປ້ອງກັນຄວາມຜິດພາດຂອງ AI ຈາກການກວດສອບ, ແຕ່ຍັງຊ່ວຍໃຫ້ທີມງານຂອງທ່ານຮຽນຮູ້ຈາກ AI ແລະໃນທາງກັບກັນ. ຊຸກຍູ້ຂະບວນການເຮັດວຽກຮ່ວມກັນ: ນັກວິເຄາະຄວນຮູ້ສຶກສະດວກສະບາຍໃນການສອບຖາມຜົນໄດ້ຮັບຂອງ AI ແລະປະຕິບັດການກວດສອບສຸຂະພາບ. ເມື່ອເວລາຜ່ານໄປ, ການສົນທະນານີ້ສາມາດປັບປຸງທັງ AI (ຜ່ານຄໍາຕິຊົມ) ແລະທັກສະຂອງນັກວິເຄາະ. ໂດຍພື້ນຖານແລ້ວ, ອອກແບບຂະບວນການຂອງທ່ານເຊັ່ນວ່າ AI ແລະຄວາມເຂັ້ມແຂງຂອງມະນຸດເສີມເຊິ່ງກັນແລະກັນ - AI ຈັດການກັບປະລິມານແລະຄວາມໄວ, ມະນຸດຈັດການກັບຄວາມບໍ່ແນ່ນອນແລະການຕັດສິນໃຈສຸດທ້າຍ.
-
ມາດຕະການ, ຕິດຕາມກວດກາ, ແລະປັບ: ສຸດທ້າຍ, ປະຕິບັດເຄື່ອງມື AI ການຜະລິດຂອງທ່ານເປັນອົງປະກອບດໍາລົງຊີວິດຂອງລະບົບນິເວດຄວາມປອດໄພຂອງທ່ານ. ວັດແທກປະສິດທິພາບຂອງເຂົາເຈົ້າ ຢ່າງຕໍ່ເນື່ອງ – ເຂົາເຈົ້າຫຼຸດຜ່ອນເວລາຕອບໂຕ້ເຫດການບໍ? ຈັບໄພຂົ່ມຂູ່ກ່ອນຫນ້ານີ້? ອັດຕາຜົນບວກທີ່ບໍ່ຖືກຕ້ອງມີແນວໂນ້ມແນວໃດ? ຂໍຄໍາຕິຊົມຈາກທີມງານ: ຄໍາແນະນໍາຂອງ AI ເປັນປະໂຫຍດ, ຫຼືມັນສ້າງສິ່ງລົບກວນ? ໃຊ້ຕົວຊີ້ບອກເຫຼົ່ານີ້ເພື່ອປັບຕົວແບບ, ອັບເດດຂໍ້ມູນການຝຶກອົບຮົມ, ຫຼືປັບວິທີການປະສົມປະສານ AI. ໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດ ແລະຄວາມຕ້ອງການທາງທຸລະກິດພັດທະນາຂຶ້ນ, ແລະຕົວແບບ AI ຂອງທ່ານຄວນຈະໄດ້ຮັບການປັບປຸງ ຫຼືຝຶກອົບຮົມຄືນໃໝ່ເປັນໄລຍະເພື່ອໃຫ້ມີປະສິດທິພາບ. ມີແຜນການຄຸ້ມຄອງແບບຈໍາລອງ, ລວມທັງໃຜເປັນຜູ້ຮັບຜິດຊອບສໍາລັບການດູແລຂອງມັນແລະວິທີການທົບທວນມັນເລື້ອຍໆ. ໂດຍການຄຸ້ມຄອງວົງຈອນຊີວິດຂອງ AI ຢ່າງຫ້າວຫັນ, ທ່ານຮັບປະກັນວ່າມັນຍັງຄົງເປັນຊັບສິນ, ບໍ່ແມ່ນຄວາມຮັບຜິດຊອບ.
ສະຫຼຸບແລ້ວ, AI ທົ່ວໄປສາມາດເສີມຂະຫຍາຍຄວາມສາມາດດ້ານຄວາມປອດໄພທາງອິນເຕີເນັດໄດ້ຢ່າງຫຼວງຫຼາຍ, ແຕ່ການຮັບຮອງເອົາຢ່າງສໍາເລັດຜົນຮຽກຮ້ອງໃຫ້ມີການວາງແຜນທີ່ມີຄວາມຄິດແລະການຕິດຕາມຢ່າງຕໍ່ເນື່ອງ. ທຸລະກິດທີ່ໃຫ້ຄວາມຮູ້ແກ່ປະຊາຊົນຂອງເຂົາເຈົ້າ, ກໍານົດແນວທາງທີ່ຊັດເຈນ, ແລະປະສົມປະສານ AI ໃນທາງທີ່ສົມດູນ, ປອດໄພຈະເກັບກ່ຽວຜົນຕອບແທນຂອງການຈັດການໄພຂົ່ມຂູ່ທີ່ໄວກວ່າ ແລະສະຫລາດກວ່າ. ການເອົາໄປມາເຫຼົ່ານັ້ນໃຫ້ແຜນທີ່ເສັ້ນທາງ: ສົມທົບຄວາມຊ່ຽວຊານຂອງມະນຸດກັບລະບົບອັດຕະໂນມັດ AI, ກວມເອົາພື້ນຖານການປົກຄອງ, ແລະຮັກສາຄວາມຄ່ອງແຄ້ວ ເນື່ອງຈາກເຕັກໂນໂລຊີ AI ແລະພູມສັນຖານໄພຂົ່ມຂູ່ຈະພັດທະນາຢ່າງຫຼີກລ່ຽງບໍ່ໄດ້.
ໂດຍການປະຕິບັດຕາມຂັ້ນຕອນການປະຕິບັດເຫຼົ່ານີ້, ອົງການຈັດຕັ້ງສາມາດຕອບຄໍາຖາມ "AI ການຜະລິດສາມາດຖືກນໍາໃຊ້ໃນຄວາມປອດໄພທາງອິນເຕີເນັດໄດ້ແນວໃດ?" - ບໍ່ພຽງແຕ່ໃນທິດສະດີ, ແຕ່ໃນການປະຕິບັດປະຈໍາວັນ - ແລະດັ່ງນັ້ນຈຶ່ງເສີມສ້າງການປ້ອງກັນຂອງພວກເຂົາໃນໂລກດິຈິຕອນແລະ AI ທີ່ເພີ່ມຂຶ້ນຂອງພວກເຮົາ. ( ວິທີການຜະລິດ AI ສາມາດຖືກນໍາໃຊ້ໃນ Cybersecurity )
ເຈ້ຍຂາວທີ່ເຈົ້າອາດຈະມັກອ່ານຫຼັງຈາກອັນນີ້:
🔗 ວຽກທີ່ AI ບໍ່ສາມາດທົດແທນໄດ້ ແລະ AI ຈະມາແທນທີ່ວຽກໃດ?
ສຳຫຼວດເບິ່ງທັດສະນະທົ່ວໂລກວ່າບົດບາດໃດທີ່ປອດໄພຈາກລະບົບອັດຕະໂນມັດ ແລະອັນໃດບໍ່ແມ່ນ.
🔗 AI ສາມາດຄາດຄະເນຕະຫຼາດຫຼັກຊັບໄດ້ບໍ?
ການເບິ່ງທີ່ໃກ້ຊິດກ່ຽວກັບຂໍ້ຈໍາກັດ, ຄວາມກ້າວຫນ້າ, ແລະ myths ປະມານຄວາມສາມາດຂອງ AI ໃນການຄາດຄະເນການເຄື່ອນໄຫວຕະຫຼາດ.
🔗 AI ທົ່ວໄປສາມາດເພິ່ງພາອາໄສເພື່ອເຮັດຫຍັງໂດຍບໍ່ມີການແຊກແຊງຂອງມະນຸດ?
ເຂົ້າໃຈບ່ອນທີ່ AI ສາມາດດໍາເນີນການໄດ້ຢ່າງເປັນເອກະລາດແລະບ່ອນທີ່ການກວດກາຂອງມະນຸດຍັງເປັນສິ່ງຈໍາເປັນ.