ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທາງໄຊເບີວິເຄາະໄພຂົ່ມຂູ່ໂດຍໃຊ້ເຄື່ອງມື AI ທີ່ສ້າງສັນ.

ປັນຍາປະດິດທີ່ຜະລິດໄດ້ສາມາດນຳໃຊ້ໄດ້ແນວໃດໃນຄວາມປອດໄພທາງໄຊເບີ?

ບົດນຳ

AI ທີ່ສ້າງສັນ - ລະບົບປັນຍາປະດິດທີ່ມີຄວາມສາມາດໃນການສ້າງເນື້ອຫາ ຫຼື ການຄາດຄະເນໃໝ່ - ກຳລັງເກີດຂຶ້ນເປັນກຳລັງການຫັນປ່ຽນໃນດ້ານຄວາມປອດໄພທາງໄຊເບີ. ເຄື່ອງມືຕ່າງໆເຊັ່ນ GPT-4 ຂອງ OpenAI ໄດ້ສະແດງໃຫ້ເຫັນເຖິງຄວາມສາມາດໃນການວິເຄາະຂໍ້ມູນທີ່ສັບສົນ ແລະ ສ້າງຂໍ້ຄວາມທີ່ຄ້າຍຄືກັບມະນຸດ, ເຊິ່ງເຮັດໃຫ້ສາມາດມີວິທີການໃໝ່ໃນການປ້ອງກັນໄພຂົ່ມຂູ່ທາງໄຊເບີ. ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທາງໄຊເບີ ແລະ ຜູ້ຕັດສິນໃຈທາງທຸລະກິດໃນທົ່ວອຸດສາຫະກຳຕ່າງໆ ກຳລັງສຳຫຼວດວິທີທີ່ AI ທີ່ສ້າງສັນສາມາດເສີມສ້າງການປ້ອງກັນຈາກການໂຈມຕີທີ່ພັດທະນາຢູ່ເລື້ອຍໆ. ຕັ້ງແຕ່ການເງິນ ແລະ ການດູແລສຸຂະພາບ ຈົນເຖິງການຂາຍຍ່ອຍ ແລະ ລັດຖະບານ, ອົງກອນຕ່າງໆໃນທຸກຂະແໜງການປະເຊີນກັບຄວາມພະຍາຍາມຫຼອກລວງທີ່ຊັບຊ້ອນ, ມັລແວ, ແລະ ໄພຂົ່ມຂູ່ອື່ນໆທີ່ AI ທີ່ສ້າງສັນອາດຈະຊ່ວຍຕ້ານໄດ້. ໃນເອກະສານສີຂາວນີ້, ພວກເຮົາກວດສອບ ວິທີທີ່ AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນດ້ານຄວາມປອດໄພທາງໄຊເບີ , ໂດຍເນັ້ນໃສ່ແອັບພລິເຄຊັນໃນໂລກຕົວຈິງ, ຄວາມເປັນໄປໄດ້ໃນອະນາຄົດ, ແລະ ການພິຈາລະນາທີ່ສຳຄັນສຳລັບການຮັບຮອງເອົາ.

AI ທີ່ສ້າງສັນແຕກຕ່າງຈາກ AI ວິເຄາະແບບດັ້ງເດີມໂດຍບໍ່ພຽງແຕ່ກວດຈັບຮູບແບບເທົ່ານັ້ນ ແຕ່ຍັງ ສ້າງ ເນື້ອຫາອີກດ້ວຍ - ບໍ່ວ່າຈະເປັນການຈຳລອງການໂຈມຕີເພື່ອຝຶກອົບຮົມການປ້ອງກັນ ຫຼື ການສ້າງຄຳອະທິບາຍພາສາທຳມະຊາດສຳລັບຂໍ້ມູນຄວາມປອດໄພທີ່ສັບສົນ. ຄວາມສາມາດສອງຢ່າງນີ້ເຮັດໃຫ້ມັນເປັນດາບສອງຄົມ: ມັນສະເໜີເຄື່ອງມືປ້ອງກັນໃໝ່ທີ່ມີປະສິດທິພາບ, ແຕ່ຜູ້ກະທຳທີ່ເປັນໄພຂົ່ມຂູ່ສາມາດໃຊ້ປະໂຫຍດຈາກມັນໄດ້ເຊັ່ນກັນ. ພາກຕໍ່ໄປນີ້ສຳຫຼວດກໍລະນີການນຳໃຊ້ທີ່ຫຼາກຫຼາຍສຳລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ, ຕັ້ງແຕ່ການກວດສອບການຫຼອກລວງແບບອັດຕະໂນມັດຈົນເຖິງການປັບປຸງການຕອບສະໜອງຕໍ່ເຫດການ. ພວກເຮົາຍັງສົນທະນາກ່ຽວກັບຜົນປະໂຫຍດທີ່ນະວັດຕະກຳ AI ເຫຼົ່ານີ້ສັນຍາໄວ້, ພ້ອມກັບຄວາມສ່ຽງ (ເຊັ່ນ: "ພາບຫຼອນ" ຂອງ AI ຫຼື ການໃຊ້ໃນທາງທີ່ຜິດ) ທີ່ອົງກອນຕ່າງໆຕ້ອງຈັດການ. ສຸດທ້າຍ, ພວກເຮົາໃຫ້ບົດຮຽນທີ່ເປັນປະໂຫຍດເພື່ອຊ່ວຍໃຫ້ທຸລະກິດປະເມີນ ແລະ ເຊື່ອມໂຍງ AI ທີ່ສ້າງສັນເຂົ້າໃນຍຸດທະສາດຄວາມປອດໄພທາງໄຊເບີຂອງພວກເຂົາຢ່າງມີຄວາມຮັບຜິດຊອບ.

AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ: ພາບລວມ

ປັນຍາປະດິດ AI ໃນຄວາມປອດໄພທາງໄຊເບີໝາຍເຖິງຮູບແບບ AI - ມັກຈະເປັນຮູບແບບພາສາຂະໜາດໃຫຍ່ ຫຼື ເຄືອຂ່າຍປະສາດອື່ນໆ - ເຊິ່ງສາມາດສ້າງຄວາມເຂົ້າໃຈ, ຄຳແນະນຳ, ລະຫັດ, ຫຼືແມ່ນແຕ່ຂໍ້ມູນສັງເຄາະເພື່ອຊ່ວຍໃນວຽກງານຄວາມປອດໄພ. ບໍ່ເໝືອນກັບຮູບແບບການຄາດຄະເນຢ່າງດຽວ, ປັນຍາປະດິດ AI ສາມາດຈຳລອງສະຖານະການ ແລະ ສ້າງຜົນຜະລິດທີ່ມະນຸດສາມາດອ່ານໄດ້ (ເຊັ່ນ: ລາຍງານ, ການແຈ້ງເຕືອນ, ຫຼືແມ່ນແຕ່ຕົວຢ່າງລະຫັດທີ່ເປັນອັນຕະລາຍ) ໂດຍອີງໃສ່ຂໍ້ມູນການຝຶກອົບຮົມຂອງມັນ. ຄວາມສາມາດນີ້ກຳລັງຖືກນຳໃຊ້ເພື່ອ ຄາດຄະເນ, ກວດຫາ, ແລະ ຕອບສະໜອງ ຕໍ່ໄພຂົ່ມຂູ່ໃນລັກສະນະທີ່ມີການເຄື່ອນໄຫວຫຼາຍກວ່າແຕ່ກ່ອນ ( ປັນຍາປະດິດ AI ໃນຄວາມປອດໄພທາງໄຊເບີແມ່ນຫຍັງ? - Palo Alto Networks ). ຕົວຢ່າງ, ຮູບແບບການສ້າງສາມາດວິເຄາະບັນທຶກຂະໜາດໃຫຍ່ ຫຼື ບ່ອນເກັບມ້ຽນຂໍ້ມູນໄພຂົ່ມຂູ່ ແລະ ສ້າງບົດສະຫຼຸບສັ້ນໆ ຫຼື ການກະທຳທີ່ແນະນຳ, ເຮັດວຽກເກືອບຄືກັບ "ຜູ້ຊ່ວຍ" AI ສຳລັບທີມງານຄວາມປອດໄພ.

ການຈັດຕັ້ງປະຕິບັດໃນຕອນຕົ້ນຂອງ AI ທີ່ສ້າງສັນສຳລັບການປ້ອງກັນທາງໄຊເບີໄດ້ສະແດງໃຫ້ເຫັນເຖິງຄວາມຫວັງ. ໃນປີ 2023, Microsoft ໄດ້ນຳສະເໜີ Security Copilot , ຜູ້ຊ່ວຍທີ່ໃຊ້ GPT-4 ສຳລັບນັກວິເຄາະຄວາມປອດໄພ, ເພື່ອຊ່ວຍລະບຸການລະເມີດ ແລະ ກວດສອບສັນຍານ 65 ພັນຕື້ສັນຍານທີ່ Microsoft ປະມວນຜົນປະຈຳວັນ ( Microsoft Security Copilot ເປັນຜູ້ຊ່ວຍ GPT-4 AI ໃໝ່ສຳລັບຄວາມປອດໄພທາງໄຊເບີ | The Verge ). ນັກວິເຄາະສາມາດກະຕຸ້ນລະບົບນີ້ໃນພາສາທຳມະຊາດ (ຕົວຢ່າງ “ສະຫຼຸບເຫດການຄວາມປອດໄພທັງໝົດໃນ 24 ຊົ່ວໂມງທີ່ຜ່ານມາ” ), ແລະຜູ້ຊ່ວຍຈະສ້າງບົດສະຫຼຸບເລື່ອງທີ່ເປັນປະໂຫຍດ. ໃນທຳນອງດຽວກັນ, AI ສະຕິປັນຍາໄພຂົ່ມຂູ່ ໃຊ້ຮູບແບບການສ້າງທີ່ເອີ້ນວ່າ Gemini ເພື່ອໃຫ້ສາມາດຄົ້ນຫາການສົນທະນາຜ່ານຖານຂໍ້ມູນສະຕິປັນຍາໄພຂົ່ມຂູ່ທີ່ກວ້າງຂວາງຂອງ Google, ວິເຄາະລະຫັດທີ່ໜ້າສົງໄສຢ່າງວ່ອງໄວ ແລະ ສະຫຼຸບການຄົ້ນພົບເພື່ອຊ່ວຍນັກລ່າມັລແວ ( AI ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ຕົວຢ່າງເຫຼົ່ານີ້ສະແດງໃຫ້ເຫັນເຖິງທ່າແຮງ: AI ສ້າງສັນສາມາດຍ່ອຍຂໍ້ມູນຄວາມປອດໄພທາງໄຊເບີທີ່ສັບສົນ ແລະ ຂະໜາດໃຫຍ່ ແລະ ນຳສະເໜີຄວາມເຂົ້າໃຈໃນຮູບແບບທີ່ສາມາດເຂົ້າເຖິງໄດ້, ເລັ່ງການຕັດສິນໃຈ.

ໃນເວລາດຽວກັນ, AI ທີ່ສ້າງສັນສາມາດສ້າງເນື້ອຫາປອມທີ່ເປັນຈິງສູງ, ເຊິ່ງເປັນຜົນປະໂຫຍດສຳລັບການຈຳລອງ ແລະ ການຝຶກອົບຮົມ (ແລະ ແຕ່ຫນ້າເສຍດາຍ, ສຳລັບຜູ້ໂຈມຕີທີ່ສ້າງວິສະວະກຳສັງຄົມ). ໃນຂະນະທີ່ພວກເຮົາດຳເນີນການໄປຫາກໍລະນີການນຳໃຊ້ສະເພາະ, ພວກເຮົາຈະເຫັນວ່າຄວາມສາມາດຂອງ AI ທີ່ສ້າງສັນທັງໃນ ການສັງເຄາະ ແລະ ວິເຄາະ ຂໍ້ມູນເປັນພື້ນຖານຂອງແອັບພລິເຄຊັນຄວາມປອດໄພທາງໄຊເບີຫຼາຍຢ່າງຂອງມັນ. ຂ້າງລຸ່ມນີ້, ພວກເຮົາຈະເຂົ້າໄປໃນກໍລະນີການນຳໃຊ້ທີ່ສຳຄັນ, ເຊິ່ງກວມເອົາທຸກຢ່າງຕັ້ງແຕ່ການປ້ອງກັນການຫຼອກລວງຈົນເຖິງການພັດທະນາຊອບແວທີ່ປອດໄພ, ພ້ອມດ້ວຍຕົວຢ່າງຂອງວິທີການນຳໃຊ້ແຕ່ລະຢ່າງໃນທົ່ວອຸດສາຫະກຳ.

ການນຳໃຊ້ທີ່ສຳຄັນຂອງ Generative AI ໃນຄວາມປອດໄພທາງໄຊເບີ

ຮູບພາບ: ກໍລະນີການນຳໃຊ້ຫຼັກສຳລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີປະກອບມີ AI ຮ່ວມທົດລອງສຳລັບທີມງານຄວາມປອດໄພ, ການວິເຄາະຄວາມສ່ຽງຂອງລະຫັດ, ການກວດຫາໄພຂົ່ມຂູ່ແບບປັບຕົວໄດ້, ການຈຳລອງການໂຈມຕີແບບ zero-day, ຄວາມປອດໄພທາງຊີວະມິຕິທີ່ດີຂຶ້ນ, ແລະ ການກວດຫາການຫຼອກລວງ ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ).

ການກວດຫາ ແລະ ການປ້ອງກັນການຫຼອກລວງທາງອິນເຕີເນັດ

ການຫຼອກລວງທາງອິນເຕີເນັດຍັງຄົງເປັນໜຶ່ງໃນໄພຂົ່ມຂູ່ທາງອິນເຕີເນັດທີ່ແຜ່ຫຼາຍທີ່ສຸດ, ໂດຍຫຼອກລວງຜູ້ໃຊ້ໃຫ້ຄລິກລິ້ງທີ່ເປັນອັນຕະລາຍ ຫຼື ເປີດເຜີຍຂໍ້ມູນປະຈຳຕົວ. ປັນຍາປະດິດ AI ກຳລັງຖືກນຳໃຊ້ເພື່ອ ກວດຫາຄວາມພະຍາຍາມຫຼອກລວງ ທາງອິນເຕີເນັດ ແລະ ສະໜັບສະໜູນການຝຶກອົບຮົມຜູ້ໃຊ້ເພື່ອປ້ອງກັນການໂຈມຕີທີ່ປະສົບຜົນສຳເລັດ. ໃນດ້ານການປ້ອງກັນ, ຮູບແບບ AI ສາມາດວິເຄາະເນື້ອຫາອີເມວ ແລະ ພຶດຕິກຳຂອງຜູ້ສົ່ງເພື່ອຊອກຫາສັນຍານທີ່ລະອຽດອ່ອນຂອງການຫຼອກລວງທາງອິນເຕີເນັດທີ່ຕົວກອງທີ່ອີງໃສ່ກົດລະບຽບອາດຈະພາດໄປ. ໂດຍການຮຽນຮູ້ຈາກຊຸດຂໍ້ມູນຂະໜາດໃຫຍ່ຂອງອີເມວທີ່ຖືກຕ້ອງ ທຽບກັບ ອີເມວປອມ, ຮູບແບບທີ່ສາມາດລະບຸຄວາມຜິດປົກກະຕິໃນນ້ຳສຽງ, ຖ້ອຍຄຳ, ຫຼື ສະພາບການທີ່ຊີ້ບອກເຖິງການຫຼອກລວງ - ເຖິງແມ່ນວ່າໄວຍາກອນ ແລະ ການສະກົດຄຳຈະບໍ່ບອກມັນອີກຕໍ່ໄປ. ໃນຄວາມເປັນຈິງ, ນັກຄົ້ນຄວ້າ Palo Alto Networks ສັງເກດເຫັນວ່າ AI ທີ່ສາມາດຫຼອກລວງທາງອິນເຕີເນັດສາມາດລະບຸ "ສັນຍານທີ່ລະອຽດອ່ອນຂອງອີເມວຫຼອກລວງທາງອິນເຕີເນັດທີ່ອາດຈະບໍ່ຖືກກວດພົບ," ຊ່ວຍໃຫ້ອົງກອນຕ່າງໆຢູ່ຂ້າງໜ້າຜູ້ຫຼອກລວງໄປໜຶ່ງກ້າວ ( AI ທີ່ສາມາດຫຼອກລວງທາງອິນເຕີເນັດແມ່ນຫຍັງ? - Palo Alto Networks ).

ທີມງານຮັກສາຄວາມປອດໄພຍັງໃຊ້ AI ທີ່ສ້າງໄດ້ເພື່ອ ຈຳລອງການໂຈມຕີແບບ phishing ສຳລັບການຝຶກອົບຮົມ ແລະ ການວິເຄາະ. ຕົວຢ່າງ, Ironscales ໄດ້ນຳສະເໜີເຄື່ອງມືຈຳລອງແບບ phishing ທີ່ໃຊ້ GPT ເຊິ່ງສ້າງອີເມວ phishing ປອມໂດຍອັດຕະໂນມັດທີ່ອອກແບບມາສຳລັບພະນັກງານຂອງອົງກອນ ( AI ທີ່ສ້າງໄດ້ສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ອີເມວທີ່ສ້າງໂດຍ AI ເຫຼົ່ານີ້ສະທ້ອນໃຫ້ເຫັນເຖິງຍຸດທະວິທີການໂຈມຕີລ່າສຸດ, ເຮັດໃຫ້ພະນັກງານມີການປະຕິບັດຕົວຈິງໃນການກວດພົບເນື້ອຫາທີ່ຫຼອກລວງ. ການຝຶກອົບຮົມສ່ວນຕົວດັ່ງກ່າວແມ່ນມີຄວາມສຳຄັນຫຼາຍຍ້ອນວ່າຜູ້ໂຈມຕີເອງໄດ້ຮັບຮອງເອົາ AI ເພື່ອສ້າງສິ່ງລໍ້ລວງທີ່ໜ້າເຊື່ອຖືຫຼາຍຂຶ້ນ. ໂດຍສະເພາະ, ໃນຂະນະທີ່ AI ທີ່ສ້າງໄດ້ສາມາດຜະລິດຂໍ້ຄວາມ phishing ທີ່ຖືກປັບປຸງແລ້ວ (ໝົດໄປແລ້ວໃນຍຸກສະໄໝຂອງພາສາອັງກິດທີ່ແຕກຫັກໄດ້ງ່າຍ), ຜູ້ປົກປ້ອງໄດ້ພົບວ່າ AI ບໍ່ແມ່ນສິ່ງທີ່ບໍ່ມີໃຜເອົາຊະນະໄດ້. ໃນປີ 2024, ນັກຄົ້ນຄວ້າຄວາມປອດໄພຂອງ IBM ໄດ້ດຳເນີນການທົດລອງປຽບທຽບອີເມວ phishing ທີ່ຂຽນໂດຍມະນຸດກັບອີເມວທີ່ສ້າງໂດຍ AI, ແລະ "ໜ້າແປກໃຈທີ່ອີເມວທີ່ສ້າງໂດຍ AI ຍັງງ່າຍຕໍ່ການກວດພົບເຖິງວ່າຈະມີໄວຍາກອນທີ່ຖືກຕ້ອງ" ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງໄດ້ໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). ນີ້ຊີ້ໃຫ້ເຫັນວ່າສະຕິປັນຍາຂອງມະນຸດລວມກັບການກວດຈັບທີ່ຊ່ວຍເຫຼືອໂດຍ AI ຍັງສາມາດຮັບຮູ້ຄວາມບໍ່ສອດຄ່ອງທີ່ລະອຽດອ່ອນ ຫຼື ສັນຍານ metadata ໃນການຫຼອກລວງທີ່ຂຽນໂດຍ AI.

AI ທີ່ສ້າງຂື້ນຊ່ວຍປ້ອງກັນການຫຼອກລວງໃນວິທີອື່ນໆເຊັ່ນກັນ. ຮູບແບບສາມາດຖືກນໍາໃຊ້ເພື່ອສ້າງ ການຕອບສະໜອງອັດຕະໂນມັດ ຫຼື ຕົວກອງ ທີ່ທົດສອບອີເມວທີ່ໜ້າສົງໄສ. ຕົວຢ່າງ, ລະບົບ AI ສາມາດຕອບກັບອີເມວທີ່ມີຄໍາຖາມສະເພາະເພື່ອກວດສອບຄວາມຖືກຕ້ອງຂອງຜູ້ສົ່ງ ຫຼື ໃຊ້ LLM ເພື່ອວິເຄາະລິ້ງ ແລະ ໄຟລ໌ແນບຂອງອີເມວໃນ sandbox, ຈາກນັ້ນສະຫຼຸບເຈດຕະນາຮ້າຍໃດໆ. ແພລດຟອມຄວາມປອດໄພຂອງ NVIDIA Morpheus ສະແດງໃຫ້ເຫັນເຖິງພະລັງຂອງ AI ໃນຂົງເຂດນີ້ - ມັນໃຊ້ຮູບແບບ NLP ທີ່ສ້າງຂື້ນເພື່ອວິເຄາະ ແລະ ຈັດປະເພດອີເມວຢ່າງໄວວາ, ແລະ ພົບວ່າມັນປັບປຸງການກວດຈັບອີເມວແບບ spear-phishing ໄດ້ 21% ເມື່ອທຽບກັບເຄື່ອງມືຄວາມປອດໄພແບບດັ້ງເດີມ ( 6 ກໍລະນີການໃຊ້ສໍາລັບ AI ທີ່ສ້າງຂື້ນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). Morpheus ແມ້ກະທັ້ງສ້າງໂປຣໄຟລ໌ຮູບແບບການສື່ສານຂອງຜູ້ໃຊ້ເພື່ອກວດຫາພຶດຕິກໍາທີ່ຜິດປົກກະຕິ (ເຊັ່ນ: ຜູ້ໃຊ້ສົ່ງອີເມວຫາທີ່ຢູ່ພາຍນອກຫຼາຍອັນຢ່າງກະທັນຫັນ), ເຊິ່ງສາມາດຊີ້ບອກເຖິງບັນຊີທີ່ຖືກໂຈມຕີທີ່ສົ່ງອີເມວຫຼອກລວງ.

ໃນທາງປະຕິບັດ, ບໍລິສັດຕ່າງໆໃນທົ່ວອຸດສາຫະກໍາກໍາລັງເລີ່ມໄວ້ວາງໃຈ AI ໃນການກັ່ນຕອງອີເມວ ແລະ ການຈະລາຈອນເວັບສໍາລັບການໂຈມຕີດ້ານວິສະວະກໍາສັງຄົມ. ຕົວຢ່າງ, ບໍລິສັດການເງິນໃຊ້ AI ທີ່ສ້າງສັນເພື່ອສະແກນການສື່ສານສໍາລັບຄວາມພະຍາຍາມປອມແປງທີ່ອາດຈະນໍາໄປສູ່ການສໍ້ໂກງທາງສາຍ, ໃນຂະນະທີ່ຜູ້ໃຫ້ບໍລິການດ້ານສຸຂະພາບໃຊ້ AI ເພື່ອປົກປ້ອງຂໍ້ມູນຄົນເຈັບຈາກການລະເມີດທີ່ກ່ຽວຂ້ອງກັບການຫຼອກລວງ. ໂດຍການສ້າງສະຖານະການຫຼອກລວງທີ່ເປັນຈິງ ແລະ ການລະບຸຈຸດເດັ່ນຂອງຂໍ້ຄວາມທີ່ເປັນອັນຕະລາຍ, AI ທີ່ສ້າງສັນເພີ່ມຊັ້ນທີ່ມີປະສິດທິພາບໃຫ້ກັບຍຸດທະສາດການປ້ອງກັນການຫຼອກລວງ. ບົດຮຽນທີ່ສໍາຄັນ: AI ສາມາດຊ່ວຍກວດຫາ ແລະ ປິດການໂຈມຕີແບບຫຼອກລວງ ໄດ້ໄວຂຶ້ນ ແລະ ຖືກຕ້ອງຫຼາຍຂຶ້ນ, ເຖິງແມ່ນວ່າຜູ້ໂຈມຕີຈະໃຊ້ເທັກໂນໂລຢີດຽວກັນເພື່ອປັບປຸງເກມຂອງພວກເຂົາ.

ການກວດຫາມັລແວ ແລະ ການວິເຄາະໄພຂົ່ມຂູ່

ມັນແວທີ່ທັນສະໄໝກຳລັງພັດທະນາຢູ່ຕະຫຼອດເວລາ - ຜູ້ໂຈມຕີສ້າງຮູບແບບໃໝ່ ຫຼື ເຮັດໃຫ້ລະຫັດສັບສົນເພື່ອຫຼີກລ່ຽງລາຍເຊັນຂອງໂປຣແກຣມປ້ອງກັນໄວຣັສ. Generative AI ສະເໜີເຕັກນິກໃໝ່ໆ ສຳລັບທັງການກວດຈັບມັນແວ ແລະ ເຂົ້າໃຈພຶດຕິກຳຂອງມັນ. ວິທີການໜຶ່ງແມ່ນການໃຊ້ AI ເພື່ອ ສ້າງ "ຄູ່ແຝດຊົ່ວຮ້າຍ" ຂອງມັນແວ : ນັກຄົ້ນຄວ້າຄວາມປອດໄພສາມາດປ້ອນຕົວຢ່າງມັນແວທີ່ຮູ້ຈັກເຂົ້າໄປໃນຮູບແບບການສ້າງເພື່ອສ້າງຮູບແບບທີ່ກາຍພັນຫຼາຍອັນຂອງມັນແວນັ້ນ. ໂດຍການເຮັດເຊັ່ນນັ້ນ, ພວກເຂົາຄາດຄະເນການປັບປຸງທີ່ຜູ້ໂຈມຕີອາດຈະເຮັດໄດ້ຢ່າງມີປະສິດທິພາບ. ຮູບແບບທີ່ສ້າງໂດຍ AI ເຫຼົ່ານີ້ສາມາດຖືກນໍາໃຊ້ເພື່ອຝຶກອົບຮົມລະບົບປ້ອງກັນໄວຣັສ ແລະ ລະບົບກວດຈັບການບຸກລຸກ, ດັ່ງນັ້ນເຖິງແມ່ນວ່າມັນແວລຸ້ນທີ່ຖືກດັດແປງກໍ່ຖືກຮັບຮູ້ໃນທຳມະຊາດ ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ Generative AI ໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). ຍຸດທະສາດທີ່ມີການເຄື່ອນໄຫວນີ້ຊ່ວຍທຳລາຍວົງຈອນທີ່ແຮກເກີປ່ຽນແປງມັນແວຂອງພວກເຂົາເລັກນ້ອຍເພື່ອຫຼີກລ່ຽງການກວດຈັບ ແລະ ຜູ້ປ້ອງກັນຕ້ອງພະຍາຍາມຂຽນລາຍເຊັນໃໝ່ໃນແຕ່ລະຄັ້ງ. ດັ່ງທີ່ໄດ້ກ່າວໄວ້ໃນ podcast ໜຶ່ງໃນອຸດສາຫະກຳ, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພໃນປັດຈຸບັນໃຊ້ generative AI ເພື່ອ "ຈຳລອງການຈະລາຈອນເຄືອຂ່າຍ ແລະ ສ້າງ payload ທີ່ເປັນອັນຕະລາຍທີ່ຄ້າຍຄືກັບການໂຈມຕີທີ່ຊັບຊ້ອນ," ການກວດຈັບໄພຂົ່ມຂູ່ແບບປັບຕົວ ນີ້ ໝາຍຄວາມວ່າເຄື່ອງມືຄວາມປອດໄພຈະມີຄວາມທົນທານຕໍ່ກັບມັນແວທີ່ມີຮູບແບບຫຼາຍຮູບແບບທີ່ຖ້າບໍ່ດັ່ງນັ້ນຈະເລື່ອນຜ່ານໄປ.

ນອກເໜືອໄປຈາກການກວດຈັບແລ້ວ, ປັນຍາປະດິດ AI ຍັງຊ່ວຍໃນ ການວິເຄາະມັນແວ ແລະ ວິສະວະກຳແບບປີ້ນກັບກັນ , ເຊິ່ງຕາມປະເພນີແລ້ວແມ່ນວຽກງານທີ່ໃຊ້ແຮງງານຫຼາຍສຳລັບນັກວິເຄາະໄພຂົ່ມຂູ່. ຮູບແບບພາສາຂະໜາດໃຫຍ່ສາມາດມອບໝາຍໃຫ້ກວດສອບລະຫັດ ຫຼື ສະຄຣິບທີ່ໜ້າສົງໄສ ແລະ ອະທິບາຍເປັນພາສາທຳມະດາວ່າລະຫັດມີຈຸດປະສົງເພື່ອເຮັດຫຍັງ. ຕົວຢ່າງໃນໂລກຕົວຈິງແມ່ນ VirusTotal Code Insight , ເຊິ່ງເປັນຄຸນສົມບັດໂດຍ VirusTotal ຂອງ Google ທີ່ນຳໃຊ້ຮູບແບບ AI ທີ່ສ້າງຂື້ນ (Sec-PaLM ຂອງ Google) ເພື່ອສ້າງບົດສະຫຼຸບພາສາທຳມະຊາດຂອງລະຫັດທີ່ອາດຈະເປັນອັນຕະລາຍ ( AI ທີ່ສ້າງຂື້ນສາມາດນຳໃຊ້ໄດ້ແນວໃດໃນຄວາມປອດໄພທາງໄຊເບີ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ໂດຍພື້ນຖານແລ້ວມັນແມ່ນ "ປະເພດຂອງ ChatGPT ທີ່ອຸທິດໃຫ້ກັບການເຂົ້າລະຫັດຄວາມປອດໄພ," ເຮັດໜ້າທີ່ເປັນນັກວິເຄາະມັນແວ AI ທີ່ເຮັດວຽກ 24/7 ເພື່ອຊ່ວຍໃຫ້ນັກວິເຄາະຂອງມະນຸດເຂົ້າໃຈໄພຂົ່ມຂູ່ ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງຂື້ນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). ແທນທີ່ຈະພິຈາລະນາສະຄຣິບທີ່ບໍ່ຄຸ້ນເຄີຍ ຫຼື ລະຫັດໄບນາຣີ, ສະມາຊິກທີມຄວາມປອດໄພສາມາດໄດ້ຮັບການອະທິບາຍທັນທີຈາກ AI - ຕົວຢ່າງ, "ສະຄຣິບນີ້ພະຍາຍາມດາວໂຫຼດໄຟລ໌ຈາກເຊີບເວີ XYZ ແລະຫຼັງຈາກນັ້ນດັດແປງການຕັ້ງຄ່າລະບົບ, ເຊິ່ງເປັນຕົວຊີ້ບອກເຖິງພຶດຕິກຳຂອງມັນແວ." ສິ່ງນີ້ຊ່ວຍເລັ່ງການຕອບສະໜອງຕໍ່ເຫດການໄດ້ຢ່າງຫຼວງຫຼາຍ, ຍ້ອນວ່ານັກວິເຄາະສາມາດຄັດເລືອກ ແລະ ເຂົ້າໃຈມັນແວໃໝ່ໄດ້ໄວກວ່າທີ່ເຄີຍ.

ປະດິດ AI ຍັງຖືກນໍາໃຊ້ເພື່ອ ຊີ້ບອກມັນແວໃນຊຸດຂໍ້ມູນຂະໜາດໃຫຍ່ . ເຄື່ອງຈັກປ້ອງກັນໄວຣັສແບບດັ້ງເດີມສະແກນໄຟລ໌ສໍາລັບລາຍເຊັນທີ່ຮູ້ຈັກ, ແຕ່ຮູບແບບການສ້າງສາມາດປະເມີນລັກສະນະຂອງໄຟລ໌ແລະແມ້ກະທັ້ງຄາດຄະເນວ່າມັນເປັນອັນຕະລາຍໂດຍອີງໃສ່ຮູບແບບທີ່ຮຽນຮູ້. ໂດຍການວິເຄາະຄຸນລັກສະນະຂອງໄຟລ໌ຫຼາຍພັນລ້ານໄຟລ໌ (ເປັນອັນຕະລາຍແລະບໍ່ດີ), AI ອາດຈະຈັບເຈດຕະນາທີ່ເປັນອັນຕະລາຍບ່ອນທີ່ບໍ່ມີລາຍເຊັນທີ່ຊັດເຈນ. ຕົວຢ່າງ, ຮູບແບບການສ້າງສາມາດໝາຍເຄື່ອງປະຕິບັດໄດ້ວ່າຫນ້າສົງໄສເພາະວ່າໂປຣໄຟລ໌ພຶດຕິກໍາຂອງມັນ "ເບິ່ງ" ຄືກັບການປ່ຽນແປງເລັກນ້ອຍຂອງ ransomware ທີ່ມັນເຫັນໃນລະຫວ່າງການຝຶກອົບຮົມ, ເຖິງແມ່ນວ່າໄບນາຣີແມ່ນໃໝ່. ການກວດຈັບທີ່ອີງໃສ່ພຶດຕິກໍານີ້ຊ່ວຍຕ້ານກັບມັນແວໃຫມ່ຫຼື zero-day. ປັນຍາປະດິດໄພຂົ່ມຂູ່ AI ຂອງ Google (ສ່ວນໜຶ່ງຂອງ Chronicle/Mandiant) ລາຍງານວ່າໃຊ້ຮູບແບບການສ້າງຂອງມັນເພື່ອວິເຄາະລະຫັດທີ່ອາດຈະເປັນອັນຕະລາຍແລະ "ຊ່ວຍຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພໃນການຕໍ່ສູ້ກັບມັນແວແລະໄພຂົ່ມຂູ່ປະເພດອື່ນໆຢ່າງມີປະສິດທິພາບແລະມີປະສິດທິຜົນຫຼາຍຂຶ້ນ." ( AI ການສ້າງສາມາດຖືກນໍາໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ).

ໃນທາງກັບກັນ, ພວກເຮົາຕ້ອງຮັບຮູ້ວ່າຜູ້ໂຈມຕີສາມາດໃຊ້ AI ທີ່ສ້າງສັນໄດ້ເຊັ່ນກັນ - ເພື່ອສ້າງມັນແວທີ່ປັບຕົວມັນເອງໂດຍອັດຕະໂນມັດ. ໃນຄວາມເປັນຈິງ, ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພເຕືອນວ່າ AI ທີ່ສ້າງສັນສາມາດຊ່ວຍໃຫ້ອາດຊະຍາກອນທາງໄຊເບີພັດທະນາມັນແວ ທີ່ຍາກທີ່ຈະກວດພົບ ( AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີແມ່ນຫຍັງ? - Palo Alto Networks ). ຮູບແບບ AI ສາມາດຖືກແນະນຳໃຫ້ປ່ຽນຮູບແບບຂອງມັນແວຊ້ຳໆ (ປ່ຽນໂຄງສ້າງໄຟລ໌, ວິທີການເຂົ້າລະຫັດ, ແລະອື່ນໆ) ຈົນກວ່າມັນຈະຫຼີກລ່ຽງການກວດສອບ antivirus ທີ່ຮູ້ຈັກທັງໝົດ. ການນຳໃຊ້ແບບກົງກັນຂ້າມນີ້ແມ່ນຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນ (ບາງຄັ້ງເອີ້ນວ່າ "ມັນແວທີ່ໃຊ້ AI" ຫຼື ມັນແວທີ່ມີຮູບແບບຫຼາຍຮູບແບບເປັນການບໍລິການ). ພວກເຮົາຈະປຶກສາຫາລືກ່ຽວກັບຄວາມສ່ຽງດັ່ງກ່າວໃນພາຍຫຼັງ, ແຕ່ມັນເນັ້ນໜັກວ່າ AI ທີ່ສ້າງສັນແມ່ນເຄື່ອງມືໃນເກມແມວກັບໜູທີ່ໃຊ້ໂດຍທັງຜູ້ປ້ອງກັນແລະຜູ້ໂຈມຕີ.

ໂດຍລວມແລ້ວ, AI ທີ່ສ້າງສັນຊ່ວຍເສີມສ້າງການປ້ອງກັນມັນແວໂດຍການເຮັດໃຫ້ທີມງານຮັກສາຄວາມປອດໄພ ຄິດຄືກັບຜູ້ໂຈມຕີ - ສ້າງໄພຂົ່ມຂູ່ ແລະ ວິທີແກ້ໄຂໃໝ່ໆພາຍໃນບໍລິສັດ. ບໍ່ວ່າຈະເປັນການຜະລິດມັນແວສັງເຄາະເພື່ອປັບປຸງອັດຕາການກວດພົບ ຫຼື ການໃຊ້ AI ເພື່ອອະທິບາຍ ແລະ ບັນຈຸມັນແວທີ່ແທ້ຈິງທີ່ພົບໃນເຄືອຂ່າຍ, ເຕັກນິກເຫຼົ່ານີ້ສາມາດນຳໃຊ້ໄດ້ໃນທົ່ວອຸດສາຫະກຳຕ່າງໆ. ທະນາຄານອາດຈະໃຊ້ການວິເຄາະມັນແວທີ່ຂັບເຄື່ອນດ້ວຍ AI ເພື່ອວິເຄາະມະຫາພາກທີ່ໜ້າສົງໄສຢ່າງວ່ອງໄວໃນຕາຕະລາງ, ໃນຂະນະທີ່ບໍລິສັດຜະລິດອາດຈະອີງໃສ່ AI ເພື່ອກວດຫາມັນແວທີ່ແນໃສ່ລະບົບຄວບຄຸມອຸດສາຫະກຳ. ໂດຍການເພີ່ມປະສິດທິພາບການວິເຄາະມັນແວແບບດັ້ງເດີມດ້ວຍ AI ທີ່ສ້າງສັນ, ອົງກອນຕ່າງໆສາມາດຕອບສະໜອງຕໍ່ການໂຄສະນາມັນແວໄດ້ໄວຂຶ້ນ ແລະ ມີປະສິດທິພາບຫຼາຍກວ່າແຕ່ກ່ອນ.

ຂໍ້ມູນຂ່າວສານກ່ຽວກັບໄພຂົ່ມຂູ່ ແລະ ການວິເຄາະແບບອັດຕະໂນມັດ

ທຸກໆມື້, ອົງກອນຕ່າງໆຖືກໂຈມຕີດ້ວຍຂໍ້ມູນສືບລັບໄພຂົ່ມຂູ່ - ຕັ້ງແຕ່ການປ້ອນຂໍ້ມູນຂອງຕົວຊີ້ວັດການປະນີປະນອມ (IOCs) ທີ່ຄົ້ນພົບໃໝ່ ຈົນເຖິງບົດລາຍງານຂອງນັກວິເຄາະກ່ຽວກັບຍຸດທະວິທີທີ່ແຮກເກີທີ່ເກີດຂຶ້ນໃໝ່. ສິ່ງທ້າທາຍສຳລັບທີມງານຄວາມປອດໄພແມ່ນການກັ່ນຕອງຂໍ້ມູນຈຳນວນຫຼວງຫຼາຍນີ້ ແລະ ສະກັດເອົາຄວາມເຂົ້າໃຈທີ່ສາມາດນຳໄປປະຕິບັດໄດ້. AI ທີ່ສ້າງສັນກຳລັງພິສູດໃຫ້ເຫັນວ່າມີຄຸນຄ່າຫຼາຍໃນ ການວິເຄາະ ແລະ ການບໍລິໂພກຂໍ້ມູນສືບລັບໄພຂົ່ມຂູ່ ໂດຍອັດຕະໂນມັດ. ແທນທີ່ຈະອ່ານບົດລາຍງານ ຫຼື ລາຍການຖານຂໍ້ມູນຫຼາຍສິບສະບັບດ້ວຍຕົນເອງ, ນັກວິເຄາະສາມາດໃຊ້ AI ເພື່ອສະຫຼຸບ ແລະ ກຳນົດສະພາບການຂໍ້ມູນສືບລັບໄພຂົ່ມຂູ່ດ້ວຍຄວາມໄວຂອງເຄື່ອງຈັກ.

Threat Intelligence ຂອງ Google , ເຊິ່ງລວມເອົາ Generative AI (ຮູບແບບ Gemini) ເຂົ້າກັບຂໍ້ມູນໄພຂົ່ມຂູ່ອັນຫຼວງຫຼາຍຂອງ Google ຈາກ Mandiant ແລະ VirusTotal. AI ນີ້ໃຫ້ "ການຄົ້ນຫາແບບສົນທະນາໃນທົ່ວບ່ອນເກັບມ້ຽນຂໍ້ມູນໄພຂົ່ມຂູ່ອັນກວ້າງຂວາງຂອງ Google" , ຊ່ວຍໃຫ້ຜູ້ໃຊ້ສາມາດຖາມຄຳຖາມທຳມະຊາດກ່ຽວກັບໄພຂົ່ມຂູ່ ແລະ ໄດ້ຮັບຄຳຕອບທີ່ກັ່ນແລ້ວ ( Generative AI ສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ຕົວຢ່າງ, ນັກວິເຄາະສາມາດຖາມວ່າ, "ພວກເຮົາເຄີຍເຫັນມັນແວທີ່ກ່ຽວຂ້ອງກັບ Threat Group X ທີ່ແນໃສ່ອຸດສາຫະກຳຂອງພວກເຮົາບໍ?" ແລະ AI ຈະດຶງເອົາຂໍ້ມູນທີ່ກ່ຽວຂ້ອງ, ບາງທີອາດຈະສັງເກດວ່າ "ແມ່ນແລ້ວ, Threat Group X ໄດ້ເຊື່ອມໂຍງກັບແຄມເປນ phishing ໃນເດືອນແລ້ວນີ້ໂດຍໃຊ້ມັນແວ Y" , ພ້ອມກັບບົດສະຫຼຸບຂອງພຶດຕິກຳຂອງມັນແວນັ້ນ. ສິ່ງນີ້ຊ່ວຍຫຼຸດຜ່ອນເວລາໃນການລວບລວມຂໍ້ມູນເຊີງເລິກທີ່ຖ້າບໍ່ດັ່ງນັ້ນຈະຕ້ອງສອບຖາມເຄື່ອງມືຫຼາຍຢ່າງ ຫຼື ອ່ານລາຍງານຍາວໆ.

ປັນຍາປະດິດ AI ຍັງສາມາດເຊື່ອມໂຍງ ແລະ ສະຫຼຸບແນວໂນ້ມໄພຂົ່ມຂູ່ໄດ້ . ມັນອາດຈະລວບລວມບົດຄວາມບລັອກຄວາມປອດໄພຫຼາຍພັນບົດຄວາມ, ຂ່າວການລະເມີດ, ແລະ ການເວົ້າໃນເວັບມືດ ແລະ ຫຼັງຈາກນັ້ນສ້າງບົດສະຫຼຸບຜູ້ບໍລິຫານຂອງ "ໄພຂົ່ມຂູ່ທາງໄຊເບີອັນດັບຕົ້ນໆໃນອາທິດນີ້" ສຳລັບການລາຍງານຂອງ CISO. ຕາມປະເພນີ, ລະດັບການວິເຄາະ ແລະ ການລາຍງານນີ້ໃຊ້ຄວາມພະຍາຍາມຂອງມະນຸດຢ່າງຫຼວງຫຼາຍ; ປະຈຸບັນຮູບແບບທີ່ໄດ້ຮັບການປັບແຕ່ງຢ່າງດີສາມາດຮ່າງມັນໄດ້ພາຍໃນວິນາທີ, ໂດຍມະນຸດພຽງແຕ່ປັບປຸງຜົນຜະລິດເທົ່ານັ້ນ. ບໍລິສັດຕ່າງໆເຊັ່ນ ZeroFox ໄດ້ພັດທະນາ FoxGPT , ເຄື່ອງມືປັນຍາປະດິດທີ່ຖືກອອກແບບມາເປັນພິເສດເພື່ອ "ເລັ່ງການວິເຄາະ ແລະ ການສະຫຼຸບຄວາມສະຫຼາດໃນທົ່ວຊຸດຂໍ້ມູນຂະໜາດໃຫຍ່," ລວມທັງເນື້ອຫາທີ່ເປັນອັນຕະລາຍ ແລະ ຂໍ້ມູນການຫຼອກລວງ ( ປັນຍາປະດິດ AI ສາມາດຖືກນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ໂດຍການອັດຕະໂນມັດການອ່ານ ແລະ ການອ້າງອີງຂໍ້ມູນຢ່າງໜັກໜ່ວງ, AI ຊ່ວຍໃຫ້ທີມງານສະຕິປັນຍາໄພຂົ່ມຂູ່ສາມາດສຸມໃສ່ການຕັດສິນໃຈ ແລະ ການຕອບສະໜອງ.

ກໍລະນີການນຳໃຊ້ອີກອັນໜຶ່ງແມ່ນ ການລ່າສັດໄພຂົ່ມຂູ່ທາງການສົນທະນາ . ລອງນຶກພາບນັກວິເຄາະຄວາມປອດໄພພົວພັນກັບຜູ້ຊ່ວຍ AI: "ສະແດງໃຫ້ຂ້ອຍເຫັນສັນຍານຂອງການລັກລອບຂໍ້ມູນໃນ 48 ຊົ່ວໂມງທີ່ຜ່ານມາ" ຫຼື "ຊ່ອງໂຫວ່ໃໝ່ອັນດັບຕົ້ນໆທີ່ຜູ້ໂຈມຕີກຳລັງໃຊ້ປະໂຫຍດໃນອາທິດນີ້ແມ່ນຫຍັງ?" AI ສາມາດຕີຄວາມໝາຍການສອບຖາມ, ຄົ້ນຫາບັນທຶກພາຍໃນ ຫຼື ແຫຼ່ງຂໍ້ມູນລັບພາຍນອກ, ແລະ ຕອບດ້ວຍຄຳຕອບທີ່ຊັດເຈນ ຫຼື ແມ່ນແຕ່ລາຍຊື່ເຫດການທີ່ກ່ຽວຂ້ອງ. ນີ້ບໍ່ແມ່ນເລື່ອງທີ່ເປັນໄປບໍ່ໄດ້ - ລະບົບການຄຸ້ມຄອງຂໍ້ມູນຄວາມປອດໄພ ແລະ ເຫດການທີ່ທັນສະໄໝ (SIEM) ກຳລັງເລີ່ມລວມເອົາການສອບຖາມພາສາທຳມະຊາດ. ຕົວຢ່າງ, ຊຸດຄວາມປອດໄພ QRadar ຂອງ IBM ກຳລັງເພີ່ມຄຸນສົມບັດ AI ທີ່ສ້າງສັນໃນປີ 2024 ເພື່ອໃຫ້ນັກວິເຄາະ "ຖາມ […] ຄຳຖາມສະເພາະກ່ຽວກັບເສັ້ນທາງການໂຈມຕີທີ່ສະຫຼຸບ" ຂອງເຫດການ ແລະ ໄດ້ຮັບຄຳຕອບລະອຽດ. ມັນຍັງສາມາດ "ຕີຄວາມໝາຍ ແລະ ສະຫຼຸບຂໍ້ມູນໄພຂົ່ມຂູ່ທີ່ກ່ຽວຂ້ອງສູງ" ໂດຍອັດຕະໂນມັດ ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ໂດຍພື້ນຖານແລ້ວ, AI ທີ່ສ້າງສັນຈະປ່ຽນຂໍ້ມູນດ້ານວິຊາການຈຳນວນຫຼວງຫຼາຍໃຫ້ກາຍເປັນຄວາມເຂົ້າໃຈຂະໜາດການສົນທະນາຕາມຄວາມຕ້ອງການ.

ໃນທົ່ວອຸດສາຫະກໍາຕ່າງໆ, ສິ່ງນີ້ມີຜົນກະທົບອັນໃຫຍ່ຫຼວງ. ຜູ້ໃຫ້ບໍລິການດ້ານສຸຂະພາບສາມາດໃຊ້ AI ເພື່ອຕິດຕາມກຸ່ມ ransomware ລ່າສຸດທີ່ແນໃສ່ໂຮງໝໍ, ໂດຍບໍ່ຕ້ອງອຸທິດນັກວິເຄາະໃຫ້ກັບການຄົ້ນຄວ້າເຕັມເວລາ. SOC ຂອງບໍລິສັດຂາຍຍ່ອຍສາມາດສະຫຼຸບກົນລະຍຸດມັນແວ POS ໃໝ່ໄດ້ຢ່າງວ່ອງໄວເມື່ອແຈ້ງໃຫ້ພະນັກງານ IT ຂອງຮ້ານຮູ້. ແລະໃນລັດຖະບານ, ບ່ອນທີ່ຂໍ້ມູນໄພຂົ່ມຂູ່ຈາກອົງການຕ່າງໆຕ້ອງໄດ້ຮັບການສັງເຄາະ, AI ສາມາດຜະລິດບົດລາຍງານແບບລວມສູນທີ່ເນັ້ນໃສ່ຄໍາເຕືອນທີ່ສໍາຄັນ. ໂດຍ ການອັດຕະໂນມັດການລວບລວມຂໍ້ມູນໄພຂົ່ມຂູ່ແລະການຕີຄວາມ , AI ທີ່ສ້າງສັນຊ່ວຍໃຫ້ອົງກອນຕ່າງໆຕອບສະໜອງໄດ້ໄວຂຶ້ນຕໍ່ກັບໄພຂົ່ມຂູ່ທີ່ເກີດຂຶ້ນແລະຫຼຸດຜ່ອນຄວາມສ່ຽງຂອງການພາດຄໍາເຕືອນທີ່ສໍາຄັນທີ່ເຊື່ອງໄວ້ໃນສິ່ງລົບກວນ.

ການເພີ່ມປະສິດທິພາບຂອງສູນປະຕິບັດງານດ້ານຄວາມປອດໄພ (SOC)

ສູນປະຕິບັດງານດ້ານຄວາມປອດໄພມີຊື່ສຽງໃນດ້ານຄວາມອິດເມື່ອຍຂອງການແຈ້ງເຕືອນ ແລະ ປະລິມານຂໍ້ມູນທີ່ຫຼວງຫຼາຍ. ນັກວິເຄາະ SOC ທົ່ວໄປອາດຈະກວດສອບການແຈ້ງເຕືອນ ແລະ ເຫດການຫຼາຍພັນຄັ້ງໃນແຕ່ລະມື້, ເພື່ອສືບສວນເຫດການທີ່ອາດເກີດຂຶ້ນ. AI ທີ່ສ້າງສັນກຳລັງເຮັດໜ້າທີ່ເປັນຕົວຄູນກຳລັງໃນ SOCs ໂດຍການເຮັດວຽກປົກກະຕິໂດຍອັດຕະໂນມັດ, ໃຫ້ບົດສະຫຼຸບທີ່ສະຫຼາດ, ແລະ ແມ່ນແຕ່ການຈັດການການຕອບສະໜອງບາງຢ່າງ. ເປົ້າໝາຍແມ່ນເພື່ອເພີ່ມປະສິດທິພາບຂອງຂະບວນການເຮັດວຽກ SOC ເພື່ອໃຫ້ນັກວິເຄາະທີ່ເປັນມະນຸດສາມາດສຸມໃສ່ບັນຫາທີ່ສຳຄັນທີ່ສຸດ ໃນຂະນະທີ່ຜູ້ຊ່ວຍ AI ຈັດການກັບສ່ວນທີ່ເຫຼືອ.

ແອັບພລິເຄຊັນຫຼັກອັນໜຶ່ງແມ່ນການໃຊ້ AI ທີ່ສ້າງໄດ້ເປັນ "ຜູ້ຊ່ວຍນັກວິເຄາະ" . ຜູ້ຊ່ວຍດ້ານຄວາມປອດໄພຂອງ Microsoft, ທີ່ໄດ້ກ່າວມາກ່ອນໜ້ານີ້, ເປັນຕົວຢ່າງຂອງສິ່ງນີ້: ມັນ "ຖືກອອກແບບມາເພື່ອຊ່ວຍວຽກງານຂອງນັກວິເຄາະຄວາມປອດໄພແທນທີ່ຈະທົດແທນມັນ," ຊ່ວຍໃນການສືບສວນເຫດການ ແລະ ການລາຍງານ ( Microsoft Security Copilot ເປັນຜູ້ຊ່ວຍ AI GPT-4 ໃໝ່ສຳລັບຄວາມປອດໄພທາງໄຊເບີ | The Verge ). ໃນທາງປະຕິບັດ, ນີ້ໝາຍຄວາມວ່ານັກວິເຄາະສາມາດປ້ອນຂໍ້ມູນດິບ - ບັນທຶກໄຟວໍ, ເສັ້ນເວລາເຫດການ, ຫຼື ລາຍລະອຽດເຫດການ - ແລະ ຂໍໃຫ້ AI ວິເຄາະມັນ ຫຼື ສະຫຼຸບມັນ. ຜູ້ຊ່ວຍອາດຈະສະແດງການເລົ່າເລື່ອງເຊັ່ນ, "ເບິ່ງຄືວ່າເວລາ 2:35 AM, ການເຂົ້າສູ່ລະບົບທີ່ໜ້າສົງໄສຈາກ IP X ປະສົບຜົນສຳເລັດໃນ Server Y, ຕາມດ້ວຍການໂອນຂໍ້ມູນທີ່ຜິດປົກກະຕິ, ຊີ້ບອກເຖິງການລະເມີດທີ່ອາດເກີດຂຶ້ນຂອງເຊີບເວີນັ້ນ." ການອະທິບາຍສະພາບການທັນທີແບບນີ້ແມ່ນມີຄຸນຄ່າຫຼາຍເມື່ອເວລາມີຄວາມສຳຄັນ.

ຜູ້ຮ່ວມທົດລອງ AI ຍັງຊ່ວຍຫຼຸດຜ່ອນພາລະການຄັດເລືອກລະດັບ 1. ອີງຕາມຂໍ້ມູນຂອງອຸດສາຫະກໍາ, ທີມງານຮັກສາຄວາມປອດໄພສາມາດໃຊ້ເວລາ 15 ຊົ່ວໂມງຕໍ່ອາທິດ ພຽງແຕ່ຈັດຮຽງຜ່ານການແຈ້ງເຕືອນປະມານ 22,000 ການແຈ້ງເຕືອນ ແລະ ການແຈ້ງເຕືອນທີ່ບໍ່ຖືກຕ້ອງ ( 6 ກໍລະນີການນໍາໃຊ້ສໍາລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). ດ້ວຍ AI ທີ່ສ້າງສັນ, ການແຈ້ງເຕືອນເຫຼົ່ານີ້ຫຼາຍຢ່າງສາມາດຖືກຄັດເລືອກໂດຍອັດຕະໂນມັດ - AI ສາມາດປະຕິເສດການແຈ້ງເຕືອນທີ່ບໍ່ເປັນອັນຕະລາຍຢ່າງຈະແຈ້ງ (ໂດຍໃຫ້ເຫດຜົນ) ແລະ ເນັ້ນໃສ່ການແຈ້ງເຕືອນທີ່ຕ້ອງການຄວາມສົນໃຈຢ່າງແທ້ຈິງ, ບາງຄັ້ງກໍ່ແນະນໍາຄວາມສໍາຄັນ. ໃນຄວາມເປັນຈິງ, ຄວາມເຂັ້ມແຂງຂອງ AI ທີ່ສ້າງສັນໃນການເຂົ້າໃຈສະພາບການຫມາຍຄວາມວ່າມັນສາມາດເຊື່ອມໂຍງການແຈ້ງເຕືອນທີ່ອາດເບິ່ງຄືວ່າບໍ່ເປັນອັນຕະລາຍໃນການໂດດດ່ຽວແຕ່ລວມກັນຊີ້ບອກເຖິງການໂຈມຕີຫຼາຍຂັ້ນຕອນ. ສິ່ງນີ້ຊ່ວຍຫຼຸດຜ່ອນໂອກາດທີ່ຈະພາດການໂຈມຕີເນື່ອງຈາກ "ຄວາມອິດເມື່ອຍຂອງການແຈ້ງເຕືອນ."

ນັກວິເຄາະ SOC ຍັງໃຊ້ພາສາທຳມະຊາດກັບ AI ເພື່ອເລັ່ງການລ່າສັດ ແລະ ການສືບສວນ. ຕົວຢ່າງເຊັ່ນ ແພລດຟອມ Purple AI "ຖາມຄຳຖາມການລ່າສັດໄພຂົ່ມຂູ່ທີ່ສັບສົນໃນພາສາອັງກິດທຳມະດາ ແລະ ໄດ້ຮັບຄຳຕອບທີ່ວ່ອງໄວ ແລະ ຖືກຕ້ອງ" ( Generative AI ສາມາດຖືກນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກແຫ່ງຄວາມເປັນຈິງ ). ນັກວິເຄາະສາມາດພິມວ່າ, "ມີຈຸດສິ້ນສຸດໃດທີ່ສື່ສານກັບໂດເມນ badguy123[.]com ໃນເດືອນທີ່ຜ່ານມາບໍ?" , ແລະ Purple AI ຈະຄົ້ນຫາຜ່ານບັນທຶກເພື່ອຕອບສະໜອງ. ສິ່ງນີ້ຊ່ວຍປະຢັດນັກວິເຄາະຈາກການຂຽນຄຳຖາມຖານຂໍ້ມູນ ຫຼື ສະຄຣິບ - AI ເຮັດມັນພາຍໃຕ້ຝາປິດ. ມັນຍັງໝາຍຄວາມວ່ານັກວິເຄາະລະດັບນ້ອຍສາມາດຈັດການໜ້າວຽກທີ່ກ່ອນໜ້ານີ້ຕ້ອງການວິສະວະກອນທີ່ມີປະສົບການໃນພາສາຄຳຖາມ, ຍົກລະດັບທັກສະຂອງທີມງານຢ່າງມີປະສິດທິພາບຜ່ານການຊ່ວຍເຫຼືອຂອງ AI . ແທ້ຈິງແລ້ວ, ນັກວິເຄາະລາຍງານວ່າການຊີ້ນຳ AI ທີ່ສ້າງສັນ “ຊ່ວຍເພີ່ມທັກສະ ແລະ ຄວາມຊຳນານຂອງເຂົາເຈົ້າ” , ຍ້ອນວ່າພະນັກງານລະດັບນ້ອຍສາມາດໄດ້ຮັບການສະໜັບສະໜູນການຂຽນໂປຣແກຣມຕາມຄວາມຕ້ອງການ ຫຼື ຄຳແນະນຳການວິເຄາະຈາກ AI, ຫຼຸດຜ່ອນການເພິ່ງພາອາໄສການຂໍຄວາມຊ່ວຍເຫຼືອຈາກສະມາຊິກທີມງານອາວຸໂສຢູ່ສະເໝີ ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ).

ການເພີ່ມປະສິດທິພາບ SOC ອີກອັນໜຶ່ງແມ່ນ ການສະຫຼຸບເຫດການ ແລະ ເອກະສານອັດຕະໂນມັດ . ຫຼັງຈາກເຫດການຖືກຈັດການແລ້ວ, ຜູ້ໃດຜູ້ໜຶ່ງຕ້ອງຂຽນລາຍງານ - ໜ້າວຽກທີ່ຫຼາຍຄົນພົບວ່າໜ້າເບື່ອ. AI ທີ່ສ້າງໄດ້ສາມາດເອົາຂໍ້ມູນທາງນິຕິວິທະຍາ (ບັນທຶກລະບົບ, ການວິເຄາະມັລແວ, ໄລຍະເວລາຂອງການກະທຳ) ແລະ ສ້າງລາຍງານເຫດການສະບັບຮ່າງທຳອິດ. IBM ກຳລັງສ້າງຄວາມສາມາດນີ້ເຂົ້າໃນ QRadar ເພື່ອໃຫ້ ສາມາດຜະລິດບົດສະຫຼຸບຂອງເຫດການໄດ້ ການຄລິກດຽວ AI ທີ່ສ້າງໄດ້ສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ສິ່ງນີ້ບໍ່ພຽງແຕ່ຊ່ວຍປະຢັດເວລາເທົ່ານັ້ນ ແຕ່ຍັງຮັບປະກັນວ່າບໍ່ມີຫຍັງຖືກມອງຂ້າມໃນລາຍງານ, ເນື່ອງຈາກ AI ສາມາດລວມເອົາລາຍລະອຽດທີ່ກ່ຽວຂ້ອງທັງໝົດຢ່າງສະໝໍ່າສະເໝີ. ເຊັ່ນດຽວກັນ, ສຳລັບການປະຕິບັດຕາມ ແລະ ການກວດສອບ, AI ສາມາດຕື່ມແບບຟອມ ຫຼື ຕາຕະລາງຫຼັກຖານໂດຍອີງໃສ່ຂໍ້ມູນເຫດການ.

ຜົນໄດ້ຮັບໃນໂລກຕົວຈິງແມ່ນໜ້າສົນໃຈ. ຜູ້ນຳໃຊ້ SOAR (ການຈັດການຄວາມປອດໄພ, ການອັດຕະໂນມັດ, ແລະການຕອບສະໜອງ) ທີ່ຂັບເຄື່ອນດ້ວຍ AI ຂອງ Swimlane ໃນຕອນຕົ້ນລາຍງານການເພີ່ມຂຶ້ນຂອງຜົນຜະລິດອັນໃຫຍ່ຫຼວງ - ຕົວຢ່າງ, Global Data Systems ໄດ້ເຫັນທີມງານ SecOps ຂອງເຂົາເຈົ້າຈັດການກັບພາລະຄະດີທີ່ໃຫຍ່ກວ່າຫຼາຍ; ຜູ້ອຳນວຍການຄົນໜຶ່ງກ່າວວ່າ "ສິ່ງທີ່ຂ້ອຍເຮັດໃນມື້ນີ້ກັບນັກວິເຄາະ 7 ຄົນອາດຈະໃຊ້ພະນັກງານ 20 ຄົນໂດຍບໍ່ມີ" ລະບົບອັດຕະໂນມັດທີ່ຂັບເຄື່ອນດ້ວຍ AI ( AI ທີ່ສ້າງສັນສາມາດຖືກນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ ). ເວົ້າອີກຢ່າງໜຶ່ງ, AI ໃນ SOC ສາມາດຄູນຄວາມສາມາດໄດ້ . ໃນທົ່ວອຸດສາຫະກຳຕ່າງໆ, ບໍ່ວ່າຈະເປັນບໍລິສັດເທັກໂນໂລຢີທີ່ຈັດການກັບການແຈ້ງເຕືອນຄວາມປອດໄພຂອງຄລາວ ຫຼື ໂຮງງານຜະລິດທີ່ຕິດຕາມກວດກາລະບົບ OT, ທີມງານ SOC ຈະໄດ້ຮັບການກວດຈັບແລະການຕອບສະໜອງໄວຂຶ້ນ, ເຫດການທີ່ພາດໄປໜ້ອຍລົງ, ແລະ ການດຳເນີນງານທີ່ມີປະສິດທິພາບຫຼາຍຂຶ້ນໂດຍການຮັບເອົາຜູ້ຊ່ວຍ AI ທີ່ສ້າງສັນ. ມັນກ່ຽວກັບການເຮັດວຽກທີ່ສະຫຼາດກວ່າ - ອະນຸຍາດໃຫ້ເຄື່ອງຈັກຈັດການກັບໜ້າວຽກທີ່ຊ້ຳຊາກ ແລະ ມີຂໍ້ມູນຫຼາຍ ເພື່ອໃຫ້ມະນຸດສາມາດນຳໃຊ້ສະຕິປັນຍາ ແລະ ຄວາມຊ່ຽວຊານຂອງເຂົາເຈົ້າໃນບ່ອນທີ່ມີຄວາມສຳຄັນທີ່ສຸດ.

ການຄຸ້ມຄອງຄວາມສ່ຽງ ແລະ ການຈຳລອງໄພຂົ່ມຂູ່

ການກຳນົດ ແລະ ການຈັດການຊ່ອງໂຫວ່ - ຈຸດອ່ອນໃນຊອບແວ ຫຼື ລະບົບທີ່ຜູ້ໂຈມຕີສາມາດນຳໃຊ້ໄດ້ - ແມ່ນໜ້າທີ່ຫຼັກຂອງຄວາມປອດໄພທາງໄຊເບີ. ປັນຍາປະດິດທີ່ສ້າງສັນ (AI) ກຳລັງເສີມຂະຫຍາຍການຄຸ້ມຄອງຊ່ອງໂຫວ່ໂດຍການເລັ່ງການຄົ້ນພົບ, ຊ່ວຍໃນການຈັດລຳດັບຄວາມສຳຄັນຂອງການແກ້ໄຂ, ແລະ ແມ່ນແຕ່ການຈຳລອງການໂຈມຕີໃສ່ຊ່ອງໂຫວ່ເຫຼົ່ານັ້ນເພື່ອປັບປຸງຄວາມພ້ອມ. ໂດຍຫຍໍ້ແລ້ວ, ປັນຍາປະດິດກຳລັງຊ່ວຍໃຫ້ອົງກອນຕ່າງໆຊອກຫາ ແລະ ແກ້ໄຂຊ່ອງໂຫວ່ໃນເກາະຂອງພວກເຂົາໄດ້ໄວຂຶ້ນ, ແລະ ຢ່າງຫ້າວຫັນ ກ່ອນທີ່ຜູ້ໂຈມຕີຕົວຈິງຈະເຮັດ.

ແອັບພລິເຄຊັນທີ່ສຳຄັນອັນໜຶ່ງແມ່ນການໃຊ້ AI ທີ່ສ້າງໄດ້ສຳລັບ ການທົບທວນລະຫັດອັດຕະໂນມັດ ແລະ ການຄົ້ນພົບຊ່ອງໂຫວ່ . ຖານຂໍ້ມູນລະຫັດຂະໜາດໃຫຍ່ (ໂດຍສະເພາະລະບົບເກົ່າ) ມັກຈະມີຂໍ້ບົກຜ່ອງດ້ານຄວາມປອດໄພທີ່ບໍ່ມີໃຜສັງເກດເຫັນ. ຮູບແບບ AI ທີ່ສ້າງໄດ້ສາມາດໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບການປະຕິບັດການຂຽນລະຫັດທີ່ປອດໄພ ແລະ ຮູບແບບຂໍ້ຜິດພາດທົ່ວໄປ, ຫຼັງຈາກນັ້ນປ່ອຍອອກມາໃນລະຫັດແຫຼ່ງ ຫຼື ໄບນາຣີທີ່ລວບລວມເພື່ອຊອກຫາຊ່ອງໂຫວ່ທີ່ອາດເກີດຂຶ້ນ. ຕົວຢ່າງ, ນັກຄົ້ນຄວ້າ NVIDIA ໄດ້ພັດທະນາທໍ່ສົ່ງ AI ທີ່ສ້າງໄດ້ທີ່ສາມາດວິເຄາະຕູ້ຄອນເທນເນີຊອບແວເກົ່າ ແລະ ລະບຸຊ່ອງໂຫວ່ "ດ້ວຍຄວາມແມ່ນຍຳສູງ - ໄວກວ່າຜູ້ຊ່ຽວຊານມະນຸດເຖິງ 4 ເທົ່າ." ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງໄດ້ໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). AI ໂດຍພື້ນຖານແລ້ວໄດ້ຮຽນຮູ້ວ່າລະຫັດທີ່ບໍ່ປອດໄພມີລັກສະນະແນວໃດ ແລະ ສາມາດສະແກນຜ່ານຊອບແວທີ່ມີອາຍຸຫຼາຍທົດສະວັດເພື່ອໝາຍເຖິງໜ້າທີ່ ແລະ ຫ້ອງສະໝຸດທີ່ມີຄວາມສ່ຽງ, ເຊິ່ງເລັ່ງຂະບວນການກວດສອບລະຫັດດ້ວຍຕົນເອງທີ່ປົກກະຕິແລ້ວຊ້າຫຼາຍ. ເຄື່ອງມືປະເພດນີ້ສາມາດເປັນຕົວປ່ຽນແປງເກມສຳລັບອຸດສາຫະກຳຕ່າງໆເຊັ່ນ: ການເງິນ ຫຼື ລັດຖະບານທີ່ອີງໃສ່ຖານຂໍ້ມູນລະຫັດຂະໜາດໃຫຍ່ ແລະ ເກົ່າ - AI ຊ່ວຍປັບປຸງຄວາມປອດໄພໃຫ້ທັນສະໄໝໂດຍການຂຸດຄົ້ນບັນຫາທີ່ພະນັກງານອາດໃຊ້ເວລາຫຼາຍເດືອນ ຫຼື ຫຼາຍປີເພື່ອຊອກຫາ (ຖ້າມີ).

ປັນຍາປະດິດ AI ຍັງຊ່ວຍໃນ ຂະບວນການຈັດການຄວາມສ່ຽງ ໂດຍການປະມວນຜົນຜົນການສະແກນຄວາມສ່ຽງ ແລະ ຈັດລຳດັບຄວາມສຳຄັນຂອງພວກມັນ. ເຄື່ອງມືຕ່າງໆເຊັ່ນ ExposureAI ໃຊ້ປັນຍາປະດິດ AI ເພື່ອໃຫ້ນັກວິເຄາະສອບຖາມຂໍ້ມູນຄວາມສ່ຽງໃນພາສາທຳມະດາ ແລະ ໄດ້ຮັບຄຳຕອບທັນທີ ( ປັນຍາປະດິດ AI ສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ExposureAI ສາມາດ "ສະຫຼຸບເສັ້ນທາງການໂຈມຕີທີ່ສົມບູນໃນການເລົ່າເລື່ອງ" ສຳລັບຄວາມສ່ຽງທີ່ສຳຄັນທີ່ກຳນົດໃຫ້, ໂດຍອະທິບາຍວ່າຜູ້ໂຈມຕີສາມາດເຊື່ອມຕໍ່ມັນກັບຈຸດອ່ອນອື່ນໆເພື່ອທຳລາຍລະບົບໄດ້ ແນວໃດ. ມັນຍັງແນະນຳການກະທຳເພື່ອແກ້ໄຂ ແລະ ຕອບຄຳຖາມຕິດຕາມກ່ຽວກັບຄວາມສ່ຽງ. ນີ້ໝາຍຄວາມວ່າເມື່ອມີການປະກາດ CVE ທີ່ສຳຄັນໃໝ່ (ຊ່ອງໂຫວ່ ແລະ ການເປີດເຜີຍທົ່ວໄປ) ນັກວິເຄາະສາມາດຖາມ AI ວ່າ, "ເຊີບເວີຂອງພວກເຮົາໄດ້ຮັບຜົນກະທົບຈາກ CVE ນີ້ບໍ ແລະ ສະຖານະການທີ່ຮ້າຍແຮງທີ່ສຸດແມ່ນຫຍັງຖ້າພວກເຮົາບໍ່ແກ້ໄຂ?" ແລະໄດ້ຮັບການປະເມີນທີ່ຊັດເຈນຈາກຂໍ້ມູນການສະແກນຂອງອົງກອນເອງ. ໂດຍການຈັດສະພາບການຄວາມສ່ຽງ (ຕົວຢ່າງ, ອັນນີ້ຖືກເປີດເຜີຍຕໍ່ອິນເຕີເນັດ ແລະ ຢູ່ໃນເຊີບເວີທີ່ມີມູນຄ່າສູງ, ສະນັ້ນມັນເປັນບູລິມະສິດອັນດັບຕົ້ນໆ), ປັນຍາປະດິດ AI ຊ່ວຍໃຫ້ທີມງານແກ້ໄຂຢ່າງສະຫຼາດດ້ວຍຊັບພະຍາກອນທີ່ຈຳກັດ.

ນອກເໜືອໄປຈາກການຊອກຫາ ແລະ ການຈັດການຊ່ອງໂຫວ່ທີ່ຮູ້ຈັກແລ້ວ, AI ທີ່ສ້າງໄດ້ຍັງປະກອບສ່ວນເຂົ້າໃນ ການທົດສອບການເຈາະ ແລະ ການຈຳລອງການໂຈມຕີ - ໂດຍພື້ນຖານແລ້ວແມ່ນການຄົ້ນພົບ ທີ່ບໍ່ຮູ້ຈັກ ຫຼື ການທົດສອບການຄວບຄຸມຄວາມປອດໄພ. ເຄືອຂ່າຍສັດຕູທີ່ສ້າງໄດ້ (GANs), ເຊິ່ງເປັນ AI ທີ່ສ້າງໄດ້ປະເພດໜຶ່ງ, ໄດ້ຖືກນຳໃຊ້ເພື່ອສ້າງຂໍ້ມູນສັງເຄາະທີ່ລອກລຽນແບບການຈະລາຈອນເຄືອຂ່າຍຕົວຈິງ ຫຼື ພຶດຕິກຳຂອງຜູ້ໃຊ້, ເຊິ່ງສາມາດປະກອບມີຮູບແບບການໂຈມຕີທີ່ເຊື່ອງໄວ້. ການສຶກສາໃນປີ 2023 ໄດ້ແນະນຳໃຫ້ໃຊ້ GANs ເພື່ອສ້າງການຈະລາຈອນການໂຈມຕີແບບ zero-day ທີ່ເປັນຈິງເພື່ອຝຶກອົບຮົມລະບົບການກວດຈັບການບຸກລຸກ ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງໄດ້ໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). ໂດຍການປ້ອນ IDS ດ້ວຍສະຖານະການການໂຈມຕີທີ່ສ້າງຂຶ້ນໂດຍ AI (ທີ່ບໍ່ມີຄວາມສ່ຽງທີ່ຈະໃຊ້ມັນແວຕົວຈິງໃນເຄືອຂ່າຍການຜະລິດ), ອົງກອນຕ່າງໆສາມາດຝຶກອົບຮົມການປ້ອງກັນຂອງເຂົາເຈົ້າໃຫ້ຮັບຮູ້ໄພຂົ່ມຂູ່ໃໝ່ໆໂດຍບໍ່ຕ້ອງລໍຖ້າໃຫ້ຖືກໂຈມຕີໃນຄວາມເປັນຈິງ. ເຊັ່ນດຽວກັນ, AI ສາມາດຈຳລອງຜູ້ໂຈມຕີທີ່ກວດສອບລະບົບ - ຕົວຢ່າງ, ລອງໃຊ້ເຕັກນິກການຂູດຮີດຕ່າງໆໂດຍອັດຕະໂນມັດໃນສະພາບແວດລ້ອມທີ່ປອດໄພເພື່ອເບິ່ງວ່າມີອັນໃດປະສົບຜົນສຳເລັດຫຼືບໍ່. ອົງການຄົ້ນຄວ້າຂັ້ນສູງດ້ານປ້ອງກັນປະເທດສະຫະລັດ (DARPA) ເຫັນຄວາມຫວັງຢູ່ທີ່ນີ້: ການທ້າທາຍທາງໄຊເບີ AI ປີ 2023 ຂອງຕົນໃຊ້ AI ທີ່ສ້າງສັນ (ເຊັ່ນ: ຮູບແບບພາສາຂະໜາດໃຫຍ່) ຢ່າງຊັດເຈນເພື່ອ "ຊອກຫາ ແລະ ແກ້ໄຂຊ່ອງໂຫວ່ໃນຊອບແວແຫຼ່ງເປີດໂດຍອັດຕະໂນມັດ" ເປັນສ່ວນໜຶ່ງຂອງການແຂ່ງຂັນ ( DARPA ມີຈຸດປະສົງເພື່ອພັດທະນາ AI, ແອັບພລິເຄຊັນເອກະລາດທີ່ນັກຮົບສາມາດໄວ້ວາງໃຈ > ກະຊວງປ້ອງກັນປະເທດສະຫະລັດ > ຂ່າວກະຊວງປ້ອງກັນປະເທດ ). ການລິເລີ່ມນີ້ເນັ້ນໜັກວ່າ AI ບໍ່ພຽງແຕ່ຊ່ວຍແກ້ໄຂຊ່ອງໂຫວ່ທີ່ຮູ້ຈັກເທົ່ານັ້ນ; ມັນຍັງຄົ້ນພົບຊ່ອງໂຫວ່ໃໝ່ໆຢ່າງຫ້າວຫັນ ແລະ ສະເໜີການແກ້ໄຂ, ເຊິ່ງເປັນໜ້າວຽກທີ່ຈຳກັດສະເພາະນັກຄົ້ນຄວ້າຄວາມປອດໄພທີ່ມີທັກສະ (ແລະມີລາຄາແພງ).

AI ທີ່ສ້າງສັນສາມາດສ້າງ honeypots ທີ່ສະຫຼາດ ແລະ ຄູ່ແຝດດິຈິຕອນ ສຳລັບການປ້ອງກັນ. ບໍລິສັດ Startup ພວມພັດທະນາລະບົບຫຼອກລວງທີ່ຂັບເຄື່ອນດ້ວຍ AI ເຊິ່ງຈຳລອງເຊີບເວີ ຫຼື ອຸປະກອນຕົວຈິງຢ່າງໜ້າເຊື່ອຖື. ດັ່ງທີ່ CEO ຄົນໜຶ່ງໄດ້ອະທິບາຍ, AI ທີ່ສ້າງສັນສາມາດ "ໂຄນລະບົບດິຈິຕອນເພື່ອລອກລຽນແບບລະບົບຕົວຈິງ ແລະ ລໍ້ລວງແຮກເກີ" ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). honeypots ທີ່ສ້າງຂຶ້ນໂດຍ AI ເຫຼົ່ານີ້ປະພຶດຕົວຄືກັບສະພາບແວດລ້ອມຕົວຈິງ (ເຊັ່ນ: ອຸປະກອນ IoT ປອມທີ່ສົ່ງ telemetry ປົກກະຕິ) ແຕ່ມີຢູ່ເພື່ອດຶງດູດຜູ້ໂຈມຕີເທົ່ານັ້ນ. ເມື່ອຜູ້ໂຈມຕີເປົ້າໝາຍຕົວຫຼອກລວງ, AI ໄດ້ຫຼອກລວງພວກເຂົາໃຫ້ເປີດເຜີຍວິທີການຂອງພວກເຂົາ, ເຊິ່ງຜູ້ປ້ອງກັນສາມາດສຶກສາ ແລະ ນຳໃຊ້ເພື່ອເສີມສ້າງລະບົບຕົວຈິງ. ແນວຄວາມຄິດນີ້, ຂັບເຄື່ອນໂດຍການສ້າງແບບຈຳລອງ, ໃຫ້ວິທີການທີ່ເບິ່ງໄປຂ້າງໜ້າເພື່ອ ປ່ຽນແປງສະຖານະການໃຫ້ກັບຜູ້ໂຈມຕີ , ໂດຍໃຊ້ການຫຼອກລວງທີ່ປັບປຸງໂດຍ AI.

ໃນທົ່ວອຸດສາຫະກໍາຕ່າງໆ, ການຈັດການຄວາມສ່ຽງທີ່ໄວ ແລະ ສະຫຼາດກວ່າໝາຍເຖິງການລະເມີດໜ້ອຍລົງ. ຕົວຢ່າງ, ໃນດ້ານໄອທີດ້ານການດູແລສຸຂະພາບ, AI ອາດຈະກວດພົບຫ້ອງສະໝຸດທີ່ລ້າສະໄໝທີ່ມີຄວາມສ່ຽງໃນອຸປະກອນການແພດຢ່າງວ່ອງໄວ ແລະ ກະຕຸ້ນການແກ້ໄຂເຟີມແວກ່ອນທີ່ຜູ້ໂຈມຕີຈະໃຊ້ປະໂຫຍດຈາກມັນ. ໃນການທະນາຄານ, AI ສາມາດຈຳລອງການໂຈມຕີພາຍໃນໃນແອັບພລິເຄຊັນໃໝ່ເພື່ອຮັບປະກັນວ່າຂໍ້ມູນຂອງລູກຄ້າຍັງຄົງປອດໄພພາຍໃຕ້ທຸກສະຖານະການ. ດັ່ງນັ້ນ, AI ທີ່ສ້າງສັນຈຶ່ງເຮັດໜ້າທີ່ເປັນທັງກ້ອງຈຸລະທັດ ແລະ ເຄື່ອງທົດສອບຄວາມກົດດັນສຳລັບທ່າທາງຄວາມປອດໄພຂອງອົງກອນ: ມັນສ່ອງແສງຂໍ້ບົກຜ່ອງທີ່ເຊື່ອງໄວ້ ແລະ ລະບົບຄວາມກົດດັນໃນລັກສະນະທີ່ມີຈິນຕະນາການເພື່ອຮັບປະກັນຄວາມຢືດຢຸ່ນ.

ການສ້າງລະຫັດທີ່ປອດໄພ ແລະ ການພັດທະນາຊອບແວ

ພອນສະຫວັນຂອງ Generative AI ບໍ່ໄດ້ຈຳກັດພຽງແຕ່ການກວດຈັບການໂຈມຕີເທົ່ານັ້ນ - ແຕ່ພວກມັນຍັງຂະຫຍາຍໄປສູ່ ການສ້າງລະບົບທີ່ປອດໄພຫຼາຍຂຶ້ນຕັ້ງແຕ່ເລີ່ມຕົ້ນ . ໃນການພັດທະນາຊອບແວ, ໂປຣແກຣມສ້າງລະຫັດ AI (ເຊັ່ນ GitHub Copilot, OpenAI Codex, ແລະອື່ນໆ) ສາມາດຊ່ວຍນັກພັດທະນາຂຽນລະຫັດໄດ້ໄວຂຶ້ນໂດຍການແນະນຳສ່ວນລະຫັດ ຫຼື ແມ່ນແຕ່ໜ້າທີ່ທັງໝົດ. ມຸມມອງດ້ານຄວາມປອດໄພທາງໄຊເບີແມ່ນການຮັບປະກັນວ່າສ່ວນລະຫັດທີ່ແນະນຳໂດຍ AI ເຫຼົ່ານີ້ມີຄວາມປອດໄພ ແລະ ການໃຊ້ AI ເພື່ອປັບປຸງການປະຕິບັດການຂຽນລະຫັດ.

ໃນດ້ານໜຶ່ງ, AI ທີ່ສ້າງໄດ້ສາມາດເຮັດໜ້າທີ່ເປັນ ຜູ້ຊ່ວຍຂຽນລະຫັດທີ່ຝັງການປະຕິບັດທີ່ດີທີ່ສຸດດ້ານຄວາມປອດໄພ . ນັກພັດທະນາສາມາດກະຕຸ້ນເຄື່ອງມື AI, "ສ້າງໜ້າທີ່ຕັ້ງຄ່າລະຫັດຜ່ານໃໝ່ໃນ Python," ແລະ ໂດຍຫຼັກການແລ້ວໄດ້ລະຫັດທີ່ບໍ່ພຽງແຕ່ເຮັດວຽກໄດ້ເທົ່ານັ້ນ ແຕ່ຍັງປະຕິບັດຕາມແນວທາງທີ່ປອດໄພ (ເຊັ່ນ: ການກວດສອບການປ້ອນຂໍ້ມູນທີ່ຖືກຕ້ອງ, ການບັນທຶກ, ການຈັດການຄວາມຜິດພາດໂດຍບໍ່ຮົ່ວໄຫຼຂໍ້ມູນ, ແລະອື່ນໆ). ຜູ້ຊ່ວຍດັ່ງກ່າວ, ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຕົວຢ່າງລະຫັດທີ່ປອດໄພຢ່າງກວ້າງຂວາງ, ສາມາດຊ່ວຍຫຼຸດຜ່ອນຄວາມຜິດພາດຂອງມະນຸດທີ່ນໍາໄປສູ່ຄວາມສ່ຽງ. ຕົວຢ່າງ, ຖ້ານັກພັດທະນາລືມເຮັດຄວາມສະອາດການປ້ອນຂໍ້ມູນຂອງຜູ້ໃຊ້ (ເປີດປະຕູສູ່ການສີດ SQL ຫຼືບັນຫາທີ່ຄ້າຍຄືກັນ), AI ສາມາດລວມເອົາສິ່ງນັ້ນໄວ້ໂດຍຄ່າເລີ່ມຕົ້ນ ຫຼື ເຕືອນພວກເຂົາ. ເຄື່ອງມືຂຽນລະຫັດ AI ບາງຢ່າງໃນປັດຈຸບັນກໍາລັງຖືກປັບແຕ່ງດ້ວຍຂໍ້ມູນທີ່ເນັ້ນໃສ່ຄວາມປອດໄພເພື່ອຮັບໃຊ້ຈຸດປະສົງທີ່ແນ່ນອນນີ້ - ໂດຍພື້ນຖານແລ້ວ, AI ຈັບຄູ່ການຂຽນໂປຣແກຣມກັບສະຕິຄວາມປອດໄພ .

ເຖິງຢ່າງໃດກໍ່ຕາມ, ມັນມີອີກດ້ານໜຶ່ງຄື: AI ທີ່ສ້າງຂື້ນສາມາດນຳສະເໜີຊ່ອງໂຫວ່ໄດ້ງ່າຍຖ້າບໍ່ໄດ້ຮັບການຄຸ້ມຄອງຢ່າງຖືກຕ້ອງ. ດັ່ງທີ່ຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພຂອງ Sophos ທ່ານ Ben Verschaeren ໄດ້ກ່າວໄວ້ວ່າ ການໃຊ້ AI ທີ່ສ້າງຂື້ນສຳລັບການເຂົ້າລະຫັດແມ່ນ "ດີສຳລັບລະຫັດສັ້ນໆທີ່ສາມາດກວດສອບໄດ້, ແຕ່ມີຄວາມສ່ຽງເມື່ອລະຫັດທີ່ບໍ່ໄດ້ຮັບການກວດສອບຖືກລວມເຂົ້າ" ເຂົ້າໃນລະບົບການຜະລິດ. ຄວາມສ່ຽງແມ່ນວ່າ AI ອາດຈະຜະລິດລະຫັດທີ່ຖືກຕ້ອງຕາມເຫດຜົນທີ່ບໍ່ປອດໄພໃນແບບທີ່ຜູ້ທີ່ບໍ່ແມ່ນຜູ້ຊ່ຽວຊານອາດຈະບໍ່ສັງເກດເຫັນ. ຍິ່ງໄປກວ່ານັ້ນ, ຜູ້ກະທຳທີ່ເປັນອັນຕະລາຍອາດຈະມີອິດທິພົນຕໍ່ຮູບແບບ AI ສາທາລະນະໂດຍເຈດຕະນາໂດຍການວາງຮູບແບບລະຫັດທີ່ມີຄວາມສ່ຽງ (ຮູບແບບຂອງການເປັນພິດຂໍ້ມູນ) ເພື່ອໃຫ້ AI ແນະນຳລະຫັດທີ່ບໍ່ປອດໄພ. ນັກພັດທະນາສ່ວນໃຫຍ່ບໍ່ແມ່ນຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພ , ສະນັ້ນຖ້າ AI ແນະນຳວິທີແກ້ໄຂທີ່ສະດວກ, ພວກເຂົາອາດຈະໃຊ້ມັນໂດຍບໍ່ຮູ້ຕົວ, ໂດຍບໍ່ຮູ້ວ່າມັນມີຂໍ້ບົກຜ່ອງ ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງຂື້ນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). ຄວາມກັງວົນນີ້ແມ່ນເປັນຈິງ - ໃນຄວາມເປັນຈິງ, ມີລາຍຊື່ OWASP Top 10 ສຳລັບ LLMs (ຮູບແບບພາສາຂະໜາດໃຫຍ່) ທີ່ລະບຸຄວາມສ່ຽງທົ່ວໄປເຊັ່ນນີ້ໃນການໃຊ້ AI ສຳລັບການຂຽນລະຫັດ.

ເພື່ອແກ້ໄຂບັນຫາເຫຼົ່ານີ້, ຜູ້ຊ່ຽວຊານແນະນຳໃຫ້ "ຕໍ່ສູ້ກັບ AI ທີ່ສ້າງສັນດ້ວຍ AI ທີ່ສ້າງສັນ" ໃນຂົງເຂດການຂຽນໂປຣແກຣມ. ໃນທາງປະຕິບັດ, ນັ້ນໝາຍເຖິງການໃຊ້ AI ເພື່ອ ທົບທວນ ແລະ ທົດສອບລະຫັດ ທີ່ AI ຄົນອື່ນໆ (ຫຼື ມະນຸດ) ຂຽນ. AI ສາມາດສະແກນຜ່ານລະຫັດໃໝ່ໄດ້ໄວກວ່າຜູ້ທົບທວນລະຫັດຂອງມະນຸດ ແລະ ລະບຸຊ່ອງໂຫວ່ທີ່ອາດເກີດຂຶ້ນ ຫຼື ບັນຫາທາງເຫດຜົນ. ພວກເຮົາເຫັນເຄື່ອງມືທີ່ເກີດຂຶ້ນແລ້ວທີ່ປະສົມປະສານເຂົ້າໃນວົງຈອນຊີວິດການພັດທະນາຊອບແວ: ລະຫັດຖືກຂຽນ (ບາງທີອາດຈະດ້ວຍການຊ່ວຍເຫຼືອຂອງ AI), ຫຼັງຈາກນັ້ນຮູບແບບການສ້າງທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຫຼັກການລະຫັດທີ່ປອດໄພຈະທົບທວນມັນ ແລະ ສ້າງລາຍງານກ່ຽວກັບຄວາມກັງວົນໃດໆ (ເຊັ່ນ: ການໃຊ້ໜ້າທີ່ທີ່ລ້າສະໄໝ, ການກວດສອບການພິສູດຢືນຢັນທີ່ຂາດຫາຍໄປ, ແລະອື່ນໆ). ການຄົ້ນຄວ້າຂອງ NVIDIA, ທີ່ໄດ້ກ່າວມາກ່ອນໜ້ານີ້, ທີ່ບັນລຸການກວດສອບຊ່ອງໂຫວ່ທີ່ໄວຂຶ້ນ 4 ເທົ່າໃນລະຫັດແມ່ນຕົວຢ່າງຂອງການນຳໃຊ້ AI ສຳລັບການວິເຄາະລະຫັດທີ່ປອດໄພ ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ).

ນອກຈາກນັ້ນ, AI ທີ່ສ້າງໄດ້ສາມາດຊ່ວຍໃນ ການສ້າງການຕັ້ງຄ່າ ແລະ ສະຄຣິບທີ່ປອດໄພ . ຕົວຢ່າງ, ຖ້າບໍລິສັດຕ້ອງການນຳໃຊ້ພື້ນຖານໂຄງລ່າງຄລາວທີ່ປອດໄພ, ວິສະວະກອນສາມາດຂໍໃຫ້ AI ສ້າງສະຄຣິບການຕັ້ງຄ່າ (ພື້ນຖານໂຄງລ່າງເປັນລະຫັດ) ດ້ວຍການຄວບຄຸມຄວາມປອດໄພ (ເຊັ່ນ: ການແບ່ງສ່ວນເຄືອຂ່າຍທີ່ເໝາະສົມ, ບົດບາດ IAM ທີ່ມີສິດທິພິເສດໜ້ອຍທີ່ສຸດ). AI, ໂດຍໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບການຕັ້ງຄ່າດັ່ງກ່າວຫຼາຍພັນຢ່າງ, ສາມາດສ້າງພື້ນຖານທີ່ວິສະວະກອນຈະປັບປຸງ. ສິ່ງນີ້ເລັ່ງການຕັ້ງຄ່າລະບົບທີ່ປອດໄພ ແລະ ຫຼຸດຜ່ອນຄວາມຜິດພາດໃນການຕັ້ງຄ່າທີ່ບໍ່ຖືກຕ້ອງ - ແຫຼ່ງທີ່ມາທົ່ວໄປຂອງເຫດການຄວາມປອດໄພຄລາວ.

ບາງອົງກອນຍັງໃຊ້ປະໂຫຍດຈາກ AI ທີ່ສ້າງສັນເພື່ອຮັກສາຖານຄວາມຮູ້ກ່ຽວກັບຮູບແບບການຂຽນລະຫັດທີ່ປອດໄພ. ຖ້ານັກພັດທະນາບໍ່ແນ່ໃຈກ່ຽວກັບວິທີການຈັດຕັ້ງປະຕິບັດຄຸນສົມບັດສະເພາະໃດໜຶ່ງຢ່າງປອດໄພ, ພວກເຂົາສາມາດສອບຖາມ AI ພາຍໃນທີ່ໄດ້ຮຽນຮູ້ຈາກໂຄງການທີ່ຜ່ານມາ ແລະ ແນວທາງຄວາມປອດໄພຂອງບໍລິສັດ. AI ອາດຈະສົ່ງຄືນວິທີການທີ່ແນະນຳ ຫຼື ແມ່ນແຕ່ຕົວຢ່າງລະຫັດທີ່ສອດຄ່ອງກັບທັງຄວາມຕ້ອງການດ້ານການເຮັດວຽກ ແລະ ມາດຕະຖານຄວາມປອດໄພຂອງບໍລິສັດ. ວິທີການນີ້ໄດ້ຖືກນຳໃຊ້ໂດຍເຄື່ອງມືຕ່າງໆເຊັ່ນ: Secureframe's Questionnaire Automation , ເຊິ່ງດຶງຄຳຕອບຈາກນະໂຍບາຍຂອງບໍລິສັດ ແລະ ວິທີແກ້ໄຂທີ່ຜ່ານມາເພື່ອຮັບປະກັນການຕອບສະໜອງທີ່ສອດຄ່ອງ ແລະ ຖືກຕ້ອງ (ໂດຍພື້ນຖານແລ້ວແມ່ນການສ້າງເອກະສານທີ່ປອດໄພ) ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ແນວຄວາມຄິດແປເປັນການຂຽນລະຫັດ: AI ທີ່ "ຈື່" ວ່າເຈົ້າໄດ້ຈັດຕັ້ງປະຕິບັດບາງສິ່ງບາງຢ່າງຢ່າງປອດໄພກ່ອນໜ້ານີ້ ແລະ ແນະນຳເຈົ້າໃຫ້ເຮັດແບບນັ້ນອີກຄັ້ງ.

ສະຫຼຸບແລ້ວ, AI ທີ່ສ້າງສັນກຳລັງມີອິດທິພົນຕໍ່ການພັດທະນາຊອບແວໂດຍ ການເຮັດໃຫ້ການຊ່ວຍເຫຼືອດ້ານການຂຽນໂປຣແກຣມທີ່ປອດໄພສາມາດເຂົ້າເຖິງໄດ້ງ່າຍຂຶ້ນ . ອຸດສາຫະກຳທີ່ພັດທະນາຊອບແວທີ່ກຳນົດເອງຫຼາຍຢ່າງ - ເຕັກໂນໂລຊີ, ການເງິນ, ການປ້ອງກັນປະເທດ, ແລະອື່ນໆ - ຈະໄດ້ຮັບຜົນປະໂຫຍດຈາກການມີຜູ້ຊ່ວຍ AI ທີ່ບໍ່ພຽງແຕ່ເລັ່ງການຂຽນໂປຣແກຣມເທົ່ານັ້ນ ແຕ່ຍັງເຮັດໜ້າທີ່ເປັນຜູ້ທົບທວນຄວາມປອດໄພຢ່າງຕໍ່ເນື່ອງ. ເມື່ອມີການຄຸ້ມຄອງຢ່າງຖືກຕ້ອງ, ເຄື່ອງມື AI ເຫຼົ່ານີ້ສາມາດຫຼຸດຜ່ອນການນຳສະເໜີຊ່ອງໂຫວ່ໃໝ່ ແລະ ຊ່ວຍໃຫ້ທີມງານພັດທະນາປະຕິບັດຕາມການປະຕິບັດທີ່ດີທີ່ສຸດ, ເຖິງແມ່ນວ່າທີມງານຈະບໍ່ມີຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທີ່ກ່ຽວຂ້ອງໃນທຸກຂັ້ນຕອນກໍຕາມ. ຜົນໄດ້ຮັບແມ່ນຊອບແວທີ່ແຂງແຮງກວ່າຕໍ່ກັບການໂຈມຕີຕັ້ງແຕ່ມື້ທຳອິດ.

ການສະໜັບສະໜູນການຕອບສະໜອງຕໍ່ເຫດການ

ເມື່ອເຫດການຄວາມປອດໄພທາງໄຊເບີເກີດຂຶ້ນ - ບໍ່ວ່າຈະເປັນການລະບາດຂອງມັລແວ, ການລະເມີດຂໍ້ມູນ, ຫຼື ການຂັດຂ້ອງຂອງລະບົບຈາກການໂຈມຕີ - ເວລາແມ່ນມີຄວາມສຳຄັນຫຼາຍ. ປັນຍາປະດິດທີ່ສ້າງສັນກຳລັງຖືກນຳໃຊ້ເພີ່ມຂຶ້ນເລື້ອຍໆເພື່ອ ສະໜັບສະໜູນທີມງານຕອບສະໜອງຕໍ່ເຫດການ (IR) ໃນການຄວບຄຸມ ແລະ ແກ້ໄຂເຫດການໄດ້ໄວຂຶ້ນ ແລະ ມີຂໍ້ມູນຫຼາຍຂຶ້ນ. ແນວຄວາມຄິດແມ່ນວ່າ ປັນຍາປະດິດສາມາດຮັບຜິດຊອບພາລະບາງຢ່າງໃນການສືບສວນ ແລະ ເອກະສານໃນລະຫວ່າງເຫດການ, ແລະ ແມ່ນແຕ່ແນະນຳ ຫຼື ອັດຕະໂນມັດການດຳເນີນການຕອບສະໜອງບາງຢ່າງ.

ບົດບາດສຳຄັນອັນໜຶ່ງຂອງ AI ໃນ IR ແມ່ນ ການວິເຄາະ ແລະ ການສະຫຼຸບເຫດການໃນເວລາຈິງ . ໃນລະຫວ່າງເຫດການ, ຜູ້ຕອບສະໜອງອາດຈະຕ້ອງການຄຳຕອບຕໍ່ຄຳຖາມຕ່າງໆເຊັ່ນ "ຜູ້ໂຈມຕີເຂົ້າມາໄດ້ແນວໃດ?" , "ລະບົບໃດທີ່ໄດ້ຮັບຜົນກະທົບ?" , ແລະ "ຂໍ້ມູນໃດທີ່ອາດຈະຖືກໂຈມຕີ?" . AI ທີ່ສ້າງຂຶ້ນສາມາດວິເຄາະບັນທຶກ, ການແຈ້ງເຕືອນ ແລະ ຂໍ້ມູນທາງນິຕິວິທະຍາຈາກລະບົບທີ່ໄດ້ຮັບຜົນກະທົບ ແລະ ໃຫ້ຂໍ້ມູນເຊີງວິນິດໄສໄດ້ຢ່າງວ່ອງໄວ. ຕົວຢ່າງ, Microsoft Security Copilot ອະນຸຍາດໃຫ້ຜູ້ຕອບສະໜອງເຫດການປ້ອນຫຼັກຖານຕ່າງໆ (ໄຟລ໌, URL, ບັນທຶກເຫດການ) ແລະ ຂໍໄລຍະເວລາ ຫຼື ບົດສະຫຼຸບ ( Microsoft Security Copilot ເປັນຜູ້ຊ່ວຍ AI GPT-4 ໃໝ່ສຳລັບຄວາມປອດໄພທາງໄຊເບີ | The Verge ). AI ອາດຈະຕອບດ້ວຍ: "ການລະເມີດອາດຈະເລີ່ມຕົ້ນດ້ວຍອີເມວຫຼອກລວງຫາຜູ້ໃຊ້ JohnDoe ເວລາ 10:53 GMT ທີ່ມີມັນແວ X. ເມື່ອຖືກປະຕິບັດແລ້ວ, ມັນແວໄດ້ສ້າງປະຕູຫຼັງທີ່ຖືກນຳໃຊ້ສອງມື້ຕໍ່ມາເພື່ອຍ້າຍໄປທາງຂ້າງໄປຫາເຊີບເວີການເງິນ, ບ່ອນທີ່ມັນເກັບກຳຂໍ້ມູນ." ການມີຮູບພາບທີ່ສອດຄ່ອງກັນນີ້ໃນເວລານາທີແທນທີ່ຈະເປັນຊົ່ວໂມງຊ່ວຍໃຫ້ທີມງານສາມາດຕັດສິນໃຈໄດ້ຢ່າງມີຂໍ້ມູນ (ເຊັ່ນ: ລະບົບໃດທີ່ຈະແຍກອອກ) ໄດ້ໄວຂຶ້ນ.

ປັນຍາປະດິດ AI ຍັງສາມາດ ແນະນຳການປະຕິບັດການກັກກັນ ແລະ ການແກ້ໄຂໄດ້ . ຕົວຢ່າງ, ຖ້າຈຸດສິ້ນສຸດຖືກຕິດເຊື້ອ ransomware, ເຄື່ອງມື AI ສາມາດສ້າງສະຄຣິບ ຫຼື ຊຸດຄຳສັ່ງເພື່ອແຍກເຄື່ອງນັ້ນ, ປິດການໃຊ້ງານບັນຊີສະເພາະ, ແລະ ບລັອກ IP ທີ່ເປັນອັນຕະລາຍທີ່ຮູ້ຈັກໃນ firewall - ໂດຍພື້ນຖານແລ້ວແມ່ນການປະຕິບັດຄູ່ມື. Palo Alto Networks ສັງເກດເຫັນວ່າປັນຍາປະດິດ AI ສາມາດ "ສ້າງການກະທຳ ຫຼື ສະຄຣິບທີ່ເໝາະສົມໂດຍອີງໃສ່ລັກສະນະຂອງເຫດການ" , ອັດຕະໂນມັດຂັ້ນຕອນເບື້ອງຕົ້ນຂອງການຕອບສະໜອງ ( ປັນຍາປະດິດ AI ແມ່ນຫຍັງໃນຄວາມປອດໄພທາງໄຊເບີ? - Palo Alto Networks ). ໃນສະຖານະການທີ່ທີມງານຄວາມປອດໄພຖືກຄອບງຳ (ເຊັ່ນການໂຈມຕີຢ່າງກວ້າງຂວາງໃນຫຼາຍຮ້ອຍອຸປະກອນ), AI ອາດຈະປະຕິບັດບາງການກະທຳເຫຼົ່ານີ້ໂດຍກົງພາຍໃຕ້ເງື່ອນໄຂທີ່ໄດ້ຮັບການອະນຸມັດລ່ວງໜ້າ, ເຮັດໜ້າທີ່ຄືກັບຜູ້ຕອບສະໜອງລະດັບນ້ອຍທີ່ເຮັດວຽກຢ່າງບໍ່ອິດເມື່ອຍ. ຕົວຢ່າງ, ຕົວແທນ AI ສາມາດຕັ້ງຄ່າຂໍ້ມູນປະຈຳຕົວຄືນໃໝ່ໂດຍອັດຕະໂນມັດທີ່ມັນຖືວ່າຖືກໂຈມຕີ ຫຼື ກັກກັນໂຮດທີ່ສະແດງກິດຈະກຳທີ່ເປັນອັນຕະລາຍທີ່ກົງກັບໂປຣໄຟລ໌ຂອງເຫດການ.

ໃນລະຫວ່າງການຕອບສະໜອງຕໍ່ເຫດການ, ການສື່ສານແມ່ນມີຄວາມສຳຄັນຫຼາຍ - ທັງພາຍໃນທີມງານ ແລະ ຕໍ່ຜູ້ມີສ່ວນຮ່ວມ. AI ທີ່ສ້າງສັນສາມາດຊ່ວຍໄດ້ໂດຍ ການຮ່າງບົດລາຍງານການອັບເດດເຫດການ ຫຼື ບົດສະຫຼຸບສັ້ນໆໄດ້ທັນທີ . ແທນທີ່ຈະໃຫ້ວິສະວະກອນຢຸດການແກ້ໄຂບັນຫາຂອງເຂົາເຈົ້າເພື່ອຂຽນອີເມວອັບເດດ, ເຂົາເຈົ້າສາມາດຖາມ AI ວ່າ, "ສະຫຼຸບສິ່ງທີ່ເກີດຂຶ້ນໃນເຫດການນີ້ມາຮອດປະຈຸບັນເພື່ອແຈ້ງໃຫ້ຜູ້ບໍລິຫານຊາບ." AI, ຫຼັງຈາກໄດ້ດູດຊຶມຂໍ້ມູນເຫດການແລ້ວ, ສາມາດສ້າງບົດສະຫຼຸບສັ້ນໆໄດ້ວ່າ: "ມາຮອດເວລາ 15:00 ໂມງ, ຜູ້ໂຈມຕີໄດ້ເຂົ້າເຖິງບັນຊີຜູ້ໃຊ້ 2 ບັນຊີ ແລະ ເຊີບເວີ 5 ເຄື່ອງ. ຂໍ້ມູນທີ່ໄດ້ຮັບຜົນກະທົບລວມມີບັນທຶກຂອງລູກຄ້າໃນຖານຂໍ້ມູນ X. ມາດຕະການກັກກັນ: ການເຂົ້າເຖິງ VPN ສຳລັບບັນຊີທີ່ຖືກໂຈມຕີໄດ້ຖືກຍົກເລີກ ແລະ ແຍກເຊີບເວີອອກ. ຂັ້ນຕອນຕໍ່ໄປ: ການສະແກນຫາກົນໄກການຢູ່ລອດໃດໆ." ຫຼັງຈາກນັ້ນ, ຜູ້ຕອບສະໜອງສາມາດກວດສອບ ຫຼື ປັບແຕ່ງສິ່ງນີ້ໄດ້ຢ່າງວ່ອງໄວ ແລະ ສົ່ງມັນອອກໄປ, ຮັບປະກັນວ່າຜູ້ມີສ່ວນຮ່ວມຈະຖືກຮັກສາໄວ້ໃນວົງຈອນດ້ວຍຂໍ້ມູນທີ່ຖືກຕ້ອງ ແລະ ທັນເວລາ.

ຫຼັງຈາກຂີ້ຝຸ່ນໄດ້ສະຫງົບລົງແລ້ວ, ໂດຍປົກກະຕິແລ້ວຈະມີລາຍງານເຫດການລະອຽດເພື່ອກະກຽມ ແລະ ບົດຮຽນທີ່ໄດ້ຮຽນຮູ້ເພື່ອລວບລວມ. ນີ້ແມ່ນອີກຂົງເຂດໜຶ່ງທີ່ການສະໜັບສະໜູນ AI ​​ມີຄວາມໂດດເດັ່ນ. ມັນສາມາດທົບທວນຂໍ້ມູນເຫດການທັງໝົດ ແລະ ສ້າງລາຍງານຫຼັງເຫດການ ທີ່ກວມເອົາສາເຫດຕົ້ນຕໍ, ລຳດັບເວລາ, ຜົນກະທົບ ແລະ ຄຳແນະນຳ. ຕົວຢ່າງ, IBM ພວມລວມເອົາ AI ທີ່ສ້າງສັນເພື່ອສ້າງ "ບົດສະຫຼຸບງ່າຍໆຂອງກໍລະນີຄວາມປອດໄພ ແລະ ເຫດການຕ່າງໆທີ່ສາມາດແບ່ງປັນກັບຜູ້ມີສ່ວນຮ່ວມ" ດ້ວຍການກົດປຸ່ມດຽວ ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ໂດຍການເຮັດໃຫ້ການລາຍງານຫຼັງການປະຕິບັດມີປະສິດທິພາບ, ອົງກອນຕ່າງໆສາມາດຈັດຕັ້ງປະຕິບັດການປັບປຸງໄດ້ໄວຂຶ້ນ ແລະ ຍັງມີເອກະສານທີ່ດີກວ່າສຳລັບຈຸດປະສົງການປະຕິບັດຕາມ.

ການນໍາໃຊ້ທີ່ມີນະວັດຕະກໍາອັນໜຶ່ງແມ່ນ ການຈໍາລອງເຫດການທີ່ຂັບເຄື່ອນດ້ວຍ AI . ຄ້າຍຄືກັບວິທີທີ່ຄົນເຮົາອາດຈະດໍາເນີນການຝຶກຊ້ອມໄຟໄໝ້, ບາງບໍລິສັດກໍາລັງໃຊ້ AI ທີ່ສ້າງສັນເພື່ອດໍາເນີນການຜ່ານສະຖານະການເຫດການ "ຈະເປັນແນວໃດຖ້າ". AI ອາດຈະຈໍາລອງວິທີທີ່ ransomware ອາດຈະແຜ່ລາມໂດຍອີງຕາມຮູບແບບເຄືອຂ່າຍ, ຫຼືວິທີທີ່ບຸກຄົນພາຍໃນສາມາດກັ່ນຕອງຂໍ້ມູນ, ແລະຫຼັງຈາກນັ້ນໃຫ້ຄະແນນປະສິດທິພາບຂອງແຜນການຕອບໂຕ້ໃນປະຈຸບັນ. ສິ່ງນີ້ຊ່ວຍໃຫ້ທີມງານກະກຽມແລະປັບປຸງຄູ່ມືກ່ອນທີ່ຈະເກີດເຫດການຈິງ. ມັນຄືກັບການມີທີ່ປຶກສາການຕອບໂຕ້ເຫດການທີ່ມີການປັບປຸງຢູ່ສະເໝີທີ່ທົດສອບຄວາມພ້ອມຂອງທ່ານຢູ່ຕະຫຼອດເວລາ.

ໃນອຸດສາຫະກຳທີ່ມີຄວາມສ່ຽງສູງເຊັ່ນ: ການເງິນ ຫຼື ການດູແລສຸຂະພາບ, ບ່ອນທີ່ການຢຸດເຮັດວຽກ ຫຼື ການສູນເສຍຂໍ້ມູນຈາກເຫດການມີຄ່າໃຊ້ຈ່າຍສູງໂດຍສະເພາະ, ຄວາມສາມາດດ້ານ IR ທີ່ຂັບເຄື່ອນດ້ວຍ AI ເຫຼົ່ານີ້ແມ່ນໜ້າສົນໃຈຫຼາຍ. ໂຮງໝໍທີ່ປະສົບກັບເຫດການທາງໄຊເບີບໍ່ສາມາດຮັບມືກັບການຂັດຂ້ອງຂອງລະບົບທີ່ຍາວນານໄດ້ - AI ທີ່ຊ່ວຍໃນການກັກຂັງໄດ້ຢ່າງວ່ອງໄວອາດຈະຊ່ວຍຊີວິດໄດ້. ໃນທຳນອງດຽວກັນ, ສະຖາບັນການເງິນສາມາດໃຊ້ AI ເພື່ອຈັດການກັບການຄັດເລືອກເບື້ອງຕົ້ນຂອງການບຸກລຸກທີ່ສົງໃສວ່າເປັນການສໍ້ໂກງໃນເວລາ 3 ໂມງເຊົ້າ, ດັ່ງນັ້ນເມື່ອມະນຸດທີ່ກຳລັງໂທຫາຢູ່ໃນອອນໄລນ໌, ວຽກງານພື້ນຖານຫຼາຍຢ່າງ (ການອອກຈາກບັນຊີທີ່ໄດ້ຮັບຜົນກະທົບ, ການບລັອກທຸລະກຳ, ແລະອື່ນໆ) ກໍ່ໄດ້ເຮັດແລ້ວ. ໂດຍ ການເພີ່ມທີມງານຕອບສະໜອງຕໍ່ເຫດການດ້ວຍ AI ທີ່ສ້າງສັນ , ອົງກອນຕ່າງໆສາມາດຫຼຸດຜ່ອນເວລາຕອບສະໜອງໄດ້ຢ່າງຫຼວງຫຼາຍ ແລະ ປັບປຸງຄວາມລະອຽດຂອງການຈັດການຂອງພວກເຂົາ, ໃນທີ່ສຸດກໍ່ຫຼຸດຜ່ອນຄວາມເສຍຫາຍຈາກເຫດການທາງໄຊເບີ.

ການວິເຄາະພຶດຕິກຳ ແລະ ການກວດຫາຄວາມຜິດປົກກະຕິ

ການໂຈມຕີທາງໄຊເບີຫຼາຍຢ່າງສາມາດຖືກຈັບໄດ້ໂດຍການສັງເກດເຫັນເມື່ອມີບາງສິ່ງບາງຢ່າງຜິດປົກກະຕິ - ບໍ່ວ່າຈະເປັນບັນຊີຜູ້ໃຊ້ທີ່ດາວໂຫຼດຂໍ້ມູນໃນປະລິມານທີ່ຜິດປົກກະຕິ ຫຼື ອຸປະກອນເຄືອຂ່າຍທີ່ສື່ສານກັບໂຮດທີ່ບໍ່ຄຸ້ນເຄີຍຢ່າງກະທັນຫັນ. Generative AI ສະເໜີເຕັກນິກທີ່ກ້າວໜ້າສຳລັບ ການວິເຄາະພຶດຕິກຳ ແລະ ການກວດສອບຄວາມຜິດປົກກະຕິ , ການຮຽນຮູ້ຮູບແບບປົກກະຕິຂອງຜູ້ໃຊ້ ແລະ ລະບົບ ແລະ ຫຼັງຈາກນັ້ນຈະລາຍງານເມື່ອມີບາງສິ່ງບາງຢ່າງຜິດປົກກະຕິ.

ການກວດສອບຄວາມຜິດປົກກະຕິແບບດັ້ງເດີມມັກໃຊ້ຂອບເຂດທາງສະຖິຕິ ຫຼື ການຮຽນຮູ້ຂອງເຄື່ອງຈັກງ່າຍໆໃນຕົວຊີ້ວັດສະເພາະ (ການເພີ່ມຂຶ້ນຂອງການໃຊ້ CPU, ການເຂົ້າສູ່ລະບົບໃນເວລາຄີກ, ແລະອື່ນໆ). AI ທີ່ສ້າງຂື້ນສາມາດເອົາສິ່ງນີ້ໄປໄກກວ່າໂດຍການສ້າງໂປຣໄຟລ໌ພຶດຕິກຳທີ່ລະອຽດກວ່າ. ຕົວຢ່າງ, ຮູບແບບ AI ສາມາດດູດຊຶມການເຂົ້າສູ່ລະບົບ, ຮູບແບບການເຂົ້າເຖິງໄຟລ໌, ແລະນິໄສອີເມວຂອງພະນັກງານໃນໄລຍະເວລາ ແລະ ສ້າງຄວາມເຂົ້າໃຈຫຼາຍມິຕິກ່ຽວກັບ "ປົກກະຕິ" ຂອງຜູ້ໃຊ້ນັ້ນ. ຖ້າບັນຊີນັ້ນເຮັດບາງສິ່ງບາງຢ່າງທີ່ຢູ່ນອກເໜືອຈາກມາດຕະຖານຂອງມັນຢ່າງຫຼວງຫຼາຍ (ເຊັ່ນການເຂົ້າສູ່ລະບົບຈາກປະເທດໃໝ່ ແລະ ການເຂົ້າເຖິງໄຟລ໌ HR ຈຳນວນຫຼວງຫຼາຍໃນເວລາທ່ຽງຄືນ), AI ຈະກວດພົບຄວາມຜິດປົກກະຕິບໍ່ພຽງແຕ່ໃນຕົວຊີ້ວັດດຽວເທົ່ານັ້ນ ແຕ່ເປັນຮູບແບບພຶດຕິກຳທັງໝົດທີ່ບໍ່ເໝາະສົມກັບໂປຣໄຟລ໌ຂອງຜູ້ໃຊ້. ໃນດ້ານເຕັກນິກ, ຮູບແບບທີ່ສ້າງຂື້ນ (ເຊັ່ນ: ຕົວເຂົ້າລະຫັດອັດຕະໂນມັດ ຫຼື ຮູບແບບລຳດັບ) ສາມາດສ້າງແບບຈຳລອງສິ່ງທີ່ "ປົກກະຕິ" ເບິ່ງຄືວ່າ ແລະ ຫຼັງຈາກນັ້ນສ້າງຂອບເຂດຂອງພຶດຕິກຳທີ່ຄາດໄວ້. ເມື່ອຄວາມເປັນຈິງຕົກຢູ່ນອກຂອບເຂດນັ້ນ, ມັນຈະຖືກໝາຍວ່າເປັນຄວາມຜິດປົກກະຕິ ( AI ທີ່ສ້າງຂື້ນໃນຄວາມປອດໄພທາງໄຊເບີແມ່ນຫຍັງ? - Palo Alto Networks ).

ການຈັດຕັ້ງປະຕິບັດຕົວຈິງອັນໜຶ່ງແມ່ນຢູ່ໃນ ການຕິດຕາມການຈະລາຈອນເຄືອຂ່າຍ . ອີງຕາມການສຳຫຼວດໃນປີ 2024, 54% ຂອງອົງກອນຕ່າງໆໃນສະຫະລັດໄດ້ອ້າງເຖິງການຕິດຕາມການຈະລາຈອນເຄືອຂ່າຍເປັນກໍລະນີການນຳໃຊ້ອັນດັບຕົ້ນໆສຳລັບ AI ໃນຄວາມປອດໄພທາງໄຊເບີ ( ອາເມລິກາເໜືອ: ກໍລະນີການນຳໃຊ້ AI ອັນດັບຕົ້ນໆໃນຄວາມປອດໄພທາງໄຊເບີທົ່ວໂລກ 2024 ). AI ທີ່ສ້າງໄດ້ສາມາດຮຽນຮູ້ຮູບແບບການສື່ສານປົກກະຕິຂອງເຄືອຂ່າຍຂອງວິສາຫະກິດ - ເຊິ່ງເຊີບເວີໃດມັກຈະສື່ສານກັນ, ປະລິມານຂໍ້ມູນທີ່ເຄື່ອນຍ້າຍໃນລະຫວ່າງຊົ່ວໂມງເຮັດວຽກທຽບກັບກາງຄືນ, ແລະອື່ນໆ. ຖ້າຜູ້ໂຈມຕີເລີ່ມການກັ່ນຕອງຂໍ້ມູນຈາກເຊີບເວີ, ແມ່ນແຕ່ຊ້າໆເພື່ອຫຼີກເວັ້ນການກວດພົບ, ລະບົບທີ່ອີງໃສ່ AI ອາດຈະສັງເກດເຫັນວ່າ "ເຊີບເວີ A ບໍ່ເຄີຍສົ່ງຂໍ້ມູນ 500MB ໃນເວລາ 2 ໂມງເຊົ້າໄປຫາ IP ພາຍນອກ" ແລະສະແດງການແຈ້ງເຕືອນ. ເນື່ອງຈາກວ່າ AI ບໍ່ພຽງແຕ່ໃຊ້ກົດລະບຽບຄົງທີ່ເທົ່ານັ້ນແຕ່ເປັນຮູບແບບພຶດຕິກຳຂອງເຄືອຂ່າຍທີ່ພັດທະນາ, ມັນສາມາດຈັບຄວາມຜິດປົກກະຕິທີ່ລະອຽດອ່ອນທີ່ກົດລະບຽບຄົງທີ່ (ເຊັ່ນ "ແຈ້ງເຕືອນຖ້າຂໍ້ມູນ > X MB") ອາດຈະພາດ ຫຼື ໝາຍຜິດ. ລັກສະນະການປັບຕົວນີ້ແມ່ນສິ່ງທີ່ເຮັດໃຫ້ການກວດຈັບຄວາມຜິດປົກກະຕິທີ່ຂັບເຄື່ອນດ້ວຍ AI ມີປະສິດທິພາບໃນສະພາບແວດລ້ອມເຊັ່ນ: ເຄືອຂ່າຍທຸລະກຳທະນາຄານ, ໂຄງສ້າງພື້ນຖານຄລາວ, ຫຼືກຸ່ມອຸປະກອນ IoT, ບ່ອນທີ່ການກຳນົດກົດລະບຽບຄົງທີ່ສຳລັບປົກກະຕິ vs ຜິດປົກກະຕິແມ່ນສັບສົນຫຼາຍ.

ການສ້າງແບບຈຳລອງ AI ຍັງຊ່ວຍໃນ ການວິເຄາະພຶດຕິກຳຂອງຜູ້ໃຊ້ (UBA) , ເຊິ່ງເປັນກຸນແຈສຳຄັນໃນການກວດສອບໄພຂົ່ມຂູ່ພາຍໃນ ຫຼື ບັນຊີທີ່ຖືກໂຈມຕີ. ໂດຍການສ້າງຂໍ້ມູນພື້ນຖານຂອງແຕ່ລະຜູ້ໃຊ້ ຫຼື ໜ່ວຍງານ, AI ສາມາດກວດຫາສິ່ງຕ່າງໆເຊັ່ນ: ການໃຊ້ຂໍ້ມູນປະຈຳຕົວໃນທາງທີ່ຜິດ. ຕົວຢ່າງ, ຖ້າ Bob ຈາກຝ່າຍບັນຊີເລີ່ມສອບຖາມຖານຂໍ້ມູນລູກຄ້າຢ່າງກະທັນຫັນ (ບາງສິ່ງບາງຢ່າງທີ່ລາວບໍ່ເຄີຍເຮັດມາກ່ອນ), ຮູບແບບ AI ສຳລັບພຶດຕິກຳຂອງ Bob ຈະໝາຍສິ່ງນີ້ວ່າຜິດປົກກະຕິ. ມັນອາດຈະບໍ່ແມ່ນມັນແວ - ມັນອາດຈະເປັນກໍລະນີຂອງຂໍ້ມູນປະຈຳຕົວຂອງ Bob ຖືກລັກ ແລະ ນຳໃຊ້ໂດຍຜູ້ໂຈມຕີ, ຫຼື Bob ກຳລັງສືບສວນບ່ອນທີ່ລາວບໍ່ຄວນ. ບໍ່ວ່າຈະແນວໃດກໍຕາມ, ທີມງານຄວາມປອດໄພໄດ້ຮັບການແຈ້ງເຕືອນເພື່ອສືບສວນ. ລະບົບ UBA ທີ່ຂັບເຄື່ອນດ້ວຍ AI ດັ່ງກ່າວມີຢູ່ໃນຜະລິດຕະພັນຄວາມປອດໄພຕ່າງໆ, ແລະ ເຕັກນິກການສ້າງແບບຈຳລອງກຳລັງຊຸກຍູ້ຄວາມຖືກຕ້ອງຂອງພວກມັນໃຫ້ສູງຂຶ້ນ ແລະ ຫຼຸດຜ່ອນການເຕືອນທີ່ບໍ່ຖືກຕ້ອງໂດຍການພິຈາລະນາສະພາບການ (ບາງທີ Bob ອາດຈະຢູ່ໃນໂຄງການພິເສດ, ແລະອື່ນໆ, ເຊິ່ງບາງຄັ້ງ AI ສາມາດອະນຸມານຈາກຂໍ້ມູນອື່ນໆ).

ໃນຂົງເຂດຂອງການຄຸ້ມຄອງຕົວຕົນ ແລະ ການເຂົ້າເຖິງ, ການກວດຈັບ deepfake ແມ່ນຄວາມຕ້ອງການທີ່ເພີ່ມຂຶ້ນ - AI ທີ່ສ້າງສັນສາມາດສ້າງສຽງ ແລະ ວິດີໂອສັງເຄາະທີ່ຫຼອກລວງຄວາມປອດໄພທາງຊີວະມິຕິ. ໜ້າສົນໃຈ, AI ທີ່ສ້າງສັນຍັງສາມາດຊ່ວຍກວດຈັບ deepfakes ເຫຼົ່ານີ້ໄດ້ໂດຍການວິເຄາະສິ່ງປະດິດທີ່ລະອຽດອ່ອນໃນສຽງ ຫຼື ວິດີໂອທີ່ຍາກສຳລັບມະນຸດທີ່ຈະສັງເກດເຫັນ. ພວກເຮົາໄດ້ເຫັນຕົວຢ່າງກັບ Accenture, ເຊິ່ງໃຊ້ AI ທີ່ສ້າງສັນເພື່ອຈຳລອງການສະແດງອອກທາງໜ້າ ແລະ ເງື່ອນໄຂທີ່ນັບບໍ່ຖ້ວນເພື່ອ ຝຶກອົບຮົມ ລະບົບຊີວະມິຕິຂອງພວກເຂົາເພື່ອຈຳແນກຜູ້ໃຊ້ຕົວຈິງຈາກ deepfakes ທີ່ສ້າງຂຶ້ນໂດຍ AI. ໃນໄລຍະຫ້າປີ, ວິທີການນີ້ໄດ້ຊ່ວຍ Accenture ກຳຈັດລະຫັດຜ່ານສຳລັບ 90% ຂອງລະບົບຂອງມັນ (ຍ້າຍໄປສູ່ຊີວະມິຕິ ແລະ ປັດໄຈອື່ນໆ) ແລະ ຫຼຸດຜ່ອນການໂຈມຕີລົງ 60% ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). ໂດຍພື້ນຖານແລ້ວ, ພວກເຂົາໄດ້ໃຊ້ AI ທີ່ສ້າງສັນເພື່ອເສີມສ້າງການພິສູດຢືນຢັນຕົວຕົນທາງຊີວະມິຕິ, ເຮັດໃຫ້ມັນທົນທານຕໍ່ການໂຈມຕີທີ່ສ້າງສັນ (ຕົວຢ່າງທີ່ດີຂອງ AI ທີ່ຕໍ່ສູ້ກັບ AI). ການສ້າງແບບຈຳລອງພຶດຕິກຳແບບນີ້ - ໃນກໍລະນີນີ້ການຮັບຮູ້ຄວາມແຕກຕ່າງລະຫວ່າງໃບໜ້າຂອງມະນຸດທີ່ມີຊີວິດຊີວາ ທຽບກັບໃບໜ້າທີ່ຖືກສັງເຄາະໂດຍ AI - ແມ່ນມີຄວາມສຳຄັນຫຼາຍຍ້ອນວ່າພວກເຮົາອີງໃສ່ AI ຫຼາຍຂຶ້ນໃນການກວດສອບຕົວຕົນ.

ການກວດສອບຄວາມຜິດປົກກະຕິທີ່ໃຊ້ພະລັງງານຈາກ AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໄດ້ໃນທົ່ວອຸດສາຫະກຳຕ່າງໆ: ໃນດ້ານການດູແລສຸຂະພາບ, ການຕິດຕາມກວດກາພຶດຕິກຳຂອງອຸປະກອນການແພດເພື່ອຊອກຫາສັນຍານຂອງການແຮັກ; ໃນດ້ານການເງິນ, ການສັງເກດເບິ່ງລະບົບການຊື້ຂາຍສຳລັບຮູບແບບທີ່ບໍ່ສະໝໍ່າສະເໝີທີ່ອາດຈະຊີ້ບອກເຖິງການສໍ້ໂກງ ຫຼື ການຫມູນໃຊ້ອັລກໍຣິທຶມ; ໃນດ້ານພະລັງງານ/ສາທາລະນູປະໂພກ, ການສັງເກດສັນຍານລະບົບຄວບຄຸມສຳລັບສັນຍານຂອງການບຸກລຸກ. ການລວມກັນຂອງ ຄວາມກວ້າງ (ການເບິ່ງທຸກດ້ານຂອງພຶດຕິກຳ) ແລະ ຄວາມເລິກ (ການເຂົ້າໃຈຮູບແບບທີ່ສັບສົນ) ທີ່ AI ທີ່ສ້າງສັນໃຫ້ເຮັດໃຫ້ມັນເປັນເຄື່ອງມືທີ່ມີປະສິດທິພາບໃນການກວດສອບຕົວຊີ້ວັດຂອງເຫດການທາງໄຊເບີ. ເມື່ອໄພຂົ່ມຂູ່ກາຍເປັນເລື່ອງລັບໆຫຼາຍຂຶ້ນ, ຊ່ອນຢູ່ໃນການດຳເນີນງານປົກກະຕິ, ຄວາມສາມາດໃນການລະບຸລັກສະນະ "ປົກກະຕິ" ຢ່າງຊັດເຈນ ແລະ ຮ້ອງຂຶ້ນເມື່ອມີບາງສິ່ງບາງຢ່າງຜິດປົກກະຕິກາຍເປັນສິ່ງສຳຄັນ. ດັ່ງນັ້ນ AI ທີ່ສ້າງສັນຈຶ່ງເຮັດໜ້າທີ່ເປັນຍາມທີ່ບໍ່ມີອິດເມື່ອຍ, ຮຽນຮູ້ ແລະ ອັບເດດຄຳນິຍາມຂອງຄວາມປົກກະຕິຢູ່ສະເໝີເພື່ອໃຫ້ທັນກັບການປ່ຽນແປງໃນສະພາບແວດລ້ອມ, ແລະ ແຈ້ງເຕືອນທີມງານຄວາມປອດໄພກ່ຽວກັບຄວາມຜິດປົກກະຕິທີ່ຄວນມີການກວດກາຢ່າງໃກ້ຊິດ.

ໂອກາດ ແລະ ຜົນປະໂຫຍດຂອງ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ

ການນຳໃຊ້ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ ນຳເອົາ ໂອກາດ ແລະ ຜົນປະໂຫຍດ ມາໃຫ້ອົງກອນທີ່ເຕັມໃຈທີ່ຈະນຳໃຊ້ເຄື່ອງມືເຫຼົ່ານີ້. ຂ້າງລຸ່ມນີ້, ພວກເຮົາສະຫຼຸບຂໍ້ໄດ້ປຽບທີ່ສຳຄັນທີ່ເຮັດໃຫ້ AI ທີ່ສ້າງສັນເປັນການເພີ່ມເຕີມທີ່ໜ້າສົນໃຈໃຫ້ກັບໂຄງການຄວາມປອດໄພທາງໄຊເບີ:

  • ການກວດຈັບ ແລະ ການຕອບສະໜອງໄພຂົ່ມຂູ່ທີ່ໄວຂຶ້ນ: ລະບົບ AI ທີ່ສ້າງຂຶ້ນສາມາດວິເຄາະຂໍ້ມູນຈຳນວນຫຼວງຫຼາຍໃນເວລາຈິງ ແລະ ຮັບຮູ້ໄພຂົ່ມຂູ່ໄດ້ໄວກວ່າການວິເຄາະດ້ວຍມະນຸດດ້ວຍຕົນເອງ. ຂໍ້ໄດ້ປຽບດ້ານຄວາມໄວນີ້ໝາຍເຖິງການກວດຈັບການໂຈມຕີໄດ້ໄວ ແລະ ການຄວບຄຸມເຫດການໄດ້ໄວຂຶ້ນ. ໃນທາງປະຕິບັດ, ການຕິດຕາມກວດກາຄວາມປອດໄພທີ່ຂັບເຄື່ອນດ້ວຍ AI ສາມາດຈັບໄພຂົ່ມຂູ່ທີ່ຈະໃຊ້ເວລາດົນກວ່າມະນຸດໃນການພົວພັນກັນ. ໂດຍການຕອບສະໜອງຕໍ່ເຫດການຢ່າງວ່ອງໄວ (ຫຼື ແມ່ນແຕ່ປະຕິບັດການຕອບສະໜອງໃນເບື້ອງຕົ້ນດ້ວຍຕົນເອງ), ອົງກອນຕ່າງໆສາມາດຫຼຸດຜ່ອນເວລາພັກເຊົາຂອງຜູ້ໂຈມຕີໃນເຄືອຂ່າຍຂອງພວກເຂົາໄດ້ຢ່າງຫຼວງຫຼາຍ, ຫຼຸດຜ່ອນຄວາມເສຍຫາຍ.

  • ປັບປຸງຄວາມຖືກຕ້ອງ ແລະ ການຄຸ້ມຄອງໄພຂົ່ມຂູ່: ເນື່ອງຈາກພວກມັນຮຽນຮູ້ຢ່າງຕໍ່ເນື່ອງຈາກຂໍ້ມູນໃໝ່, ຮູບແບບການສ້າງແບບຈຳລອງສາມາດປັບຕົວເຂົ້າກັບໄພຂົ່ມຂູ່ທີ່ພັດທະນາ ແລະ ຈັບສັນຍານທີ່ລະອຽດອ່ອນຂອງກິດຈະກຳທີ່ເປັນອັນຕະລາຍ. ສິ່ງນີ້ນຳໄປສູ່ຄວາມຖືກຕ້ອງຂອງການກວດສອບທີ່ດີຂຶ້ນ (ຜົນລົບທີ່ບໍ່ຖືກຕ້ອງ ແລະ ຜົນບວກທີ່ບໍ່ຖືກຕ້ອງໜ້ອຍລົງ) ເມື່ອທຽບກັບກົດລະບຽບຄົງທີ່. ຕົວຢ່າງ, AI ທີ່ໄດ້ຮຽນຮູ້ເຄື່ອງໝາຍຂອງອີເມວຫຼອກລວງ ຫຼື ພຶດຕິກຳຂອງມັລແວຣ໌ສາມາດລະບຸຕົວແປທີ່ບໍ່ເຄີຍເຫັນມາກ່ອນ. ຜົນໄດ້ຮັບແມ່ນການຄຸ້ມຄອງປະເພດໄພຂົ່ມຂູ່ທີ່ກວ້າງຂວາງ - ລວມທັງການໂຈມຕີແບບໃໝ່ - ເສີມສ້າງທ່າທີຄວາມປອດໄພໂດຍລວມ. ທີມງານຄວາມປອດໄພຍັງໄດ້ຮັບຄວາມເຂົ້າໃຈລະອຽດຈາກການວິເຄາະ AI (ເຊັ່ນ: ຄຳອະທິບາຍກ່ຽວກັບພຶດຕິກຳຂອງມັລແວຣ໌), ເຮັດໃຫ້ການປ້ອງກັນມີຄວາມຊັດເຈນ ແລະ ເປັນເປົ້າໝາຍຫຼາຍຂຶ້ນ ( Generative AI ໃນຄວາມປອດໄພທາງໄຊເບີແມ່ນຫຍັງ? - Palo Alto Networks ).

  • ການອັດຕະໂນມັດຂອງໜ້າວຽກທີ່ຊ້ຳໆ: ການສ້າງແບບ AI ທີ່ດີເລີດໃນການເຮັດວຽກຄວາມປອດໄພປະຈຳວັນທີ່ໃຊ້ແຮງງານຫຼາຍ - ຕັ້ງແຕ່ການກວດສອບບັນທຶກ ແລະ ການລວບລວມລາຍງານ ຈົນເຖິງການຂຽນສະຄຣິບຕອບສະໜອງເຫດການ. ການອັດຕະໂນມັດນີ້ ຊ່ວຍຫຼຸດຜ່ອນພາລະຂອງນັກວິເຄາະມະນຸດ , ເຮັດໃຫ້ພວກເຂົາມີອິດສະຫຼະໃນການສຸມໃສ່ຍຸດທະສາດລະດັບສູງ ແລະ ການຕັດສິນໃຈທີ່ສັບສົນ ( Generative AI ໃນຄວາມປອດໄພທາງໄຊເບີແມ່ນຫຍັງ? - Palo Alto Networks ). ວຽກງານທີ່ທຳມະດາແຕ່ສຳຄັນເຊັ່ນ: ການສະແກນຊ່ອງໂຫວ່, ການກວດສອບການຕັ້ງຄ່າ, ການວິເຄາະກິດຈະກຳຂອງຜູ້ໃຊ້, ແລະ ການລາຍງານການປະຕິບັດຕາມກົດລະບຽບສາມາດຈັດການໄດ້ (ຫຼືຢ່າງໜ້ອຍກໍ່ຮ່າງກ່ອນ) ໂດຍ AI. ໂດຍການຈັດການໜ້າວຽກເຫຼົ່ານີ້ດ້ວຍຄວາມໄວຂອງເຄື່ອງຈັກ, AI ບໍ່ພຽງແຕ່ປັບປຸງປະສິດທິພາບເທົ່ານັ້ນ ແຕ່ຍັງຊ່ວຍຫຼຸດຜ່ອນຄວາມຜິດພາດຂອງມະນຸດ (ປັດໄຈສຳຄັນໃນການລະເມີດ).

  • ການປ້ອງກັນ ແລະ ການຈຳລອງແບບຕັ້ງໜ້າ: AI ທີ່ສ້າງສັນຊ່ວຍໃຫ້ອົງກອນຕ່າງໆສາມາດປ່ຽນຈາກຄວາມປອດໄພແບບຕອບໂຕ້ໄປສູ່ຄວາມປອດໄພແບບຕັ້ງໜ້າ. ຜ່ານເຕັກນິກຕ່າງໆເຊັ່ນ: ການຈຳລອງການໂຈມຕີ, ການສ້າງຂໍ້ມູນສັງເຄາະ, ແລະ ການຝຶກອົບຮົມໂດຍອີງໃສ່ສະຖານະການ, ຜູ້ປ້ອງກັນສາມາດຄາດເດົາ ແລະ ກຽມພ້ອມສຳລັບໄພຂົ່ມຂູ່ ກ່ອນທີ່ ພວກມັນຈະເກີດຂຶ້ນໃນໂລກແຫ່ງຄວາມເປັນຈິງ. ທີມງານຮັກສາຄວາມປອດໄພສາມາດຈຳລອງການໂຈມຕີທາງໄຊເບີ (ການໂຄສະນາແບບ phishing, ການລະບາດຂອງມັລແວ, DDoS, ແລະອື່ນໆ) ໃນສະພາບແວດລ້ອມທີ່ປອດໄພເພື່ອທົດສອບການຕອບສະໜອງຂອງພວກເຂົາ ແລະ ເສີມສ້າງຈຸດອ່ອນຕ່າງໆ. ການຝຶກອົບຮົມຢ່າງຕໍ່ເນື່ອງນີ້, ເຊິ່ງມັກຈະເປັນໄປບໍ່ໄດ້ທີ່ຈະເຮັດຢ່າງລະອຽດດ້ວຍຄວາມພະຍາຍາມຂອງມະນຸດ, ເຮັດໃຫ້ການປ້ອງກັນມີຄວາມຄົມຊັດ ແລະ ທັນສະໄໝ. ມັນຄ້າຍຄືກັບ "ການຝຶກຊ້ອມໄຟໄໝ້" ທາງໄຊເບີ - AI ສາມາດຖິ້ມໄພຂົ່ມຂູ່ທີ່ສົມມຸດຖານຫຼາຍຢ່າງໃສ່ການປ້ອງກັນຂອງທ່ານ ເພື່ອໃຫ້ທ່ານສາມາດຝຶກຝົນ ແລະ ປັບປຸງໄດ້.

  • ການເພີ່ມທະວີຄວາມຊ່ຽວຊານຂອງມະນຸດ (AI ເປັນຕົວຄູນແຮງ): AI ທີ່ສ້າງສັນເຮັດໜ້າທີ່ເປັນນັກວິເຄາະລະດັບນ້ອຍ, ທີ່ປຶກສາ ແລະ ຜູ້ຊ່ວຍທີ່ບໍ່ຮູ້ຈັກອິດເມື່ອຍລວມເຂົ້າກັນ. ມັນສາມາດໃຫ້ຄຳແນະນຳ ແລະ ຄຳແນະນຳແກ່ສະມາຊິກທີມທີ່ມີປະສົບການໜ້ອຍກວ່າ ເຊິ່ງມັກຈະຄາດຫວັງຈາກຜູ້ຊ່ຽວຊານທີ່ມີປະສົບການ, ເຮັດໃຫ້ ໃນທົ່ວທີມຢ່າງມີປະສິດທິພາບ ( 6 ກໍລະນີການນຳໃຊ້ສຳລັບ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ [+ ຕົວຢ່າງ] ). ສິ່ງນີ້ມີຄຸນຄ່າໂດຍສະເພາະເມື່ອພິຈາລະນາເຖິງການຂາດແຄນພອນສະຫວັນໃນຄວາມປອດໄພທາງໄຊເບີ - AI ຊ່ວຍໃຫ້ທີມງານຂະໜາດນ້ອຍເຮັດໄດ້ຫຼາຍຂຶ້ນດ້ວຍໜ້ອຍລົງ. ໃນທາງກົງກັນຂ້າມ, ນັກວິເຄາະທີ່ມີປະສົບການໄດ້ຮັບຜົນປະໂຫຍດຈາກ AI ທີ່ຈັດການກັບວຽກງານທີ່ຫຍຸ້ງຍາກ ແລະ ເປີດເຜີຍຄວາມເຂົ້າໃຈທີ່ບໍ່ຊັດເຈນ, ເຊິ່ງພວກເຂົາສາມາດກວດສອບ ແລະ ປະຕິບັດໄດ້. ຜົນໄດ້ຮັບໂດຍລວມແມ່ນທີມງານຄວາມປອດໄພທີ່ມີປະສິດທິພາບ ແລະ ມີຄວາມສາມາດຫຼາຍຂຶ້ນ, ໂດຍ AI ຂະຫຍາຍຜົນກະທົບຂອງສະມາຊິກແຕ່ລະຄົນຂອງມະນຸດ ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໄດ້ແນວໃດໃນຄວາມປອດໄພທາງໄຊເບີ ).

  • ການສະໜັບສະໜູນການຕັດສິນໃຈ ແລະ ການລາຍງານທີ່ດີຂຶ້ນ: ໂດຍການແປຂໍ້ມູນດ້ານວິຊາການໃຫ້ເປັນຄວາມເຂົ້າໃຈດ້ານພາສາທຳມະຊາດ, AI ທີ່ສ້າງສັນຊ່ວຍປັບປຸງການສື່ສານ ແລະ ການຕັດສິນໃຈ. ຜູ້ນຳດ້ານຄວາມປອດໄພໄດ້ຮັບການເບິ່ງເຫັນທີ່ຊັດເຈນກວ່າກ່ຽວກັບບັນຫາຕ່າງໆຜ່ານບົດສະຫຼຸບທີ່ສ້າງຂຶ້ນໂດຍ AI ແລະ ສາມາດຕັດສິນໃຈເຊີງຍຸດທະສາດໄດ້ຢ່າງມີຂໍ້ມູນໂດຍບໍ່ຈຳເປັນຕ້ອງວິເຄາະຂໍ້ມູນດິບ. ເຊັ່ນດຽວກັນ, ການສື່ສານຂ້າມໜ້າທີ່ (ກັບຜູ້ບໍລິຫານ, ເຈົ້າໜ້າທີ່ປະຕິບັດຕາມກົດລະບຽບ, ແລະອື່ນໆ) ໄດ້ຮັບການປັບປຸງເມື່ອ AI ກະກຽມບົດລາຍງານທີ່ເຂົ້າໃຈງ່າຍກ່ຽວກັບທ່າທີ ແລະ ເຫດການດ້ານຄວາມປອດໄພ ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ສິ່ງນີ້ບໍ່ພຽງແຕ່ສ້າງຄວາມໝັ້ນໃຈ ແລະ ການສອດຄ່ອງກັນກ່ຽວກັບບັນຫາດ້ານຄວາມປອດໄພໃນລະດັບຜູ້ນຳເທົ່ານັ້ນ ແຕ່ຍັງຊ່ວຍໃຫ້ມີເຫດຜົນໃນການລົງທຶນ ແລະ ການປ່ຽນແປງໂດຍການສະແດງອອກຢ່າງຈະແຈ້ງກ່ຽວກັບຄວາມສ່ຽງ ແລະ ຊ່ອງຫວ່າງທີ່ຄົ້ນພົບໂດຍ AI.

ໃນການປະສົມປະສານກັນ, ຜົນປະໂຫຍດເຫຼົ່ານີ້ໝາຍຄວາມວ່າອົງກອນຕ່າງໆທີ່ນຳໃຊ້ AI ໃນການສ້າງຄວາມປອດໄພທາງໄຊເບີສາມາດບັນລຸທ່າທີຄວາມປອດໄພທີ່ເຂັ້ມແຂງຂຶ້ນດ້ວຍຕົ້ນທຶນການດຳເນີນງານທີ່ຕໍ່າກວ່າ. ພວກເຂົາສາມາດຕອບສະໜອງຕໍ່ໄພຂົ່ມຂູ່ທີ່ເຄີຍມີຫຼາຍເກີນໄປ, ກວມເອົາຊ່ອງຫວ່າງທີ່ບໍ່ໄດ້ຮັບການຕິດຕາມກວດກາ, ແລະປັບປຸງຢ່າງຕໍ່ເນື່ອງຜ່ານວົງຈອນຄຳຕິຊົມທີ່ຂັບເຄື່ອນດ້ວຍ AI. ໃນທີ່ສຸດ, AI ການສ້າງຄວາມປອດໄພສະເໜີໂອກາດທີ່ຈະກ້າວໄປຂ້າງໜ້າສັດຕູໂດຍການຈັບຄູ່ ຄວາມໄວ, ຂະໜາດ, ແລະຄວາມຊັບຊ້ອນ ຂອງການໂຈມຕີທີ່ທັນສະໄໝກັບການປ້ອງກັນທີ່ຊັບຊ້ອນເທົ່າທຽມກັນ. ດັ່ງທີ່ການສຳຫຼວດໜຶ່ງພົບວ່າ, ຫຼາຍກວ່າເຄິ່ງໜຶ່ງຂອງຜູ້ນຳທຸລະກິດ ແລະ ໄຊເບີຄາດວ່າຈະມີການກວດພົບໄພຂົ່ມຂູ່ທີ່ໄວຂຶ້ນ ແລະ ຄວາມຖືກຕ້ອງເພີ່ມຂຶ້ນໂດຍຜ່ານການໃຊ້ AI ການສ້າງຄວາມປອດໄພທາງໄຊເບີ ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( AI ການສ້າງຄວາມປອດໄພທາງໄຊເບີ: ການທົບທວນທີ່ສົມບູນແບບຂອງ LLM ... ) - ເປັນຫຼັກຖານສະແດງເຖິງຄວາມຄິດໃນແງ່ດີກ່ຽວກັບຜົນປະໂຫຍດຂອງເຕັກໂນໂລຢີເຫຼົ່ານີ້.

ຄວາມສ່ຽງ ແລະ ສິ່ງທ້າທາຍຂອງການໃຊ້ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ

ໃນຂະນະທີ່ໂອກາດຕ່າງໆມີຄວາມສຳຄັນ, ມັນເປັນສິ່ງສຳຄັນທີ່ຈະຕ້ອງເຂົ້າຫາ AI ທີ່ສ້າງສັນໃນດ້ານຄວາມປອດໄພທາງໄຊເບີ ໂດຍເປີດໃຈຮັບ ຄວາມສ່ຽງ ແລະ ສິ່ງທ້າທາຍຕ່າງໆ ທີ່ກ່ຽວຂ້ອງ. ການໄວ້ວາງໃຈ AI ໂດຍບໍ່ຕັ້ງໃຈ ຫຼື ການນຳໃຊ້ມັນໃນທາງທີ່ຜິດສາມາດນຳສະເໜີຊ່ອງໂຫວ່ໃໝ່ໆໄດ້. ຂ້າງລຸ່ມນີ້, ພວກເຮົາລະບຸຄວາມກັງວົນ ແລະ ອຸປະສັກຫຼັກໆ, ພ້ອມກັບສະພາບການສຳລັບແຕ່ລະຢ່າງ:

  • ການນໍາໃຊ້ແບບຕໍ່ຕ້ານໂດຍອາດຊະຍາກອນທາງໄຊເບີ: ຄວາມສາມາດໃນການສ້າງແບບດຽວກັນທີ່ຊ່ວຍໃຫ້ຜູ້ປ້ອງກັນສາມາດສ້າງຄວາມເຂັ້ມແຂງໃຫ້ກັບຜູ້ໂຈມຕີ. ຜູ້ກໍ່ໄພຂົ່ມຂູ່ກໍາລັງໃຊ້ AI ເພື່ອສ້າງອີເມວຫຼອກລວງທີ່ໜ້າເຊື່ອຖືຫຼາຍຂຶ້ນ, ສ້າງ personas ປອມ ແລະ ວິດີໂອ deepfake ສໍາລັບວິສະວະກໍາສັງຄົມ, ພັດທະນາມັນແວ polymorphic ທີ່ມີການປ່ຽນແປງຢ່າງຕໍ່ເນື່ອງເພື່ອຫຼີກລ່ຽງການກວດພົບ, ແລະແມ້ກະທັ້ງອັດຕະໂນມັດລັກສະນະຕ່າງໆຂອງການແຮັກ ( AI ໃນການສ້າງແບບຕໍ່ຕ້ານແມ່ນຫຍັງໃນຄວາມປອດໄພທາງໄຊເບີ? - Palo Alto Networks ). ເກືອບເຄິ່ງໜຶ່ງ (46%) ຂອງຜູ້ນໍາດ້ານຄວາມປອດໄພທາງໄຊເບີມີຄວາມກັງວົນວ່າ AI ການສ້າງແບບຕໍ່ຕ້ານຈະນໍາໄປສູ່ການໂຈມຕີແບບຕໍ່ຕ້ານທີ່ກ້າວຫນ້າຫຼາຍຂຶ້ນ ( ຄວາມປອດໄພຂອງ AI ການສ້າງແບບຕໍ່ຕ້ານ: ແນວໂນ້ມ, ໄພ ຂົ່ມຂູ່ ແລະ ຍຸດທະສາດການຫຼຸດຜ່ອນ). "ການແຂ່ງຂັນອາວຸດຂອງ AI" ນີ້ຫມາຍຄວາມວ່າໃນຂະນະທີ່ຜູ້ປ້ອງກັນຮັບເອົາ AI, ຜູ້ໂຈມຕີຈະບໍ່ຢູ່ໄກຫຼັງ (ໃນຄວາມເປັນຈິງ, ພວກເຂົາອາດຈະນໍາໜ້າໃນບາງຂົງເຂດ, ໂດຍໃຊ້ເຄື່ອງມື AI ທີ່ບໍ່ໄດ້ຄວບຄຸມ). ອົງກອນຕ້ອງໄດ້ກຽມພ້ອມສໍາລັບໄພຂົ່ມຂູ່ທີ່ເສີມດ້ວຍ AI ທີ່ມີຄວາມຖີ່, ຊັບຊ້ອນ ແລະ ຍາກທີ່ຈະຕິດຕາມ.

  • ການຫຼອນ ແລະ ຄວາມບໍ່ຖືກຕ້ອງຂອງ AI: ຮູບແບບ AI ທີ່ສ້າງຂຶ້ນສາມາດຜະລິດຜົນຜະລິດທີ່ ເປັນໄປໄດ້ແຕ່ບໍ່ຖືກຕ້ອງ ຫຼື ເຮັດໃຫ້ເຂົ້າໃຈຜິດ - ປະກົດການທີ່ຮູ້ຈັກກັນໃນນາມການຫຼອນ. ໃນສະພາບການຄວາມປອດໄພ, AI ອາດຈະວິເຄາະເຫດການ ແລະ ສະຫຼຸບຢ່າງຜິດພາດວ່າຊ່ອງໂຫວ່ທີ່ແນ່ນອນແມ່ນສາເຫດ, ຫຼື ມັນອາດຈະສ້າງສະຄຣິບການແກ້ໄຂທີ່ມີຂໍ້ບົກພ່ອງທີ່ບໍ່ສາມາດຄວບຄຸມການໂຈມຕີໄດ້. ຄວາມຜິດພາດເຫຼົ່ານີ້ອາດເປັນອັນຕະລາຍຖ້າຖືກນຳມາພິຈາລະນາຕາມມູນຄ່າຕົວຈິງ. ດັ່ງທີ່ NTT Data ເຕືອນ, “AI ທີ່ສ້າງຂຶ້ນອາດຈະຜະລິດເນື້ອຫາທີ່ບໍ່ເປັນຄວາມຈິງອອກມາໄດ້ຢ່າງໜ້າເຊື່ອຖື, ແລະ ປະກົດການນີ້ເອີ້ນວ່າການຫຼອນ... ປະຈຸບັນມັນຍາກທີ່ຈະກຳຈັດພວກມັນອອກໝົດ” ( ຄວາມສ່ຽງດ້ານຄວາມປອດໄພຂອງ AI ທີ່ສ້າງຂຶ້ນ ແລະ ມາດຕະການຕອບໂຕ້, ແລະ ຜົນກະທົບຂອງມັນຕໍ່ຄວາມປອດໄພທາງໄຊເບີ | NTT DATA Group ). ການເພິ່ງພາ AI ຫຼາຍເກີນໄປໂດຍບໍ່ມີການກວດສອບອາດຈະນຳໄປສູ່ຄວາມພະຍາຍາມທີ່ບໍ່ຖືກຕ້ອງ ຫຼື ຄວາມຮູ້ສຶກທີ່ບໍ່ຖືກຕ້ອງກ່ຽວກັບຄວາມປອດໄພ. ຕົວຢ່າງ, AI ອາດຈະໝາຍລະບົບທີ່ສຳຄັນວ່າປອດໄພຢ່າງບໍ່ຖືກຕ້ອງເມື່ອມັນບໍ່ແມ່ນ, ຫຼື ໃນທາງກັບກັນ, ເຮັດໃຫ້ເກີດຄວາມຕົກໃຈໂດຍການ “ກວດພົບ” ການລະເມີດທີ່ບໍ່ເຄີຍເກີດຂຶ້ນ. ການກວດສອບຄວາມຖືກຕ້ອງຢ່າງເຂັ້ມງວດຂອງຜົນຜະລິດ AI ແລະ ການມີມະນຸດຢູ່ໃນວົງຈອນສຳລັບການຕັດສິນໃຈທີ່ສຳຄັນແມ່ນສິ່ງຈຳເປັນເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງນີ້.

  • ຜົນບວກທີ່ບໍ່ຖືກຕ້ອງ ແລະ ຜົນລົບທີ່ບໍ່ຖືກຕ້ອງ: ກ່ຽວຂ້ອງກັບອາການຫຼອນ, ຖ້າຮູບແບບ AI ໄດ້ຮັບການຝຶກອົບຮົມ ຫຼື ຕັ້ງຄ່າບໍ່ດີ, ມັນອາດຈະ ລາຍງານກິດຈະກຳທີ່ບໍ່ເປັນອັນຕະລາຍຫຼາຍເກີນໄປວ່າເປັນອັນຕະລາຍ (ຜົນບວກທີ່ບໍ່ຖືກຕ້ອງ) ຫຼື ຮ້າຍແຮງກວ່ານັ້ນ, ພາດໄພຂົ່ມຂູ່ທີ່ແທ້ຈິງ (ຜົນລົບທີ່ບໍ່ຖືກຕ້ອງ) ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໄດ້ແນວໃດໃນຄວາມປອດໄພທາງໄຊເບີ ). ການແຈ້ງເຕືອນທີ່ບໍ່ຖືກຕ້ອງຫຼາຍເກີນໄປສາມາດເຮັດໃຫ້ທີມງານຄວາມປອດໄພຮູ້ສຶກເບື່ອໜ່າຍ ແລະ ນຳໄປສູ່ຄວາມອິດເມື່ອຍຂອງການແຈ້ງເຕືອນ (ຍົກເລີກຜົນປະໂຫຍດດ້ານປະສິດທິພາບທີ່ AI ໄດ້ສັນຍາໄວ້), ໃນຂະນະທີ່ການກວດພົບທີ່ພາດໄປເຮັດໃຫ້ອົງກອນຖືກເປີດເຜີຍ. ການປັບແຕ່ງຮູບແບບທີ່ສ້າງສັນເພື່ອຄວາມສົມດຸນທີ່ຖືກຕ້ອງແມ່ນສິ່ງທ້າທາຍ. ແຕ່ລະສະພາບແວດລ້ອມແມ່ນເປັນເອກະລັກ, ແລະ AI ອາດຈະບໍ່ປະຕິບັດໄດ້ດີທີ່ສຸດໃນທັນທີ. ການຮຽນຮູ້ຢ່າງຕໍ່ເນື່ອງກໍ່ເປັນດາບສອງຄົມເຊັ່ນກັນ - ຖ້າ AI ຮຽນຮູ້ຈາກຄຳຕິຊົມທີ່ບິດເບືອນ ຫຼື ຈາກສະພາບແວດລ້ອມທີ່ປ່ຽນແປງ, ຄວາມຖືກຕ້ອງຂອງມັນສາມາດປ່ຽນແປງໄດ້. ທີມງານຄວາມປອດໄພຕ້ອງຕິດຕາມປະສິດທິພາບຂອງ AI ແລະ ປັບຂອບເຂດ ຫຼື ໃຫ້ຄຳຕິຊົມແກ້ໄຂໃຫ້ກັບຮູບແບບ. ໃນສະພາບການທີ່ມີຄວາມສ່ຽງສູງ (ເຊັ່ນ: ການກວດຈັບການບຸກລຸກສຳລັບພື້ນຖານໂຄງລ່າງທີ່ສຳຄັນ), ມັນອາດຈະເປັນການສະຫຼາດທີ່ຈະໃຊ້ຄຳແນະນຳ AI ຄຽງຄູ່ກັບລະບົບທີ່ມີຢູ່ແລ້ວເປັນໄລຍະເວລາໜຶ່ງ, ເພື່ອຮັບປະກັນວ່າພວກມັນສອດຄ່ອງ ແລະ ເສີມເຕີມແທນທີ່ຈະຂັດແຍ້ງ.

  • ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ ແລະ ການຮົ່ວໄຫຼ: ລະບົບ AI ທີ່ສ້າງຂຶ້ນມັກຈະຕ້ອງການຂໍ້ມູນຈຳນວນຫຼວງຫຼາຍສຳລັບການຝຶກອົບຮົມ ແລະ ການດຳເນີນງານ. ຖ້າຮູບແບບເຫຼົ່ານີ້ອີງໃສ່ຄລາວ ຫຼື ບໍ່ໄດ້ແຍກອອກຢ່າງຖືກຕ້ອງ, ມີຄວາມສ່ຽງທີ່ຂໍ້ມູນທີ່ລະອຽດອ່ອນອາດຈະຮົ່ວໄຫຼ. ຜູ້ໃຊ້ອາດຈະປ້ອນຂໍ້ມູນທີ່ເປັນເຈົ້າຂອງ ຫຼື ຂໍ້ມູນສ່ວນຕົວເຂົ້າໃນການບໍລິການ AI ໂດຍບໍ່ໄດ້ຕັ້ງໃຈ (ຄິດວ່າການຂໍໃຫ້ ChatGPT ສະຫຼຸບລາຍງານເຫດການທີ່ເປັນຄວາມລັບ), ແລະ ຂໍ້ມູນນັ້ນອາດຈະກາຍເປັນສ່ວນໜຶ່ງຂອງຄວາມຮູ້ຂອງຮູບແບບ. ແທ້ຈິງແລ້ວ, ການສຶກສາທີ່ຜ່ານມາພົບວ່າ 55% ຂອງການປ້ອນຂໍ້ມູນເຂົ້າໃນເຄື່ອງມື AI ທີ່ສ້າງຂຶ້ນມີຂໍ້ມູນທີ່ລະອຽດອ່ອນ ຫຼື ຂໍ້ມູນທີ່ລະບຸຕົວຕົນສ່ວນຕົວ , ເຊິ່ງເຮັດໃຫ້ເກີດຄວາມກັງວົນຢ່າງຮ້າຍແຮງກ່ຽວກັບການຮົ່ວໄຫຼຂອງຂໍ້ມູນ ( ຄວາມປອດໄພຂອງ AI ທີ່ສ້າງຂຶ້ນ: ແນວໂນ້ມ, ໄພຂົ່ມຂູ່ ແລະ ຍຸດທະສາດການຫຼຸດຜ່ອນຄວາມສ່ຽງ ). ນອກຈາກນັ້ນ, ຖ້າ AI ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນພາຍໃນ ແລະ ມັນຖືກສອບຖາມໃນບາງວິທີ, ມັນອາດຈະ ສົ່ງ ຂໍ້ມູນທີ່ລະອຽດອ່ອນນັ້ນອອກໄປໃຫ້ຄົນອື່ນ. ອົງກອນຕ່າງໆຕ້ອງປະຕິບັດນະໂຍບາຍການຈັດການຂໍ້ມູນທີ່ເຂັ້ມງວດ (ເຊັ່ນ: ການໃຊ້ຕົວຢ່າງ AI ໃນສະຖານທີ່ ຫຼື ສ່ວນຕົວສຳລັບເນື້ອຫາທີ່ລະອຽດອ່ອນ) ແລະ ສຶກສາອົບຮົມພະນັກງານກ່ຽວກັບການບໍ່ວາງຂໍ້ມູນລັບເຂົ້າໃນເຄື່ອງມື AI ສາທາລະນະ. ກົດລະບຽບຄວາມເປັນສ່ວນຕົວ (GDPR, ແລະອື່ນໆ) ກໍ່ມີບົດບາດເຊັ່ນກັນ - ການໃຊ້ຂໍ້ມູນສ່ວນຕົວເພື່ອຝຶກອົບຮົມ AI ໂດຍບໍ່ໄດ້ຮັບການຍິນຍອມ ຫຼື ການປົກປ້ອງທີ່ເໝາະສົມອາດຈະຜິດກົດໝາຍ.

  • ຄວາມປອດໄພ ແລະ ການຫມູນໃຊ້ຂອງຮູບແບບ: ຮູບແບບ AI ທີ່ສ້າງຂື້ນເອງສາມາດກາຍເປັນເປົ້າໝາຍໄດ້. ສັດຕູອາດຈະພະຍາຍາມ ທຳລາຍຮູບແບບ , ໂດຍການໃຫ້ຂໍ້ມູນທີ່ເປັນອັນຕະລາຍ ຫຼື ເຮັດໃຫ້ເຂົ້າໃຈຜິດໃນລະຫວ່າງໄລຍະການຝຶກອົບຮົມ ຫຼື ການຝຶກອົບຮົມຄືນໃໝ່ ເພື່ອໃຫ້ AI ຮຽນຮູ້ຮູບແບບທີ່ບໍ່ຖືກຕ້ອງ ( ວິທີການນຳໃຊ້ AI ທີ່ສ້າງຂື້ນໃນຄວາມປອດໄພທາງໄຊເບີ ). ຕົວຢ່າງ, ຜູ້ໂຈມຕີອາດຈະທຳລາຍຂໍ້ມູນລັບຂອງໄພຂົ່ມຂູ່ຢ່າງລະອຽດ ເພື່ອໃຫ້ AI ບໍ່ສາມາດຮັບຮູ້ມັລແວຂອງຜູ້ໂຈມຕີເອງວ່າເປັນອັນຕະລາຍ. ຍຸດທະວິທີອີກອັນໜຶ່ງແມ່ນ ການສີດທັນທີ ຫຼື ການຫມູນໃຊ້ຜົນຜະລິດ , ບ່ອນທີ່ຜູ້ໂຈມຕີຊອກຫາວິທີທີ່ຈະອອກຂໍ້ມູນປ້ອນເຂົ້າໃຫ້ AI ທີ່ເຮັດໃຫ້ມັນປະພຶດຕົວໃນທາງທີ່ບໍ່ຕັ້ງໃຈ - ບາງທີອາດຈະບໍ່ສົນໃຈມາດຕະການຄວາມປອດໄພຂອງມັນ ຫຼື ເປີດເຜີຍຂໍ້ມູນທີ່ມັນບໍ່ຄວນ (ເຊັ່ນ: ການກະຕຸ້ນພາຍໃນ ຫຼື ຂໍ້ມູນ). ນອກຈາກນັ້ນ, ຍັງມີຄວາມສ່ຽງຂອງ ການຫຼົບຫຼີກຮູບແບບ : ຜູ້ໂຈມຕີສ້າງຂໍ້ມູນປ້ອນເຂົ້າທີ່ຖືກອອກແບບມາເປັນພິເສດເພື່ອຫຼອກລວງ AI. ພວກເຮົາເຫັນສິ່ງນີ້ໃນຕົວຢ່າງຂອງສັດຕູ - ຂໍ້ມູນທີ່ລົບກວນເລັກນ້ອຍທີ່ມະນຸດເຫັນວ່າເປັນເລື່ອງປົກກະຕິ ແຕ່ AI ຈັດປະເພດຜິດ. ການຮັບປະກັນວ່າລະບົບຕ່ອງໂສ້ການສະໜອງ AI ມີຄວາມປອດໄພ (ຄວາມສົມບູນຂອງຂໍ້ມູນ, ການຄວບຄຸມການເຂົ້າເຖິງຮູບແບບ, ການທົດສອບຄວາມທົນທານຂອງຄູ່ແຂ່ງ) ແມ່ນສ່ວນໜຶ່ງໃໝ່ແຕ່ຈຳເປັນຂອງຄວາມປອດໄພທາງໄຊເບີເມື່ອນຳໃຊ້ເຄື່ອງມືເຫຼົ່ານີ້ ( Generative AI ໃນຄວາມປອດໄພທາງໄຊເບີແມ່ນຫຍັງ? - Palo Alto Networks ).

  • ການເພິ່ງພາອາໄສ AI ຫຼາຍເກີນໄປ ແລະ ການຫຼຸດລົງຂອງທັກສະ: ມີຄວາມສ່ຽງທີ່ອ່ອນກວ່າທີ່ອົງກອນຕ່າງໆອາດຈະເພິ່ງພາ AI ຫຼາຍເກີນໄປ ແລະ ປ່ອຍໃຫ້ທັກສະຂອງມະນຸດເສື່ອມໂຊມ. ຖ້ານັກວິເຄາະລຸ້ນໃໝ່ໄວ້ວາງໃຈຜົນຜະລິດຂອງ AI ໂດຍບໍ່ມີເຫດຜົນ, ພວກເຂົາອາດຈະບໍ່ພັດທະນາການຄິດຢ່າງມີວິຈານ ແລະ ສະຕິປັນຍາທີ່ຈຳເປັນສຳລັບເວລາທີ່ AI ບໍ່ມີໃຫ້ໃຊ້ ຫຼື ຜິດພາດ. ສະຖານະການທີ່ຄວນຫຼີກລ່ຽງແມ່ນທີມງານຄວາມປອດໄພທີ່ມີເຄື່ອງມືທີ່ດີເລີດ ແຕ່ບໍ່ຮູ້ວ່າຈະດຳເນີນການແນວໃດ ຖ້າເຄື່ອງມືເຫຼົ່ານັ້ນລົ້ມເຫຼວ (ຄ້າຍຄືກັບນັກບິນທີ່ເພິ່ງພາອາໄສລະບົບອັດຕະໂນມັດຫຼາຍເກີນໄປ). ການຝຶກຊ້ອມເປັນປະຈຳໂດຍບໍ່ມີການຊ່ວຍເຫຼືອຈາກ AI ແລະ ການສົ່ງເສີມແນວຄິດທີ່ວ່າ AI ເປັນຜູ້ຊ່ວຍ, ບໍ່ແມ່ນຜູ້ທຳນາຍທີ່ບໍ່ມີຂໍ້ຜິດພາດ, ແມ່ນສິ່ງສຳຄັນທີ່ຈະເຮັດໃຫ້ນັກວິເຄາະຂອງມະນຸດມີຄວາມຄົມຊັດ. ມະນຸດຕ້ອງເປັນຜູ້ຕັດສິນໃຈສຸດທ້າຍ, ໂດຍສະເພາະສຳລັບການຕັດສິນທີ່ມີຜົນກະທົບສູງ.

  • ສິ່ງທ້າທາຍດ້ານຈັນຍາບັນ ແລະ ການປະຕິບັດຕາມກົດລະບຽບ: ການນຳໃຊ້ AI ໃນຄວາມປອດໄພທາງໄຊເບີເຮັດໃຫ້ເກີດຄຳຖາມດ້ານຈັນຍາບັນ ແລະ ອາດຈະເຮັດໃຫ້ເກີດບັນຫາການປະຕິບັດຕາມກົດລະບຽບ. ຕົວຢ່າງ, ຖ້າລະບົບ AI ບົ່ງບອກພະນັກງານວ່າເປັນຄົນພາຍໃນທີ່ມີເຈດຕະນາຮ້າຍຢ່າງຜິດພາດຍ້ອນຄວາມຜິດປົກກະຕິ, ມັນອາດຈະທຳລາຍຊື່ສຽງ ຫຼື ອາຊີບຂອງບຸກຄົນນັ້ນຢ່າງບໍ່ຍຸດຕິທຳ. ການຕັດສິນໃຈທີ່ເຮັດໂດຍ AI ອາດຈະບໍ່ຊັດເຈນ (ບັນຫາ "ກ່ອງດຳ"), ເຮັດໃຫ້ມັນຍາກທີ່ຈະອະທິບາຍໃຫ້ຜູ້ກວດສອບ ຫຼື ຜູ້ຄວບຄຸມຮູ້ວ່າເປັນຫຍັງຈຶ່ງມີການດຳເນີນການບາງຢ່າງ. ຍ້ອນວ່າເນື້ອຫາທີ່ສ້າງຂຶ້ນໂດຍ AI ມີຄວາມແຜ່ຫຼາຍຫຼາຍຂຶ້ນ, ການຮັບປະກັນຄວາມໂປ່ງໃສ ແລະ ການຮັກສາຄວາມຮັບຜິດຊອບແມ່ນມີຄວາມສຳຄັນຫຼາຍ. ຜູ້ຄວບຄຸມກຳລັງເລີ່ມກວດສອບ AI - ຕົວຢ່າງ, ກົດໝາຍ AI ຂອງ EU ຈະບັງຄັບໃຊ້ຂໍ້ກຳນົດກ່ຽວກັບລະບົບ AI ທີ່ "ມີຄວາມສ່ຽງສູງ", ແລະ AI ຄວາມປອດໄພທາງໄຊເບີອາດຈະຕົກຢູ່ໃນໝວດໝູ່ນັ້ນ. ບໍລິສັດຕ່າງໆຈະຕ້ອງນຳທາງກົດລະບຽບເຫຼົ່ານີ້ ແລະ ອາດຈະປະຕິບັດຕາມມາດຕະຖານເຊັ່ນ: ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ AI ຂອງ NIST ເພື່ອໃຊ້ AI ທີ່ສ້າງສັນຢ່າງມີຄວາມຮັບຜິດຊອບ ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໄດ້ແນວໃດໃນຄວາມປອດໄພທາງໄຊເບີ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ການປະຕິບັດຕາມຍັງຂະຫຍາຍໄປສູ່ການອອກໃບອະນຸຍາດອີກດ້ວຍ: ການໃຊ້ຮູບແບບແຫຼ່ງເປີດ ຫຼື ພາກສ່ວນທີສາມອາດຈະມີເງື່ອນໄຂທີ່ຈຳກັດການນຳໃຊ້ບາງຢ່າງ ຫຼື ຕ້ອງການການປັບປຸງການແບ່ງປັນ.

ສະຫຼຸບແລ້ວ, AI ທີ່ສາມາດສ້າງໄດ້ບໍ່ແມ່ນບັນຫາງ່າຍ - ຖ້າບໍ່ໄດ້ນຳໃຊ້ຢ່າງລະມັດລະວັງ, ມັນສາມາດນຳສະເໜີຈຸດອ່ອນໃໝ່ໆໄດ້ເຖິງແມ່ນວ່າມັນຈະແກ້ໄຂຈຸດອ່ອນອື່ນໆກໍຕາມ. ການສຶກສາຂອງເວທີປຶກສາຫາລືເສດຖະກິດໂລກໃນປີ 2024 ໄດ້ເນັ້ນໃຫ້ເຫັນວ່າປະມານ 47% ຂອງອົງກອນຕ່າງໆອ້າງເຖິງຄວາມກ້າວໜ້າໃນ AI ທີ່ສາມາດສ້າງໄດ້ໂດຍຜູ້ໂຈມຕີເປັນຄວາມກັງວົນຫຼັກ, ເຊິ່ງເຮັດໃຫ້ມັນເປັນ "ຜົນກະທົບທີ່ໜ້າເປັນຫ່ວງທີ່ສຸດຂອງ AI ທີ່ສາມາດສ້າງໄດ້" ໃນຄວາມປອດໄພທາງໄຊເບີ ( [PDF] ທັດສະນະຄວາມປອດໄພທາງໄຊເບີທົ່ວໂລກ 2025 | ເວທີປຶກສາຫາລືເສດຖະກິດໂລກ ) ( AI ທີ່ສາມາດສ້າງໄດ້ໃນຄວາມປອດໄພທາງໄຊເບີ: ການທົບທວນທີ່ສົມບູນແບບຂອງ LLM ... ). ດັ່ງນັ້ນ, ອົງກອນຕ່າງໆຕ້ອງຮັບຮອງເອົາວິທີການທີ່ສົມດຸນ: ນຳໃຊ້ຜົນປະໂຫຍດຂອງ AI ໃນຂະນະທີ່ຄຸ້ມຄອງຄວາມສ່ຽງເຫຼົ່ານີ້ຢ່າງເຂັ້ມງວດຜ່ານການຄຸ້ມຄອງ, ການທົດສອບ, ແລະການກວດສອບຂອງມະນຸດ. ຕໍ່ໄປພວກເຮົາຈະປຶກສາຫາລືກ່ຽວກັບວິທີການບັນລຸຄວາມສົມດຸນນັ້ນໃນທາງປະຕິບັດ.

ທັດສະນະໃນອະນາຄົດ: ບົດບາດທີ່ພັດທະນາຂອງ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ

ເມື່ອເບິ່ງໄປຂ້າງໜ້າ, ປັນຍາປະດິດທີ່ສ້າງສັນ (AI) ພ້ອມແລ້ວທີ່ຈະກາຍເປັນສ່ວນໜຶ່ງທີ່ສຳຄັນຂອງຍຸດທະສາດຄວາມປອດໄພທາງໄຊເບີ - ແລະເຊັ່ນດຽວກັນ, ເປັນເຄື່ອງມືທີ່ສັດຕູທາງໄຊເບີຈະສືບຕໍ່ນຳໃຊ້. ການເຄື່ອນໄຫວແບບແມວກັບໜູ ຈະເລັ່ງຂຶ້ນ, ໂດຍມີ AI ຢູ່ທັງສອງດ້ານຂອງຮົ້ວ. ນີ້ແມ່ນຄວາມເຂົ້າໃຈທີ່ຄາດຄະເນໄວ້ລ່ວງໜ້າກ່ຽວກັບວິທີທີ່ AI ທີ່ສ້າງສັນອາດຈະສ້າງຮູບແບບຄວາມປອດໄພທາງໄຊເບີໃນຊຸມປີຕໍ່ໜ້າ:

  • ການປ້ອງກັນທາງໄຊເບີທີ່ເສີມດ້ວຍ AI ກາຍເປັນມາດຕະຖານ: ພາຍໃນປີ 2025 ແລະຕໍ່ໄປ, ພວກເຮົາສາມາດຄາດຫວັງໄດ້ວ່າອົງກອນຂະໜາດກາງຫາໃຫຍ່ສ່ວນໃຫຍ່ຈະໄດ້ລວມເອົາເຄື່ອງມືທີ່ຂັບເຄື່ອນດ້ວຍ AI ເຂົ້າໃນການດໍາເນີນງານດ້ານຄວາມປອດໄພຂອງເຂົາເຈົ້າ. ເຊັ່ນດຽວກັບໂປຣແກຣມປ້ອງກັນໄວຣັສ ແລະ ໄຟວໍລ໌ທີ່ເປັນມາດຕະຖານໃນປະຈຸບັນ, ຜູ້ຮ່ວມພັດທະນາ AI ແລະ ລະບົບການກວດຈັບຄວາມຜິດປົກກະຕິອາດຈະກາຍເປັນອົງປະກອບພື້ນຖານຂອງສະຖາປັດຕະຍະກໍາຄວາມປອດໄພ. ເຄື່ອງມືເຫຼົ່ານີ້ມີແນວໂນ້ມທີ່ຈະມີຄວາມຊ່ຽວຊານຫຼາຍຂຶ້ນ - ຕົວຢ່າງ, ຮູບແບບ AI ທີ່ແຕກຕ່າງກັນທີ່ໄດ້ຮັບການປັບແຕ່ງສໍາລັບຄວາມປອດໄພຂອງຄລາວ, ສໍາລັບການຕິດຕາມອຸປະກອນ IoT, ສໍາລັບຄວາມປອດໄພຂອງລະຫັດແອັບພລິເຄຊັນ, ແລະອື່ນໆ, ທັງໝົດເຮັດວຽກຮ່ວມກັນ. ດັ່ງທີ່ການຄາດຄະເນຫນຶ່ງໄດ້ລະບຸໄວ້, "ໃນປີ 2025, AI ທີ່ສ້າງສັນຈະເປັນສ່ວນປະກອບສໍາຄັນໃນຄວາມປອດໄພທາງໄຊເບີ, ຊ່ວຍໃຫ້ອົງກອນສາມາດປ້ອງກັນໄພຂົ່ມຂູ່ທີ່ຊັບຊ້ອນແລະພັດທະນາໄດ້ຢ່າງມີປະສິດທິພາບ" ( ວິທີການນໍາໃຊ້ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ ). AI ຈະເສີມຂະຫຍາຍການກວດຈັບໄພຂົ່ມຂູ່ໃນເວລາຈິງ, ເຮັດໃຫ້ການປະຕິບັດການຕອບສະໜອງຫຼາຍຢ່າງເປັນອັດຕະໂນມັດ, ແລະຊ່ວຍໃຫ້ທີມງານຄວາມປອດໄພຈັດການຂໍ້ມູນປະລິມານຫຼາຍກວ່າທີ່ພວກເຂົາສາມາດເຮັດໄດ້ດ້ວຍຕົນເອງ.

  • ການຮຽນຮູ້ ແລະ ການປັບຕົວຢ່າງຕໍ່ເນື່ອງ: ລະບົບ AI ທີ່ສາມາດສ້າງໄດ້ໃນອະນາຄົດໃນໄຊເບີຈະດີຂຶ້ນໃນ ການຮຽນຮູ້ທັນທີ ຈາກເຫດການໃໝ່ໆ ແລະ ຂໍ້ມູນຂ່າວສານກ່ຽວກັບໄພຂົ່ມຂູ່, ອັບເດດຖານຄວາມຮູ້ຂອງພວກມັນເກືອບທັນທີ. ສິ່ງນີ້ອາດຈະນຳໄປສູ່ການປ້ອງກັນທີ່ສາມາດປັບຕົວໄດ້ຢ່າງແທ້ຈິງ - ລອງນຶກພາບ AI ທີ່ຮຽນຮູ້ກ່ຽວກັບແຄມເປນ phishing ໃໝ່ທີ່ໂຈມຕີບໍລິສັດອື່ນໃນຕອນເຊົ້າ ແລະ ຕອນບ່າຍໄດ້ປັບຕົວກອງອີເມວຂອງບໍລິສັດຂອງທ່ານແລ້ວ. ການບໍລິການຄວາມປອດໄພ AI ທີ່ອີງໃສ່ຄລາວອາດຈະອຳນວຍຄວາມສະດວກໃຫ້ແກ່ການຮຽນຮູ້ຮ່ວມກັນແບບນີ້, ບ່ອນທີ່ຄວາມເຂົ້າໃຈທີ່ບໍ່ລະບຸຊື່ຈາກອົງກອນໜຶ່ງຈະເປັນປະໂຫຍດຕໍ່ຜູ້ສະໝັກໃຊ້ທຸກຄົນ (ຄ້າຍຄືກັບການແບ່ງປັນຂໍ້ມູນຂ່າວສານກ່ຽວກັບໄພຂົ່ມຂູ່, ແຕ່ເປັນແບບອັດຕະໂນມັດ). ຢ່າງໃດກໍຕາມ, ສິ່ງນີ້ຈະຕ້ອງມີການຈັດການຢ່າງລະມັດລະວັງເພື່ອຫຼີກເວັ້ນການແບ່ງປັນຂໍ້ມູນທີ່ລະອຽດອ່ອນ ແລະ ເພື່ອປ້ອງກັນບໍ່ໃຫ້ຜູ້ໂຈມຕີປ້ອນຂໍ້ມູນທີ່ບໍ່ດີເຂົ້າໃນຮູບແບບທີ່ແບ່ງປັນ.

  • ການລວມຕົວກັນຂອງພອນສະຫວັນດ້ານ AI ແລະ ຄວາມປອດໄພທາງໄຊເບີ: ຊຸດທັກສະຂອງຜູ້ຊ່ຽວຊານດ້ານຄວາມປອດໄພທາງໄຊເບີຈະພັດທະນາໄປລວມເຖິງຄວາມຊຳນານໃນດ້ານ AI ແລະ ວິທະຍາສາດຂໍ້ມູນ. ເຊັ່ນດຽວກັບນັກວິເຄາະໃນປະຈຸບັນຮຽນຮູ້ພາສາສອບຖາມ ແລະ ການຂຽນສະຄຣິບ, ນັກວິເຄາະໃນອະນາຄົດອາດຈະປັບແຕ່ງຮູບແບບ AI ເປັນປະຈຳ ຫຼື ຂຽນ "ຄູ່ມື" ໃຫ້ AI ປະຕິບັດ. ພວກເຮົາອາດຈະເຫັນບົດບາດໃໝ່ໆເຊັ່ນ "ຄູຝຶກຄວາມປອດໄພ AI" ຫຼື "ວິສະວະກອນ AI ຄວາມປອດໄພທາງໄຊເບີ" - ຜູ້ທີ່ມີຄວາມຊ່ຽວຊານໃນການປັບເຄື່ອງມື AI ໃຫ້ເຂົ້າກັບຄວາມຕ້ອງການຂອງອົງກອນ, ການກວດສອບປະສິດທິພາບຂອງເຂົາເຈົ້າ, ແລະ ຮັບປະກັນວ່າເຂົາເຈົ້າເຮັດວຽກຢ່າງປອດໄພ. ໃນທາງກັບກັນ, ການພິຈາລະນາດ້ານຄວາມປອດໄພທາງໄຊເບີຈະມີອິດທິພົນຕໍ່ການພັດທະນາ AI ຫຼາຍຂຶ້ນ. ລະບົບ AI ຈະຖືກສ້າງຂຶ້ນດ້ວຍຄຸນສົມບັດຄວາມປອດໄພຕັ້ງແຕ່ເລີ່ມຕົ້ນ (ສະຖາປັດຕະຍະກຳທີ່ປອດໄພ, ການກວດຈັບການແຊກແຊງ, ບັນທຶກການກວດສອບສຳລັບການຕັດສິນໃຈຂອງ AI, ແລະອື່ນໆ), ແລະ ຂອບການເຮັດວຽກສຳລັບ AI ທີ່ໜ້າເຊື່ອຖື (ຍຸດຕິທຳ, ອະທິບາຍໄດ້, ແຂງແຮງ, ແລະ ປອດໄພ) ຈະນຳພາການນຳໃຊ້ຂອງເຂົາເຈົ້າໃນສະພາບການທີ່ສຳຄັນຕໍ່ຄວາມປອດໄພ.

  • ການໂຈມຕີທີ່ໃຊ້ AI ທີ່ມີຄວາມຊັບຊ້ອນຫຼາຍຂຶ້ນ: ແຕ່ຫນ້າເສຍດາຍ, ພູມສັນຖານໄພຂົ່ມຂູ່ຍັງຈະພັດທະນາໄປພ້ອມກັບ AI. ພວກເຮົາຄາດວ່າຈະມີການນໍາໃຊ້ AI ເລື້ອຍໆເພື່ອຄົ້ນພົບຊ່ອງໂຫວ່ zero-day, ເພື່ອສ້າງ spear phishing ເປົ້າໝາຍສູງ (ເຊັ່ນ: AI ຂູດສື່ສັງຄົມເພື່ອສ້າງເຫຍື່ອທີ່ເໝາະສົມຢ່າງສົມບູນແບບ), ແລະເພື່ອສ້າງສຽງຫຼືວິດີໂອ deepfake ທີ່ໜ້າເຊື່ອຖືເພື່ອຫຼີກລ່ຽງການກວດສອບຄວາມຖືກຕ້ອງທາງຊີວະມິຕິ ຫຼື ກະທຳການສໍ້ໂກງ. ຕົວແທນການແຮັກອັດຕະໂນມັດອາດຈະເກີດຂຶ້ນທີ່ສາມາດປະຕິບັດການໂຈມຕີຫຼາຍຂັ້ນຕອນໄດ້ຢ່າງເປັນອິດສະຫຼະ (ການສອດແນມ, ການຂູດຮີດ, ການເຄື່ອນໄຫວຂ້າງ, ແລະອື່ນໆ) ດ້ວຍການເບິ່ງແຍງຂອງມະນຸດໜ້ອຍທີ່ສຸດ. ນີ້ຈະກົດດັນຜູ້ປ້ອງກັນໃຫ້ອີງໃສ່ AI - ໂດຍພື້ນຖານແລ້ວແມ່ນ ອັດຕະໂນມັດທຽບກັບອັດຕະໂນ . ການໂຈມຕີບາງຢ່າງອາດຈະເກີດຂຶ້ນໃນຄວາມໄວຂອງເຄື່ອງຈັກ, ເຊັ່ນ: ບັອດ AI ທີ່ພະຍາຍາມປ່ຽນແທນອີເມວ phishing ຫຼາຍພັນອັນເພື່ອເບິ່ງວ່າອັນໃດຜ່ານຕົວກອງ. ການປ້ອງກັນທາງໄຊເບີຈະຕ້ອງດໍາເນີນການໃນຄວາມໄວແລະຄວາມຍືດຫຍຸ່ນທີ່ຄ້າຍຄືກັນເພື່ອໃຫ້ທັນກັບ ( AI ທີ່ສ້າງຂື້ນໃນຄວາມປອດໄພທາງໄຊເບີແມ່ນຫຍັງ? - Palo Alto Networks ).

  • ກົດລະບຽບ ແລະ ປັນຍາປະດິດດ້ານຈັນຍາບັນໃນຄວາມປອດໄພ: ຍ້ອນວ່າ ປັນຍາປະດິດ (AI) ໄດ້ຮັບການຝັງເລິກຢູ່ໃນໜ້າທີ່ດ້ານຄວາມປອດໄພທາງໄຊເບີ, ຈະມີການກວດສອບຢ່າງລະອຽດ ແລະ ອາດຈະມີກົດລະບຽບເພື່ອຮັບປະກັນວ່າລະບົບ ປັນຍາປະດິດເຫຼົ່ານີ້ຖືກນໍາໃຊ້ຢ່າງມີຄວາມຮັບຜິດຊອບ. ພວກເຮົາສາມາດຄາດຫວັງຂອບ ແລະ ມາດຕະຖານສະເພາະສຳລັບ ປັນຍາປະດິດ ໃນຄວາມປອດໄພ. ລັດຖະບານອາດຈະກຳນົດແນວທາງສຳລັບຄວາມໂປ່ງໃສ - ຕົວຢ່າງ, ຮຽກຮ້ອງໃຫ້ການຕັດສິນໃຈດ້ານຄວາມປອດໄພທີ່ສຳຄັນ (ເຊັ່ນ: ການຢຸດການເຂົ້າເຖິງຂອງພະນັກງານສຳລັບກິດຈະກຳທີ່ສົງໃສວ່າເປັນອັນຕະລາຍ) ບໍ່ສາມາດເຮັດໄດ້ໂດຍ ປັນຍາປະດິດ ພຽງຜູ້ດຽວໂດຍບໍ່ມີການທົບທວນຄືນຂອງມະນຸດ. ອາດຈະມີການຮັບຮອງສຳລັບຜະລິດຕະພັນຄວາມປອດໄພ ປັນຍາປະດິດ, ເພື່ອຮັບປະກັນຜູ້ຊື້ວ່າ ປັນຍາປະດິດໄດ້ຮັບການປະເມີນຄວາມລຳອຽງ, ຄວາມທົນທານ, ແລະ ຄວາມປອດໄພ. ນອກຈາກນັ້ນ, ການຮ່ວມມືສາກົນອາດຈະເຕີບໃຫຍ່ຂຶ້ນອ້ອມຮອບໄພຂົ່ມຂູ່ທາງໄຊເບີທີ່ກ່ຽວຂ້ອງກັບ ປັນຍາປະດິດ; ຕົວຢ່າງ, ຂໍ້ຕົກລົງກ່ຽວກັບການຈັດການກັບຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງທີ່ສ້າງຂຶ້ນໂດຍ ປັນຍາປະດິດ ຫຼື ມາດຕະຖານຕໍ່ກັບອາວຸດທາງໄຊເບີທີ່ຂັບເຄື່ອນດ້ວຍ ປັນຍາປະດິດ ບາງຢ່າງ.

  • ການເຊື່ອມໂຍງກັບ AI ແລະລະບົບນິເວດໄອທີທີ່ກວ້າງຂວາງ: AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີອາດຈະປະສົມປະສານກັບລະບົບ AI ແລະເຄື່ອງມືການຄຸ້ມຄອງໄອທີອື່ນໆ. ຕົວຢ່າງ, AI ທີ່ຈັດການການເພີ່ມປະສິດທິພາບເຄືອຂ່າຍສາມາດເຮັດວຽກກັບ AI ຄວາມປອດໄພເພື່ອຮັບປະກັນວ່າການປ່ຽນແປງຈະບໍ່ເປີດຊ່ອງໂຫວ່. ການວິເຄາະທຸລະກິດທີ່ຂັບເຄື່ອນດ້ວຍ AI ອາດຈະແບ່ງປັນຂໍ້ມູນກັບ AI ຄວາມປອດໄພເພື່ອເຊື່ອມໂຍງຄວາມຜິດປົກກະຕິ (ເຊັ່ນ: ການຫຼຸດລົງຢ່າງກະທັນຫັນຂອງຍອດຂາຍກັບບັນຫາເວັບໄຊທ໌ທີ່ອາດເກີດຂຶ້ນຍ້ອນການໂຈມຕີ). ໂດຍຫຍໍ້ແລ້ວ, AI ຈະບໍ່ຢູ່ໃນ silo - ມັນຈະເປັນສ່ວນໜຶ່ງຂອງໂຄງສ້າງອັດສະລິຍະທີ່ໃຫຍ່ກວ່າຂອງການດຳເນີນງານຂອງອົງກອນ. ສິ່ງນີ້ເປີດໂອກາດໃຫ້ແກ່ການຄຸ້ມຄອງຄວາມສ່ຽງແບບຮອບດ້ານບ່ອນທີ່ຂໍ້ມູນການດຳເນີນງານ, ຂໍ້ມູນໄພຂົ່ມຂູ່, ແລະແມ່ນແຕ່ຂໍ້ມູນຄວາມປອດໄພທາງກາຍະພາບສາມາດຖືກລວມເຂົ້າກັນໂດຍ AI ເພື່ອໃຫ້ມີມຸມມອງ 360 ອົງສາຂອງທ່າທາງຄວາມປອດໄພຂອງອົງກອນ.

ໃນໄລຍະຍາວ, ຄວາມຫວັງແມ່ນວ່າ AI ທີ່ສ້າງສັນຈະຊ່ວຍປັບສົມດຸນໃຫ້ເໝາະສົມກັບຜູ້ປົກປ້ອງ. ໂດຍການຈັດການຂະໜາດ ແລະ ຄວາມຊັບຊ້ອນຂອງສະພາບແວດລ້ອມໄອທີທີ່ທັນສະໄໝ, AI ສາມາດເຮັດໃຫ້ພື້ນທີ່ໄຊເບີມີການປ້ອງກັນຫຼາຍຂຶ້ນ. ເຖິງຢ່າງໃດກໍ່ຕາມ, ມັນເປັນການເດີນທາງ, ແລະ ຈະມີຄວາມເຈັບປວດເພີ່ມຂຶ້ນເມື່ອພວກເຮົາປັບປຸງເຕັກໂນໂລຢີເຫຼົ່ານີ້ ແລະ ຮຽນຮູ້ທີ່ຈະໄວ້ວາງໃຈພວກມັນຢ່າງເໝາະສົມ. ອົງກອນທີ່ຕິດຕາມຂໍ້ມູນຂ່າວສານ ແລະ ລົງທຶນໃນ ການຮັບຮອງເອົາ AI ທີ່ມີຄວາມຮັບຜິດຊອບ ເພື່ອຄວາມປອດໄພອາດຈະເປັນຜູ້ທີ່ມີທ່າທີ່ດີທີ່ສຸດທີ່ຈະນຳທາງໄພຂົ່ມຂູ່ໃນອະນາຄົດ.

ດັ່ງທີ່ບົດລາຍງານແນວໂນ້ມຄວາມປອດໄພທາງໄຊເບີທີ່ຜ່ານມາຂອງ Gartner ໄດ້ກ່າວໄວ້ວ່າ “ການເກີດຂຶ້ນຂອງກໍລະນີການນຳໃຊ້ AI ທີ່ສ້າງສັນ (ແລະຄວາມສ່ຽງ) ກຳລັງສ້າງຄວາມກົດດັນໃຫ້ແກ່ການຫັນປ່ຽນ” ( ແນວໂນ້ມຄວາມປອດໄພທາງໄຊເບີ: ຄວາມຢືດຢຸ່ນຜ່ານການຫັນປ່ຽນ - Gartner ). ຜູ້ທີ່ປັບຕົວຈະນຳໃຊ້ AI ເປັນພັນທະມິດທີ່ມີອຳນາດ; ຜູ້ທີ່ຊັກຊ້າອາດຈະພົບວ່າຕົນເອງຖືກຄູ່ແຂ່ງທີ່ມີອຳນາດຈາກ AI ແຊງໜ້າ. ສອງສາມປີຂ້າງໜ້າຈະເປັນຊ່ວງເວລາທີ່ສຳຄັນໃນການກຳນົດວິທີທີ່ AI ປ່ຽນຮູບແບບສະໜາມຮົບທາງໄຊເບີ.

ບົດຮຽນທີ່ເປັນປະໂຫຍດສຳລັບການຮັບຮອງເອົາ AI ທີ່ສ້າງສັນໃນຄວາມປອດໄພທາງໄຊເບີ

ສຳລັບທຸລະກິດທີ່ກຳລັງປະເມີນວິທີການນຳໃຊ້ AI ທີ່ສ້າງສັນໃນຍຸດທະສາດຄວາມປອດໄພທາງໄຊເບີຂອງເຂົາເຈົ້າ, ນີ້ແມ່ນບາງ ບົດຮຽນ ແລະ ຄຳແນະນຳທີ່ເປັນປະໂຫຍດ ເພື່ອນຳພາການຮັບຮອງເອົາທີ່ມີຄວາມຮັບຜິດຊອບ ແລະ ມີປະສິດທິພາບ:

  1. ເລີ່ມຕົ້ນດ້ວຍການສຶກສາ ແລະການຝຶກອົບຮົມ: ໃຫ້ແນ່ໃຈວ່າທີມງານຄວາມປອດໄພຂອງທ່ານ (ແລະພະນັກງານໄອທີທີ່ກວ້າງຂຶ້ນ) ເຂົ້າໃຈສິ່ງທີ່ AI ທົ່ວໄປສາມາດເຮັດໄດ້ ແລະເຮັດບໍ່ໄດ້. ໃຫ້ການຝຶກອົບຮົມກ່ຽວກັບພື້ນຖານຂອງເຄື່ອງມືຄວາມປອດໄພທີ່ຂັບເຄື່ອນດ້ວຍ AI ແລະອັບເດດ ໂຄງການຮັບຮູ້ຄວາມປອດໄພ ສໍາລັບພະນັກງານທຸກຄົນເພື່ອກວມເອົາໄພຂົ່ມຂູ່ທີ່ເປີດໃຊ້ AI. ຕົວຢ່າງ, ສອນພະນັກງານວ່າ AI ສາມາດສ້າງການຫລອກລວງ phishing ທີ່ຫນ້າເຊື່ອຖືໄດ້ແນວໃດ ແລະການໂທຫາປອມ. ໃນເວລາດຽວກັນ, ຝຶກອົບຮົມພະນັກງານກ່ຽວກັບການນໍາໃຊ້ທີ່ປອດໄພແລະອະນຸມັດຂອງເຄື່ອງມື AI ໃນການເຮັດວຽກຂອງເຂົາເຈົ້າ. ຜູ້​ໃຊ້​ທີ່​ມີ​ຂໍ້​ມູນ​ດີ​ມີ​ຄວາມ​ສ່ຽງ​ຫນ້ອຍ​ທີ່​ຈະ​ໃຊ້ AI ຜິດ​ຫຼື​ຕົກ​ເປັນ​ເຫຍື່ອ​ຂອງ​ການ​ໂຈມ​ຕີ​ທີ່​ປັບ​ປຸງ AI ( ການ​ນໍາ​ໃຊ້ AI Generative ໃນ​ຄວາມ​ປອດ​ໄພ​ທາງ​ອິນ​ເຕີ​ເນັດ​ໄດ້​ແນວ​ໃດ? 10 ຕົວ​ຢ່າງ​ໃນ​ໂລກ​ທີ່​ແທ້​ຈິງ ).

  2. ກຳນົດນະໂຍບາຍການນຳໃຊ້ AI ທີ່ຊັດເຈນ: ປະຕິບັດຕໍ່ AI ທີ່ສ້າງສັນຄືກັບເທັກໂນໂລຢີທີ່ມີປະສິດທິພາບໃດໆ - ດ້ວຍການຄຸ້ມຄອງ. ພັດທະນານະໂຍບາຍທີ່ລະບຸວ່າໃຜສາມາດໃຊ້ເຄື່ອງມື AI ໄດ້, ເຄື່ອງມືໃດທີ່ຖືກລົງໂທດ, ແລະ ເພື່ອຈຸດປະສົງຫຍັງ. ລວມເອົາຄຳແນະນຳກ່ຽວກັບການຈັດການຂໍ້ມູນທີ່ລະອຽດອ່ອນ (ເຊັ່ນ: ບໍ່ໃຫ້ຂໍ້ມູນລັບ ເຂົ້າໄປໃນການບໍລິການ AI ພາຍນອກ) ເພື່ອປ້ອງກັນການຮົ່ວໄຫຼ. ຕົວຢ່າງ, ທ່ານອາດຈະອະນຸຍາດໃຫ້ສະມາຊິກທີມງານຄວາມປອດໄພເທົ່ານັ້ນທີ່ໃຊ້ຜູ້ຊ່ວຍ AI ພາຍໃນສຳລັບການຕອບສະໜອງຕໍ່ເຫດການ, ແລະ ການຕະຫຼາດສາມາດໃຊ້ AI ທີ່ໄດ້ຮັບການກວດສອບສຳລັບເນື້ອຫາ - ທຸກຄົນຖືກຈຳກັດ. ປະຈຸບັນຫຼາຍອົງກອນກຳລັງກ່າວເຖິງ AI ທີ່ສ້າງສັນຢ່າງຊັດເຈນໃນນະໂຍບາຍໄອທີຂອງເຂົາເຈົ້າ, ແລະ ອົງການມາດຕະຖານຊັ້ນນຳສົ່ງເສີມນະໂຍບາຍການນຳໃຊ້ທີ່ປອດໄພແທນທີ່ຈະເປັນການຫ້າມໂດຍກົງ ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ໃຫ້ແນ່ໃຈວ່າໄດ້ສື່ສານກົດລະບຽບເຫຼົ່ານີ້ ແລະ ເຫດຜົນທີ່ຢູ່ເບື້ອງຫຼັງພວກມັນໃຫ້ກັບພະນັກງານທຸກຄົນ.

  3. ຫຼຸດຜ່ອນ “Shadow AI” ແລະ ຕິດຕາມກວດກາການນຳໃຊ້: ຄ້າຍຄືກັບ shadow IT, “shadow AI” ເກີດຂຶ້ນເມື່ອພະນັກງານເລີ່ມໃຊ້ເຄື່ອງມື ຫຼື ການບໍລິການ AI ໂດຍທີ່ IT ບໍ່ຮູ້ (ເຊັ່ນ: ນັກພັດທະນາທີ່ໃຊ້ຜູ້ຊ່ວຍລະຫັດ AI ທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ). ສິ່ງນີ້ສາມາດນຳສະເໜີຄວາມສ່ຽງທີ່ເບິ່ງບໍ່ເຫັນ. ຈັດຕັ້ງປະຕິບັດມາດຕະການເພື່ອ ກວດຫາ ແລະ ຄວບຄຸມການນຳໃຊ້ AI ທີ່ບໍ່ໄດ້ຮັບ ອະນຸຍາດໃຫ້ໃຊ້. ການຕິດຕາມກວດກາເຄືອຂ່າຍສາມາດໝາຍເຖິງການເຊື່ອມຕໍ່ກັບ API AI ທີ່ນິຍົມ, ແລະ ການສຳຫຼວດ ຫຼື ການກວດສອບເຄື່ອງມືສາມາດເປີດເຜີຍສິ່ງທີ່ພະນັກງານກຳລັງໃຊ້. ສະເໜີທາງເລືອກທີ່ໄດ້ຮັບການອະນຸມັດເພື່ອໃຫ້ພະນັກງານທີ່ມີເຈດຕະນາດີບໍ່ຖືກລໍ້ລວງໃຫ້ຫຼອກລວງ (ຕົວຢ່າງ, ໃຫ້ບັນຊີ ChatGPT Enterprise ຢ່າງເປັນທາງການຖ້າຄົນເຫັນວ່າມັນເປັນປະໂຫຍດ). ໂດຍການນຳເອົາການນຳໃຊ້ AI ມາສູ່ແສງສະຫວ່າງ, ທີມງານຄວາມປອດໄພສາມາດປະເມີນ ແລະ ຈັດການຄວາມສ່ຽງ. ການຕິດຕາມກວດກາຍັງເປັນສິ່ງສຳຄັນ - ບັນທຶກກິດຈະກຳ ແລະ ຜົນຜະລິດຂອງເຄື່ອງມື AI ໃຫ້ຫຼາຍເທົ່າທີ່ເປັນໄປໄດ້, ດັ່ງນັ້ນຈຶ່ງມີເສັ້ນທາງການກວດສອບສຳລັບການຕັດສິນໃຈທີ່ມີອິດທິພົນຕໍ່ AI ( AI ທີ່ສ້າງໄດ້ສາມາດຖືກນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ).

  4. ໃຊ້ປະໂຫຍດຈາກ AI ໃນການປ້ອງກັນ - ຢ່າຕົກຢູ່ເບື້ອງຫຼັງ: ຮັບຮູ້ວ່າຜູ້ໂຈມຕີຈະໃຊ້ AI, ສະນັ້ນການປ້ອງກັນຂອງທ່ານກໍ່ຄວນໃຊ້ເຊັ່ນກັນ. ກຳນົດພື້ນທີ່ທີ່ມີຜົນກະທົບສູງສອງສາມບ່ອນທີ່ AI ທີ່ສ້າງສັນສາມາດຊ່ວຍການດຳເນີນງານຄວາມປອດໄພຂອງທ່ານໄດ້ທັນທີ (ບາງທີອາດຈະເປັນການຄັດເລືອກການແຈ້ງເຕືອນ, ຫຼືການວິເຄາະບັນທຶກອັດຕະໂນມັດ) ແລະດຳເນີນໂຄງການທົດລອງ. ເສີມສ້າງການປ້ອງກັນຂອງທ່ານດ້ວຍຄວາມໄວ ແລະ ຂະໜາດຂອງ AI ເພື່ອຕ້ານກັບໄພຂົ່ມຂູ່ທີ່ເຄື່ອນທີ່ໄວ ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໄດ້ແນວໃດໃນຄວາມປອດໄພທາງໄຊເບີ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ແມ່ນແຕ່ການເຊື່ອມໂຍງງ່າຍໆ, ເຊັ່ນການໃຊ້ AI ເພື່ອສະຫຼຸບລາຍງານມັນແວ ຫຼື ສ້າງຄຳຖາມລ່າສັດໄພຂົ່ມຂູ່, ສາມາດປະຫຍັດເວລາຂອງນັກວິເຄາະໄດ້. ເລີ່ມຕົ້ນຈາກສິ່ງເລັກໆນ້ອຍໆ, ປະເມີນຜົນໄດ້ຮັບ, ແລະເຮັດຊ້ຳອີກ. ຄວາມສຳເລັດຈະສ້າງກໍລະນີສຳລັບການຮັບຮອງເອົາ AI ທີ່ກວ້າງຂວາງ. ເປົ້າໝາຍແມ່ນການໃຊ້ AI ເປັນຕົວຄູນກຳລັງ - ຕົວຢ່າງ, ຖ້າການໂຈມຕີແບບ phishing ເຮັດໃຫ້ helpdesk ຂອງທ່ານລົ້ນເຫຼືອ, ໃຫ້ນຳໃຊ້ຕົວຈັດປະເພດອີເມວ AI ເພື່ອຫຼຸດປະລິມານນັ້ນລົງຢ່າງມີປະສິດທິພາບ.

  5. ລົງທຶນໃນການປະຕິບັດ AI ທີ່ປອດໄພ ແລະ ມີຈັນຍາບັນ: ເມື່ອຈັດຕັ້ງປະຕິບັດ AI ທີ່ສ້າງສັນ, ໃຫ້ປະຕິບັດຕາມການປະຕິບັດການພັດທະນາ ແລະ ການນຳໃຊ້ທີ່ປອດໄພ. ໃຊ້ ຮູບແບບສ່ວນຕົວ ຫຼື ແບບທີ່ໂຮດເອງ ສຳລັບວຽກງານທີ່ລະອຽດອ່ອນເພື່ອຮັກສາການຄວບຄຸມຂໍ້ມູນ. ຖ້າໃຊ້ບໍລິການ AI ຂອງພາກສ່ວນທີສາມ, ໃຫ້ທົບທວນມາດຕະການຄວາມປອດໄພ ແລະ ຄວາມເປັນສ່ວນຕົວຂອງພວກມັນ (ການເຂົ້າລະຫັດ, ນະໂຍບາຍການເກັບຮັກສາຂໍ້ມູນ, ແລະອື່ນໆ). ລວມເອົາຂອບການຄຸ້ມຄອງຄວາມສ່ຽງຂອງ AI (ເຊັ່ນ: ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງຂອງ AI ຂອງ NIST ຫຼື ຄຳແນະນຳ ISO/IEC) ເພື່ອແກ້ໄຂສິ່ງຕ່າງໆຢ່າງເປັນລະບົບເຊັ່ນ: ອະຄະຕິ, ການອະທິບາຍ, ແລະ ຄວາມທົນທານໃນເຄື່ອງມື AI ຂອງທ່ານ ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ? 10 ຕົວຢ່າງໃນໂລກຕົວຈິງ ). ວາງແຜນສຳລັບການອັບເດດ/ແກ້ໄຂຮູບແບບເປັນສ່ວນໜຶ່ງຂອງການບຳລຸງຮັກສາ - ຮູບແບບ AI ສາມາດມີ "ຄວາມສ່ຽງ" ໄດ້ເຊັ່ນກັນ (ຕົວຢ່າງ: ພວກມັນອາດຈະຕ້ອງການການຝຶກອົບຮົມຄືນໃໝ່ຖ້າພວກມັນເລີ່ມຫຼົງທາງ ຫຼື ຖ້າຄົ້ນພົບການໂຈມຕີແບບປະເພດໃໝ່ຕໍ່ຮູບແບບ). ໂດຍການລວມເອົາຄວາມປອດໄພ ແລະ ຈັນຍາບັນເຂົ້າໃນການນຳໃຊ້ AI ຂອງທ່ານ, ທ່ານສ້າງຄວາມໄວ້ວາງໃຈໃນຜົນໄດ້ຮັບ ແລະ ຮັບປະກັນການປະຕິບັດຕາມລະບຽບການທີ່ເກີດຂຶ້ນໃໝ່.

  6. ຮັກສາມະນຸດໃຫ້ຢູ່ໃນວົງຈອນ: ໃຊ້ AI ເພື່ອຊ່ວຍເຫຼືອ, ບໍ່ແມ່ນທົດແທນການຕັດສິນຂອງມະນຸດຢ່າງສົມບູນໃນດ້ານຄວາມປອດໄພທາງໄຊເບີ. ກຳນົດຈຸດຕັດສິນໃຈທີ່ຕ້ອງການການກວດສອບຄວາມຖືກຕ້ອງຂອງມະນຸດ (ຕົວຢ່າງ, AI ອາດຈະຮ່າງລາຍງານເຫດການ, ແຕ່ນັກວິເຄາະຈະກວດສອບມັນກ່ອນການແຈກຢາຍ; ຫຼື AI ອາດຈະແນະນຳໃຫ້ບລັອກບັນຊີຜູ້ໃຊ້, ແຕ່ມະນຸດອະນຸມັດການກະທຳນັ້ນ). ສິ່ງນີ້ບໍ່ພຽງແຕ່ປ້ອງກັນຄວາມຜິດພາດຂອງ AI ຈາກການຖືກກວດສອບເທົ່ານັ້ນ, ແຕ່ຍັງຊ່ວຍໃຫ້ທີມງານຂອງທ່ານຮຽນຮູ້ຈາກ AI ແລະໃນທາງກັບກັນ. ຊຸກຍູ້ຂະບວນການເຮັດວຽກຮ່ວມກັນ: ນັກວິເຄາະຄວນຮູ້ສຶກສະບາຍໃຈທີ່ຈະຖາມຜົນໄດ້ຮັບຂອງ AI ແລະປະຕິບັດການກວດສອບສຸຂະພາບ. ເມື່ອເວລາຜ່ານໄປ, ການສົນທະນານີ້ສາມາດປັບປຸງທັງ AI (ຜ່ານຄຳຕິຊົມ) ແລະທັກສະຂອງນັກວິເຄາະ. ໂດຍພື້ນຖານແລ້ວ, ອອກແບບຂະບວນການຂອງທ່ານໃຫ້ AI ແລະຈຸດແຂງຂອງມະນຸດເສີມເຊິ່ງກັນແລະກັນ - AI ຈັດການປະລິມານແລະຄວາມໄວ, ມະນຸດຈັດການຄວາມບໍ່ແນ່ນອນແລະການຕັດສິນໃຈສຸດທ້າຍ.

  7. ວັດແທກ, ຕິດຕາມກວດກາ, ແລະ ປັບປ່ຽນ: ສຸດທ້າຍ, ໃຫ້ປະຕິບັດຕໍ່ເຄື່ອງມື AI ທີ່ສ້າງສັນຂອງທ່ານເປັນອົງປະກອບທີ່ມີຊີວິດຊີວາຂອງລະບົບນິເວດຄວາມປອດໄພຂອງທ່ານ. ວັດແທກປະສິດທິພາບຂອງພວກມັນ - ພວກມັນກຳລັງຫຼຸດຜ່ອນເວລາຕອບສະໜອງຕໍ່ເຫດການບໍ? ຈັບໄພຂົ່ມຂູ່ກ່ອນໜ້ານີ້ບໍ? ອັດຕາການເກີດຜົນບວກທີ່ບໍ່ຖືກຕ້ອງມີແນວໂນ້ມແນວໃດ? ຂໍຄໍາຄິດເຫັນຈາກທີມງານ: ຄໍາແນະນໍາຂອງ AI ມີປະໂຫຍດບໍ, ຫຼືມັນກໍາລັງສ້າງສຽງລົບກວນບໍ? ໃຊ້ຕົວຊີ້ວັດເຫຼົ່ານີ້ເພື່ອປັບປຸງຮູບແບບ, ອັບເດດຂໍ້ມູນການຝຶກອົບຮົມ, ຫຼື ປັບວິທີການປະສົມປະສານ AI. ໄພຂົ່ມຂູ່ທາງໄຊເບີ ແລະ ຄວາມຕ້ອງການທາງທຸລະກິດມີວິວັດທະນາການ, ແລະ ຮູບແບບ AI ຂອງທ່ານຄວນຈະໄດ້ຮັບການອັບເດດ ຫຼື ຝຶກອົບຮົມຄືນໃໝ່ເປັນໄລຍະເພື່ອໃຫ້ມີປະສິດທິພາບ. ມີແຜນການສໍາລັບການຄຸ້ມຄອງຮູບແບບ, ລວມທັງຜູ້ທີ່ຮັບຜິດຊອບຕໍ່ການບໍາລຸງຮັກສາ ແລະ ຄວາມຖີ່ຂອງການທົບທວນຄືນ. ໂດຍການຄຸ້ມຄອງວົງຈອນຊີວິດຂອງ AI ຢ່າງຫ້າວຫັນ, ທ່ານຮັບປະກັນວ່າມັນຍັງຄົງເປັນຊັບສິນ, ບໍ່ແມ່ນໜີ້ສິນ.

ສະຫຼຸບແລ້ວ, AI ທີ່ສ້າງສັນສາມາດເສີມຂະຫຍາຍຄວາມສາມາດດ້ານຄວາມປອດໄພທາງໄຊເບີໄດ້ຢ່າງຫຼວງຫຼາຍ, ແຕ່ການຮັບຮອງເອົາທີ່ປະສົບຜົນສຳເລັດຮຽກຮ້ອງໃຫ້ມີການວາງແຜນຢ່າງລະອຽດຮອບຄອບ ແລະ ການຕິດຕາມກວດກາຢ່າງຕໍ່ເນື່ອງ. ທຸລະກິດທີ່ສຶກສາອົບຮົມປະຊາຊົນຂອງເຂົາເຈົ້າ, ກຳນົດແນວທາງທີ່ຊັດເຈນ, ແລະ ເຊື່ອມໂຍງ AI ໃນລັກສະນະທີ່ສົມດຸນ ແລະ ປອດໄພຈະເກັບກ່ຽວຜົນຕອບແທນຈາກການຄຸ້ມຄອງໄພຂົ່ມຂູ່ທີ່ໄວຂຶ້ນ ແລະ ສະຫຼາດກວ່າ. ບົດຮຽນເຫຼົ່ານັ້ນໃຫ້ແຜນທີ່ເສັ້ນທາງ: ລວມເອົາຄວາມຊ່ຽວຊານຂອງມະນຸດເຂົ້າກັບລະບົບອັດຕະໂນມັດຂອງ AI, ກວມເອົາພື້ນຖານການຄຸ້ມຄອງ, ແລະ ຮັກສາຄວາມວ່ອງໄວຍ້ອນວ່າທັງເຕັກໂນໂລຊີ AI ແລະ ພູມສັນຖານໄພຂົ່ມຂູ່ພັດທະນາຢ່າງຫຼີກລ່ຽງບໍ່ໄດ້.

ໂດຍການປະຕິບັດຕາມຂັ້ນຕອນທີ່ເປັນປະໂຫຍດເຫຼົ່ານີ້, ອົງກອນຕ່າງໆສາມາດຕອບຄຳຖາມໄດ້ຢ່າງໝັ້ນໃຈວ່າ "AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ?" - ບໍ່ພຽງແຕ່ໃນທິດສະດີເທົ່ານັ້ນ, ແຕ່ໃນການປະຕິບັດປະຈຳວັນ - ແລະ ດັ່ງນັ້ນຈຶ່ງເສີມສ້າງການປ້ອງກັນຂອງເຂົາເຈົ້າໃນໂລກດິຈິຕອນ ແລະ ຂັບເຄື່ອນດ້ວຍ AI ທີ່ເພີ່ມຂຶ້ນເລື້ອຍໆຂອງພວກເຮົາ. ( AI ທີ່ສ້າງສັນສາມາດນຳໃຊ້ໃນຄວາມປອດໄພທາງໄຊເບີໄດ້ແນວໃດ )

ເອກະສານຂາວທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກອັນນີ້:

🔗 ວຽກທີ່ AI ບໍ່ສາມາດທົດແທນໄດ້ ແລະ ວຽກໃດແດ່ທີ່ AI ຈະທົດແທນ?
ສຳຫຼວດທັດສະນະທົ່ວໂລກກ່ຽວກັບບົດບາດໃດທີ່ປອດໄພຈາກການເຮັດວຽກແບບອັດຕະໂນມັດ ແລະ ວຽກໃດທີ່ບໍ່ປອດໄພ.

🔗 AI ສາມາດຄາດເດົາຕະຫຼາດຫຼັກຊັບໄດ້ບໍ?
ການພິຈາລະນາຢ່າງລະອຽດກ່ຽວກັບຂໍ້ຈຳກັດ, ການຄົ້ນພົບທີ່ກ້າວໜ້າ ແລະ ຄວາມເຊື່ອທີ່ບໍ່ຖືກຕ້ອງກ່ຽວກັບຄວາມສາມາດຂອງ AI ໃນການຄາດຄະເນການເຄື່ອນໄຫວຂອງຕະຫຼາດ.

🔗 ປັນຍາປະດິດ (AI) ສາມາດອີງໃສ່ເຮັດຫຍັງໄດ້ແດ່ໂດຍບໍ່ມີການແຊກແຊງຂອງມະນຸດ?
ເຂົ້າໃຈວ່າ AI ສາມາດດຳເນີນງານໄດ້ຢ່າງເປັນອິດສະຫຼະຢູ່ໃສ ແລະ ການຄວບຄຸມຂອງມະນຸດຍັງຄົງມີຄວາມຈຳເປັນຢູ່ໃສ.

ກັບໄປທີ່ບລັອກ