ຄຳຕອບສັ້ນໆ: ນັກພັດທະນາທີ່ໃຊ້ AI ທີ່ສ້າງສັນມີຄວາມຮັບຜິດຊອບຕໍ່ລະບົບທັງໝົດ, ບໍ່ພຽງແຕ່ຜົນຜະລິດຂອງຮູບແບບເທົ່ານັ້ນ. ເມື່ອ AI ມີອິດທິພົນຕໍ່ການຕັດສິນໃຈ, ລະຫັດ, ຄວາມເປັນສ່ວນຕົວ, ຫຼື ຄວາມໄວ້ວາງໃຈຂອງຜູ້ໃຊ້, ພວກເຂົາຕ້ອງເລືອກແອັບພລິເຄຊັນທີ່ປອດໄພ, ກວດສອບຜົນໄດ້ຮັບ, ປົກປ້ອງຂໍ້ມູນ, ຫຼຸດຜ່ອນອັນຕະລາຍ, ແລະຮັບປະກັນວ່າຜູ້ຄົນສາມາດກວດສອບ, ຍົກເລີກ, ແລະແກ້ໄຂຄວາມຜິດພາດໄດ້.
ບົດຮຽນຫຼັກ:
ການຢັ້ງຢືນ : ປະຕິບັດຕໍ່ຜົນຜະລິດທີ່ຂັດແລ້ວວ່າບໍ່ໜ້າເຊື່ອຖືຈົນກວ່າແຫຼ່ງຂໍ້ມູນ, ການທົດສອບ ຫຼື ການທົບທວນຂອງມະນຸດຈະຢືນຢັນສິ່ງເຫຼົ່ານັ້ນ.
ການປົກປ້ອງຂໍ້ມູນ : ຫຼຸດຜ່ອນຂໍ້ມູນທີ່ວ່ອງໄວ, ລຶບຕົວລະບຸ, ແລະ ຮັກສາບັນທຶກ, ການຄວບຄຸມການເຂົ້າເຖິງ ແລະ ຜູ້ຂາຍໃຫ້ປອດໄພ.
ຄວາມຍຸຕິທຳ : ທົດສອບໃນທົ່ວຂໍ້ມູນປະຊາກອນ ແລະ ສະພາບການຕ່າງໆ ເພື່ອຈັບເອົາແບບແຜນ ແລະ ຮູບແບບຄວາມລົ້ມເຫຼວທີ່ບໍ່ສະເໝີພາບ.
ຄວາມໂປ່ງໃສ : ຕິດປ້າຍການນຳໃຊ້ AI ຢ່າງຈະແຈ້ງ, ອະທິບາຍຂໍ້ຈຳກັດຂອງມັນ, ແລະ ສະເໜີການທົບທວນຄືນ ຫຼື ການອຸທອນຈາກມະນຸດ.
ຄວາມຮັບຜິດຊອບ : ມອບໝາຍເຈົ້າຂອງທີ່ຊັດເຈນສຳລັບການນຳໃຊ້, ເຫດການຕ່າງໆ, ການຕິດຕາມກວດກາ ແລະ ການຍ້ອນກັບກ່ອນການເປີດຕົວ.

ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:
🔗 ເຄື່ອງມື AI ທີ່ດີທີ່ສຸດສຳລັບນັກພັດທະນາຊອບແວ: ຜູ້ຊ່ວຍຂຽນລະຫັດທີ່ໃຊ້ AI ອັນດັບຕົ້ນໆ
ປຽບທຽບຜູ້ຊ່ວຍຂຽນໂປຣແກຣມ AI ຊັ້ນນໍາເພື່ອຂະບວນການພັດທະນາທີ່ໄວຂຶ້ນ ແລະ ສະອາດກວ່າ.
🔗 10 ເຄື່ອງມື AI ອັນດັບຕົ້ນໆສຳລັບນັກພັດທະນາເພື່ອເພີ່ມຜົນຜະລິດ
ລາຍຊື່ເຄື່ອງມື AI ຂອງນັກພັດທະນາທີ່ໄດ້ຮັບການຈັດອັນດັບສຳລັບການຂຽນໂປຣແກຣມ ແລະ ຄວາມໄວທີ່ສະຫຼາດກວ່າ.
🔗 ເປັນຫຍັງ AI ຈຶ່ງບໍ່ດີຕໍ່ສັງຄົມ ແລະ ຄວາມໄວ້ວາງໃຈ
ອະທິບາຍເຖິງອັນຕະລາຍໃນໂລກແຫ່ງຄວາມເປັນຈິງຄື: ອະຄະຕິ, ຄວາມເປັນສ່ວນຕົວ, ວຽກເຮັດງານທຳ ແລະ ຄວາມສ່ຽງດ້ານຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ.
🔗 AI ໄດ້ກ້າວໄປໄກເກີນໄປໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງບໍ?
ກຳນົດເວລາທີ່ AI ຂ້າມເສັ້ນ: ການເຝົ້າລະວັງ, ການປອມແປງ deepfakes, ການຊັກຊວນ, ບໍ່ມີການຍິນຍອມ.
ເປັນຫຍັງຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI ຈຶ່ງມີຄວາມສຳຄັນຫຼາຍກວ່າທີ່ຄົນຄິດ
ມີຂໍ້ຜິດພາດຫຼາຍຢ່າງຂອງຊອບແວທີ່ໜ້າລຳຄານ. ປຸ່ມແຕກ. ໜ້າເວັບໂຫຼດຊ້າ. ມີບາງຢ່າງຂັດຂ້ອງ ແລະ ທຸກຄົນກໍ່ຮ້ອງຄາງ.
ບັນຫາ AI ທີ່ສ້າງຂຶ້ນສາມາດແຕກຕ່າງກັນໄດ້. ພວກມັນອາດຈະລະອຽດອ່ອນ.
ຮູບແບບສາມາດຟັງຄືວ່າມີຄວາມໝັ້ນໃຈໃນຂະນະທີ່ຜິດພາດ. ໂປຣໄຟລ໌ NIST GenAI ມັນສາມາດສ້າງຄວາມລຳອຽງຄືນໄດ້ໂດຍບໍ່ມີສັນຍານເຕືອນທີ່ຊັດເຈນ ໂປຣໄຟລ໌ NIST GenAI ມັນສາມາດເປີດເຜີຍຂໍ້ມູນທີ່ລະອຽດອ່ອນຖ້າໃຊ້ຢ່າງບໍ່ລະມັດລະວັງ. 10 ອັນດັບຕົ້ນໆຂອງ OWASP ສຳລັບແອັບພລິເຄຊັນ LLM ແປດຄຳຖາມຂອງ ICO ສຳລັບ AI ທີ່ສ້າງສັນ ມັນສາມາດຜະລິດລະຫັດທີ່ເຮັດວຽກໄດ້ - ຈົນກວ່າມັນຈະລົ້ມເຫຼວໃນການຜະລິດໃນທາງທີ່ໜ້າອາຍຢ່າງເລິກເຊິ່ງ. 10 ອັນດັບຕົ້ນໆຂອງ OWASP ສຳລັບແອັບພລິເຄຊັນ LLM ຄ້າຍຄືກັບການຈ້າງພະນັກງານຝຶກງານທີ່ມີຄວາມກະຕືລືລົ້ນຫຼາຍຜູ້ທີ່ບໍ່ເຄີຍນອນຫຼັບ ແລະບາງຄັ້ງຄາວກໍ່ປະດິດຂໍ້ເທັດຈິງດ້ວຍຄວາມໝັ້ນໃຈທີ່ໜ້າຕື່ນຕາຕື່ນໃຈ.
ນັ້ນແມ່ນເຫດຜົນທີ່ ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI ແມ່ນໃຫຍ່ກວ່າການຈັດຕັ້ງປະຕິບັດແບບງ່າຍໆ. ນັກພັດທະນາບໍ່ພຽງແຕ່ສ້າງລະບົບເຫດຜົນເທົ່ານັ້ນ. ພວກເຂົາກຳລັງສ້າງລະບົບຄວາມເປັນໄປໄດ້ທີ່ມີຂອບທີ່ມົວ, ຜົນຜະລິດທີ່ຄາດເດົາບໍ່ໄດ້, ແລະຜົນສະທ້ອນທາງສັງຄົມທີ່ແທ້ຈິງ. NIST AI RMF
ນັ້ນໝາຍຄວາມວ່າຄວາມຮັບຜິດຊອບລວມມີ:
-
ເຂົ້າໃຈຂໍ້ຈຳກັດຂອງຮູບແບບ NIST AI RMF
-
ການປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້ ຄຳແນະນຳ ICO ກ່ຽວກັບ AI ແລະ ການປົກປ້ອງຂໍ້ມູນ
-
ການຫຼຸດຜ່ອນຜົນຜະລິດທີ່ເປັນອັນຕະລາຍ ໂປຣໄຟລ໌ NIST GenAI
-
ການກວດສອບຄວາມຖືກຕ້ອງກ່ອນທີ່ຈະໄດ້ຮັບຄວາມໄວ້ວາງໃຈ NIST GenAI Profile
-
ເຮັດໃຫ້ບົດບາດຂອງມະນຸດມີຄວາມຊັດເຈນ ຫຼັກການ AI ຂອງ OECD
-
ການອອກແບບເສັ້ນທາງສຳຮອງເມື່ອ AI ລົ້ມເຫຼວ ຫຼັກການ AI ຂອງ OECD ຄຳແນະນຳ AI ທີ່ປອດໄພຂອງ NCSC
-
ການບັນທຶກລະບົບຢ່າງຈະແຈ້ງ ຫຼັກການ AI ຂອງ OECD
ເຈົ້າຮູ້ວ່າມັນເປັນແນວໃດ - ເມື່ອເຄື່ອງມືຮູ້ສຶກມະຫັດສະຈັນ, ຜູ້ຄົນຈະຢຸດສົງໄສມັນ. ນັກພັດທະນາບໍ່ສາມາດທີ່ຈະຜ່ອນຄາຍໄດ້ແບບນັ້ນ.
ສິ່ງໃດທີ່ເຮັດໃຫ້ຮຸ່ນທີ່ດີຂອງຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI? 🛠️
ຄວາມຮັບຜິດຊອບທີ່ດີບໍ່ແມ່ນການສະແດງ. ມັນບໍ່ພຽງແຕ່ເພີ່ມຂໍ້ຄວາມປະຕິເສດຄວາມຮັບຜິດຊອບຢູ່ດ້ານລຸ່ມ ແລະ ເອີ້ນມັນວ່າຈັນຍາບັນເທົ່ານັ້ນ. ມັນສະແດງອອກໃນຕົວເລືອກການອອກແບບ, ນິໄສການທົດສອບ ແລະ ພຶດຕິກຳຂອງຜະລິດຕະພັນ.
ນີ້ແມ່ນສິ່ງທີ່ລຸ້ນທີ່ເຂັ້ມແຂງຂອງ ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI ມັກຈະເປັນຄື:
-
ການນຳໃຊ້ໂດຍເຈດຕະນາ NIST AI RMF
-
ປັນຍາປະດິດ (AI) ກຳລັງຖືກນຳໃຊ້ເພື່ອບັນຫາທີ່ແທ້ຈິງ, ບໍ່ແມ່ນເພື່ອເອົາໄປໃຊ້ໃນຜະລິດຕະພັນເພາະມັນຟັງແລ້ວທັນສະໄໝ.
-
-
ການຕິດຕາມກວດກາຂອງມະນຸດ ຫຼັກການ AI ຂອງ OECD
-
ຜູ້ຄົນສາມາດກວດສອບ, ແກ້ໄຂ, ລົບລ້າງ ຫຼື ປະຕິເສດຜົນຜະລິດໄດ້.
-
-
ຄວາມປອດໄພໂດຍການອອກແບບ ຄຳແນະນຳ AI ທີ່ປອດໄພຂອງ NCSC
-
ການຄວບຄຸມຄວາມສ່ຽງແມ່ນຖືກສ້າງຂຶ້ນແຕ່ຫົວທີ, ບໍ່ແມ່ນການຕິດເທບຕິດໃນພາຍຫຼັງ.
-
-
ຄວາມໂປ່ງໃສ ຫຼັກການ AI ຂອງ OECD ພາບລວມຂອງກົດໝາຍ AI ຂອງຄະນະກຳມະການເອີຣົບ
-
ຜູ້ໃຊ້ເຂົ້າໃຈວ່າເວລາໃດທີ່ເນື້ອຫາຖືກສ້າງຂຶ້ນໂດຍ AI ຫຼື ໄດ້ຮັບການຊ່ວຍເຫຼືອຈາກ AI.
-
-
ການດູແລຂໍ້ມູນ ສຳລັບ AI ທີ່ສ້າງສັນ
-
ຂໍ້ມູນທີ່ລະອຽດອ່ອນຈະຖືກປະຕິບັດຢ່າງລະມັດລະວັງ, ແລະການເຂົ້າເຖິງແມ່ນມີຈຳກັດ.
-
-
ການກວດສອບຄວາມຍຸຕິທຳ ຂອງໂປຣໄຟລ໌ NIST GenAI ກ່ຽວກັບ AI ແລະ ການປົກປ້ອງຂໍ້ມູນ
-
ລະບົບດັ່ງກ່າວໄດ້ຮັບການທົດສອບຄວາມລຳອຽງ, ປະສິດທິພາບທີ່ບໍ່ສະໝໍ່າສະເໝີ ແລະ ຮູບແບບທີ່ເປັນອັນຕະລາຍ.
-
-
ການຕິດຕາມກວດກາຢ່າງຕໍ່ເນື່ອງ ຄຳແນະນຳກ່ຽວກັບ AI ທີ່ປອດໄພ ຂອງ NIST AI RMF
-
ການເປີດຕົວບໍ່ແມ່ນເສັ້ນໄຊ. ມັນຄ້າຍຄືກັບສຽງຫວີດເລີ່ມຕົ້ນຫຼາຍກວ່າ.
-
ຖ້າສິ່ງນັ້ນຟັງຄືວ່າຫຼາຍ, ແມ່ນແລ້ວ... ມັນກໍ່ແມ່ນ. ແຕ່ນັ້ນແມ່ນຂໍ້ຕົກລົງເມື່ອທ່ານເຮັດວຽກກັບເທັກໂນໂລຢີທີ່ສາມາດມີອິດທິພົນຕໍ່ການຕັດສິນໃຈ, ຄວາມເຊື່ອ, ແລະພຶດຕິກຳໃນຂອບເຂດກ້ວາງຂວາງ. ຫຼັກການ AI ຂອງ OECD
ຕາຕະລາງປຽບທຽບ - ຄວາມຮັບຜິດຊອບຫຼັກຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI ໂດຍຫຍໍ້ 📋
| ພື້ນທີ່ຮັບຜິດຊອບ | ມັນມີຜົນກະທົບຕໍ່ໃຜ | ການປະຕິບັດປະຈຳວັນຂອງນັກພັດທະນາ | ເປັນຫຍັງມັນຈຶ່ງສຳຄັນ |
|---|---|---|---|
| ຄວາມຖືກຕ້ອງ ແລະ ການຢັ້ງຢືນ | ຜູ້ໃຊ້, ທີມງານ, ລູກຄ້າ | ກວດສອບຜົນຜະລິດ, ເພີ່ມຊັ້ນການກວດສອບຄວາມຖືກຕ້ອງ, ກໍລະນີທົດສອບຂອບ | AI ສາມາດເວົ້າໄດ້ຄ່ອງແຄ້ວ ແລະ ຍັງຜິດພາດໄດ້ຢ່າງຮ້າຍແຮງ - ເຊິ່ງເປັນການປະສົມປະສານທີ່ຫຍາບຄາຍ NIST GenAI Profile |
| ການປົກປ້ອງຄວາມເປັນສ່ວນຕົວ | ຜູ້ໃຊ້, ລູກຄ້າ, ພະນັກງານພາຍໃນ | ຫຼຸດຜ່ອນການໃຊ້ຂໍ້ມູນທີ່ລະອຽດອ່ອນ, ການກະຕຸ້ນການຂັດ, ການຄວບຄຸມບັນທຶກ | ເມື່ອຂໍ້ມູນສ່ວນຕົວຮົ່ວໄຫຼ, ຢາສີຟັນກໍ່ອອກຈາກຫຼອດ 😬 ແປດຄຳຖາມຂອງ ICO ສຳລັບ AI ທີ່ສ້າງສັນ OWASP ອັນດັບ 10 ສຳລັບແອັບພລິເຄຊັນ LLM |
| ອະຄະຕິ ແລະ ຄວາມຍຸຕິທຳ | ກຸ່ມຄົນທີ່ຂາດການເປັນຕົວແທນ, ຜູ້ໃຊ້ທັງໝົດແທ້ໆ | ຜົນໄດ້ຮັບການກວດສອບ, ທົດສອບການປ້ອນຂໍ້ມູນທີ່ຫຼາກຫຼາຍ, ປັບແຕ່ງມາດຕະການປ້ອງກັນ | ອັນຕະລາຍບໍ່ແມ່ນສຽງດັງສະເໝີໄປ - ບາງຄັ້ງມັນກໍ່ເປັນລະບົບ ແລະ ງຽບໆ NIST GenAI Profile ICO ກ່ຽວກັບ AI ແລະ ການປົກປ້ອງຂໍ້ມູນ |
| ຄວາມປອດໄພ | ລະບົບບໍລິສັດ, ຜູ້ໃຊ້ | ຈຳກັດການເຂົ້າເຖິງຮູບແບບ, ປ້ອງກັນການສີດທີ່ວ່ອງໄວ, ການກະທຳທີ່ມີຄວາມສ່ຽງຕໍ່ sandbox | ການໃຊ້ປະໂຫຍດຈາກຊ່ອງໂຫວ່ທີ່ສະຫຼາດອັນດຽວສາມາດທຳລາຍຄວາມໄວ້ວາງໃຈໄດ້ໄວ OWASP Top 10 ສຳລັບແອັບພລິເຄຊັນ LLM NCSC ກ່ຽວກັບ AI ແລະຄວາມປອດໄພທາງໄຊເບີ |
| ຄວາມໂປ່ງໃສ | ຜູ້ໃຊ້ສຸດທ້າຍ, ຜູ້ຄວບຄຸມ, ທີມງານສະໜັບສະໜູນ | ຕິດປ້າຍພຶດຕິກຳຂອງ AI ຢ່າງຈະແຈ້ງ, ອະທິບາຍຂໍ້ຈຳກັດ, ແລະ ນຳໃຊ້ເອກະສານ | ຜູ້ຄົນສົມຄວນທີ່ຈະຮູ້ວ່າເວລາໃດທີ່ເຄື່ອງຈັກກຳລັງຊ່ວຍເຫຼືອ ຫຼັກການ AI ຂອງ OECD ກ່ຽວກັບການໝາຍ ແລະ ການຕິດສະຫຼາກເນື້ອຫາທີ່ສ້າງຂຶ້ນໂດຍ AI |
| ຄວາມຮັບຜິດຊອບ | ເຈົ້າຂອງຜະລິດຕະພັນ, ທີມງານດ້ານກົດໝາຍ, ທີມງານພັດທະນາ | ກຳນົດຄວາມເປັນເຈົ້າຂອງ, ການຈັດການເຫດການ, ເສັ້ນທາງການຍົກລະດັບ | “AI ເຮັດໄດ້” ບໍ່ແມ່ນຄຳຕອບຂອງຜູ້ໃຫຍ່ ຫຼັກການ AI ຂອງ OECD |
| ຄວາມໜ້າເຊື່ອຖື | ທຸກໆຄົນທີ່ແຕະຕ້ອງຜະລິດຕະພັນ | ຕິດຕາມກວດກາຄວາມລົ້ມເຫຼວ, ກຳນົດຂອບເຂດຄວາມໝັ້ນໃຈ, ສ້າງເຫດຜົນສຳຮອງ | ຮູບແບບຕ່າງໆປ່ຽນໄປ, ລົ້ມເຫຼວໃນທາງທີ່ບໍ່ຄາດຄິດ, ແລະບາງຄັ້ງຄາວກໍ່ມີຕອນນ້ອຍໆທີ່ໜ້າຕື່ນເຕັ້ນ ຄຳແນະນຳກ່ຽວກັບ AI ທີ່ປອດໄພ ຂອງ NIST AI RMF |
| ສະຫວັດດີພາບຂອງຜູ້ໃຊ້ | ໂດຍສະເພາະຜູ້ໃຊ້ທີ່ມີຄວາມສ່ຽງ | ຫຼີກລ່ຽງການອອກແບບທີ່ມີການຫມູນໃຊ້, ຈຳກັດຜົນຜະລິດທີ່ເປັນອັນຕະລາຍ, ທົບທວນກໍລະນີການນຳໃຊ້ທີ່ມີຄວາມສ່ຽງສູງ | ພຽງແຕ່ຍ້ອນວ່າບາງສິ່ງບາງຢ່າງສາມາດສ້າງຂຶ້ນໄດ້ ບໍ່ໄດ້ໝາຍຄວາມວ່າມັນຄວນຈະເປັນ OECD AI Principles NIST AI RMF |
ແນ່ນອນ, ຕາຕະລາງທີ່ບໍ່ສະເໝີພາບກັນເລັກນ້ອຍ, ແຕ່ມັນເໝາະສົມກັບຫົວຂໍ້. ຄວາມຮັບຜິດຊອບທີ່ແທ້ຈິງກໍ່ບໍ່ສະເໝີພາບກັນເຊັ່ນກັນ.
ຄວາມຮັບຜິດຊອບເລີ່ມຕົ້ນກ່ອນການກະຕຸ້ນທຳອິດ - ການເລືອກກໍລະນີການນຳໃຊ້ທີ່ຖືກຕ້ອງ 🎯
ໜຶ່ງໃນຄວາມຮັບຜິດຊອບທີ່ໃຫຍ່ທີ່ສຸດຂອງນັກພັດທະນາແມ່ນການຕັດສິນໃຈວ່ າ AI ທີ່ສ້າງສັນຄວນຖືກນໍາໃຊ້ຫຼືບໍ່ . NIST AI RMF
ຟັງແລ້ວຄືວ່າຈະແຈ້ງ, ແຕ່ມັນຖືກຂ້າມໄປຕະຫຼອດເວລາ. ທີມງານເຫັນຮູບແບບ, ຕື່ນເຕັ້ນ, ແລະເລີ່ມບັງຄັບມັນເຂົ້າສູ່ຂະບວນການເຮັດວຽກທີ່ຈະຖືກຈັດການໄດ້ດີກວ່າໂດຍກົດລະບຽບ, ການຄົ້ນຫາ, ຫຼືເຫດຜົນຂອງຊອບແວທຳມະດາ. ບໍ່ແມ່ນທຸກໆບັນຫາຕ້ອງການຮູບແບບພາສາ. ບາງບັນຫາຕ້ອງການຖານຂໍ້ມູນ ແລະ ຕອນບ່າຍທີ່ງຽບສະຫງົບ.
ກ່ອນທີ່ຈະກໍ່ສ້າງ, ນັກພັດທະນາຄວນຖາມວ່າ:
-
ວຽກງານດັ່ງກ່າວແມ່ນເປີດກວ້າງ ຫຼື ເປັນວຽກງານທີ່ແນ່ນອນ?
-
ຜົນຜະລິດທີ່ບໍ່ຖືກຕ້ອງສາມາດເຮັດໃຫ້ເກີດອັນຕະລາຍໄດ້ບໍ?
-
ຜູ້ໃຊ້ຕ້ອງການຄວາມຄິດສ້າງສັນ, ການຄາດຄະເນ, ການສະຫຼຸບ, ອັດຕະໂນມັດ - ຫຼືພຽງແຕ່ຄວາມໄວບໍ?
-
ຜູ້ຄົນຈະໄວ້ວາງໃຈຜົນຜະລິດຫຼາຍເກີນໄປບໍ? ໂປຣໄຟລ໌ NIST GenAI
-
ມະນຸດສາມາດທົບທວນຜົນໄດ້ຮັບຢ່າງເປັນຈິງໄດ້ບໍ? ຫຼັກການ AI ຂອງ OECD
-
ຈະເກີດຫຍັງຂຶ້ນເມື່ອຮູບແບບຜິດພາດ? ຫຼັກການ AI ຂອງ OECD
ນັກພັດທະນາທີ່ມີຄວາມຮັບຜິດຊອບບໍ່ພຽງແຕ່ຖາມວ່າ "ພວກເຮົາສາມາດສ້າງອັນນີ້ໄດ້ບໍ?" ພວກເຂົາຖາມວ່າ "ອັນນີ້ຄວນສ້າງແບບນີ້ບໍ?" NIST AI RMF
ຄຳຖາມນັ້ນດ້ວຍຕົວມັນເອງປ້ອງກັນຄວາມບໍ່ມີເຫດຜົນຫຼາຍຢ່າງ.
ຄວາມຖືກຕ້ອງແມ່ນຄວາມຮັບຜິດຊອບ, ບໍ່ແມ່ນຄຸນສົມບັດໂບນັດ ✅
ຂໍໃຫ້ຊັດເຈນ - ໜຶ່ງໃນກັບດັກທີ່ໃຫຍ່ທີ່ສຸດໃນ AI ທີ່ສ້າງສັນແມ່ນການເຂົ້າໃຈຜິດວ່າຄວາມປາຖະໜາດີເປັນຄວາມຈິງ. ຮູບແບບມັກຈະຜະລິດຄຳຕອບທີ່ຟັງແລ້ວລຽບງ່າຍ, ມີໂຄງສ້າງ, ແລະ ໜ້າເຊື່ອຖືຢ່າງເລິກເຊິ່ງ. ເຊິ່ງເປັນສິ່ງທີ່ໜ້າຮັກ, ຈົນກວ່າເນື້ອຫາຈະບໍ່ມີຄວາມໝາຍຫຍັງທີ່ຫໍ່ຫຸ້ມດ້ວຍຄວາມໝັ້ນໃຈ. ໂປຣໄຟລ໌ NIST GenAI
ສະນັ້ນ, ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI ຈຶ່ງລວມມີການສ້າງເພື່ອການກວດສອບ.
ນັ້ນໝາຍຄວາມວ່າ:
-
ການໃຊ້ການດຶງຂໍ້ມູນຄືນ ຫຼື ການຕໍ່ສາຍດິນບ່ອນທີ່ເປັນໄປໄດ້ NIST GenAI Profile
-
ການແຍກເນື້ອຫາທີ່ສ້າງຂຶ້ນອອກຈາກຂໍ້ເທັດຈິງທີ່ໄດ້ຮັບການຢືນຢັນແລ້ວ ຫຼັກການ AI ຂອງ OECD
-
ການເພີ່ມຂອບເຂດຄວາມໝັ້ນໃຈຢ່າງລະມັດລະວັງ NIST AI RMF
-
ການສ້າງຂະບວນການເຮັດວຽກການທົບທວນຄືນສຳລັບຜົນໄດ້ຮັບທີ່ມີຄວາມສ່ຽງສູງ ຫຼັກການ AI ຂອງ OECD
-
ປ້ອງກັນບໍ່ໃຫ້ຮູບແບບປັບປຸງໃນສະພາບການທີ່ສຳຄັນ ໂປຣໄຟລ໌ NIST GenAI
-
ການກະຕຸ້ນການທົດສອບທີ່ພະຍາຍາມທຳລາຍ ຫຼື ເຮັດໃຫ້ລະບົບເຂົ້າໃຈຜິດ OWASP Top 10 ສຳລັບແອັບພລິເຄຊັນ LLM
ສິ່ງນີ້ມີຄວາມສຳຄັນຫຼາຍໃນຂົງເຂດຕ່າງໆເຊັ່ນ:
-
ການດູແລສຸຂະພາບ
-
ການເງິນ
-
ຂັ້ນຕອນການເຮັດວຽກທາງດ້ານກົດໝາຍ
-
ການສຶກສາ
-
ການສະໜັບສະໜູນລູກຄ້າ
-
ລະບົບອັດຕະໂນມັດຂອງວິສາຫະກິດ
-
ການສ້າງລະຫັດ
ຕົວຢ່າງເຊັ່ນ ລະຫັດທີ່ສ້າງຂຶ້ນສາມາດເບິ່ງເປັນລະບຽບຮຽບຮ້ອຍໃນຂະນະທີ່ປິດບັງຂໍ້ບົກຜ່ອງດ້ານຄວາມປອດໄພ ຫຼື ຄວາມຜິດພາດທາງດ້ານເຫດຜົນ. ນັກພັດທະນາທີ່ຄັດລອກມັນຢ່າງບໍ່ຕັ້ງໃຈຈະບໍ່ມີປະສິດທິພາບ - ພວກເຂົາພຽງແຕ່ຈ້າງຄວາມສ່ຽງພາຍນອກໃນຮູບແບບທີ່ສວຍງາມກວ່າ. OWASP Top 10 ສຳລັບແອັບພລິເຄຊັນ LLM NCSC ກ່ຽວກັບ AI ແລະ ຄວາມປອດໄພທາງໄຊເບີ
ຮູບແບບສາມາດຊ່ວຍໄດ້. ນັກພັດທະນາຍັງເປັນເຈົ້າຂອງຜົນໄດ້ຮັບ. ຫຼັກການ AI ຂອງ OECD
ຄວາມເປັນສ່ວນຕົວ ແລະ ການຄຸ້ມຄອງຂໍ້ມູນແມ່ນບໍ່ສາມາດເຈລະຈາໄດ້ 🔐
ນີ້ແມ່ນບ່ອນທີ່ສິ່ງຕ່າງໆເລີ່ມຮ້າຍແຮງຂຶ້ນຢ່າງໄວວາ. ລະບົບ AI ທີ່ສ້າງສັນມັກຈະອີງໃສ່ການກະຕຸ້ນ, ບັນທຶກ, ໜ້າຕ່າງສະພາບການ, ຊັ້ນຄວາມຈຳ, ການວິເຄາະ ແລະ ໂຄງສ້າງພື້ນຖານພາກສ່ວນທີສາມ. ສິ່ງນັ້ນສ້າງໂອກາດຫຼາຍຢ່າງໃຫ້ຂໍ້ມູນທີ່ລະອຽດອ່ອນຮົ່ວໄຫຼ, ຄົງຢູ່, ຫຼື ຖືກນຳໃຊ້ຄືນໃນແບບທີ່ຜູ້ໃຊ້ບໍ່ເຄີຍຄາດຄິດມາກ່ອນ. ແປດຄຳຖາມຂອງ ICO ສຳລັບ AI ທີ່ສ້າງສັນ OWASP 10 ອັນດັບຕົ້ນໆສຳລັບແອັບພລິເຄຊັນ LLM
ນັກພັດທະນາມີຄວາມຮັບຜິດຊອບໃນການປົກປ້ອງ:
-
ຂໍ້ມູນສ່ວນຕົວ
-
ບັນທຶກທາງການເງິນ
-
ລາຍລະອຽດທາງການແພດ
-
ຂໍ້ມູນພາຍໃນບໍລິສັດ
-
ຄວາມລັບທາງການຄ້າ
-
ໂທເຄັນການພິສູດຢືນຢັນຕົວຕົນ
-
ການສື່ສານຂອງລູກຄ້າ
ການປະຕິບັດທີ່ມີຄວາມຮັບຜິດຊອບລວມມີ:
-
ການຫຼຸດຜ່ອນຂໍ້ມູນທີ່ເຂົ້າສູ່ຮູບແບບ ແປດຄຳຖາມຂອງ ICO ສຳລັບ AI ທີ່ສ້າງສັນ
-
ການປິດບັງ ຫຼື ການລຶບຕົວລະບຸ NIST GenAI Profile
-
ການຈຳກັດການເກັບຮັກສາບັນ ທຶກ ຄຳແນະນຳ ICO ກ່ຽວກັບ AI ແລະ ການປົກປ້ອງຂໍ້ມູນ
-
ການຄວບຄຸມຜູ້ທີ່ສາມາດເຂົ້າເຖິງການກະຕຸ້ນເຕືອນ ແລະ ຜົນຜະລິດຂອງ OWASP Top 10 ສຳລັບແອັບພລິເຄຊັນ LLM
-
ກວດສອບການຕັ້ງຄ່າຜູ້ຂາຍຢ່າງລະມັດລະວັງ ຄຳແນະນຳກ່ຽວກັບ AI ທີ່ປອດໄພຂອງ NCSC
-
ການແຍກຂັ້ນຕອນການເຮັດວຽກທີ່ມີຄວາມສ່ຽງສູງ ຄຳແນະນຳກ່ຽວກັບ AI ທີ່ປອດໄພຂອງ NCSC
-
ການເຮັດໃຫ້ພຶດຕິກຳຄວາມເປັນສ່ວນຕົວສາມາດເບິ່ງເຫັນໄດ້ໂດຍຜູ້ໃຊ້ ແປດຄຳຖາມຂອງ ICO ສຳລັບ AI ທີ່ສ້າງສັນ
ນີ້ແມ່ນໜຶ່ງໃນຂົງເຂດເຫຼົ່ານັ້ນທີ່ “ພວກເຮົາລືມຄິດກ່ຽວກັບມັນ” ບໍ່ແມ່ນຄວາມຜິດພາດເລັກນ້ອຍ. ມັນເປັນຄວາມລົ້ມເຫຼວທີ່ທຳລາຍຄວາມໄວ້ວາງໃຈ.
ແລະຄວາມໄວ້ວາງໃຈ, ເມື່ອແຕກແລ້ວ, ມັນຈະແຜ່ລາມໄປຄືກັບແກ້ວທີ່ຕົກລົງມາ. ບາງທີມັນບໍ່ແມ່ນຄຳປຽບທຽບທີ່ລຽບງ່າຍທີ່ສຸດ, ແຕ່ເຈົ້າເຂົ້າໃຈມັນ.
ອະຄະຕິ, ຄວາມຍຸຕິທຳ, ແລະ ການເປັນຕົວແທນ - ຄວາມຮັບຜິດຊອບທີ່ງຽບສະຫງົບກວ່າ ⚖️
ອະຄະຕິໃນ AI ທີ່ສ້າງສັນບໍ່ຄ່ອຍຈະເປັນຕົວລະຄອນກາຕູນທີ່ຊົ່ວຮ້າຍ. ມັນມັກຈະລື່ນກວ່ານັ້ນ. ຮູບແບບອາດຈະຜະລິດລາຍລະອຽດວຽກທີ່ມີລັກສະນະແບບແຜນ, ການຕັດສິນໃຈໃນການຄວບຄຸມທີ່ບໍ່ສະເໝີພາບ, ຄໍາແນະນໍາທີ່ບໍ່ສົມດຸນ, ຫຼື ສົມມຸດຕິຖານທີ່ຄັບແຄບທາງດ້ານວັດທະນະທໍາໂດຍບໍ່ໄດ້ເຮັດໃຫ້ເກີດສັນຍານເຕືອນທີ່ຊັດເຈນ. ໂປຣໄຟລ໌ NIST GenAI
ນັ້ນແມ່ນເຫດຜົນທີ່ ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI ປະກອບມີວຽກງານທີ່ຍຸດຕິທຳຢ່າງຫ້າວຫັນ.
ນັກພັດທະນາຄວນ:
-
ການທົດສອບຈາກຂໍ້ມູນປະຊາກອນ ແລະ ສະພາບການທີ່ແຕກຕ່າງກັນ ໂປຣໄຟລ໌ NIST GenAI
-
ກວດສອບຜົນຜະລິດສຳລັບຮູບແບບຄວາມຄິດແບບເດີມ ແລະ ການຍົກເວັ້ນ ໂປຣໄຟລ໌ NIST GenAI
-
ມີສ່ວນຮ່ວມກັບທັດສະນະທີ່ຫຼາກຫຼາຍໃນລະຫວ່າງການປະເມີນຜົນ NIST AI RMF
-
ຕິດຕາມຮູບແບບຄວາມລົ້ມເຫຼວທີ່ບໍ່ສະເໝີກັນ ຂອງ NIST GenAI Profile
-
ຫຼີກລ່ຽງການສົມມຸດວ່າແບບພາສາ ຫຼື ມາດຕະຖານວັດທະນະທຳໜຶ່ງດຽວເໝາະສົມກັບທຸກຄົນ ຄຳແນະນຳຂອງ ICO ກ່ຽວກັບ AI ແລະ ການປົກປ້ອງຂໍ້ມູນ
-
ສ້າງຊ່ອງທາງການລາຍງານສຳລັບຜົນຜະລິດທີ່ເປັນອັນຕະລາຍ NIST AI RMF
ລະບົບສາມາດເບິ່ງຄືວ່າເຮັດວຽກໄດ້ດີໂດຍລວມ ໃນຂະນະທີ່ໃຫ້ບໍລິການຜູ້ໃຊ້ບາງຄົນຢ່າງສະໝ່ຳສະເໝີທີ່ບໍ່ດີກວ່າຄົນອື່ນ. ນັ້ນບໍ່ສາມາດຍອມຮັບໄດ້ພຽງແຕ່ຍ້ອນວ່າປະສິດທິພາບໂດຍສະເລ່ຍເບິ່ງດີໃນແຜງຄວບຄຸມ. ຄຳແນະນຳຂອງ ICO ກ່ຽວກັບ AI ແລະການປົກປ້ອງຂໍ້ມູນ NIST GenAI Profile
ແລະແມ່ນແລ້ວ, ຄວາມຍຸຕິທຳແມ່ນຍາກກວ່າບັນຊີກວດສອບທີ່ເປັນລະບຽບ. ມັນມີການຕັດສິນຢູ່ໃນນັ້ນ. ສະພາບການ. ການແລກປ່ຽນ. ມາດຕະການຂອງຄວາມບໍ່ສະບາຍເຊັ່ນກັນ. ແຕ່ນັ້ນບໍ່ໄດ້ລົບລ້າງຄວາມຮັບຜິດຊອບ - ມັນຢືນຢັນມັນ. ຄຳແນະນຳຂອງ ICO ກ່ຽວກັບ AI ແລະການປົກປ້ອງຂໍ້ມູນ
ຄວາມປອດໄພໃນປັດຈຸບັນແມ່ນສ່ວນໜຶ່ງຂອງການອອກແບບທີ່ວ່ອງໄວ, ສ່ວນໜຶ່ງແມ່ນສາຂາວິສະວະກຳ 🧱
ຄວາມປອດໄພຂອງ AI ແບບສ້າງສັນແມ່ນສັດຮ້າຍທີ່ແປກປະຫຼາດຂອງມັນເອງ. ແນ່ນອນວ່າຄວາມປອດໄພຂອງແອັບແບບດັ້ງເດີມຍັງຄົງມີຄວາມສຳຄັນ, ແຕ່ລະບົບ AI ເພີ່ມພື້ນຜິວການໂຈມຕີທີ່ຜິດປົກກະຕິ: ການສີດຂໍ້ມູນແບບວ່ອງໄວ, ການຫຼອກລວງແບບກະຕຸ້ນໂດຍທາງອ້ອມ, ການໃຊ້ເຄື່ອງມືທີ່ບໍ່ປອດໄພ, ການກັ່ນຕອງຂໍ້ມູນຜ່ານສະພາບການ, ແລະ ການໃຊ້ຮູບແບບທີ່ບໍ່ຖືກຕ້ອງຜ່ານຂະບວນການເຮັດວຽກແບບອັດຕະໂນມັດ. 10 ອັນດັບຕົ້ນໆຂອງ OWASP ສຳລັບແອັບພລິເຄຊັນ LLM NCSC ກ່ຽວກັບ AI ແລະ ຄວາມປອດໄພທາງໄຊເບີ
ນັກພັດທະນາມີຄວາມຮັບຜິດຊອບໃນການຮັກສາຄວາມປອດໄພຂອງລະບົບທັງໝົດ, ບໍ່ພຽງແຕ່ອິນເຕີເຟດເທົ່ານັ້ນ. ຄຳແນະນຳກ່ຽວກັບ AI ທີ່ປອດໄພຂອງ NCSC
ຄວາມຮັບຜິດຊອບຫຼັກໆຢູ່ທີ່ນີ້ລວມມີ:
-
ການເຮັດຄວາມສະອາດຂໍ້ມູນທີ່ບໍ່ໜ້າເຊື່ອຖື OWASP Top 10 ສຳລັບແອັບພລິເຄຊັນ LLM
-
ການຈຳກັດເຄື່ອງມືທີ່ຕົວແບບສາມາດເອີ້ນ OWASP Top 10 ສຳລັບແອັບພລິເຄຊັນ LLM
-
ການຈຳກັດການເຂົ້າເຖິງໄຟລ໌ ແລະ ເຄືອຂ່າຍ ຄຳແນະນຳ AI ທີ່ປອດໄພຂອງ NCSC
-
ການແຍກສິດອະນຸຍາດຢ່າງຈະແຈ້ງ ຄຳແນະນຳ AI ທີ່ປອດໄພຂອງ NCSC
-
ຄຳແນະນຳ AI ທີ່ປອດໄພຂອງ NCSC ກ່ຽວກັບການຕິດຕາມກວດກາຮູບແບບການລ່ວງລະເມີດ
-
ການກະທຳທີ່ມີລາຄາແພງ ຫຼື ມີຄວາມສ່ຽງທີ່ຈຳກັດອັດຕາ OWASP Top 10 ສຳລັບໃບສະໝັກ LLM
-
ການທົດສອບການກະຕຸ້ນເຕືອນແບບກົງກັນຂ້າມ OWASP Top 10 ສຳລັບແອັບພລິເຄຊັນ LLM
-
ການສ້າງທາງເລືອກທີ່ປອດໄພເມື່ອຄໍາແນະນໍາຂັດກັບ ຫຼັກການ AI ຂອງ OECD
ຄວາມຈິງທີ່ບໍ່ສະບາຍໃຈຢ່າງໜຶ່ງແມ່ນວ່າຜູ້ໃຊ້ - ແລະ ຜູ້ໂຈມຕີ - ຈະລອງສິ່ງທີ່ນັກພັດທະນາບໍ່ຄາດຄິດຢ່າງແທ້ຈິງ. ບາງຄົນຍ້ອນຄວາມຢາກຮູ້ຢາກເຫັນ, ບາງຄົນຍ້ອນຄວາມເຈດຕະນາຮ້າຍ, ບາງຄົນຍ້ອນພວກເຂົາຄລິກສິ່ງຜິດໃນເວລາ 2 ໂມງເຊົ້າ.
ຄວາມປອດໄພສຳລັບ AI ທີ່ສ້າງສັນແມ່ນບໍ່ຄືກັບການສ້າງກຳແພງ ແຕ່ຄ້າຍຄືກັບການຄຸ້ມຄອງຜູ້ເຝົ້າປະຕູທີ່ເວົ້າຫຼາຍຜູ້ທີ່ບາງຄັ້ງກໍ່ຖືກຫຼອກລວງໂດຍການໃຊ້ຖ້ອຍຄຳ.
ຄວາມໂປ່ງໃສ ແລະ ການຍິນຍອມຂອງຜູ້ໃຊ້ມີຄວາມສຳຄັນຫຼາຍກວ່າ UX ທີ່ໂດດເດັ່ນ 🗣️
ເມື່ອຜູ້ໃຊ້ພົວພັນກັບ AI, ພວກເຂົາຄວນຮູ້ມັນ. ຫຼັກການ AI ຂອງ OECD ກ່ຽວກັບການໝາຍ ແລະ ການຕິດສະຫຼາກເນື້ອຫາທີ່ສ້າງຂຶ້ນໂດຍ AI
ບໍ່ແມ່ນແບບບໍ່ຈະແຈ້ງ. ບໍ່ໄດ້ຝັງເລິກຢູ່ໃນເງື່ອນໄຂ. ຢ່າງຊັດເຈນ.
ສ່ວນປະກອບຫຼັກຂອງ ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI ແມ່ນການຮັບປະກັນວ່າຜູ້ໃຊ້ເຂົ້າໃຈ:
-
ເມື່ອ AI ຖືກນຳໃຊ້ ຫຼັກການ AI ຂອງ OECD
-
ສິ່ງທີ່ AI ສາມາດເຮັດໄດ້ ແລະ ສິ່ງທີ່ AI ສາມາດເຮັດໄດ້ ຫຼັກການ AI ຂອງ OECD
-
ຫຼັກການ AI ຂອງ OECD ຫຼືບໍ່
-
ວິທີການປະມວນຜົນຂໍ້ມູນຂອງເຂົາເຈົ້າ ແປດຄຳຖາມຂອງ ICO ສຳລັບ AI ທີ່ສ້າງສັນ
-
ພວກເຂົາຄວນມີຄວາມໝັ້ນໃຈໃນລະດັບໃດ NIST AI RMF
-
ວິທີການລາຍງານບັນຫາ ຫຼື ການຕັດສິນໃຈ ອຸທອນ ຫຼັກການ AI ຂອງ OECD NIST AI RMF
ຄວາມໂປ່ງໃສບໍ່ແມ່ນກ່ຽວກັບການເຮັດໃຫ້ຜູ້ໃຊ້ຢ້ານກົວ. ແຕ່ມັນແມ່ນກ່ຽວກັບການເຄົາລົບພວກເຂົາ.
ຄວາມໂປ່ງໃສທີ່ດີອາດຈະປະກອບມີ:
-
ປ້າຍຊື່ຕ່າງໆ ເຊັ່ນ: ລະຫັດການປະຕິບັດທີ່ສ້າງຂຶ້ນໂດຍ AI ຫຼື ໄດ້ຮັບການສະໜັບສະໜູນຈາກ AI ກ່ຽວກັບການໝາຍ ແລະ ການຕິດປ້າຍຊື່ເນື້ອຫາທີ່ສ້າງຂຶ້ນໂດຍ AI
-
ຄຳອະທິບາຍພາສາທຳມະດາ ຫຼັກການ AI ຂອງ OECD
-
ປະຫວັດການແກ້ໄຂທີ່ເບິ່ງເຫັນໄດ້ໃນບ່ອນທີ່ກ່ຽວຂ້ອງ
-
ຕົວເລືອກຕ່າງໆເພື່ອປິດຄຸນສົມບັດ AI
-
ການຍົກລະດັບໄປສູ່ມະນຸດເມື່ອຈຳເປັນ ຫຼັກການ AI ຂອງ OECD
-
ຄຳເຕືອນສັ້ນໆສຳລັບວຽກງານທີ່ມີຄວາມສ່ຽງສູງ ພາບລວມຂອງກົດໝາຍວ່າດ້ວຍ AI ຂອງຄະນະກຳມະການເອີຣົບ
ທີມງານຜະລິດຕະພັນຫຼາຍຄົນກັງວົນວ່າຄວາມຊື່ສັດຈະເຮັດໃຫ້ຄຸນສົມບັດຮູ້ສຶກວ່າບໍ່ມີມະຫັດສະຈັນ. ອາດຈະເປັນໄປໄດ້. ແຕ່ຄວາມແນ່ນອນທີ່ບໍ່ຖືກຕ້ອງແມ່ນຮ້າຍແຮງກວ່ານັ້ນ. ອິນເຕີເຟດທີ່ລຽບງ່າຍທີ່ປິດບັງຄວາມສ່ຽງໂດຍພື້ນຖານແລ້ວແມ່ນຄວາມສັບສົນທີ່ຖືກຂັດເງົາ.
ນັກພັດທະນາຍັງຄົງຮັບຜິດຊອບ - ເຖິງແມ່ນວ່າຮູບແບບຈະ "ຕັດສິນໃຈ" 👀
ສ່ວນນີ້ມີຄວາມສຳຄັນຫຼາຍ. ຄວາມຮັບຜິດຊອບບໍ່ສາມາດຖືກມອບໝາຍໃຫ້ຜູ້ຂາຍແບບຈຳລອງ, ບັດແບບຈຳລອງ, ແມ່ແບບໂປຣມໂປຣມ, ຫຼື ບັນຍາກາດທີ່ລຶກລັບຂອງການຮຽນຮູ້ຂອງເຄື່ອງຈັກ. ຫຼັກການ AI ຂອງ OECD NIST AI RMF
ນັກພັດທະນາຍັງມີຄວາມຮັບຜິດຊອບ. ຫຼັກການ AI ຂອງ OECD
ນັ້ນໝາຍຄວາມວ່າຜູ້ໃດຜູ້ໜຶ່ງໃນທີມຄວນເປັນເຈົ້າຂອງ:
-
ການເລືອກຮູບແບບ NIST AI RMF
-
ມາດຕະຖານການທົດສອບ NIST GenAI Profile
-
ເງື່ອນໄຂການປ່ອຍ NIST GenAI Profile
-
ການຕອບສະໜອງຕໍ່ເຫດ ການ ຄຳແນະນຳກ່ຽວກັບ AI ທີ່ປອດໄພຂອງ NCSC
-
ການຈັດການຄຳຮ້ອງທຸກຂອງຜູ້ໃຊ້ NIST AI RMF
-
ຂັ້ນຕອນການຍ້ອນກັບ ຂອງ OECD ຫຼັກການ AI
-
ການຕິດຕາມການປ່ຽນແປງ ຫຼັກການ AI ຂອງ OECD
-
ເອກະສານ ຫຼັກການ AI ຂອງ OECD
ຄວນມີຄຳຕອບທີ່ຊັດເຈນຕໍ່ຄຳຖາມຕ່າງໆເຊັ່ນ:
-
ໃຜອະນຸມັດການນຳໃຊ້? ໂປຣໄຟລ໌ NIST GenAI
-
ໃຜເປັນຜູ້ກວດສອບເຫດການທີ່ເປັນອັນຕະລາຍ? ໂປຣໄຟລ໌ NIST GenAI
-
ໃຜສາມາດປິດໃຊ້ງານຄຸນສົມບັດນີ້ໄດ້? ຫຼັກການ AI ຂອງ OECD
-
ໃຜເປັນຜູ້ຕິດຕາມກວດກາການຖົດຖອຍ? NIST AI RMF
-
ໃຜຕິດຕໍ່ສື່ສານກັບຜູ້ໃຊ້ເມື່ອມີບາງສິ່ງບາງຢ່າງເກີດຂັດຂ້ອງ? ຫຼັກການ AI ຂອງ OECD
ຖ້າບໍ່ມີຄວາມເປັນເຈົ້າຂອງ, ຄວາມຮັບຜິດຊອບຈະກາຍເປັນໝອກ. ທຸກຄົນຈະຄິດວ່າມີຄົນອື່ນເປັນຜູ້ຈັດການມັນ... ແລະຫຼັງຈາກນັ້ນກໍ່ບໍ່ມີໃຜເປັນຜູ້ຈັດການ.
ຄວາມຈິງແລ້ວຮູບແບບນັ້ນເກົ່າແກ່ກວ່າ AI. AI ພຽງແຕ່ເຮັດໃຫ້ມັນເປັນອັນຕະລາຍຫຼາຍຂຶ້ນ.
ນັກພັດທະນາທີ່ມີຄວາມຮັບຜິດຊອບສ້າງຂຶ້ນເພື່ອການແກ້ໄຂ, ບໍ່ແມ່ນຄວາມສົມບູນແບບ 🔄
ນີ້ແມ່ນຈຸດອ່ອນເລັກນ້ອຍໃນເລື່ອງນີ້: ການພັດທະນາ AI ທີ່ມີຄວາມຮັບຜິດຊອບບໍ່ແມ່ນກ່ຽວກັບການທຳທ່າວ່າລະບົບຈະສົມບູນແບບ. ມັນກ່ຽວກັບການສົມມຸດວ່າມັນຈະລົ້ມເຫຼວໃນບາງທາງ ແລະ ອອກແບບອ້ອມຮອບຄວາມເປັນຈິງນັ້ນ. NIST AI RMF
ນັ້ນໝາຍເຖິງການສ້າງຜະລິດຕະພັນທີ່:
-
ຫຼັກການ AI ຂອງ OECD ທີ່ສາມາດກວດສອບໄດ້
-
ການຕັດສິນໃຈ ແລະ ຜົນຜະລິດສາມາດທົບທວນຄືນໄດ້ໃນພາຍຫຼັງ
-
-
ຫຼັກການ AI ຂອງ OECD ທີ່ສາມາດຂັດຂວາງໄດ້
-
ມະນຸດສາມາດຢຸດ ຫຼື ລົບລ້າງພຶດຕິກຳທີ່ບໍ່ດີໄດ້
-
-
ຫຼັກການ AI ຂອງ OECD ທີ່ສາມາດກູ້ຄືນໄດ້
-
ມີທາງເລືອກອື່ນເມື່ອຜົນຜະລິດຂອງ AI ຜິດພາດ
-
-
ຄຳແນະນຳກ່ຽວກັບ AI ທີ່ປອດໄພຂອງ NCSC ທີ່ສາມາດຕິດຕາມກວດກາໄດ້ NIST AI RMF
-
ທີມງານສາມາດສັງເກດເຫັນຮູບແບບກ່ອນທີ່ພວກມັນຈະກາຍເປັນໄພພິບັດ
-
-
ໂປຣໄຟລ໌ NIST GenAI ທີ່ສາມາດປັບປຸງໄດ້
-
ມີວົງຈອນຄຳຕິຊົມຢູ່, ແລະມີຄົນອ່ານພວກມັນ
-
ນີ້ແມ່ນສິ່ງທີ່ຄວາມເປັນຜູ້ໃຫຍ່ເບິ່ງຄືວ່າ. ບໍ່ແມ່ນການສາທິດທີ່ເຫຼື້ອມເປັນເງົາ. ບໍ່ແມ່ນສຳເນົາການຕະຫຼາດທີ່ໜ້າຕື່ນເຕັ້ນ. ລະບົບທີ່ແທ້ຈິງ, ມີຮົ້ວປ້ອງກັນ, ບັນທຶກ, ຄວາມຮັບຜິດຊອບ, ແລະ ຄວາມຖ່ອມຕົວພຽງພໍທີ່ຈະຍອມຮັບວ່າເຄື່ອງຈັກບໍ່ແມ່ນນັກວິເສດ. ແນວທາງ AI ທີ່ປອດໄພຂອງ NCSC ຫຼັກການ AI ຂອງ OECD
ເພາະມັນບໍ່ແມ່ນ. ມັນເປັນເຄື່ອງມື. ແມ່ນແລ້ວ, ມັນເປັນເຄື່ອງມືທີ່ມີປະສິດທິພາບ. ແຕ່ຍັງເປັນເຄື່ອງມືຢູ່.
ການສະທ້ອນສຸດທ້າຍກ່ຽວກັບຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI 🌍
ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ Generative AI ແມ່ນຫຍັງ ?
ມັນແມ່ນການສ້າງດ້ວຍຄວາມລະມັດລະວັງ. ເພື່ອຕັ້ງຄຳຖາມວ່າລະບົບຊ່ວຍຢູ່ໃສ ແລະ ມັນເປັນອັນຕະລາຍຢູ່ໃສ. ເພື່ອປົກປ້ອງຄວາມເປັນສ່ວນຕົວ. ເພື່ອທົດສອບຄວາມລຳອຽງ. ເພື່ອກວດສອບຜົນຜະລິດ. ເພື່ອຮັບປະກັນຂະບວນການເຮັດວຽກ. ເພື່ອໂປ່ງໃສກັບຜູ້ໃຊ້. ເພື່ອຮັກສາມະນຸດໃຫ້ຢູ່ໃນການຄວບຄຸມທີ່ມີຄວາມໝາຍ. ເພື່ອຮັບຜິດຊອບເມື່ອມີສິ່ງຕ່າງໆຜິດພາດ. NIST AI RMF OECD AI Principles
ນັ້ນອາດຟັງແລ້ວໜັກ - ແລະມັນກໍ່ແມ່ນແທ້. ແຕ່ມັນຍັງເປັນສິ່ງທີ່ແຍກການພັດທະນາທີ່ມີຄວາມຄິດອອກຈາກການອັດຕະໂນມັດທີ່ບໍ່ຄິດ.
ນັກພັດທະນາທີ່ດີທີ່ສຸດທີ່ໃຊ້ AI ທີ່ສ້າງສັນບໍ່ແມ່ນຜູ້ທີ່ເຮັດໃຫ້ຮູບແບບປະຕິບັດກົນອຸບາຍຫຼາຍທີ່ສຸດ. ພວກເຂົາແມ່ນຜູ້ທີ່ເຂົ້າໃຈຜົນສະທ້ອນຂອງກົນອຸບາຍເຫຼົ່ານັ້ນ, ແລະອອກແບບຕາມຄວາມເໝາະສົມ. ພວກເຂົາຮູ້ວ່າຄວາມໄວມີຄວາມສຳຄັນ, ແຕ່ຄວາມໄວ້ວາງໃຈແມ່ນຜະລິດຕະພັນທີ່ແທ້ຈິງ. ສິ່ງທີ່ໜ້າແປກທີ່ແນວຄວາມຄິດແບບເກົ່າແກ່ນັ້ນຍັງຄົງຢູ່. NIST AI RMF
ໃນທີ່ສຸດ, ຄວາມຮັບຜິດຊອບບໍ່ແມ່ນອຸປະສັກຕໍ່ນະວັດຕະກໍາ. ມັນແມ່ນສິ່ງທີ່ປ້ອງກັນບໍ່ໃຫ້ນະວັດຕະກໍາກາຍເປັນການແຜ່ກະຈາຍທີ່ແພງ, ວຸ້ນວາຍດ້ວຍການໂຕ້ຕອບທີ່ລຽບງ່າຍ ແລະ ບັນຫາຄວາມໝັ້ນໃຈ 😬✨
ແລະບາງທີນັ້ນອາດເປັນຮຸ່ນທີ່ງ່າຍທີ່ສຸດຂອງມັນ.
ສ້າງຢ່າງກ້າຫານ, ແນ່ນອນ - ແຕ່ສ້າງຄືກັບວ່າຜູ້ຄົນອາດຈະໄດ້ຮັບຜົນກະທົບ, ເພາະວ່າພວກເຂົາໄດ້ຮັບຜົນກະທົບ. ຫຼັກການ AI ຂອງ OECD
ຄຳຖາມທີ່ຖືກຖາມເລື້ອຍໆ
ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ AI ທີ່ສ້າງສັນໃນການປະຕິບັດແມ່ນຫຍັງ?
ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ AI ທີ່ສ້າງສັນໄດ້ຂະຫຍາຍໄປໄກກວ່າຄຸນສົມບັດການສົ່ງມອບຢ່າງວ່ອງໄວ. ມັນປະກອບມີການເລືອກກໍລະນີການນຳໃຊ້ທີ່ຖືກຕ້ອງ, ການທົດສອບຜົນຜະລິດ, ການປົກປ້ອງຄວາມເປັນສ່ວນຕົວ, ການຫຼຸດຜ່ອນພຶດຕິກຳທີ່ເປັນອັນຕະລາຍ, ແລະ ການເຮັດໃຫ້ລະບົບເຂົ້າໃຈງ່າຍສຳລັບຜູ້ໃຊ້. ໃນທາງປະຕິບັດ, ນັກພັດທະນາຍັງຄົງຮັບຜິດຊອບຕໍ່ວິທີການອອກແບບ, ຕິດຕາມກວດກາ, ແກ້ໄຂ, ແລະ ຄວບຄຸມເຄື່ອງມືເມື່ອມັນລົ້ມເຫຼວ.
ເປັນຫຍັງ AI ທີ່ສ້າງສັນຈຶ່ງຕ້ອງການຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາຫຼາຍກວ່າຊອບແວທຳມະດາ?
ຂໍ້ຜິດພາດແບບດັ້ງເດີມມັກຈະເຫັນໄດ້ຊັດເຈນ, ແຕ່ຄວາມລົ້ມເຫຼວຂອງ AI ທີ່ສ້າງຂຶ້ນມາສາມາດຟັງແລ້ວສວຍງາມຂຶ້ນໃນຂະນະທີ່ຍັງຜິດພາດ, ມີອະຄະຕິ, ຫຼືມີຄວາມສ່ຽງ. ນັ້ນເຮັດໃຫ້ບັນຫາຍາກທີ່ຈະກວດພົບ ແລະ ງ່າຍຂຶ້ນສຳລັບຜູ້ໃຊ້ທີ່ຈະໄວ້ວາງໃຈໂດຍຄວາມຜິດພາດ. ນັກພັດທະນາກຳລັງເຮັດວຽກກັບລະບົບຄວາມເປັນໄປໄດ້, ສະນັ້ນຄວາມຮັບຜິດຊອບລວມມີການຈັດການຄວາມບໍ່ແນ່ນອນ, ການຈຳກັດອັນຕະລາຍ, ແລະ ການກະກຽມສຳລັບຜົນຜະລິດທີ່ຄາດເດົາບໍ່ໄດ້ກ່ອນການເປີດຕົວ.
ນັກພັດທະນາຮູ້ໄດ້ແນວໃດວ່າເວລາໃດທີ່ບໍ່ຄວນໃຊ້ AI ທີ່ສ້າງສັນ?
ຈຸດເລີ່ມຕົ້ນທົ່ວໄປແມ່ນການຖາມວ່າໜ້າວຽກດັ່ງກ່າວເປີດກວ້າງ ຫຼື ຈັດການໄດ້ດີກວ່າໂດຍກົດລະບຽບ, ການຄົ້ນຫາ ຫຼື ເຫດຜົນມາດຕະຖານຂອງຊອບແວ. ນັກພັດທະນາຄວນພິຈາລະນາວ່າຄຳຕອບທີ່ຜິດອາດຈະເຮັດໃຫ້ເກີດອັນຕະລາຍຫຼາຍປານໃດ ແລະ ວ່າມະນຸດສາມາດທົບທວນຜົນໄດ້ຮັບໄດ້ຢ່າງເປັນຈິງຫຼືບໍ່. ການນຳໃຊ້ທີ່ມີຄວາມຮັບຜິດຊອບບາງຄັ້ງໝາຍເຖິງການຕັດສິນໃຈທີ່ຈະບໍ່ໃຊ້ AI ທີ່ສ້າງສັນເລີຍ.
ນັກພັດທະນາສາມາດຫຼຸດຜ່ອນອາການຫຼອນ ແລະ ຄຳຕອບທີ່ຜິດພາດໃນລະບົບ AI ທີ່ສ້າງສັນໄດ້ແນວໃດ?
ຄວາມຖືກຕ້ອງຕ້ອງໄດ້ຮັບການອອກແບບໃນ, ບໍ່ແມ່ນການສົມມຸດຕິຖານ. ໃນຫຼາຍໆທໍ່ສົ່ງ, ນັ້ນໝາຍເຖິງການວາງຜົນຜະລິດພື້ນຖານໃນແຫຼ່ງທີ່ເຊື່ອຖືໄດ້, ການແຍກຂໍ້ຄວາມທີ່ສ້າງຂຶ້ນອອກຈາກຂໍ້ເທັດຈິງທີ່ຖືກຢືນຢັນ, ແລະ ການນຳໃຊ້ຂະບວນການທົບທວນສຳລັບວຽກງານທີ່ມີຄວາມສ່ຽງສູງ. ນັກພັດທະນາຄວນທົດສອບການກະຕຸ້ນເຕືອນທີ່ມີຈຸດປະສົງເພື່ອເຮັດໃຫ້ລະບົບສັບສົນ ຫຼື ເຂົ້າໃຈຜິດ, ໂດຍສະເພາະໃນຂົງເຂດຕ່າງໆເຊັ່ນ: ລະຫັດ, ການສະໜັບສະໜູນ, ການເງິນ, ການສຶກສາ, ແລະ ການດູແລສຸຂະພາບ.
ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ AI ທີ່ສ້າງສັນເພື່ອຄວາມເປັນສ່ວນຕົວ ແລະ ຂໍ້ມູນທີ່ລະອຽດອ່ອນແມ່ນຫຍັງ?
ຄວາມຮັບຜິດຊອບຂອງນັກພັດທະນາທີ່ໃຊ້ AI ທີ່ສ້າງສັນລວມມີການຫຼຸດຜ່ອນຂໍ້ມູນທີ່ເຂົ້າສູ່ຮູບແບບ ແລະ ປະຕິບັດຕໍ່ການກະຕຸ້ນເຕືອນ, ບັນທຶກ ແລະ ຜົນຜະລິດທີ່ລະອຽດອ່ອນ. ນັກພັດທະນາຄວນລຶບຕົວລະບຸອອກຖ້າເປັນໄປໄດ້, ຈຳກັດການເກັບຮັກສາ, ຄວບຄຸມການເຂົ້າເຖິງ ແລະ ທົບທວນການຕັ້ງຄ່າຂອງຜູ້ຂາຍຢ່າງລະມັດລະວັງ. ຜູ້ໃຊ້ຄວນຈະສາມາດເຂົ້າໃຈວິທີການຈັດການຂໍ້ມູນຂອງເຂົາເຈົ້າ, ແທນທີ່ຈະຄົ້ນພົບຄວາມສ່ຽງໃນພາຍຫຼັງ.
ນັກພັດທະນາຄວນຈັດການກັບອະຄະຕິ ແລະ ຄວາມຍຸຕິທຳໃນຜົນຜະລິດຂອງ AI ແນວໃດ?
ວຽກງານທີ່ມີອະຄະຕິຮຽກຮ້ອງໃຫ້ມີການປະເມີນຜົນຢ່າງຕັ້ງໜ້າ, ບໍ່ແມ່ນການສົມມຸດຕິຖານ. ວິທີການປະຕິບັດຕົວຈິງແມ່ນການທົດສອບການກະຕຸ້ນເຕືອນໃນທົ່ວຂໍ້ມູນປະຊາກອນ, ພາສາ ແລະ ສະພາບການທີ່ແຕກຕ່າງກັນ, ຈາກນັ້ນທົບທວນຜົນຜະລິດສຳລັບແບບແຜນ, ການຍົກເວັ້ນ, ຫຼືຮູບແບບຄວາມລົ້ມເຫຼວທີ່ບໍ່ສະເໝີພາບ. ນັກພັດທະນາຄວນສ້າງວິທີການໃຫ້ຜູ້ໃຊ້ ຫຼື ທີມງານລາຍງານພຶດຕິກຳທີ່ເປັນອັນຕະລາຍ, ເພາະວ່າລະບົບສາມາດປະກົດວ່າເຂັ້ມແຂງໂດຍລວມໃນຂະນະທີ່ຍັງລົ້ມເຫຼວກຸ່ມບາງກຸ່ມຢ່າງຕໍ່ເນື່ອງ.
ນັກພັດທະນາຕ້ອງຄິດກ່ຽວກັບຄວາມສ່ຽງດ້ານຄວາມປອດໄພອັນໃດກັບ AI ທີ່ສ້າງສັນ?
ປັນຍາປະດິດທີ່ສ້າງສັນ (Generative AI) ນຳສະເໜີໜ້າດິນໂຈມຕີແບບໃໝ່, ລວມທັງການສີດຂໍ້ມູນຢ່າງວ່ອງໄວ, ການໃຊ້ເຄື່ອງມືທີ່ບໍ່ປອດໄພ, ການຮົ່ວໄຫຼຂອງຂໍ້ມູນຜ່ານສະພາບການ, ແລະ ການລ່ວງລະເມີດການກະທຳອັດຕະໂນມັດ. ນັກພັດທະນາຄວນເຮັດຄວາມສະອາດຂໍ້ມູນປ້ອນຂໍ້ມູນທີ່ໜ້າເຊື່ອຖື, ຈຳກັດສິດອະນຸຍາດຂອງເຄື່ອງມື, ຈຳກັດການເຂົ້າເຖິງໄຟລ໌ ແລະ ເຄືອຂ່າຍ, ແລະ ຕິດຕາມກວດກາຮູບແບບການໃຊ້ໃນທາງທີ່ຜິດ. ຄວາມປອດໄພບໍ່ພຽງແຕ່ກ່ຽວກັບອິນເຕີເຟດເທົ່ານັ້ນ; ມັນໃຊ້ກັບຂະບວນການເຮັດວຽກທັງໝົດອ້ອມຮອບຮູບແບບ.
ເປັນຫຍັງຄວາມໂປ່ງໃສຈຶ່ງສຳຄັນເມື່ອສ້າງດ້ວຍ AI ທີ່ສ້າງສັນ?
ຜູ້ໃຊ້ຄວນຮູ້ຢ່າງຈະແຈ້ງວ່າເວລາໃດທີ່ AI ມີສ່ວນຮ່ວມ, ມັນສາມາດເຮັດໄດ້ແນວໃດ, ແລະຂໍ້ຈຳກັດຂອງມັນຢູ່ໃສ. ຄວາມໂປ່ງໃສທີ່ດີສາມາດປະກອບມີປ້າຍຊື່ຕ່າງໆເຊັ່ນ: ສ້າງຂຶ້ນໂດຍ AI ຫຼື ຊ່ວຍເຫຼືອໂດຍ AI, ຄຳອະທິບາຍງ່າຍໆ, ແລະເສັ້ນທາງທີ່ຊັດເຈນໄປສູ່ການສະໜັບສະໜູນຂອງມະນຸດ. ຄວາມຈິງໃຈແບບນັ້ນບໍ່ໄດ້ເຮັດໃຫ້ຜະລິດຕະພັນອ່ອນແອລົງ; ມັນຊ່ວຍໃຫ້ຜູ້ໃຊ້ສາມາດປັບຄວາມໄວ້ວາງໃຈ ແລະ ຕັດສິນໃຈໄດ້ດີຂຶ້ນ.
ໃຜເປັນຜູ້ຮັບຜິດຊອບເມື່ອຄຸນສົມບັດ AI ທີ່ສ້າງສັນກໍ່ໃຫ້ເກີດອັນຕະລາຍ ຫຼື ເຮັດໃຫ້ເກີດຄວາມຜິດພາດ?
ນັກພັດທະນາ ແລະ ທີມງານຜະລິດຕະພັນຍັງຄົງເປັນເຈົ້າຂອງຜົນໄດ້ຮັບ, ເຖິງແມ່ນວ່າຮູບແບບຈະສ້າງຄຳຕອບກໍຕາມ. ນັ້ນໝາຍຄວາມວ່າຄວນມີຄວາມຮັບຜິດຊອບຢ່າງຈະແຈ້ງສຳລັບການອະນຸມັດການນຳໃຊ້, ການຈັດການເຫດການ, ການຍ້ອນກັບ, ການຕິດຕາມກວດກາ ແລະ ການສື່ສານຂອງຜູ້ໃຊ້. “ຮູບແບບທີ່ໄດ້ຕັດສິນໃຈແລ້ວ” ບໍ່ພຽງພໍ, ເພາະວ່າຄວາມຮັບຜິດຊອບຕ້ອງຍັງຄົງຢູ່ກັບຜູ້ທີ່ອອກແບບ ແລະ ເປີດຕົວລະບົບ.
ການພັດທະນາ AI ທີ່ມີຄວາມຮັບຜິດຊອບຫຼັງຈາກການເປີດຕົວຈະເປັນແນວໃດ?
ການພັດທະນາທີ່ມີຄວາມຮັບຜິດຊອບຈະສືບຕໍ່ຫຼັງຈາກການປ່ອຍອອກມາໂດຍຜ່ານການຕິດຕາມກວດກາ, ຄຳຕິຊົມ, ການທົບທວນ ແລະ ການແກ້ໄຂ. ລະບົບທີ່ເຂັ້ມແຂງແມ່ນສາມາດກວດສອບໄດ້, ສາມາດຂັດຂວາງໄດ້, ສາມາດກູ້ຄືນໄດ້, ແລະ ອອກແບບດ້ວຍເສັ້ນທາງສຳຮອງເມື່ອ AI ລົ້ມເຫຼວ. ເປົ້າໝາຍບໍ່ແມ່ນຄວາມສົມບູນແບບ; ມັນແມ່ນການສ້າງບາງສິ່ງບາງຢ່າງທີ່ສາມາດກວດສອບ, ປັບປຸງ ແລະ ປັບປ່ຽນໄດ້ຢ່າງປອດໄພເມື່ອບັນຫາໃນໂລກຕົວຈິງປາກົດຂຶ້ນ.
ເອກະສານອ້າງອີງ
-
ສະຖາບັນມາດຕະຖານ ແລະ ເຕັກໂນໂລຊີແຫ່ງຊາດ (NIST) - ໂປຣໄຟລ໌ NIST GenAI - nvlpubs.nist.gov
-
OWASP - 10 ອັນດັບຕົ້ນໆຂອງ OWASP ສຳລັບໃບສະໝັກ LLM - owasp.org
-
ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານ (ICO) - ແປດຄຳຖາມຂອງ ICO ສຳລັບ AI ທີ່ສ້າງສັນ - ico.org.uk