ຈັນຍາບັນ AI ແມ່ນຫຍັງ?

ຈັນຍາບັນ AI ແມ່ນຫຍັງ?

ຄຳສັບດັ່ງກ່າວຟັງແລ້ວສູງ, ແຕ່ເປົ້າໝາຍແມ່ນໃຊ້ໄດ້ຫຼາຍ: ເຮັດໃຫ້ລະບົບ AI ທີ່ຄົນເຮົາສາມາດເຊື່ອຖືໄດ້, ເພາະວ່າພວກມັນຖືກອອກແບບ, ສ້າງຂຶ້ນ ແລະໃຊ້ໃນທາງທີ່ເຄົາລົບສິດທິມະນຸດ, ຫຼຸດຜ່ອນຄວາມເສຍຫາຍ ແລະໃຫ້ຜົນປະໂຫຍດທີ່ແທ້ຈິງ. ນັ້ນແມ່ນ, ສ່ວນຫຼາຍແມ່ນດີ. 

ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:

🔗 MCP ໃນ AI ແມ່ນຫຍັງ
ອະ​ທິ​ບາຍ​ອະ​ນຸ​ສັນ​ຍາ​ການ​ຄິດ​ໄລ່ modular ແລະ​ບົດ​ບາດ​ຂອງ​ຕົນ​ໃນ AI​.

🔗 AI edge ແມ່ນຫຍັງ
ກວມເອົາວິທີການປະມວນຜົນຕາມຂອບເຮັດໃຫ້ການຕັດສິນໃຈ AI ທ້ອງຖິ່ນໄວຂຶ້ນ.

🔗 AI ທົ່ວໄປແມ່ນຫຍັງ
ແນະນໍາຕົວແບບທີ່ສ້າງຂໍ້ຄວາມ, ຮູບພາບ, ແລະເນື້ອຫາຕົ້ນສະບັບອື່ນໆ.

🔗 AI ຕົວແທນແມ່ນຫຍັງ
ອະທິບາຍຕົວແທນ AI ທີ່ເປັນເອກະລາດທີ່ສາມາດຕັດສິນໃຈໄດ້ຕາມເປົ້າໝາຍ.


ຈັນຍາບັນ AI ແມ່ນຫຍັງ? ຄຳນິຍາມງ່າຍໆ🧭

ຈັນຍາບັນ AI ແມ່ນຊຸດຂອງຫຼັກການ, ຂະບວນການ, ແລະ guardrails ທີ່ນໍາພາວິທີການທີ່ພວກເຮົາອອກແບບ, ພັດທະນາ, ນໍາໃຊ້, ແລະການຄຸ້ມຄອງ AI ດັ່ງນັ້ນມັນສະຫນັບສະຫນູນສິດທິມະນຸດ, ຄວາມຍຸຕິທໍາ, ຄວາມຮັບຜິດຊອບ, ຄວາມໂປ່ງໃສ, ແລະສັງຄົມທີ່ດີ. ຄິດວ່າມັນເປັນກົດລະບຽບປະຈໍາວັນຂອງຖະຫນົນສໍາລັບສູດການຄິດໄລ່ - ມີການກວດສອບເພີ່ມເຕີມສໍາລັບມຸມແປກທີ່ສິ່ງທີ່ອາດຈະຜິດພາດ.

ແກນສໍາພັດທົ່ວໂລກສະຫນັບສະຫນູນເລື່ອງນີ້: ຄໍາແນະນໍາຂອງອົງການ UNESCO ສຸມໃສ່ສິດທິມະນຸດ, ການຄວບຄຸມຂອງມະນຸດ, ແລະຄວາມຍຸຕິທໍາ, ດ້ວຍຄວາມໂປ່ງໃສແລະຍຸຕິທໍາທີ່ບໍ່ສາມາດເຈລະຈາໄດ້ [1]. ຫຼັກການ AI ຂອງ OECD ມີຈຸດປະສົງສໍາລັບ ທີ່ເຊື່ອຖືໄດ້ ທີ່ເຄົາລົບຄຸນຄ່າປະຊາທິປະໄຕໃນຂະນະທີ່ຍັງປະຕິບັດໄດ້ສໍາລັບທີມງານນະໂຍບາຍແລະວິສະວະກໍາ [2].

ໃນສັ້ນ, ຈັນຍາບັນ AI ບໍ່ແມ່ນໂປສເຕີຢູ່ເທິງກໍາແພງ. ມັນເປັນປຶ້ມທີ່ທີມງານໃຊ້ເພື່ອຄາດການຄວາມສ່ຽງ, ພິສູດຄວາມຫນ້າເຊື່ອຖື, ແລະປົກປ້ອງຄົນ. ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ AI ຂອງ NIST ປະຕິບັດຕໍ່ຈັນຍາບັນເຊັ່ນ: ການຄຸ້ມຄອງຄວາມສ່ຽງທີ່ຫ້າວຫັນໃນທົ່ວວົງຈອນຊີວິດ AI [3].

 

ຈັນຍາບັນ AI

ສິ່ງທີ່ເຮັດໃຫ້ຈັນຍາບັນ AI ທີ່ດີ ✅

ນີ້ແມ່ນສະບັບທີ່ບໍ່ຊັດເຈນ. ໂຄງການດ້ານຈັນຍາບັນ AI ທີ່ດີ:

  • ແມ່ນດໍາລົງຊີວິດ, ບໍ່ laminated - ນະໂຍບາຍທີ່ຂັບລົດການປະຕິບັດວິສະວະກໍາທີ່ແທ້ຈິງແລະການທົບທວນຄືນ.

  • ເລີ່ມຕົ້ນທີ່ການກໍານົດບັນຫາ - ຖ້າຈຸດປະສົງປິດ, ບໍ່ມີການແກ້ໄຂຍຸດຕິທໍາຈະຊ່ວຍປະຢັດມັນ.

  • ການຕັດສິນໃຈເອກະສານ - ເປັນຫຍັງຂໍ້ມູນນີ້, ເປັນຫຍັງຮູບແບບນີ້, ເປັນຫຍັງເກນນີ້.

  • ການທົດສອບກັບສະພາບການ - ປະເມີນໂດຍກຸ່ມຍ່ອຍ, ບໍ່ພຽງແຕ່ຄວາມຖືກຕ້ອງໂດຍລວມ (ຫົວຂໍ້ NIST ຫຼັກ) [3].

  • ສະແດງການເຮັດວຽກຂອງມັນ - ບັດແບບຈໍາລອງ, ເອກະສານຊຸດຂໍ້ມູນ, ແລະ comms ຜູ້ໃຊ້ທີ່ຊັດເຈນ [5].

  • ສ້າງຄວາມຮັບຜິດຊອບ - ເຈົ້າຂອງຊື່, ເສັ້ນທາງການເພີ່ມຂື້ນ, ການກວດສອບ.

  • ດຸ່ນດ່ຽງການຄ້າແບບເປີດເຜີຍ - ຄວາມປອດໄພທຽບກັບຜົນປະໂຫຍດທຽບກັບຄວາມເປັນສ່ວນຕົວ, ຂຽນລົງ.

  • ເຊື່ອມ​ຕໍ່​ກັບ​ກົດ​ຫມາຍ - ຄວາມ​ຕ້ອງ​ການ​ອີງ​ໃສ່​ຄວາມ​ສ່ຽງ​ທີ່​ການ​ຄວບ​ຄຸມ​ຂະ​ຫນາດ​ທີ່​ມີ​ຜົນ​ກະ​ທົບ (ເບິ່ງ EU AI ກົດ​ຫມາຍ​) [4​]​.

ຖ້າມັນບໍ່ປ່ຽນແປງການຕັດສິນໃຈຜະລິດຕະພັນດຽວ, ມັນບໍ່ແມ່ນຈັນຍາບັນ - ມັນເປັນການຕົກແຕ່ງ.


ຄໍາຕອບດ່ວນສໍາລັບຄໍາຖາມໃຫຍ່: AI Ethics ແມ່ນຫຍັງ? 🥤

ມັນເປັນວິທີທີ່ທີມງານຕອບສາມຄໍາຖາມທີ່ເກີດຂື້ນ, ເລື້ອຍໆ:

  1. ພວກເຮົາຄວນສ້າງນີ້ບໍ?

  2. ຖ້າແມ່ນ, ພວກເຮົາຈະຫຼຸດຜ່ອນອັນຕະລາຍແລະພິສູດແນວໃດ?

  3. ເມື່ອ​ສິ່ງ​ຕ່າງໆ​ໄປ​ຂ້າງ​ໜ້າ, ໃຜ​ເປັນ​ຜູ້​ຮັບ​ຜິດ​ຊອບ ແລະ​ຈະ​ເກີດ​ຫຍັງ​ຂຶ້ນ​ຕໍ່​ໄປ?

ໜ້າເບື່ອທີ່ປະຕິບັດໄດ້. ເປັນເລື່ອງແປກທີ່ຍາກ. ຕົກເປັນມູນຄ່າມັນ.


ເຄສນ້ອຍ 60 ວິນາທີ (ປະສົບການໃນການປະຕິບັດ) 📎

ທີມງານ fintech ຈັດສົ່ງຮູບແບບການສໍ້ໂກງທີ່ມີຄວາມແມ່ນຍໍາໂດຍລວມ. ສອງອາທິດຕໍ່ມາ, ປີ້ສະຫນັບສະຫນູນເພີ່ມຂຶ້ນຈາກການຈ່າຍເງິນສະເພາະໃນພາກພື້ນທີ່ຖືກຕ້ອງຖືກບລັອກ. ການທົບທວນຄືນກຸ່ມຍ່ອຍສະແດງໃຫ້ເຫັນວ່າການເອີ້ນຄືນສໍາລັບທ້ອງຖິ່ນນັ້ນແມ່ນຕ່ໍາກວ່າສະເລ່ຍ 12 ຈຸດ. ທີມງານທົບທວນຄືນການຄຸ້ມຄອງຂໍ້ມູນ, ຝຶກອົບຮົມຄືນດ້ວຍການເປັນຕົວແທນທີ່ດີກວ່າ, ແລະເຜີຍແຜ່ ບັດແບບຈໍາລອງ ທີ່ບັນທຶກການປ່ຽນແປງ, ຂໍ້ເຕືອນທີ່ຮູ້ຈັກ, ແລະເສັ້ນທາງການອຸທອນຂອງຜູ້ໃຊ້. ຄວາມຊັດເຈນຫຼຸດລົງຫນຶ່ງຈຸດ; ຄວາມໄວ້ວາງໃຈຂອງລູກຄ້າເພີ່ມຂຶ້ນ. ນີ້ແມ່ນຈັນຍາບັນເປັນ ການຄຸ້ມຄອງຄວາມສ່ຽງ ແລະ ຄວາມເຄົາລົບຂອງຜູ້ໃຊ້ , ບໍ່ແມ່ນໂປສເຕີ [3][5].


ເຄື່ອງມື ແລະກອບທີ່ເຈົ້າສາມາດນຳໃຊ້ໄດ້ 📋

(ຄວາມແປກປະຫລາດເລັກນ້ອຍລວມຢູ່ໃນຈຸດປະສົງ - ນັ້ນແມ່ນຊີວິດຈິງ.)

ເຄື່ອງມືຫຼືກອບ ຜູ້ຊົມ ລາຄາ ເປັນຫຍັງມັນຈຶ່ງໃຊ້ໄດ້ ບັນທຶກ
NIST AI ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ ຜະລິດຕະພັນ, ຄວາມສ່ຽງ, ນະໂຍບາຍ ຟຣີ ຫນ້າ​ທີ່​ທີ່​ຈະ​ແຈ້ງ - ການ​ຄຸ້ມ​ຄອງ​, ແຜນ​ທີ່​, ການ​ວັດ​ແທກ​, ການ​ຄຸ້ມ​ຄອງ -align ທີມ​ງານ ສະໝັກໃຈ, ອ້າງອີງຢ່າງກວ້າງຂວາງ [3]
ຫຼັກການ AI ຂອງ OECD Execs, ຜູ້ນະໂຍບາຍ ຟຣີ ຄຸນຄ່າ + recs ປະຕິບັດສໍາລັບ AI ທີ່ເຊື່ອຖືໄດ້ ການປົກຄອງທີ່ແຂງແກ່ນ-ດາວເໜືອ [2]
EU AI Act (ອີງໃສ່ຄວາມສ່ຽງ) ກົດໝາຍ, ການປະຕິບັດຕາມ, CTOs ຟຣີ* ລະດັບຄວາມສ່ຽງກໍານົດການຄວບຄຸມອັດຕາສ່ວນສໍາລັບການນໍາໃຊ້ທີ່ມີຜົນກະທົບສູງ ຄ່າໃຊ້ຈ່າຍໃນການປະຕິບັດຕາມແມ່ນແຕກຕ່າງກັນ [4]
ບັດຕົວແບບ ວິສະວະກອນ ML, PMs ຟຣີ ມາດຕະຖານສິ່ງທີ່ຕົວແບບເປັນ, ເຮັດ, ແລະບ່ອນທີ່ມັນລົ້ມເຫລວ ເຈ້ຍ + ຕົວຢ່າງມີ [5]
ເອກະສານຊຸດຂໍ້ມູນ (“ແຜ່ນຂໍ້ມູນ”) ນັກວິທະຍາສາດຂໍ້ມູນ ຟຣີ ອະທິບາຍແຫຼ່ງທີ່ມາຂອງຂໍ້ມູນ, ການຄຸ້ມຄອງ, ການຍິນຍອມ, ແລະຄວາມສ່ຽງ ຮັກສາມັນຄືກັບປ້າຍໂພຊະນາການ

Deep dive 1 - ຫຼັກການໃນການເຄື່ອນໄຫວ, ບໍ່ແມ່ນໃນທິດສະດີ 🏃

  • ຄວາມຍຸດຕິທໍາ - ປະເມີນການປະຕິບັດໃນທົ່ວປະຊາກອນແລະສະພາບການ; metrics ໂດຍລວມເຊື່ອງອັນຕະລາຍ [3].

  • ຄວາມຮັບຜິດຊອບ - ມອບຫມາຍເຈົ້າຂອງສໍາລັບຂໍ້ມູນ, ຮູບແບບ, ແລະການຕັດສິນໃຈໃນການນໍາໃຊ້. ຮັກສາບັນທຶກການຕັດສິນໃຈ.

  • ຄວາມໂປ່ງໃສ - ໃຊ້ບັດຕົວແບບ; ບອກຜູ້ໃຊ້ວ່າການຕັດສິນໃຈອັດຕະໂນມັດເປັນແນວໃດ ແລະສິ່ງທີ່ມີຢູ່ [5].

  • ການຄວບຄຸມຂອງມະນຸດ - ເຮັດໃຫ້ມະນຸດເຂົ້າໄປໃນ / ຢູ່ໃນວົງສໍາລັບການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ, ດ້ວຍອໍານາດການຢຸດເຊົາ / override ທີ່ແທ້ຈິງ (ໂດຍຫຍໍ້ໂດຍ UNESCO) [1].

  • ຄວາມເປັນສ່ວນຕົວ & ຄວາມປອດໄພ - ຫຼຸດຜ່ອນ ແລະປົກປ້ອງຂໍ້ມູນ; ພິ​ຈາ​ລະ​ນາ​ການ​ຮົ່ວ​ໄຫລ​ຂອງ​ເວ​ລາ inference ແລະ​ການ​ນໍາ​ໃຊ້​ທີ່​ຜິດ​ພາດ​ລົງ​.

  • Beneficence - ສະແດງໃຫ້ເຫັນຜົນປະໂຫຍດທາງສັງຄົມ, ບໍ່ພຽງແຕ່ KPIs neat (OECD ກອບການດຸ່ນດ່ຽງນີ້) [2].

ຄວາມເສີຍເມີຍນ້ອຍໆ: ບາງຄັ້ງທີມງານກໍ່ໂຕ້ຖຽງກັນເປັນເວລາຫຼາຍຊົ່ວໂມງກ່ຽວກັບຊື່ metric ໃນຂະນະທີ່ບໍ່ສົນໃຈຄໍາຖາມທີ່ເປັນອັນຕະລາຍຕົວຈິງ. ຕະຫລົກເຮັດແນວໃດມັນເກີດຂຶ້ນ.


Deep dive 2 - ຄວາມສ່ຽງແລະວິທີການວັດແທກພວກມັນ 📏

AI ດ້ານຈັນຍາບັນກາຍເປັນຈິງເມື່ອທ່ານປະຕິບັດອັນຕະລາຍເປັນຄວາມສ່ຽງທີ່ສາມາດວັດແທກໄດ້:

  • ການສ້າງແຜນທີ່ເນື້ອໃນ - ໃຜໄດ້ຮັບຜົນກະທົບ, ໂດຍກົງແລະທາງອ້ອມ? ອຳນາດການຕັດສິນໃຈຂອງລະບົບມີຫຍັງແດ່?

  • ຄວາມສອດຄ່ອງຂອງຂໍ້ມູນ - ການເປັນຕົວແທນ, ການລອຍລົມ, ຄຸນນະພາບການຕິດສະຫຼາກ, ເສັ້ນທາງການຍິນຍອມ.

  • ພຶດຕິກໍາຕົວແບບ - ຮູບແບບຄວາມລົ້ມເຫລວພາຍໃຕ້ການປ່ຽນແປງການແຈກຢາຍ, ການກະຕຸ້ນເຕືອນຂອງຝ່າຍກົງກັນຂ້າມ, ຫຼືການປ້ອນຂໍ້ມູນທີ່ເປັນອັນຕະລາຍ.

  • ການປະເມີນຜົນກະທົບ - ຄວາມຮຸນແຮງ × ຄວາມເປັນໄປໄດ້, ການຫຼຸດຜ່ອນ ແລະຄວາມສ່ຽງທີ່ເຫຼືອ.

  • ການຄວບຄຸມວົງຈອນຊີວິດ - ຈາກກອບບັນຫາໄປສູ່ການຕິດຕາມຫຼັງການໃຊ້ງານ.

NIST ແບ່ງນີ້ເປັນສີ່ຫນ້າທີ່ທີມງານສາມາດຮັບຮອງເອົາໂດຍບໍ່ມີການ reinventing ລໍ້: ການປົກຄອງ, ແຜນທີ່, ມາດຕະການ, ການຄຸ້ມຄອງ [3].


Deep dive 3 - ເອກະສານທີ່ຊ່ວຍປະຢັດທ່ານໃນພາຍຫລັງ 🗂️

ສອງ​ເຄື່ອງ​ປັ້ນ​ດິນ​ເຜົາ​ທີ່​ຖ່ອມ​ຕົວ​ເຮັດ​ໄດ້​ຫລາຍ​ກວ່າ​ຄຳ​ຂວັນ:

  • ບັດແບບຈໍາລອງ - ຮູບແບບແມ່ນສໍາລັບແນວໃດ, ມັນຖືກປະເມີນແນວໃດ, ບ່ອນທີ່ມັນລົ້ມເຫລວ, ການພິຈາລະນາດ້ານຈັນຍາບັນ, ແລະຄໍາເຕືອນ - ສັ້ນ, ມີໂຄງສ້າງ, ສາມາດອ່ານໄດ້ [5].

  • ເອກະສານຊຸດຂໍ້ມູນ (“ເອກະສານຂໍ້ມູນ”) - ເປັນຫຍັງຂໍ້ມູນນີ້ຈຶ່ງມີຢູ່, ມັນຖືກເກັບກຳແນວໃດ, ແມ່ນໃຜເປັນຕົວແທນ, ຊ່ອງຫວ່າງທີ່ຮູ້ຈັກ ແລະການນຳໃຊ້ທີ່ແນະນຳ.

ຖ້າເຈົ້າເຄີຍຕ້ອງອະທິບາຍໃຫ້ຜູ້ຄວບຄຸມ ຫຼືນັກຂ່າວວ່າ ເປັນຫຍັງຕົວແບບຈຶ່ງປະພຶດຕົວຜິດ, ເຈົ້າຈະຂອບໃຈຕົວເຈົ້າໃນອະດີດທີ່ຂຽນສິ່ງເຫຼົ່ານີ້. ໃນອະນາຄົດ - ເຈົ້າຈະຊື້ກາເຟທີ່ຜ່ານມາຂອງເຈົ້າ.


ເຈາະເລິກ 4 - ການປົກຄອງທີ່ກັດຈິງ 🧩

  • ກໍານົດລະດັບຄວາມສ່ຽງ - ຢືມຄວາມຄິດທີ່ອີງໃສ່ຄວາມສ່ຽງເພື່ອໃຫ້ກໍລະນີການນໍາໃຊ້ທີ່ມີຜົນກະທົບສູງໄດ້ຮັບການກວດສອບຢ່າງເລິກເຊິ່ງ [4].

  • ປະຕູເວທີ - ການທົບທວນຄືນດ້ານຈັນຍາບັນໃນເວລາກິນ, ກ່ອນການເປີດຕົວ, ແລະຫຼັງການເປີດຕົວ. ບໍ່ແມ່ນສິບຫ້າປະຕູ. ສາມແມ່ນພໍສົມ.

  • ການແບ່ງຫນ້າທີ່ - ນັກພັດທະນາສະເຫນີ, ຄູ່ຮ່ວມງານທົບທວນຄວາມສ່ຽງ, ຜູ້ນໍາລົງນາມ. ເສັ້ນທີ່ຈະແຈ້ງ.

  • ການຕອບໂຕ້ເຫດການ - ໃຜຢຸດຕົວແບບໃດໜຶ່ງ, ຜູ້ໃຊ້ໄດ້ຮັບການແຈ້ງບອກແນວໃດ, ການແກ້ໄຂເບິ່ງຄືແນວໃດ.

  • ການກວດສອບເອກະລາດ - ພາຍໃນທໍາອິດ; ພາຍນອກທີ່ສະເຕກຕ້ອງການ.

  • ການ​ຝຶກ​ອົບ​ຮົມ​ແລະ​ສິ່ງ​ຈູງ​ໃຈ - ລາງ​ວັນ surfacing ບັນ​ຫາ​ຕົ້ນ​, ບໍ່​ໄດ້​ເຊື່ອງ​ພວກ​ເຂົາ​.

ຂໍໃຫ້ມີຄວາມຊື່ສັດ: ຖ້າການປົກຄອງບໍ່ເຄີຍເວົ້າວ່າ ບໍ່ , ມັນບໍ່ແມ່ນການປົກຄອງ.


Deep dive 5 - ຄົນໃນວົງ, ບໍ່ແມ່ນ props 👩⚖️

ການກວດສອບຂອງມະນຸດບໍ່ແມ່ນກ່ອງກາເຄື່ອງຫມາຍ - ມັນເປັນທາງເລືອກໃນການອອກແບບ:

  • ໃນເວລາທີ່ມະນຸດຕັດສິນໃຈ - ກໍານົດຂອບເຂດທີ່ຊັດເຈນທີ່ບຸກຄົນໃດຫນຶ່ງຕ້ອງທົບທວນຄືນ, ໂດຍສະເພາະສໍາລັບຜົນໄດ້ຮັບທີ່ມີຄວາມສ່ຽງສູງ.

  • ຄໍາອະທິບາຍສໍາລັບຜູ້ຕັດສິນໃຈ - ໃຫ້ມະນຸດທັງ ເຫດຜົນ ແລະ ຄວາມບໍ່ແນ່ນອນ .

  • loops ຄວາມຄິດເຫັນຂອງຜູ້ໃຊ້ - ໃຫ້ຜູ້ໃຊ້ແຂ່ງຂັນຫຼືແກ້ໄຂການຕັດສິນໃຈອັດຕະໂນມັດ.

  • ການເຂົ້າເຖິງ - ການໂຕ້ຕອບທີ່ຜູ້ໃຊ້ທີ່ແຕກຕ່າງກັນສາມາດເຂົ້າໃຈແລະນໍາໃຊ້ຕົວຈິງ.

ການຊີ້ນໍາຂອງອົງການ UNESCO ແມ່ນງ່າຍດາຍຢູ່ທີ່ນີ້: ກຽດສັກສີຂອງມະນຸດແລະການກວດກາແມ່ນຫຼັກ, ບໍ່ແມ່ນທາງເລືອກ. ສ້າງຜະລິດຕະພັນເພື່ອໃຫ້ມະນຸດສາມາດແຊກແຊງກ່ອນທີ່ຈະເປັນອັນຕະລາຍຕໍ່ແຜ່ນດິນ [1].


ບັນທຶກຂ້າງຄຽງ - ຊາຍແດນຕໍ່ໄປ: neurotech 🧠

ເມື່ອ AI ຂັດຂວາງກັບເຕັກໂນໂລຊີ neurotechnology, ຄວາມເປັນສ່ວນຕົວທາງຈິດໃຈ ແລະ ອິດສະລະໃນຄວາມຄິດ ກາຍເປັນການພິຈາລະນາການອອກແບບທີ່ແທ້ຈິງ. ປຶ້ມແບບຮຽນດຽວກັນໃຊ້ໄດ້ຄື: ຫຼັກການຖືສິດເປັນໃຈກາງ [1], ການປົກຄອງທີ່ໜ້າເຊື່ອຖືໂດຍການອອກແບບ [2], ແລະການປົກປ້ອງສັດສ່ວນສຳລັບການນຳໃຊ້ທີ່ມີຄວາມສ່ຽງສູງ [4]. ສ້າງ guardrails ໃນໄລຍະຕົ້ນແທນທີ່ຈະ bolting ໃຫ້ເຂົາເຈົ້າໃນເວລາຕໍ່ມາ.


ທີມງານຕອບແນວໃດວ່າ ຈັນຍາບັນ AI ແມ່ນຫຍັງ? ໃນການປະຕິບັດ - ຂະບວນການເຮັດວຽກ🧪

ພະຍາຍາມ loop ງ່າຍດາຍນີ້. ມັນບໍ່ສົມບູນແບບ, ແຕ່ມັນມີປະສິດຕິຜົນຢ່າງແຂງກະດ້າງ:

  1. ການກວດສອບຈຸດປະສົງ - ພວກເຮົາແກ້ໄຂບັນຫາຂອງມະນຸດອັນໃດ, ແລະໃຜໄດ້ຮັບຜົນປະໂຫຍດຫຼືຮັບຜິດຊອບຄວາມສ່ຽງ?

  2. ແຜນທີ່ບໍລິບົດ - ພາກສ່ວນກ່ຽວຂ້ອງ, ສະພາບແວດລ້ອມ, ຂໍ້ຈໍາກັດ, ອັນຕະລາຍທີ່ຮູ້ຈັກ.

  3. ແຜນຂໍ້ມູນ - ແຫຼ່ງຂໍ້ມູນ, ການຍິນຍອມ, ການເປັນຕົວແທນ, ການເກັບຮັກສາ, ເອກະສານ.

  4. ການອອກແບບເພື່ອຄວາມປອດໄພ - ການທົດສອບຄວາມຂັດແຍ້ງ, ການສ້າງທີມສີແດງ, ຄວາມເປັນສ່ວນຕົວໂດຍການອອກແບບ.

  5. ກໍານົດຄວາມຍຸດຕິທໍາ - ເລືອກ metrics ໂດເມນທີ່ເຫມາະສົມ; ການ​ຄ້າ​ເອ​ກະ​ສານ​.

  6. ແຜນ​ການ​ທີ່​ຈະ​ອະ​ທິ​ບາຍ - ສິ່ງ​ທີ່​ຈະ​ໄດ້​ຮັບ​ການ​ອະ​ທິ​ບາຍ​, ກັບ​ໃຜ​, ແລະ​ວິ​ທີ​ທີ່​ທ່ານ​ຈະ​ກວດ​ສອບ​ຜົນ​ປະ​ໂຫຍດ​.

  7. ບັດຕົວແບບ - ສະບັບຮ່າງໃນຕອນຕົ້ນ, ອັບເດດຕາມທີ່ທ່ານໄປ, ເຜີຍແຜ່ໃນເວລາເປີດຕົວ [5].

  8. ປະຕູການປົກຄອງ - ການທົບທວນຄືນຄວາມສ່ຽງກັບເຈົ້າຂອງທີ່ຮັບຜິດຊອບ; ໂຄງສ້າງການນໍາໃຊ້ຫນ້າທີ່ຂອງ NIST [3].

  9. ການຕິດຕາມຫຼັງການເປີດຕົວ - ເມຕຣິກ, ການແຈ້ງເຕືອນການລອຍລົມ, ປື້ມບັນທຶກເຫດການ, ການອຸທອນຂອງຜູ້ໃຊ້.

ຖ້າ​ຫາກ​ວ່າ​ບາດ​ກ້າວ​ທີ່​ມີ​ຄວາມ​ຮູ້​ສຶກ​ຫນັກ​, ຂະ​ຫນາດ​ມັນ​ເປັນ​ຄວາມ​ສ່ຽງ​. ນັ້ນແມ່ນ trick ໄດ້. ເຄື່ອງຈັກແກ້ໄຂການສະກົດຄໍາເກີນຕົວຊ່ວຍບໍ່ມີໃຜໄດ້.


ຈັນຍາບັນທຽບກັບການປະຕິບັດຕາມ - ຄວາມແຕກຕ່າງທີ່ເຜັດແຕ່ຈຳເປັນ 🌶️

  • ຈັນຍາບັນ ຖາມວ່າ: ນີ້ແມ່ນສິ່ງທີ່ຖືກຕ້ອງສຳລັບຄົນບໍ?

  • ການປະຕິບັດຕາມແມ່ນ ຖາມວ່າ: ອັນນີ້ກົງກັບປື້ມກົດລະບຽບບໍ?

ທ່ານຕ້ອງການທັງສອງ. ຮູບແບບທີ່ອີງໃສ່ຄວາມສ່ຽງຂອງ EU ສາມາດເປັນກະດູກສັນຫຼັງການປະຕິບັດຕາມຂອງທ່ານ, ແຕ່ໂຄງການດ້ານຈັນຍາບັນຂອງທ່ານຄວນຊຸກຍູ້ໃຫ້ເກີນຂັ້ນຕ່ໍາ - ໂດຍສະເພາະໃນກໍລະນີການນໍາໃຊ້ທີ່ບໍ່ຊັດເຈນຫຼືໃຫມ່ [4].

ການປຽບທຽບໄວ (ຂໍ້ບົກພ່ອງ): ການປະຕິບັດຕາມແມ່ນຮົ້ວ; ຈັນຍາບັນແມ່ນຜູ້ລ້ຽງແກະ. ຮົ້ວເຮັດໃຫ້ເຈົ້າຢູ່ໃນຂອບເຂດ; ຜູ້ລ້ຽງແກະເຮັດໃຫ້ທ່ານໄປໃນທາງທີ່ຖືກຕ້ອງ.


ຂຸມທົ່ວໄປ - ແລະຈະເຮັດແນວໃດແທນ 🚧

  • Pitfall: ລະຄອນຈັນຍາບັນ - ຫຼັກການ fancy ທີ່ບໍ່ມີຊັບພະຍາກອນ.
    ແກ້ໄຂ: ອຸທິດເວລາ, ເຈົ້າຂອງ, ແລະກວດເບິ່ງຈຸດກວດກາ.

  • Pitfall: ອັນຕະລາຍໂດຍສະເລ່ຍ - ຕົວຊີ້ວັດໂດຍລວມທີ່ຍິ່ງໃຫຍ່ເຊື່ອງຄວາມລົ້ມເຫຼວຂອງກຸ່ມຍ່ອຍ.
    ແກ້ໄຂ: ສະເຫມີປະເມີນໂດຍ subpopulations ທີ່ກ່ຽວຂ້ອງ [3].

  • Pitfall: ຄວາມລັບ masquerading ເປັນຄວາມປອດໄພ - ເຊື່ອງລາຍລະອຽດຈາກຜູ້ໃຊ້.
    ແກ້ໄຂ: ເປີດເຜີຍຄວາມສາມາດ, ຂອບເຂດຈໍາກັດ, ແລະ recourse ໃນພາສາທໍາມະດາ [5].

  • Pitfall: ການກວດສອບໃນຕອນທ້າຍ - ຊອກຫາບັນຫາທີ່ຖືກຕ້ອງກ່ອນທີ່ຈະເປີດຕົວ.
    ແກ້ໄຂ: ເລື່ອນດ້ານຊ້າຍເຮັດໃຫ້ຈັນຍາບັນຂອງການອອກແບບ ແລະການເກັບກໍາຂໍ້ມູນ.

  • Pitfall: ບັນຊີລາຍການກວດກາໂດຍບໍ່ມີການຕັດສິນ - ແບບຟອມດັ່ງຕໍ່ໄປນີ້, ບໍ່ແມ່ນຄວາມຮູ້ສຶກ.
    ແກ້ໄຂ: ສົມທົບແມ່ແບບທີ່ມີການທົບທວນຄືນຜູ້ຊ່ຽວຊານແລະການຄົ້ນຄວ້າຜູ້ໃຊ້.


FAQs - ສິ່ງ​ທີ່​ທ່ານ​ຈະ​ຖືກ​ຖາມ​ຢ່າງ​ໃດ​?

AI Ethics ຕ້ານການປະດິດສ້າງບໍ?
ບໍ່. ມັນເປັນນະວັດຕະກໍາທີ່ສົ່ງເສີມທີ່ເປັນປະໂຫຍດ. ຈັນຍາບັນຫຼີກລ້ຽງຈຸດຕາຍເຊັ່ນ: ລະບົບອະຄະຕິທີ່ເຮັດໃຫ້ເກີດການໂຕ້ຖຽງ ຫຼືບັນຫາທາງກົດໝາຍ. ຂອບ OECD ສົ່ງເສີມການປະດິດສ້າງດ້ວຍຄວາມປອດໄພຢ່າງຈະແຈ້ງ [2].

ພວກເຮົາຕ້ອງການນີ້ຖ້າຜະລິດຕະພັນຂອງພວກເຮົາມີຄວາມສ່ຽງຕໍ່າບໍ?
ແມ່ນແລ້ວ, ແຕ່ເບົາກວ່າ. ໃຊ້ການຄວບຄຸມອັດຕາສ່ວນ. ຄວາມຄິດທີ່ອີງໃສ່ຄວາມສ່ຽງນັ້ນແມ່ນມາດຕະຖານໃນວິທີການຂອງ EU [4].

ຕ້ອງມີເອກະສານຫຍັງແດ່?
ຕໍາ່ສຸດທີ່: ເອກະສານຊຸດຂໍ້ມູນສໍາລັບຊຸດຂໍ້ມູນຕົ້ນຕໍຂອງທ່ານ, ບັດແບບຈໍາລອງສໍາລັບແຕ່ລະແບບຈໍາລອງ, ແລະບັນທຶກການຕັດສິນໃຈປ່ອຍ [5].

ໃຜເປັນເຈົ້າຂອງຈັນຍາບັນ AI?
ບຸກຄົນທຸກຄົນເປັນເຈົ້າຂອງພຶດຕິກໍາ, ແຕ່ຜະລິດຕະພັນ, ວິທະຍາສາດຂໍ້ມູນ, ແລະທີມງານຄວາມສ່ຽງຕ້ອງການຄວາມຮັບຜິດຊອບທີ່ມີຊື່. ຫນ້າທີ່ຂອງ NIST ແມ່ນ scaffold ທີ່ດີ [3].


ດົນເກີນໄປບໍ່ໄດ້ອ່ານມັນ - ຂໍ້ສັງເກດສຸດທ້າຍ 💡

ຖ້າທ່ານສະຫຼຸບສິ່ງທັງຫມົດນີ້, ນີ້ແມ່ນຫົວໃຈ: ຈັນຍາບັນ AI ແມ່ນຫຍັງ? ມັນເປັນລະບຽບວິໄນທີ່ໃຊ້ໄດ້ໃນການສ້າງ AI ທີ່ຜູ້ຄົນສາມາດເຊື່ອຖືໄດ້. ຍຶດ​ໝັ້ນ​ການ​ຊີ້​ນຳ​ທີ່​ໄດ້​ຮັບ​ການ​ຍອມ​ຮັບ​ຢ່າງ​ກວ້າງ​ຂວາງ - ທັດສະນະ​ທີ່​ຖື​ສິດ​ເປັນ​ໃຈກາງ​ຂອງ UNESCO ແລະ​ຫຼັກການ AI ທີ່​ໜ້າ​ເຊື່ອ​ຖື​ຂອງ OECD. ໃຊ້ກອບຄວາມສ່ຽງຂອງ NIST ເພື່ອປະຕິບັດມັນ, ແລະສົ່ງກັບບັດແບບຈໍາລອງແລະເອກະສານຊຸດຂໍ້ມູນເພື່ອໃຫ້ທາງເລືອກຂອງທ່ານຖືກຕ້ອງ. ຫຼັງຈາກນັ້ນ, ສືບຕໍ່ຟັງຜູ້ໃຊ້, ຕໍ່ຜູ້ມີສ່ວນກ່ຽວຂ້ອງ, ຕິດຕາມແລະປັບຕົວຂອງທ່ານເອງ. ຈັນຍາບັນບໍ່ແມ່ນການຫນຶ່ງແລະເຮັດ; ມັນເປັນນິໄສ.

ແລະແມ່ນແລ້ວ, ບາງຄັ້ງເຈົ້າຈະຖືກຕ້ອງຕາມຫຼັກສູດ. ນັ້ນບໍ່ແມ່ນຄວາມລົ້ມເຫລວ. ນັ້ນແມ່ນວຽກງານ. 🌱


ເອກະສານອ້າງອີງ

  1. UNESCO - ຄໍາແນະນໍາກ່ຽວກັບຈັນຍາບັນຂອງປັນຍາປະດິດ (2021). ເຊື່ອມຕໍ່

  2. OECD - ຫຼັກການ AI (2019). ເຊື່ອມຕໍ່

  3. NIST - ຂອບການຈັດການຄວາມສ່ຽງທາງປັນຍາທຽມ (AI RMF 1.0) (2023) (PDF). ເຊື່ອມຕໍ່

  4. EUR-Lex - ລະບຽບ (EU) 2024/1689 (ກົດໝາຍ AI). ເຊື່ອມຕໍ່

  5. Mitchell et al. - "ບັດແບບຈໍາລອງສໍາລັບການລາຍງານຕົວແບບ" (ACM, 2019). ເຊື່ອມຕໍ່


ຊອກຫາ AI ລ່າສຸດໄດ້ທີ່ຮ້ານ AI Assistant ຢ່າງເປັນທາງການ

ກ່ຽວກັບພວກເຮົາ

ກັບໄປທີ່ບລັອກ