ຄຳສັບດັ່ງກ່າວຟັງແລ້ວສູງ, ແຕ່ເປົ້າໝາຍແມ່ນໃຊ້ໄດ້ຫຼາຍ: ເຮັດໃຫ້ລະບົບ AI ທີ່ຄົນເຮົາສາມາດເຊື່ອຖືໄດ້, ເພາະວ່າພວກມັນຖືກອອກແບບ, ສ້າງຂຶ້ນ ແລະໃຊ້ໃນທາງທີ່ເຄົາລົບສິດທິມະນຸດ, ຫຼຸດຜ່ອນຄວາມເສຍຫາຍ ແລະໃຫ້ຜົນປະໂຫຍດທີ່ແທ້ຈິງ. ນັ້ນແມ່ນ, ສ່ວນຫຼາຍແມ່ນດີ.
ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:
🔗 MCP ໃນ AI ແມ່ນຫຍັງ
ອະທິບາຍອະນຸສັນຍາການຄິດໄລ່ modular ແລະບົດບາດຂອງຕົນໃນ AI.
🔗 AI edge ແມ່ນຫຍັງ
ກວມເອົາວິທີການປະມວນຜົນຕາມຂອບເຮັດໃຫ້ການຕັດສິນໃຈ AI ທ້ອງຖິ່ນໄວຂຶ້ນ.
🔗 AI ທົ່ວໄປແມ່ນຫຍັງ
ແນະນໍາຕົວແບບທີ່ສ້າງຂໍ້ຄວາມ, ຮູບພາບ, ແລະເນື້ອຫາຕົ້ນສະບັບອື່ນໆ.
🔗 AI ຕົວແທນແມ່ນຫຍັງ
ອະທິບາຍຕົວແທນ AI ທີ່ເປັນເອກະລາດທີ່ສາມາດຕັດສິນໃຈໄດ້ຕາມເປົ້າໝາຍ.
ຈັນຍາບັນ AI ແມ່ນຫຍັງ? ຄຳນິຍາມງ່າຍໆ🧭
ຈັນຍາບັນ AI ແມ່ນຊຸດຂອງຫຼັກການ, ຂະບວນການ, ແລະ guardrails ທີ່ນໍາພາວິທີການທີ່ພວກເຮົາອອກແບບ, ພັດທະນາ, ນໍາໃຊ້, ແລະການຄຸ້ມຄອງ AI ດັ່ງນັ້ນມັນສະຫນັບສະຫນູນສິດທິມະນຸດ, ຄວາມຍຸຕິທໍາ, ຄວາມຮັບຜິດຊອບ, ຄວາມໂປ່ງໃສ, ແລະສັງຄົມທີ່ດີ. ຄິດວ່າມັນເປັນກົດລະບຽບປະຈໍາວັນຂອງຖະຫນົນສໍາລັບສູດການຄິດໄລ່ - ມີການກວດສອບເພີ່ມເຕີມສໍາລັບມຸມແປກທີ່ສິ່ງທີ່ອາດຈະຜິດພາດ.
ແກນສໍາພັດທົ່ວໂລກສະຫນັບສະຫນູນເລື່ອງນີ້: ຄໍາແນະນໍາຂອງອົງການ UNESCO ສຸມໃສ່ສິດທິມະນຸດ, ການຄວບຄຸມຂອງມະນຸດ, ແລະຄວາມຍຸຕິທໍາ, ດ້ວຍຄວາມໂປ່ງໃສແລະຍຸຕິທໍາທີ່ບໍ່ສາມາດເຈລະຈາໄດ້ [1]. ຫຼັກການ AI ຂອງ OECD ມີຈຸດປະສົງສໍາລັບ ທີ່ເຊື່ອຖືໄດ້ ທີ່ເຄົາລົບຄຸນຄ່າປະຊາທິປະໄຕໃນຂະນະທີ່ຍັງປະຕິບັດໄດ້ສໍາລັບທີມງານນະໂຍບາຍແລະວິສະວະກໍາ [2].
ໃນສັ້ນ, ຈັນຍາບັນ AI ບໍ່ແມ່ນໂປສເຕີຢູ່ເທິງກໍາແພງ. ມັນເປັນປຶ້ມທີ່ທີມງານໃຊ້ເພື່ອຄາດການຄວາມສ່ຽງ, ພິສູດຄວາມຫນ້າເຊື່ອຖື, ແລະປົກປ້ອງຄົນ. ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ AI ຂອງ NIST ປະຕິບັດຕໍ່ຈັນຍາບັນເຊັ່ນ: ການຄຸ້ມຄອງຄວາມສ່ຽງທີ່ຫ້າວຫັນໃນທົ່ວວົງຈອນຊີວິດ AI [3].

ສິ່ງທີ່ເຮັດໃຫ້ຈັນຍາບັນ AI ທີ່ດີ ✅
ນີ້ແມ່ນສະບັບທີ່ບໍ່ຊັດເຈນ. ໂຄງການດ້ານຈັນຍາບັນ AI ທີ່ດີ:
-
ແມ່ນດໍາລົງຊີວິດ, ບໍ່ laminated - ນະໂຍບາຍທີ່ຂັບລົດການປະຕິບັດວິສະວະກໍາທີ່ແທ້ຈິງແລະການທົບທວນຄືນ.
-
ເລີ່ມຕົ້ນທີ່ການກໍານົດບັນຫາ - ຖ້າຈຸດປະສົງປິດ, ບໍ່ມີການແກ້ໄຂຍຸດຕິທໍາຈະຊ່ວຍປະຢັດມັນ.
-
ການຕັດສິນໃຈເອກະສານ - ເປັນຫຍັງຂໍ້ມູນນີ້, ເປັນຫຍັງຮູບແບບນີ້, ເປັນຫຍັງເກນນີ້.
-
ການທົດສອບກັບສະພາບການ - ປະເມີນໂດຍກຸ່ມຍ່ອຍ, ບໍ່ພຽງແຕ່ຄວາມຖືກຕ້ອງໂດຍລວມ (ຫົວຂໍ້ NIST ຫຼັກ) [3].
-
ສະແດງການເຮັດວຽກຂອງມັນ - ບັດແບບຈໍາລອງ, ເອກະສານຊຸດຂໍ້ມູນ, ແລະ comms ຜູ້ໃຊ້ທີ່ຊັດເຈນ [5].
-
ສ້າງຄວາມຮັບຜິດຊອບ - ເຈົ້າຂອງຊື່, ເສັ້ນທາງການເພີ່ມຂື້ນ, ການກວດສອບ.
-
ດຸ່ນດ່ຽງການຄ້າແບບເປີດເຜີຍ - ຄວາມປອດໄພທຽບກັບຜົນປະໂຫຍດທຽບກັບຄວາມເປັນສ່ວນຕົວ, ຂຽນລົງ.
-
ເຊື່ອມຕໍ່ກັບກົດຫມາຍ - ຄວາມຕ້ອງການອີງໃສ່ຄວາມສ່ຽງທີ່ການຄວບຄຸມຂະຫນາດທີ່ມີຜົນກະທົບ (ເບິ່ງ EU AI ກົດຫມາຍ) [4].
ຖ້າມັນບໍ່ປ່ຽນແປງການຕັດສິນໃຈຜະລິດຕະພັນດຽວ, ມັນບໍ່ແມ່ນຈັນຍາບັນ - ມັນເປັນການຕົກແຕ່ງ.
ຄໍາຕອບດ່ວນສໍາລັບຄໍາຖາມໃຫຍ່: AI Ethics ແມ່ນຫຍັງ? 🥤
ມັນເປັນວິທີທີ່ທີມງານຕອບສາມຄໍາຖາມທີ່ເກີດຂື້ນ, ເລື້ອຍໆ:
-
ພວກເຮົາຄວນສ້າງນີ້ບໍ?
-
ຖ້າແມ່ນ, ພວກເຮົາຈະຫຼຸດຜ່ອນອັນຕະລາຍແລະພິສູດແນວໃດ?
-
ເມື່ອສິ່ງຕ່າງໆໄປຂ້າງໜ້າ, ໃຜເປັນຜູ້ຮັບຜິດຊອບ ແລະຈະເກີດຫຍັງຂຶ້ນຕໍ່ໄປ?
ໜ້າເບື່ອທີ່ປະຕິບັດໄດ້. ເປັນເລື່ອງແປກທີ່ຍາກ. ຕົກເປັນມູນຄ່າມັນ.
ເຄສນ້ອຍ 60 ວິນາທີ (ປະສົບການໃນການປະຕິບັດ) 📎
ທີມງານ fintech ຈັດສົ່ງຮູບແບບການສໍ້ໂກງທີ່ມີຄວາມແມ່ນຍໍາໂດຍລວມ. ສອງອາທິດຕໍ່ມາ, ປີ້ສະຫນັບສະຫນູນເພີ່ມຂຶ້ນຈາກການຈ່າຍເງິນສະເພາະໃນພາກພື້ນທີ່ຖືກຕ້ອງຖືກບລັອກ. ການທົບທວນຄືນກຸ່ມຍ່ອຍສະແດງໃຫ້ເຫັນວ່າການເອີ້ນຄືນສໍາລັບທ້ອງຖິ່ນນັ້ນແມ່ນຕ່ໍາກວ່າສະເລ່ຍ 12 ຈຸດ. ທີມງານທົບທວນຄືນການຄຸ້ມຄອງຂໍ້ມູນ, ຝຶກອົບຮົມຄືນດ້ວຍການເປັນຕົວແທນທີ່ດີກວ່າ, ແລະເຜີຍແຜ່ ບັດແບບຈໍາລອງ ທີ່ບັນທຶກການປ່ຽນແປງ, ຂໍ້ເຕືອນທີ່ຮູ້ຈັກ, ແລະເສັ້ນທາງການອຸທອນຂອງຜູ້ໃຊ້. ຄວາມຊັດເຈນຫຼຸດລົງຫນຶ່ງຈຸດ; ຄວາມໄວ້ວາງໃຈຂອງລູກຄ້າເພີ່ມຂຶ້ນ. ນີ້ແມ່ນຈັນຍາບັນເປັນ ການຄຸ້ມຄອງຄວາມສ່ຽງ ແລະ ຄວາມເຄົາລົບຂອງຜູ້ໃຊ້ , ບໍ່ແມ່ນໂປສເຕີ [3][5].
ເຄື່ອງມື ແລະກອບທີ່ເຈົ້າສາມາດນຳໃຊ້ໄດ້ 📋
(ຄວາມແປກປະຫລາດເລັກນ້ອຍລວມຢູ່ໃນຈຸດປະສົງ - ນັ້ນແມ່ນຊີວິດຈິງ.)
| ເຄື່ອງມືຫຼືກອບ | ຜູ້ຊົມ | ລາຄາ | ເປັນຫຍັງມັນຈຶ່ງໃຊ້ໄດ້ | ບັນທຶກ |
|---|---|---|---|---|
| NIST AI ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ | ຜະລິດຕະພັນ, ຄວາມສ່ຽງ, ນະໂຍບາຍ | ຟຣີ | ຫນ້າທີ່ທີ່ຈະແຈ້ງ - ການຄຸ້ມຄອງ, ແຜນທີ່, ການວັດແທກ, ການຄຸ້ມຄອງ -align ທີມງານ | ສະໝັກໃຈ, ອ້າງອີງຢ່າງກວ້າງຂວາງ [3] |
| ຫຼັກການ AI ຂອງ OECD | Execs, ຜູ້ນະໂຍບາຍ | ຟຣີ | ຄຸນຄ່າ + recs ປະຕິບັດສໍາລັບ AI ທີ່ເຊື່ອຖືໄດ້ | ການປົກຄອງທີ່ແຂງແກ່ນ-ດາວເໜືອ [2] |
| EU AI Act (ອີງໃສ່ຄວາມສ່ຽງ) | ກົດໝາຍ, ການປະຕິບັດຕາມ, CTOs | ຟຣີ* | ລະດັບຄວາມສ່ຽງກໍານົດການຄວບຄຸມອັດຕາສ່ວນສໍາລັບການນໍາໃຊ້ທີ່ມີຜົນກະທົບສູງ | ຄ່າໃຊ້ຈ່າຍໃນການປະຕິບັດຕາມແມ່ນແຕກຕ່າງກັນ [4] |
| ບັດຕົວແບບ | ວິສະວະກອນ ML, PMs | ຟຣີ | ມາດຕະຖານສິ່ງທີ່ຕົວແບບເປັນ, ເຮັດ, ແລະບ່ອນທີ່ມັນລົ້ມເຫລວ | ເຈ້ຍ + ຕົວຢ່າງມີ [5] |
| ເອກະສານຊຸດຂໍ້ມູນ (“ແຜ່ນຂໍ້ມູນ”) | ນັກວິທະຍາສາດຂໍ້ມູນ | ຟຣີ | ອະທິບາຍແຫຼ່ງທີ່ມາຂອງຂໍ້ມູນ, ການຄຸ້ມຄອງ, ການຍິນຍອມ, ແລະຄວາມສ່ຽງ | ຮັກສາມັນຄືກັບປ້າຍໂພຊະນາການ |
Deep dive 1 - ຫຼັກການໃນການເຄື່ອນໄຫວ, ບໍ່ແມ່ນໃນທິດສະດີ 🏃
-
ຄວາມຍຸດຕິທໍາ - ປະເມີນການປະຕິບັດໃນທົ່ວປະຊາກອນແລະສະພາບການ; metrics ໂດຍລວມເຊື່ອງອັນຕະລາຍ [3].
-
ຄວາມຮັບຜິດຊອບ - ມອບຫມາຍເຈົ້າຂອງສໍາລັບຂໍ້ມູນ, ຮູບແບບ, ແລະການຕັດສິນໃຈໃນການນໍາໃຊ້. ຮັກສາບັນທຶກການຕັດສິນໃຈ.
-
ຄວາມໂປ່ງໃສ - ໃຊ້ບັດຕົວແບບ; ບອກຜູ້ໃຊ້ວ່າການຕັດສິນໃຈອັດຕະໂນມັດເປັນແນວໃດ ແລະສິ່ງທີ່ມີຢູ່ [5].
-
ການຄວບຄຸມຂອງມະນຸດ - ເຮັດໃຫ້ມະນຸດເຂົ້າໄປໃນ / ຢູ່ໃນວົງສໍາລັບການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ, ດ້ວຍອໍານາດການຢຸດເຊົາ / override ທີ່ແທ້ຈິງ (ໂດຍຫຍໍ້ໂດຍ UNESCO) [1].
-
ຄວາມເປັນສ່ວນຕົວ & ຄວາມປອດໄພ - ຫຼຸດຜ່ອນ ແລະປົກປ້ອງຂໍ້ມູນ; ພິຈາລະນາການຮົ່ວໄຫລຂອງເວລາ inference ແລະການນໍາໃຊ້ທີ່ຜິດພາດລົງ.
-
Beneficence - ສະແດງໃຫ້ເຫັນຜົນປະໂຫຍດທາງສັງຄົມ, ບໍ່ພຽງແຕ່ KPIs neat (OECD ກອບການດຸ່ນດ່ຽງນີ້) [2].
ຄວາມເສີຍເມີຍນ້ອຍໆ: ບາງຄັ້ງທີມງານກໍ່ໂຕ້ຖຽງກັນເປັນເວລາຫຼາຍຊົ່ວໂມງກ່ຽວກັບຊື່ metric ໃນຂະນະທີ່ບໍ່ສົນໃຈຄໍາຖາມທີ່ເປັນອັນຕະລາຍຕົວຈິງ. ຕະຫລົກເຮັດແນວໃດມັນເກີດຂຶ້ນ.
Deep dive 2 - ຄວາມສ່ຽງແລະວິທີການວັດແທກພວກມັນ 📏
AI ດ້ານຈັນຍາບັນກາຍເປັນຈິງເມື່ອທ່ານປະຕິບັດອັນຕະລາຍເປັນຄວາມສ່ຽງທີ່ສາມາດວັດແທກໄດ້:
-
ການສ້າງແຜນທີ່ເນື້ອໃນ - ໃຜໄດ້ຮັບຜົນກະທົບ, ໂດຍກົງແລະທາງອ້ອມ? ອຳນາດການຕັດສິນໃຈຂອງລະບົບມີຫຍັງແດ່?
-
ຄວາມສອດຄ່ອງຂອງຂໍ້ມູນ - ການເປັນຕົວແທນ, ການລອຍລົມ, ຄຸນນະພາບການຕິດສະຫຼາກ, ເສັ້ນທາງການຍິນຍອມ.
-
ພຶດຕິກໍາຕົວແບບ - ຮູບແບບຄວາມລົ້ມເຫລວພາຍໃຕ້ການປ່ຽນແປງການແຈກຢາຍ, ການກະຕຸ້ນເຕືອນຂອງຝ່າຍກົງກັນຂ້າມ, ຫຼືການປ້ອນຂໍ້ມູນທີ່ເປັນອັນຕະລາຍ.
-
ການປະເມີນຜົນກະທົບ - ຄວາມຮຸນແຮງ × ຄວາມເປັນໄປໄດ້, ການຫຼຸດຜ່ອນ ແລະຄວາມສ່ຽງທີ່ເຫຼືອ.
-
ການຄວບຄຸມວົງຈອນຊີວິດ - ຈາກກອບບັນຫາໄປສູ່ການຕິດຕາມຫຼັງການໃຊ້ງານ.
NIST ແບ່ງນີ້ເປັນສີ່ຫນ້າທີ່ທີມງານສາມາດຮັບຮອງເອົາໂດຍບໍ່ມີການ reinventing ລໍ້: ການປົກຄອງ, ແຜນທີ່, ມາດຕະການ, ການຄຸ້ມຄອງ [3].
Deep dive 3 - ເອກະສານທີ່ຊ່ວຍປະຢັດທ່ານໃນພາຍຫລັງ 🗂️
ສອງເຄື່ອງປັ້ນດິນເຜົາທີ່ຖ່ອມຕົວເຮັດໄດ້ຫລາຍກວ່າຄຳຂວັນ:
-
ບັດແບບຈໍາລອງ - ຮູບແບບແມ່ນສໍາລັບແນວໃດ, ມັນຖືກປະເມີນແນວໃດ, ບ່ອນທີ່ມັນລົ້ມເຫລວ, ການພິຈາລະນາດ້ານຈັນຍາບັນ, ແລະຄໍາເຕືອນ - ສັ້ນ, ມີໂຄງສ້າງ, ສາມາດອ່ານໄດ້ [5].
-
ເອກະສານຊຸດຂໍ້ມູນ (“ເອກະສານຂໍ້ມູນ”) - ເປັນຫຍັງຂໍ້ມູນນີ້ຈຶ່ງມີຢູ່, ມັນຖືກເກັບກຳແນວໃດ, ແມ່ນໃຜເປັນຕົວແທນ, ຊ່ອງຫວ່າງທີ່ຮູ້ຈັກ ແລະການນຳໃຊ້ທີ່ແນະນຳ.
ຖ້າເຈົ້າເຄີຍຕ້ອງອະທິບາຍໃຫ້ຜູ້ຄວບຄຸມ ຫຼືນັກຂ່າວວ່າ ເປັນຫຍັງຕົວແບບຈຶ່ງປະພຶດຕົວຜິດ, ເຈົ້າຈະຂອບໃຈຕົວເຈົ້າໃນອະດີດທີ່ຂຽນສິ່ງເຫຼົ່ານີ້. ໃນອະນາຄົດ - ເຈົ້າຈະຊື້ກາເຟທີ່ຜ່ານມາຂອງເຈົ້າ.
ເຈາະເລິກ 4 - ການປົກຄອງທີ່ກັດຈິງ 🧩
-
ກໍານົດລະດັບຄວາມສ່ຽງ - ຢືມຄວາມຄິດທີ່ອີງໃສ່ຄວາມສ່ຽງເພື່ອໃຫ້ກໍລະນີການນໍາໃຊ້ທີ່ມີຜົນກະທົບສູງໄດ້ຮັບການກວດສອບຢ່າງເລິກເຊິ່ງ [4].
-
ປະຕູເວທີ - ການທົບທວນຄືນດ້ານຈັນຍາບັນໃນເວລາກິນ, ກ່ອນການເປີດຕົວ, ແລະຫຼັງການເປີດຕົວ. ບໍ່ແມ່ນສິບຫ້າປະຕູ. ສາມແມ່ນພໍສົມ.
-
ການແບ່ງຫນ້າທີ່ - ນັກພັດທະນາສະເຫນີ, ຄູ່ຮ່ວມງານທົບທວນຄວາມສ່ຽງ, ຜູ້ນໍາລົງນາມ. ເສັ້ນທີ່ຈະແຈ້ງ.
-
ການຕອບໂຕ້ເຫດການ - ໃຜຢຸດຕົວແບບໃດໜຶ່ງ, ຜູ້ໃຊ້ໄດ້ຮັບການແຈ້ງບອກແນວໃດ, ການແກ້ໄຂເບິ່ງຄືແນວໃດ.
-
ການກວດສອບເອກະລາດ - ພາຍໃນທໍາອິດ; ພາຍນອກທີ່ສະເຕກຕ້ອງການ.
-
ການຝຶກອົບຮົມແລະສິ່ງຈູງໃຈ - ລາງວັນ surfacing ບັນຫາຕົ້ນ, ບໍ່ໄດ້ເຊື່ອງພວກເຂົາ.
ຂໍໃຫ້ມີຄວາມຊື່ສັດ: ຖ້າການປົກຄອງບໍ່ເຄີຍເວົ້າວ່າ ບໍ່ , ມັນບໍ່ແມ່ນການປົກຄອງ.
Deep dive 5 - ຄົນໃນວົງ, ບໍ່ແມ່ນ props 👩⚖️
ການກວດສອບຂອງມະນຸດບໍ່ແມ່ນກ່ອງກາເຄື່ອງຫມາຍ - ມັນເປັນທາງເລືອກໃນການອອກແບບ:
-
ໃນເວລາທີ່ມະນຸດຕັດສິນໃຈ - ກໍານົດຂອບເຂດທີ່ຊັດເຈນທີ່ບຸກຄົນໃດຫນຶ່ງຕ້ອງທົບທວນຄືນ, ໂດຍສະເພາະສໍາລັບຜົນໄດ້ຮັບທີ່ມີຄວາມສ່ຽງສູງ.
-
ຄໍາອະທິບາຍສໍາລັບຜູ້ຕັດສິນໃຈ - ໃຫ້ມະນຸດທັງ ເຫດຜົນ ແລະ ຄວາມບໍ່ແນ່ນອນ .
-
loops ຄວາມຄິດເຫັນຂອງຜູ້ໃຊ້ - ໃຫ້ຜູ້ໃຊ້ແຂ່ງຂັນຫຼືແກ້ໄຂການຕັດສິນໃຈອັດຕະໂນມັດ.
-
ການເຂົ້າເຖິງ - ການໂຕ້ຕອບທີ່ຜູ້ໃຊ້ທີ່ແຕກຕ່າງກັນສາມາດເຂົ້າໃຈແລະນໍາໃຊ້ຕົວຈິງ.
ການຊີ້ນໍາຂອງອົງການ UNESCO ແມ່ນງ່າຍດາຍຢູ່ທີ່ນີ້: ກຽດສັກສີຂອງມະນຸດແລະການກວດກາແມ່ນຫຼັກ, ບໍ່ແມ່ນທາງເລືອກ. ສ້າງຜະລິດຕະພັນເພື່ອໃຫ້ມະນຸດສາມາດແຊກແຊງກ່ອນທີ່ຈະເປັນອັນຕະລາຍຕໍ່ແຜ່ນດິນ [1].
ບັນທຶກຂ້າງຄຽງ - ຊາຍແດນຕໍ່ໄປ: neurotech 🧠
ເມື່ອ AI ຂັດຂວາງກັບເຕັກໂນໂລຊີ neurotechnology, ຄວາມເປັນສ່ວນຕົວທາງຈິດໃຈ ແລະ ອິດສະລະໃນຄວາມຄິດ ກາຍເປັນການພິຈາລະນາການອອກແບບທີ່ແທ້ຈິງ. ປຶ້ມແບບຮຽນດຽວກັນໃຊ້ໄດ້ຄື: ຫຼັກການຖືສິດເປັນໃຈກາງ [1], ການປົກຄອງທີ່ໜ້າເຊື່ອຖືໂດຍການອອກແບບ [2], ແລະການປົກປ້ອງສັດສ່ວນສຳລັບການນຳໃຊ້ທີ່ມີຄວາມສ່ຽງສູງ [4]. ສ້າງ guardrails ໃນໄລຍະຕົ້ນແທນທີ່ຈະ bolting ໃຫ້ເຂົາເຈົ້າໃນເວລາຕໍ່ມາ.
ທີມງານຕອບແນວໃດວ່າ ຈັນຍາບັນ AI ແມ່ນຫຍັງ? ໃນການປະຕິບັດ - ຂະບວນການເຮັດວຽກ🧪
ພະຍາຍາມ loop ງ່າຍດາຍນີ້. ມັນບໍ່ສົມບູນແບບ, ແຕ່ມັນມີປະສິດຕິຜົນຢ່າງແຂງກະດ້າງ:
-
ການກວດສອບຈຸດປະສົງ - ພວກເຮົາແກ້ໄຂບັນຫາຂອງມະນຸດອັນໃດ, ແລະໃຜໄດ້ຮັບຜົນປະໂຫຍດຫຼືຮັບຜິດຊອບຄວາມສ່ຽງ?
-
ແຜນທີ່ບໍລິບົດ - ພາກສ່ວນກ່ຽວຂ້ອງ, ສະພາບແວດລ້ອມ, ຂໍ້ຈໍາກັດ, ອັນຕະລາຍທີ່ຮູ້ຈັກ.
-
ແຜນຂໍ້ມູນ - ແຫຼ່ງຂໍ້ມູນ, ການຍິນຍອມ, ການເປັນຕົວແທນ, ການເກັບຮັກສາ, ເອກະສານ.
-
ການອອກແບບເພື່ອຄວາມປອດໄພ - ການທົດສອບຄວາມຂັດແຍ້ງ, ການສ້າງທີມສີແດງ, ຄວາມເປັນສ່ວນຕົວໂດຍການອອກແບບ.
-
ກໍານົດຄວາມຍຸດຕິທໍາ - ເລືອກ metrics ໂດເມນທີ່ເຫມາະສົມ; ການຄ້າເອກະສານ.
-
ແຜນການທີ່ຈະອະທິບາຍ - ສິ່ງທີ່ຈະໄດ້ຮັບການອະທິບາຍ, ກັບໃຜ, ແລະວິທີທີ່ທ່ານຈະກວດສອບຜົນປະໂຫຍດ.
-
ບັດຕົວແບບ - ສະບັບຮ່າງໃນຕອນຕົ້ນ, ອັບເດດຕາມທີ່ທ່ານໄປ, ເຜີຍແຜ່ໃນເວລາເປີດຕົວ [5].
-
ປະຕູການປົກຄອງ - ການທົບທວນຄືນຄວາມສ່ຽງກັບເຈົ້າຂອງທີ່ຮັບຜິດຊອບ; ໂຄງສ້າງການນໍາໃຊ້ຫນ້າທີ່ຂອງ NIST [3].
-
ການຕິດຕາມຫຼັງການເປີດຕົວ - ເມຕຣິກ, ການແຈ້ງເຕືອນການລອຍລົມ, ປື້ມບັນທຶກເຫດການ, ການອຸທອນຂອງຜູ້ໃຊ້.
ຖ້າຫາກວ່າບາດກ້າວທີ່ມີຄວາມຮູ້ສຶກຫນັກ, ຂະຫນາດມັນເປັນຄວາມສ່ຽງ. ນັ້ນແມ່ນ trick ໄດ້. ເຄື່ອງຈັກແກ້ໄຂການສະກົດຄໍາເກີນຕົວຊ່ວຍບໍ່ມີໃຜໄດ້.
ຈັນຍາບັນທຽບກັບການປະຕິບັດຕາມ - ຄວາມແຕກຕ່າງທີ່ເຜັດແຕ່ຈຳເປັນ 🌶️
-
ຈັນຍາບັນ ຖາມວ່າ: ນີ້ແມ່ນສິ່ງທີ່ຖືກຕ້ອງສຳລັບຄົນບໍ?
-
ການປະຕິບັດຕາມແມ່ນ ຖາມວ່າ: ອັນນີ້ກົງກັບປື້ມກົດລະບຽບບໍ?
ທ່ານຕ້ອງການທັງສອງ. ຮູບແບບທີ່ອີງໃສ່ຄວາມສ່ຽງຂອງ EU ສາມາດເປັນກະດູກສັນຫຼັງການປະຕິບັດຕາມຂອງທ່ານ, ແຕ່ໂຄງການດ້ານຈັນຍາບັນຂອງທ່ານຄວນຊຸກຍູ້ໃຫ້ເກີນຂັ້ນຕ່ໍາ - ໂດຍສະເພາະໃນກໍລະນີການນໍາໃຊ້ທີ່ບໍ່ຊັດເຈນຫຼືໃຫມ່ [4].
ການປຽບທຽບໄວ (ຂໍ້ບົກພ່ອງ): ການປະຕິບັດຕາມແມ່ນຮົ້ວ; ຈັນຍາບັນແມ່ນຜູ້ລ້ຽງແກະ. ຮົ້ວເຮັດໃຫ້ເຈົ້າຢູ່ໃນຂອບເຂດ; ຜູ້ລ້ຽງແກະເຮັດໃຫ້ທ່ານໄປໃນທາງທີ່ຖືກຕ້ອງ.
ຂຸມທົ່ວໄປ - ແລະຈະເຮັດແນວໃດແທນ 🚧
-
Pitfall: ລະຄອນຈັນຍາບັນ - ຫຼັກການ fancy ທີ່ບໍ່ມີຊັບພະຍາກອນ.
ແກ້ໄຂ: ອຸທິດເວລາ, ເຈົ້າຂອງ, ແລະກວດເບິ່ງຈຸດກວດກາ. -
Pitfall: ອັນຕະລາຍໂດຍສະເລ່ຍ - ຕົວຊີ້ວັດໂດຍລວມທີ່ຍິ່ງໃຫຍ່ເຊື່ອງຄວາມລົ້ມເຫຼວຂອງກຸ່ມຍ່ອຍ.
ແກ້ໄຂ: ສະເຫມີປະເມີນໂດຍ subpopulations ທີ່ກ່ຽວຂ້ອງ [3]. -
Pitfall: ຄວາມລັບ masquerading ເປັນຄວາມປອດໄພ - ເຊື່ອງລາຍລະອຽດຈາກຜູ້ໃຊ້.
ແກ້ໄຂ: ເປີດເຜີຍຄວາມສາມາດ, ຂອບເຂດຈໍາກັດ, ແລະ recourse ໃນພາສາທໍາມະດາ [5]. -
Pitfall: ການກວດສອບໃນຕອນທ້າຍ - ຊອກຫາບັນຫາທີ່ຖືກຕ້ອງກ່ອນທີ່ຈະເປີດຕົວ.
ແກ້ໄຂ: ເລື່ອນດ້ານຊ້າຍເຮັດໃຫ້ຈັນຍາບັນຂອງການອອກແບບ ແລະການເກັບກໍາຂໍ້ມູນ. -
Pitfall: ບັນຊີລາຍການກວດກາໂດຍບໍ່ມີການຕັດສິນ - ແບບຟອມດັ່ງຕໍ່ໄປນີ້, ບໍ່ແມ່ນຄວາມຮູ້ສຶກ.
ແກ້ໄຂ: ສົມທົບແມ່ແບບທີ່ມີການທົບທວນຄືນຜູ້ຊ່ຽວຊານແລະການຄົ້ນຄວ້າຜູ້ໃຊ້.
FAQs - ສິ່ງທີ່ທ່ານຈະຖືກຖາມຢ່າງໃດ?
AI Ethics ຕ້ານການປະດິດສ້າງບໍ?
ບໍ່. ມັນເປັນນະວັດຕະກໍາທີ່ສົ່ງເສີມທີ່ເປັນປະໂຫຍດ. ຈັນຍາບັນຫຼີກລ້ຽງຈຸດຕາຍເຊັ່ນ: ລະບົບອະຄະຕິທີ່ເຮັດໃຫ້ເກີດການໂຕ້ຖຽງ ຫຼືບັນຫາທາງກົດໝາຍ. ຂອບ OECD ສົ່ງເສີມການປະດິດສ້າງດ້ວຍຄວາມປອດໄພຢ່າງຈະແຈ້ງ [2].
ພວກເຮົາຕ້ອງການນີ້ຖ້າຜະລິດຕະພັນຂອງພວກເຮົາມີຄວາມສ່ຽງຕໍ່າບໍ?
ແມ່ນແລ້ວ, ແຕ່ເບົາກວ່າ. ໃຊ້ການຄວບຄຸມອັດຕາສ່ວນ. ຄວາມຄິດທີ່ອີງໃສ່ຄວາມສ່ຽງນັ້ນແມ່ນມາດຕະຖານໃນວິທີການຂອງ EU [4].
ຕ້ອງມີເອກະສານຫຍັງແດ່?
ຕໍາ່ສຸດທີ່: ເອກະສານຊຸດຂໍ້ມູນສໍາລັບຊຸດຂໍ້ມູນຕົ້ນຕໍຂອງທ່ານ, ບັດແບບຈໍາລອງສໍາລັບແຕ່ລະແບບຈໍາລອງ, ແລະບັນທຶກການຕັດສິນໃຈປ່ອຍ [5].
ໃຜເປັນເຈົ້າຂອງຈັນຍາບັນ AI?
ບຸກຄົນທຸກຄົນເປັນເຈົ້າຂອງພຶດຕິກໍາ, ແຕ່ຜະລິດຕະພັນ, ວິທະຍາສາດຂໍ້ມູນ, ແລະທີມງານຄວາມສ່ຽງຕ້ອງການຄວາມຮັບຜິດຊອບທີ່ມີຊື່. ຫນ້າທີ່ຂອງ NIST ແມ່ນ scaffold ທີ່ດີ [3].
ດົນເກີນໄປບໍ່ໄດ້ອ່ານມັນ - ຂໍ້ສັງເກດສຸດທ້າຍ 💡
ຖ້າທ່ານສະຫຼຸບສິ່ງທັງຫມົດນີ້, ນີ້ແມ່ນຫົວໃຈ: ຈັນຍາບັນ AI ແມ່ນຫຍັງ? ມັນເປັນລະບຽບວິໄນທີ່ໃຊ້ໄດ້ໃນການສ້າງ AI ທີ່ຜູ້ຄົນສາມາດເຊື່ອຖືໄດ້. ຍຶດໝັ້ນການຊີ້ນຳທີ່ໄດ້ຮັບການຍອມຮັບຢ່າງກວ້າງຂວາງ - ທັດສະນະທີ່ຖືສິດເປັນໃຈກາງຂອງ UNESCO ແລະຫຼັກການ AI ທີ່ໜ້າເຊື່ອຖືຂອງ OECD. ໃຊ້ກອບຄວາມສ່ຽງຂອງ NIST ເພື່ອປະຕິບັດມັນ, ແລະສົ່ງກັບບັດແບບຈໍາລອງແລະເອກະສານຊຸດຂໍ້ມູນເພື່ອໃຫ້ທາງເລືອກຂອງທ່ານຖືກຕ້ອງ. ຫຼັງຈາກນັ້ນ, ສືບຕໍ່ຟັງຜູ້ໃຊ້, ຕໍ່ຜູ້ມີສ່ວນກ່ຽວຂ້ອງ, ຕິດຕາມແລະປັບຕົວຂອງທ່ານເອງ. ຈັນຍາບັນບໍ່ແມ່ນການຫນຶ່ງແລະເຮັດ; ມັນເປັນນິໄສ.
ແລະແມ່ນແລ້ວ, ບາງຄັ້ງເຈົ້າຈະຖືກຕ້ອງຕາມຫຼັກສູດ. ນັ້ນບໍ່ແມ່ນຄວາມລົ້ມເຫລວ. ນັ້ນແມ່ນວຽກງານ. 🌱
ເອກະສານອ້າງອີງ
-
UNESCO - ຄໍາແນະນໍາກ່ຽວກັບຈັນຍາບັນຂອງປັນຍາປະດິດ (2021). ເຊື່ອມຕໍ່
-
OECD - ຫຼັກການ AI (2019). ເຊື່ອມຕໍ່
-
NIST - ຂອບການຈັດການຄວາມສ່ຽງທາງປັນຍາທຽມ (AI RMF 1.0) (2023) (PDF). ເຊື່ອມຕໍ່
-
EUR-Lex - ລະບຽບ (EU) 2024/1689 (ກົດໝາຍ AI). ເຊື່ອມຕໍ່
-
Mitchell et al. - "ບັດແບບຈໍາລອງສໍາລັບການລາຍງານຕົວແບບ" (ACM, 2019). ເຊື່ອມຕໍ່