ຄຳຕອບສັ້ນໆ: AI ໄດ້ໄປໄກເກີນໄປເມື່ອມັນຖືກນຳໃຊ້ໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ, ການເຝົ້າລະວັງ, ຫຼື ການຊັກຊວນໂດຍບໍ່ມີຂໍ້ຈຳກັດທີ່ໜັກແໜ້ນ, ການຍິນຍອມທີ່ໄດ້ຮັບຂໍ້ມູນ, ແລະ ສິດທີ່ແທ້ຈິງໃນການອຸທອນ. ມັນຂ້າມເສັ້ນອີກຄັ້ງເມື່ອ deepfakes ແລະ ການຫຼອກລວງທີ່ສາມາດຂະຫຍາຍໄດ້ເຮັດໃຫ້ຄວາມໄວ້ວາງໃຈຮູ້ສຶກຄືກັບການພະນັນ. ຖ້າຜູ້ຄົນບໍ່ສາມາດບອກໄດ້ວ່າ AI ມີບົດບາດ, ບໍ່ສາມາດເຂົ້າໃຈວ່າເປັນຫຍັງການຕັດສິນໃຈຈຶ່ງລົງມືເຮັດແບບນັ້ນ, ຫຼື ບໍ່ສາມາດເລືອກອອກໄດ້, ມັນກໍ່ໄກເກີນໄປແລ້ວ.
ບົດຮຽນຫຼັກ:
ຂອບເຂດ: ກຳນົດສິ່ງທີ່ລະບົບບໍ່ສາມາດເຮັດໄດ້, ໂດຍສະເພາະເມື່ອຄວາມບໍ່ແນ່ນອນສູງ.
ຄວາມຮັບຜິດຊອບ: ຮັບປະກັນວ່າມະນຸດສາມາດລົບລ້າງຜົນໄດ້ຮັບໂດຍບໍ່ມີການລົງໂທດ ຫຼື ກັບດັກຄວາມກົດດັນດ້ານເວລາ.
ຄວາມໂປ່ງໃສ: ບອກຜູ້ຄົນເມື່ອໃດທີ່ AI ມີສ່ວນຮ່ວມ ແລະ ເປັນຫຍັງມັນຈຶ່ງຕັດສິນໃຈ.
ຄວາມສາມາດໃນການແຂ່ງຂັນ: ສະໜອງເສັ້ນທາງການອຸທອນທີ່ວ່ອງໄວ ແລະ ໃຊ້ໄດ້ຜົນ ແລະ ວິທີການທີ່ຊັດເຈນໃນການແກ້ໄຂຂໍ້ມູນທີ່ບໍ່ດີ.
ການຕ້ານທານການໃຊ້ໃນທາງທີ່ຜິດ: ເພີ່ມແຫຼ່ງທີ່ມາ, ຂໍ້ຈຳກັດອັດຕາ ແລະ ການຄວບຄຸມເພື່ອສະກັດກັ້ນການຫຼອກລວງ ແລະ ການລ່ວງລະເມີດ.
"AI ກ້າວໄປໄກເກີນໄປບໍ?"
ສ່ວນທີ່ແປກປະຫຼາດກໍຄືການຂ້າມເສັ້ນນັ້ນບໍ່ແມ່ນເລື່ອງທີ່ເຫັນໄດ້ຊັດເຈນສະເໝີໄປ. ບາງຄັ້ງມັນກໍ່ດັງ ແລະ ໂດດເດັ່ນ, ຄືກັບການຫຼອກລວງແບບ deepfake. ( FTC , FBI ) ບາງຄັ້ງມັນກໍ່ງຽບໆ - ການຕັດສິນໃຈແບບອັດຕະໂນມັດທີ່ຊຸກຍູ້ຊີວິດຂອງເຈົ້າໄປທາງຂ້າງໂດຍບໍ່ມີຄຳອະທິບາຍໃດໆ, ແລະ ເຈົ້າບໍ່ຮູ້ຕົວເລີຍວ່າເຈົ້າຖືກ "ໃຫ້ຄະແນນ". ( UK ICO , GDPR ມາດຕາ 22 )
ສະນັ້ນ... AI ໄດ້ໄປໄກເກີນໄປແລ້ວບໍ? ໃນບາງບ່ອນ, ແມ່ນແລ້ວ. ໃນບາງບ່ອນ, ມັນຍັງບໍ່ໄກພຽງພໍ - ເພາະມັນຖືກນໍາໃຊ້ໂດຍບໍ່ມີຮາວຄວາມປອດໄພທີ່ບໍ່ໜ້າສົນໃຈແຕ່ຈຳເປັນທີ່ເຮັດໃຫ້ເຄື່ອງມືມີພຶດຕິກຳຄືກັບເຄື່ອງມືແທນທີ່ຈະເປັນລໍ້ roulette ທີ່ມີ UI ທີ່ເປັນມິດ. 🎰🙂 ( NIST AI RMF 1.0 , EU AI Act )
ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:
🔗 ເປັນຫຍັງ AI ຈຶ່ງເປັນອັນຕະລາຍຕໍ່ສັງຄົມ
ຄວາມສ່ຽງທາງສັງຄົມທີ່ສຳຄັນ: ອະຄະຕິ, ວຽກງານ, ຄວາມເປັນສ່ວນຕົວ ແລະ ການສຸມອຳນາດ.
🔗 AI ບໍ່ດີຕໍ່ສິ່ງແວດລ້ອມບໍ? ຜົນກະທົບທີ່ເຊື່ອງໄວ້
ວິທີການທີ່ການຝຶກອົບຮົມ, ສູນຂໍ້ມູນ ແລະ ການໃຊ້ພະລັງງານເພີ່ມການປ່ອຍອາຍພິດ.
🔗 AI ດີ ຫຼື ບໍ່ດີ? ຂໍ້ດີ ແລະ ຂໍ້ເສຍ
ພາບລວມທີ່ສົມດຸນກ່ຽວກັບຜົນປະໂຫຍດ, ຄວາມສ່ຽງ ແລະ ການແລກປ່ຽນໃນໂລກຕົວຈິງ.
🔗 ເປັນຫຍັງ AI ຈຶ່ງຖືກຖືວ່າບໍ່ດີ: ດ້ານມືດ
ສຳຫຼວດການໃຊ້ໃນທາງທີ່ຜິດ, ການຫຼອກລວງ, ໄພຂົ່ມຂູ່ຕໍ່ຄວາມປອດໄພ ແລະ ຄວາມກັງວົນດ້ານຈັນຍາບັນ.
ຄົນເຮົາໝາຍຄວາມວ່າແນວໃດເມື່ອເຂົາເຈົ້າເວົ້າວ່າ “AI ໄປໄກເກີນໄປແລ້ວບໍ?” 😬
ຄົນສ່ວນໃຫຍ່ບໍ່ໄດ້ຖາມວ່າ AI “ມີສະຕິ” ຫຼື “ເຂົ້າຄວບຄຸມ”. ພວກເຂົາກຳລັງຊີ້ໄປທີ່ໜຶ່ງໃນນີ້:
-
AI ກຳລັງຖືກນຳໃຊ້ໃນບ່ອນທີ່ບໍ່ຄວນນຳໃຊ້. (ໂດຍສະເພາະການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ.) ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ ເອກະສານຊ້ອນທ້າຍທີ III , GDPR ມາດຕາ 22 )
-
AI ກຳລັງຖືກນຳໃຊ້ໂດຍບໍ່ໄດ້ຮັບການຍິນຍອມ. (ຂໍ້ມູນຂອງທ່ານ, ສຽງຂອງທ່ານ, ໃບໜ້າຂອງທ່ານ... ເຮັດໃຫ້ແປກໃຈ.) ( ICO ຂອງອັງກິດ , GDPR ມາດຕາ 5 )
-
AI ກຳລັງເກັ່ງເກີນໄປໃນການຫມູນໃຊ້ຄວາມສົນໃຈ. (ຟີດ + ການປັບແຕ່ງສ່ວນຕົວ + ອັດຕະໂນມັດ = ຕິດແໜ້ນ.) ( ຫຼັກການ AI ຂອງ OECD )
-
AI ກຳລັງເຮັດໃຫ້ຄວາມຈິງຮູ້ສຶກວ່າເປັນທາງເລືອກ. (Deepfakes, ການທົບທວນປອມ, “ຜູ້ຊ່ຽວຊານ” ສັງເຄາະ) ( ຄະນະກຳມະການເອີຣົບ , FTC , C2PA )
-
AI ກຳລັງລວມສູນອຳນາດ. (ລະບົບບາງອັນທີ່ສ້າງຮູບແບບສິ່ງທີ່ທຸກຄົນເຫັນ ແລະ ສາມາດເຮັດໄດ້.) ( CMA ຂອງອັງກິດ )
ນັ້ນແມ່ນຫົວໃຈຂອງ “AI ກ້າວໄປໄກເກີນໄປແລ້ວບໍ?” ມັນບໍ່ແມ່ນຊ່ວງເວລາດຽວ. ມັນເປັນການສະສົມຂອງແຮງຈູງໃຈ, ທາງລັດ, ແລະ ຄວາມຄິດ “ພວກເຮົາຈະແກ້ໄຂມັນໃນພາຍຫຼັງ” - ເຊິ່ງ, ເວົ້າແທ້ໆ, ມັກຈະແປເປັນ “ພວກເຮົາຈະແກ້ໄຂມັນຫຼັງຈາກທີ່ມີຄົນໄດ້ຮັບບາດເຈັບ.” 😑

ຄວາມຈິງທີ່ບໍ່ລັບປານໃດ: AI ເປັນຕົວຄູນ, ບໍ່ແມ່ນຕົວກະທຳທາງສິນທຳ 🔧✨
ປັນຍາປະດິດບໍ່ໄດ້ຕື່ນຂຶ້ນແລະຕັດສິນໃຈທີ່ຈະເປັນອັນຕະລາຍ. ຜູ້ຄົນແລະອົງກອນຕ່າງໆແນໃສ່ມັນ. ແຕ່ມັນເພີ່ມຈຳນວນສິ່ງໃດກໍ່ຕາມທີ່ເຈົ້າໃຫ້ມັນ:
-
ເຈດຕະນາທີ່ເປັນປະໂຫຍດຈະກາຍເປັນ ປະໂຫຍດຢ່າງຫຼວງຫຼາຍ (ການແປ, ການເຂົ້າເຖິງ, ການສະຫຼຸບ, ການສັງເກດຮູບແບບທາງການແພດ).
-
ເຈດຕະນາທີ່ບໍ່ລະມັດລະວັງກາຍເປັນ ຄວາມບໍ່ລະມັດລະວັງຢ່າງຫຼວງຫຼາຍ (ອະຄະຕິໃນຂອບເຂດ, ການອັດຕະໂນມັດຂອງຄວາມຜິດພາດ).
-
ເຈດຕະນາທີ່ບໍ່ດີກາຍເປັນ ສິ່ງທີ່ບໍ່ດີຢ່າງໃຫຍ່ຫຼວງ (ການສໍ້ໂກງ, ການລົບກວນ, ການໂຄສະນາຊວນເຊື່ອ, ການປອມຕົວເປັນຄົນອື່ນ).
ມັນຄືກັບການເອົາໂທລະໂຂ່ງໃຫ້ເດັກນ້ອຍ. ບາງຄັ້ງເດັກນ້ອຍຮ້ອງເພງ... ບາງຄັ້ງເດັກນ້ອຍຮ້ອງຂຶ້ນໂດຍກົງໃສ່ຈິດວິນຍານຂອງເຈົ້າ. ບໍ່ແມ່ນຄຳປຽບທຽບທີ່ສົມບູນແບບ - ໂງ່ໜ້ອຍໜຶ່ງ - ແຕ່ຈຸດປະສົງແມ່ນຖືກຕ້ອງ 😅📢.
ສິ່ງໃດທີ່ເຮັດໃຫ້ AI ລຸ້ນດີໃນສະພາບການໃຊ້ປະຈຳວັນ? ✅🤝
“ຮຸ່ນທີ່ດີ” ຂອງ AI ບໍ່ໄດ້ຖືກນິຍາມໂດຍຄວາມສະຫຼາດຂອງມັນ. ມັນຖືກນິຍາມໂດຍວ່າມັນປະຕິບັດໄດ້ດີແນວໃດພາຍໃຕ້ຄວາມກົດດັນ, ຄວາມບໍ່ແນ່ນອນ, ແລະ ການລໍ້ລວງ (ແລະມະນຸດກໍ່ຖືກລໍ້ລວງຫຼາຍໂດຍລະບົບອັດຕະໂນມັດລາຄາຖືກ). ( NIST AI RMF 1.0 , OECD )
ນີ້ແມ່ນສິ່ງທີ່ຂ້ອຍຊອກຫາເມື່ອຜູ້ໃດຜູ້ໜຶ່ງອ້າງວ່າການໃຊ້ AI ຂອງເຂົາເຈົ້າມີຄວາມຮັບຜິດຊອບ:
1) ຂອບເຂດທີ່ຊັດເຈນ
-
ລະບົບໄດ້ຮັບອະນຸຍາດໃຫ້ເຮັດຫຍັງ?
-
ມັນຖືກຫ້າມຢ່າງຈະແຈ້ງບໍ່ໃຫ້ເຮັດຫຍັງ?
-
ຈະເກີດຫຍັງຂຶ້ນເມື່ອມັນບໍ່ແນ່ໃຈ?
2) ຄວາມຮັບຜິດຊອບຂອງມະນຸດທີ່ແທ້ຈິງ, ບໍ່ແມ່ນການຕົກແຕ່ງ
ຜົນໄດ້ຮັບ "ການທົບທວນຄືນ" ຂອງມະນຸດຈະມີຄວາມສຳຄັນພຽງແຕ່ຖ້າ:
-
ພວກເຂົາເຂົ້າໃຈສິ່ງທີ່ພວກເຂົາກຳລັງທົບທວນຄືນ, ແລະ
-
ພວກເຂົາສາມາດລົບລ້າງມັນໄດ້ໂດຍບໍ່ຕ້ອງຖືກລົງໂທດຍ້ອນການເຮັດໃຫ້ສິ່ງຕ່າງໆຊ້າລົງ.
3) ການອະທິບາຍໃນລະດັບທີ່ເໝາະສົມ
ບໍ່ແມ່ນທຸກຄົນຕ້ອງການຄະນິດສາດ. ຜູ້ຄົນຕ້ອງການ:
-
ເຫດຜົນຫຼັກທີ່ຢູ່ເບື້ອງຫຼັງການຕັດສິນໃຈ,
-
ຂໍ້ມູນໃດຖືກນຳໃຊ້,
-
ວິທີການອຸທອນ, ແກ້ໄຂ, ຫຼື ເລືອກທີ່ຈະບໍ່ເຂົ້າຮ່ວມ. ( UK ICO )
4) ປະສິດທິພາບທີ່ວັດແທກໄດ້ - ລວມທັງຮູບແບບຄວາມລົ້ມເຫຼວ
ບໍ່ພຽງແຕ່ "ຄວາມຖືກຕ້ອງ", ແຕ່:
-
ມັນລົ້ມເຫຼວໃສ່ໃຜ,
-
ມັນລົ້ມເຫຼວຢ່າງງຽບໆເລື້ອຍປານໃດ,
-
ຈະເກີດຫຍັງຂຶ້ນເມື່ອໂລກປ່ຽນແປງ. ( NIST AI RMF 1.0 )
5) ຄວາມເປັນສ່ວນຕົວ ແລະ ການຍິນຍອມທີ່ບໍ່ໄດ້ “ຝັງໄວ້ໃນການຕັ້ງຄ່າ”
ຖ້າການຍິນຍອມຮຽກຮ້ອງໃຫ້ມີການລ່າສົມບັດຜ່ານເມນູ… ມັນບໍ່ແມ່ນການຍິນຍອມ. ມັນເປັນຊ່ອງໂຫວ່ທີ່ມີຂັ້ນຕອນເພີ່ມເຕີມ 😐🧾. ( GDPR ມາດຕາ 5 , ICO ຂອງອັງກິດ )
ຕາຕະລາງປຽບທຽບ: ວິທີການປະຕິບັດໄດ້ເພື່ອຢຸດ AI ຈາກການໄປໄກເກີນໄປ 🧰📊
ຂ້າງລຸ່ມນີ້ແມ່ນ “ຕົວເລືອກອັນດັບຕົ້ນໆ” ໃນຄວາມໝາຍທີ່ວ່າພວກມັນເປັນຮົ້ວກັ້ນທົ່ວໄປ ຫຼື ເຄື່ອງມືປະຕິບັດງານທີ່ປ່ຽນແປງຜົນໄດ້ຮັບ (ບໍ່ພຽງແຕ່ຄວາມຮູ້ສຶກເທົ່ານັ້ນ).
| ເຄື່ອງມື / ທາງເລືອກ | ຜູ້ຊົມ | ລາຄາ | ເປັນຫຍັງມັນຈຶ່ງໃຊ້ໄດ້ |
|---|---|---|---|
| ການທົບທວນຄືນໂດຍມະນຸດໃນວົງຈອນ ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ ) | ທີມທີ່ເຮັດການໂທທີ່ມີຄວາມສ່ຽງຕໍ່ການສ່ຽງສູງ | ££ (ຄ່າໃຊ້ຈ່າຍເວລາ) | ເຮັດໃຫ້ລະບົບອັດຕະໂນມັດທີ່ບໍ່ດີຊ້າລົງ. ນອກຈາກນີ້, ມະນຸດສາມາດສັງເກດເຫັນກໍລະນີຂອບແປກໆ, ບາງຄັ້ງ.. |
| ຂະບວນການອຸທອນຄຳຕັດສິນ ( GDPR ມາດຕາ 22 ) | ຜູ້ໃຊ້ທີ່ໄດ້ຮັບຜົນກະທົບຈາກການຕັດສິນໃຈຂອງ AI | ແບບອິດສະຫຼະ | ເພີ່ມຂະບວນການທີ່ເໝາະສົມ. ຜູ້ຄົນສາມາດແກ້ໄຂຂໍ້ມູນທີ່ຜິດພາດໄດ້ - ຟັງແລ້ວຄືວ່າພື້ນຖານເພາະມັນເປັນພື້ນຖານ |
| ບັນທຶກການກວດສອບ + ການຕິດຕາມ ( NIST SP 800-53 ) | ການປະຕິບັດຕາມ, ການປະຕິບັດການ, ຄວາມປອດໄພ | £-££ | ຊ່ວຍໃຫ້ທ່ານສາມາດຕອບວ່າ "ເກີດຫຍັງຂຶ້ນ?" ຫຼັງຈາກຄວາມລົ້ມເຫຼວ, ແທນທີ່ຈະຍົກບ່າໄຫລ່ |
| ການປະເມີນຮູບແບບ + ການທົດສອບຄວາມລຳອຽງ ( NIST AI RMF 1.0 ) | ທີມງານຜະລິດຕະພັນ + ຄວາມສ່ຽງ | ແຕກຕ່າງກັນຫຼາຍ | ກວດພົບອັນຕະລາຍທີ່ຄາດເດົາໄດ້ແຕ່ຫົວທີ. ບໍ່ສົມບູນແບບ, ແຕ່ດີກວ່າການຄາດເດົາ |
| ການທົດສອບທີມແດງ ( ໂປຣໄຟລ໌ NIST GenAI ) | ພະນັກງານຮັກສາຄວາມປອດໄພ + ພະນັກງານຮັກສາຄວາມປອດໄພ | £££ | ຈຳລອງການໃຊ້ໃນທາງທີ່ຜິດກ່ອນທີ່ຜູ້ໂຈມຕີຕົວຈິງຈະເຮັດ. ບໍ່ໜ້າພໍໃຈ, ແຕ່ຄຸ້ມຄ່າ 😬 |
| ການຫຼຸດຜ່ອນຂໍ້ມູນ ( UK ICO ) | ທຸກໆຄົນ, ແທ້ໆ | £ | ຂໍ້ມູນໜ້ອຍລົງ = ຄວາມວຸ້ນວາຍໜ້ອຍລົງ. ການລະເມີດໜ້ອຍລົງ, ການສົນທະນາທີ່ງຸ່ມງ່າມໜ້ອຍລົງ |
| ສັນຍານທີ່ມາຂອງເນື້ອຫາ ( C2PA ) | ແພລດຟອມ, ສື່, ຜູ້ໃຊ້ | £-££ | ຊ່ວຍກວດສອບວ່າ "ມະນຸດເປັນຜູ້ເຮັດສິ່ງນີ້ບໍ?" - ບໍ່ແມ່ນເລື່ອງທີ່ຜິດພາດໄດ້ ແຕ່ຊ່ວຍຫຼຸດຜ່ອນຄວາມວຸ້ນວາຍ |
| ຂໍ້ຈຳກັດອັດຕາ + ການຄວບຄຸມການເຂົ້າເຖິງ ( OWASP ) | ຜູ້ໃຫ້ບໍລິການ AI + ວິສາຫະກິດ | £ | ຢຸດການຂົ່ມເຫັງຈາກການຂະຫຍາຍຂອບເຂດທັນທີ. ຄືກັບການເລັ່ງຄວາມໄວສຳລັບນັກສະແດງທີ່ບໍ່ດີ |
ແມ່ນແລ້ວ, ໂຕະບໍ່ສະໝໍ່າສະເໝີກັນໜ້ອຍໜຶ່ງ. ນັ້ນແຫຼະຊີວິດ. 🙂
AI ໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ: ເມື່ອມັນໄປໄກເກີນໄປ 🏥🏦⚖️
ນີ້ແມ່ນບ່ອນທີ່ສິ່ງຕ່າງໆຮ້າຍແຮງຂຶ້ນໄວ.
ປະດິດ (AI) ໃນ ການດູແລສຸຂະພາບ , ການເງິນ , ທີ່ຢູ່ອາໄສ , ການຈ້າງງານ , ການສຶກສາ , ການເຂົ້າເມືອງ , ຄວາມຍຸຕິທຳທາງອາຍາ - ລະບົບເຫຼົ່ານີ້ແມ່ນບ່ອນທີ່: ( ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ ເອກະສານຊ້ອນທ້າຍທີ III , FDA )
-
ຄວາມຜິດພາດສາມາດເຮັດໃຫ້ຜູ້ໃດຜູ້ໜຶ່ງສູນເສຍເງິນ, ອິດສະລະພາບ, ກຽດສັກສີ, ຫຼື ຄວາມປອດໄພ,
-
ແລະຜູ້ທີ່ໄດ້ຮັບຜົນກະທົບມັກຈະມີພະລັງທີ່ຈຳກັດໃນການຕໍ່ສູ້ກັບຄືນ.
ຄວາມສ່ຽງໃຫຍ່ບໍ່ແມ່ນ “AI ເຮັດຜິດພາດ.” ຄວາມສ່ຽງໃຫຍ່ແມ່ນ ຄວາມຜິດພາດຂອງ AI ກາຍເປັນນະໂຍບາຍ . ( NIST AI RMF 1.0 )
ຄຳວ່າ "ໄກເກີນໄປ" ຢູ່ທີ່ນີ້ເປັນແນວໃດ
-
ການຕັດສິນໃຈແບບອັດຕະໂນມັດໂດຍບໍ່ມີຄຳອະທິບາຍ: “ຄອມພິວເຕີບອກວ່າບໍ່.” ( UK ICO )
-
“ຄະແນນຄວາມສ່ຽງ” ຖືກປະຕິບັດຄືກັບຂໍ້ເທັດຈິງແທນທີ່ຈະເປັນການຄາດເດົາ.
-
ມະນຸດທີ່ບໍ່ສາມາດລົບລ້າງຜົນໄດ້ຮັບໄດ້ ເພາະວ່າຝ່າຍບໍລິຫານຕ້ອງການຄວາມໄວ.
-
ຂໍ້ມູນທີ່ບໍ່ເປັນລະບຽບ, ມີອະຄະຕິ, ລ້າສະໄໝ, ຫຼື ຜິດພາດຢ່າງສິ້ນເຊີງ.
ສິ່ງທີ່ຄວນຈະບໍ່ສາມາດເຈລະຈາໄດ້
-
ສິດໃນການອຸທອນ (ໄວ, ເຂົ້າໃຈງ່າຍ, ບໍ່ແມ່ນເລື່ອງວຸ້ນວາຍ). ( GDPR ມາດຕາ 22 , ICO ຂອງສະຫະລາຊະອານາຈັກ )
-
ສິດທີ່ຈະຮູ້ ວ່າ AI ມີສ່ວນຮ່ວມ. ( ຄະນະກຳມະການເອີຣົບ )
-
ການທົບທວນຄືນຂອງມະນຸດ ສຳລັບຜົນໄດ້ຮັບທີ່ຕາມມາ. ( NIST AI RMF 1.0 )
-
ການຄວບຄຸມຄຸນນະພາບຂໍ້ມູນ - ເພາະວ່າຂີ້ເຫຍື້ອເຂົ້າ, ຂີ້ເຫຍື້ອອອກຍັງເປັນຄວາມຈິງທີ່ເຈັບປວດ.
ຖ້າທ່ານກຳລັງພະຍາຍາມຂີດເສັ້ນທີ່ສະອາດ, ນີ້ແມ່ນອັນໜຶ່ງ:
ຖ້າລະບົບ AI ສາມາດປ່ຽນແປງຊີວິດຂອງຜູ້ໃດຜູ້ໜຶ່ງໄດ້ຢ່າງສຳຄັນ, ມັນຕ້ອງການຄວາມຈິງຈັງຄືກັນກັບທີ່ພວກເຮົາຄາດຫວັງຈາກອຳນາດຮູບແບບອື່ນໆ. ບໍ່ມີ "ການທົດສອບເບຕ້າ" ກັບຜູ້ທີ່ບໍ່ໄດ້ລົງທະບຽນ. 🚫
Deepfakes, ການຫຼອກລວງ, ແລະ ການຕາຍຢ່າງຊ້າໆຂອງ “ຂ້ອຍໄວ້ວາງໃຈຕາຂອງຂ້ອຍ” 👀🧨
ນີ້ແມ່ນສ່ວນທີ່ເຮັດໃຫ້ຊີວິດປະຈຳວັນຮູ້ສຶກ...ລື່ນ.
ເມື່ອ AI ສາມາດສ້າງ:
-
ວິດີໂອຂອງບຸກຄົນສາທາລະນະ “ເວົ້າ” ບາງສິ່ງບາງຢ່າງ,
-
ການທົບທວນປອມຫຼາຍໆຄັ້ງທີ່ເບິ່ງຄືວ່າເປັນຄວາມຈິງພຽງພໍ ( FTC )
-
ໂປຣໄຟລ໌ LinkedIn ປອມທີ່ມີປະຫວັດການເຮັດວຽກປອມ ແລະ ໝູ່ເພື່ອນປອມ..
...ມັນບໍ່ພຽງແຕ່ເຮັດໃຫ້ມີການຫຼອກລວງເທົ່ານັ້ນ. ມັນເຮັດໃຫ້ຄວາມຜູກພັນທາງສັງຄົມທີ່ຊ່ວຍໃຫ້ຄົນແປກໜ້າປະສານງານກັນອ່ອນແອລົງ. ແລະສັງຄົມກໍ່ດຳເນີນໄປຕາມການປະສານງານຂອງຄົນແປກໜ້າ. 😵💫
“ໄກເກີນໄປ” ບໍ່ແມ່ນພຽງແຕ່ເນື້ອຫາປອມເທົ່ານັ້ນ
ມັນແມ່ນ ຄວາມບໍ່ສົມດຸນ :
-
ມັນລາຄາຖືກທີ່ຈະສ້າງຄວາມຕົວະ.
-
ມັນມີລາຄາແພງ ແລະ ຊ້າໃນການກວດສອບຄວາມຈິງ.
-
ແລະຄົນສ່ວນໃຫຍ່ກໍ່ຫຍຸ້ງ, ເມື່ອຍ, ແລະ ເລື່ອນເບິ່ງ.
ສິ່ງທີ່ຊ່ວຍໄດ້ (ໜ້ອຍໜຶ່ງ)
-
ເຄື່ອງໝາຍແຫຼ່ງທີ່ມາຂອງສື່. ( C2PA )
-
ແຮງສຽດທານຕໍ່ຄວາມເປັນໄວຣັລ - ເຮັດໃຫ້ການແບ່ງປັນມວນຊົນທັນທີຊ້າລົງ.
-
ການຢືນຢັນຕົວຕົນທີ່ດີກວ່າໃນບ່ອນທີ່ມີຄວາມສຳຄັນ (ການເງິນ, ການບໍລິການຂອງລັດຖະບານ).
-
ນິໄສພື້ນຖານ “ກວດສອບນອກຂອບເຂດ” ສຳລັບບຸກຄົນ (ໂທກັບ, ໃຊ້ລະຫັດຄຳສັບ, ຢືນຢັນຜ່ານຊ່ອງທາງອື່ນ). ( FTC )
ບໍ່ງາມເລີຍ. ແຕ່ສາຍແອວນິລະໄພກໍ່ບໍ່ງາມຄືກັນ, ແລະສ່ວນຕົວຂ້ອຍກໍ່ມັກສິ່ງເຫຼົ່ານັ້ນຫຼາຍ. 🚗
ການເຝົ້າລະວັງທີ່ຮຸນແຮງ: ເມື່ອ AI ປ່ຽນທຸກຢ່າງໃຫ້ກາຍເປັນເຊັນເຊີຢ່າງງຽບໆ 📷🫥
ອັນນີ້ບໍ່ໄດ້ລະເບີດຄືກັບ deepfake. ມັນພຽງແຕ່ແຜ່ລາມອອກໄປ.
AI ເຮັດໃຫ້ມັນງ່າຍທີ່ຈະ:
-
ລະບຸໃບໜ້າໃນຝູງຊົນ, ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU , NIST FRVT )
-
ຕິດຕາມຮູບແບບການເຄື່ອນໄຫວ,
-
ອະນຸມານອາລົມຈາກວິດີໂອ (ມັກຈະບໍ່ດີ, ແຕ່ໝັ້ນໃຈ), ( Barrett et al., 2019 , ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU )
-
ຄາດຄະເນ “ຄວາມສ່ຽງ” ໂດຍອີງໃສ່ພຶດຕິກຳ… ຫຼື ບັນຍາກາດຂອງບ້ານເຮືອນຂອງທ່ານ.
ແລະເຖິງແມ່ນວ່າມັນບໍ່ຖືກຕ້ອງ, ມັນກໍ່ຍັງອາດເປັນອັນຕະລາຍໄດ້ເພາະມັນສາມາດໃຫ້ເຫດຜົນໃນການແຊກແຊງ. ການຄາດຄະເນທີ່ຜິດພາດຍັງສາມາດກະຕຸ້ນຜົນສະທ້ອນທີ່ແທ້ຈິງໄດ້.
ສ່ວນທີ່ບໍ່ສະບາຍ
ການເຝົ້າລະວັງທີ່ໃຊ້ AI ມັກຈະມາພ້ອມກັບເລື່ອງລາວຄວາມປອດໄພ:
-
"ມັນແມ່ນເພື່ອປ້ອງກັນການສໍ້ໂກງ."
-
"ມັນແມ່ນເພື່ອຄວາມປອດໄພ."
-
"ມັນແມ່ນສຳລັບປະສົບການຂອງຜູ້ໃຊ້."
ບາງຄັ້ງມັນກໍ່ເປັນຄວາມຈິງ. ບາງຄັ້ງມັນຍັງເປັນຂໍ້ແກ້ຕົວທີ່ສະດວກສຳລັບລະບົບການກໍ່ສ້າງທີ່ຍາກທີ່ຈະຮື້ຖອນໃນພາຍຫຼັງ. ຄືກັບການຕິດຕັ້ງປະຕູທາງດຽວໃນເຮືອນຂອງເຈົ້າເອງ ເພາະມັນເບິ່ງຄືວ່າມີປະສິດທິພາບໃນເວລານັ້ນ. ອີກເທື່ອໜຶ່ງ, ບໍ່ແມ່ນຄຳປຽບທຽບທີ່ສົມບູນແບບ - ເປັນເລື່ອງຕະຫຼົກ - ແຕ່ເຈົ້າຮູ້ສຶກໄດ້. 🚪😅
ຄຳວ່າ "ດີ" ຢູ່ທີ່ນີ້ເປັນແນວໃດ
-
ຂໍ້ຈຳກັດທີ່ເຂັ້ມງວດກ່ຽວກັບການເກັບຮັກສາ ແລະ ການແບ່ງປັນ.
-
ລຶບລ້າງການເລືອກອອກ.
-
ກໍລະນີການນຳໃຊ້ທີ່ຄັບແຄບ.
-
ການຊີ້ນຳທີ່ເປັນອິດສະຫຼະ.
-
ຫ້າມໃຊ້ “ການກວດຈັບອາລົມ” ສຳລັບການລົງໂທດ ຫຼື ການເຝົ້າລະວັງ. ກະລຸນາ. 🙃 ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU )
ວຽກງານ, ຄວາມຄິດສ້າງສັນ, ແລະ ບັນຫາການຂຽນໜ້າວຽກແບບງຽບໆ 🧑💻🎨
ນີ້ແມ່ນບ່ອນທີ່ການໂຕ້ວາທີກາຍເປັນເລື່ອງສ່ວນຕົວເພາະມັນແຕະຕ້ອງຕົວຕົນ.
ປັນຍາປະດິດສາມາດເຮັດໃຫ້ຄົນເຮົາມີປະສິດທິພາບຫຼາຍຂຶ້ນ. ມັນຍັງສາມາດເຮັດໃຫ້ຄົນເຮົາຮູ້ສຶກວ່າຕົນເອງສາມາດທົດແທນໄດ້. ທັງສອງຢ່າງສາມາດເປັນຄວາມຈິງໄດ້, ໃນເວລາດຽວກັນ, ໃນອາທິດດຽວກັນ. ( OECD , WEF )
ບ່ອນທີ່ມັນເປັນປະໂຫຍດແທ້ໆ
-
ການຮ່າງຂໍ້ຄວາມປົກກະຕິເພື່ອໃຫ້ມະນຸດສາມາດສຸມໃສ່ການຄິດໄດ້.
-
ການຊ່ວຍເຫຼືອດ້ານການຂຽນໂປຣແກຣມສຳລັບຮູບແບບທີ່ຊ້ຳກັນ.
-
ເຄື່ອງມືຊ່ວຍເຂົ້າເຖິງ (ການໃຫ້ຄຳບັນຍາຍ, ການສະຫຼຸບ, ການແປ).
-
ການລະດົມສະໝອງເມື່ອເຈົ້າຕິດຂັດ.
ບ່ອນທີ່ມັນໄປໄກເກີນໄປ
-
ການທົດແທນບົດບາດໂດຍບໍ່ມີແຜນການປ່ຽນແປງ.
-
ການໃຊ້ AI ເພື່ອບີບອັດຜົນຜະລິດໃນຂະນະທີ່ເຮັດໃຫ້ຄ່າແຮງງານຫຼຸດລົງ.
-
ປະຕິບັດຕໍ່ວຽກງານສ້າງສັນຄືກັບຂໍ້ມູນການຝຶກອົບຮົມທີ່ບໍ່ມີຂອບເຂດ, ແລ້ວຍົກບ່າໄຫລ່. ( ຫ້ອງການລິຂະສິດສະຫະລັດ , ສະຫະລາຊະອານາຈັກ GOV.UK )
-
ການເຮັດໃຫ້ບົດບາດລະດັບນ້ອຍຫາຍໄປ - ເຊິ່ງຟັງແລ້ວມີປະສິດທິພາບຈົນກວ່າທ່ານຈະຮູ້ວ່າທ່ານຫາກໍ່ເຮັດສຳເລັດຕາມຂັ້ນໄດທີ່ຜູ້ຊ່ຽວຊານໃນອະນາຄົດຕ້ອງປີນຂຶ້ນ.
ການຖອດລະຫັດພະນັກງານອອກນັ້ນເປັນເລື່ອງທີ່ລະອຽດອ່ອນ. ເຈົ້າບໍ່ສັງເກດເຫັນມັນທຸກໆມື້. ແລ້ວມື້ໜຶ່ງເຈົ້າກໍ່ຮູ້ວ່າບໍ່ມີໃຜໃນທີມຈື່ໄດ້ວ່າສິ່ງນີ້ເຮັດວຽກແນວໃດໂດຍບໍ່ມີຜູ້ຊ່ວຍ. ແລະຖ້າຜູ້ຊ່ວຍຜິດ, ເຈົ້າທຸກຄົນກໍ່ຜິດຢ່າງໝັ້ນໃຈນຳກັນ... ເຊິ່ງເປັນຝັນຮ້າຍ. 😬
ຄວາມເຂັ້ມຂຸ້ນຂອງອຳນາດ: ໃຜຈະໄດ້ຕັ້ງຄ່າເລີ່ມຕົ້ນ? 🏢⚡
ເຖິງແມ່ນວ່າ AI ຈະ “ເປັນກາງ” (ມັນບໍ່ແມ່ນ), ຜູ້ໃດກໍຕາມທີ່ຄວບຄຸມມັນສາມາດສ້າງຮູບຮ່າງ:
-
ຂໍ້ມູນໃດທີ່ເຂົ້າເຖິງໄດ້ງ່າຍ,
-
ສິ່ງທີ່ຖືກສົ່ງເສີມ ຫຼື ຖືກຝັງໄວ້,
-
ພາສາໃດທີ່ອະນຸຍາດໃຫ້ໃຊ້,
-
ພຶດຕິກຳໃດແດ່ທີ່ຖືກສົ່ງເສີມ.
ແລະ ເນື່ອງຈາກລະບົບ AI ອາດຈະມີລາຄາແພງໃນການສ້າງ ແລະ ດຳເນີນການ, ອຳນາດມັກຈະເຂັ້ມຂຸ້ນ. ນັ້ນບໍ່ແມ່ນການສົມຮູ້ຮ່ວມຄິດ. ນັ້ນແມ່ນເສດຖະສາດທີ່ມີເສື້ອຄຸມເຕັກໂນໂລຢີ. ( CMA ຂອງອັງກິດ )
ຊ່ວງເວລາທີ່ "ໄກເກີນໄປ" ຢູ່ທີ່ນີ້
ເມື່ອຄ່າເລີ່ມຕົ້ນກາຍເປັນກົດໝາຍທີ່ເບິ່ງບໍ່ເຫັນ:
-
ເຈົ້າບໍ່ຮູ້ວ່າມີຫຍັງຖືກກັ່ນຕອງ,
-
ເຈົ້າບໍ່ສາມາດກວດສອບເຫດຜົນໄດ້,
-
ແລະ ທ່ານບໍ່ສາມາດເລືອກທີ່ຈະອອກໄດ້ໂດຍບໍ່ສູນເສຍການເຂົ້າເຖິງວຽກງານ, ຊຸມຊົນ ຫຼື ການບໍລິການຂັ້ນພື້ນຖານ.
ລະບົບນິເວດທີ່ດີຕ້ອງການການແຂ່ງຂັນ, ຄວາມໂປ່ງໃສ, ແລະ ທາງເລືອກຂອງຜູ້ໃຊ້ທີ່ແທ້ຈິງ. ຖ້າບໍ່ດັ່ງນັ້ນ, ເຈົ້າກຳລັງເຊົ່າຄວາມເປັນຈິງ. 😵♂️
ລາຍການກວດສອບທີ່ໃຊ້ໄດ້ຈິງ: ວິທີການບອກວ່າ AI ກຳລັງໄປໄກເກີນໄປໃນໂລກຂອງເຈົ້າ 🧾🔍
ນີ້ແມ່ນບັນຊີກວດສອບລຳໄສ້ທີ່ຂ້ອຍໃຊ້ (ແລະແມ່ນແລ້ວ, ມັນບໍ່ສົມບູນແບບ):
ຖ້າທ່ານເປັນບຸກຄົນ
-
ຂ້ອຍສາມາດບອກໄດ້ວ່າຂ້ອຍກຳລັງພົວພັນກັບ AI ເມື່ອໃດ. ( ຄະນະກຳມະການເອີຣົບ )
-
ລະບົບນີ້ຊຸກຍູ້ໃຫ້ຂ້ອຍແບ່ງປັນຫຼາຍເກີນໄປ.
-
ຂ້ອຍຈະບໍ່ມີບັນຫາຫຍັງກັບຜົນຜະລິດຖ້າມັນຜິດພາດໃນທາງທີ່ໜ້າເຊື່ອຖືໄດ້.
-
ຖ້າຂ້ອຍຖືກຫຼອກລວງໂດຍໃຊ້ສິ່ງນີ້, ແພລດຟອມຈະຊ່ວຍຂ້ອຍໄດ້... ຫຼືມັນຈະຍົກບ່າໄຫລ່.
ຖ້າທ່ານເປັນທຸລະກິດ ຫຼື ທີມງານ
-
ພວກເຮົາກຳລັງໃຊ້ AI ເພາະວ່າມັນມີຄຸນຄ່າ, ຫຼື ຍ້ອນວ່າມັນທັນສະໄໝ ແລະ ຝ່າຍບໍລິຫານກໍ່ບໍ່ສະຫງົບ.
-
ພວກເຮົາຮູ້ວ່າຂໍ້ມູນໃດທີ່ລະບົບແຕະຕ້ອງ.
-
ຜູ້ໃຊ້ທີ່ໄດ້ຮັບຜົນກະທົບສາມາດອຸທອນຜົນໄດ້ຮັບໄດ້. ( UK ICO )
-
ມະນຸດມີອຳນາດທີ່ຈະລົບລ້າງຮູບແບບ.
-
ພວກເຮົາມີແຜນການຕອບສະໜອງຕໍ່ເຫດການສຳລັບຄວາມລົ້ມເຫຼວຂອງ AI.
-
ພວກເຮົາກຳລັງຕິດຕາມກວດກາການເລື່ອນລອຍ, ການໃຊ້ໃນທາງທີ່ຜິດ, ແລະ ກໍລະນີທີ່ຜິດປົກກະຕິກ່ຽວກັບຂອບ.
ຖ້າເຈົ້າຕອບວ່າ "ບໍ່" ຕໍ່ຄຳຖາມເຫຼົ່ານີ້, ນັ້ນບໍ່ໄດ້ໝາຍຄວາມວ່າເຈົ້າເປັນຄົນຊົ່ວ. ມັນໝາຍຄວາມວ່າເຈົ້າຢູ່ໃນສະພາບປົກກະຕິຂອງມະນຸດທີ່ "ພວກເຮົາໄດ້ສົ່ງມັນມາແລະຫວັງໄວ້." ແຕ່ໂຊກບໍ່ດີ, ຄວາມຫວັງບໍ່ແມ່ນຍຸດທະສາດ. 😅
ບັນທຶກປິດ 🧠✅
ສະນັ້ນ... AI ໄດ້ໄປໄກເກີນໄປບໍ?
ມັນໄດ້ໄປໄກເກີນໄປ ບ່ອນທີ່ມັນຖືກນຳໃຊ້ໂດຍບໍ່ມີຄວາມຮັບຜິດຊອບ , ໂດຍສະເພາະໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ, ການຊັກຊວນມວນຊົນ, ແລະການເຝົ້າລະວັງ. ມັນຍັງໄດ້ໄປໄກເກີນໄປບ່ອນທີ່ມັນທຳລາຍຄວາມໄວ້ວາງໃຈ - ເພາະວ່າເມື່ອຄວາມໄວ້ວາງໃຈຖືກທຳລາຍ, ທຸກຢ່າງຈະມີລາຄາແພງຂຶ້ນ ແລະເປັນສັດຕູຫຼາຍຂຶ້ນ, ເວົ້າເຖິງສັງຄົມ. ( NIST AI RMF 1.0 , EU AI Act )
ແຕ່ AI ບໍ່ໄດ້ຖືກສ້າງຂຶ້ນມາຢ່າງແນ່ນອນ ຫຼື ສົມບູນແບບໂດຍທຳມະຊາດ. ມັນເປັນຕົວຄູນທີ່ມີພະລັງ. ຄຳຖາມແມ່ນວ່າພວກເຮົາສ້າງຮົ້ວປ້ອງກັນຢ່າງຮຸກຮານຄືກັບທີ່ພວກເຮົາສ້າງຄວາມສາມາດຫຼືບໍ່.
ສະຫຼຸບໂດຍຫຍໍ້:
-
AI ເປັນເຄື່ອງມືທີ່ດີ.
-
ມັນເປັນອັນຕະລາຍໃນຖານະເປັນເຈົ້າໜ້າທີ່ທີ່ບໍ່ມີຄວາມຮັບຜິດຊອບ.
-
ຖ້າຜູ້ໃດຜູ້ໜຶ່ງບໍ່ສາມາດອຸທອນ, ເຂົ້າໃຈ, ຫຼື ເລືອກທີ່ຈະບໍ່ເຂົ້າຮ່ວມໄດ້ - ນັ້ນແມ່ນບ່ອນທີ່ "ເກີນໄປ" ເລີ່ມຕົ້ນ. 🚦 ( GDPR ມາດຕາ 22 , ICO ຂອງອັງກິດ )
ຄຳຖາມທີ່ຖືກຖາມເລື້ອຍໆ
AI ໄດ້ກ້າວໄປໄກເກີນໄປໃນຊີວິດປະຈຳວັນບໍ?
ໃນຫຼາຍໆບ່ອນ, AI ໄດ້ກ້າວໄປໄກເກີນໄປເພາະວ່າມັນເລີ່ມມີການຕັດສິນໃຈ ແລະ ການພົວພັນກັນໂດຍບໍ່ມີຂອບເຂດ ຫຼື ຄວາມຮັບຜິດຊອບທີ່ຊັດເຈນ. ບັນຫາບໍ່ຄ່ອຍຈະແມ່ນ "AI ມີຢູ່"; ມັນແມ່ນ AI ທີ່ຖືກລວມເຂົ້າໃນການຈ້າງງານ, ການດູແລສຸຂະພາບ, ການບໍລິການລູກຄ້າ ແລະ ຟີດຢ່າງງຽບໆ ດ້ວຍການເບິ່ງແຍງທີ່ລະອຽດອ່ອນ. ເມື່ອຄົນບໍ່ສາມາດບອກໄດ້ວ່າມັນແມ່ນ AI, ບໍ່ສາມາດຄັດຄ້ານຜົນໄດ້ຮັບ, ຫຼື ບໍ່ສາມາດເລືອກທີ່ຈະບໍ່ເຂົ້າຮ່ວມ, ມັນຈະຢຸດຮູ້ສຶກຄືກັບເຄື່ອງມື ແລະ ເລີ່ມຮູ້ສຶກຄືກັບລະບົບ.
“AI ໄປໄກເກີນໄປ” ມີລັກສະນະແນວໃດໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງຕໍ່ການສ່ຽງສູງ?
ມັນເບິ່ງຄືວ່າ AI ຖືກນໍາໃຊ້ໃນການດູແລສຸຂະພາບ, ການເງິນ, ທີ່ຢູ່ອາໄສ, ການຈ້າງງານ, ການສຶກສາ, ການເຂົ້າເມືອງ, ຫຼື ຄວາມຍຸຕິທໍາທາງອາຍາໂດຍບໍ່ມີການປ້ອງກັນທີ່ເຂັ້ມແຂງ. ບັນຫາຫຼັກບໍ່ແມ່ນວ່າຕົວແບບເຮັດຜິດພາດ; ແຕ່ມັນແມ່ນວ່າຄວາມຜິດພາດເຫຼົ່ານັ້ນກາຍເປັນນະໂຍບາຍທີ່ແຂງແກ່ນແລະກາຍເປັນການທ້າທາຍທີ່ຍາກທີ່ຈະທ້າທາຍ. ການຕັດສິນໃຈ "ຄອມພິວເຕີບອກວ່າບໍ່" ທີ່ມີຄໍາອະທິບາຍທີ່ບາງໆແລະບໍ່ມີການອຸທອນທີ່ມີຄວາມໝາຍແມ່ນບ່ອນທີ່ຄວາມເສຍຫາຍເພີ່ມຂຶ້ນຢ່າງໄວວາ.
ຂ້ອຍຈະຮູ້ໄດ້ແນວໃດວ່າການຕັດສິນໃຈແບບອັດຕະໂນມັດກຳລັງສົ່ງຜົນກະທົບຕໍ່ຂ້ອຍ, ແລະຂ້ອຍສາມາດເຮັດຫຍັງໄດ້ແດ່?
ອາການທົ່ວໄປແມ່ນຜົນໄດ້ຮັບທີ່ກະທັນຫັນທີ່ທ່ານບໍ່ສາມາດອະທິບາຍໄດ້: ການປະຕິເສດ, ການຈຳກັດ, ຫຼື ຄວາມຮູ້ສຶກ "ຄະແນນຄວາມສ່ຽງ" ໂດຍບໍ່ມີເຫດຜົນທີ່ຊັດເຈນ. ລະບົບຫຼາຍລະບົບຄວນເປີດເຜີຍເວລາທີ່ AI ມີບົດບາດສຳຄັນ, ແລະ ທ່ານຄວນຈະສາມາດຮ້ອງຂໍເຫດຜົນຫຼັກທີ່ຢູ່ເບື້ອງຫຼັງການຕັດສິນໃຈ ແລະ ຂັ້ນຕອນໃນການອຸທອນ. ໃນທາງປະຕິບັດ, ໃຫ້ຂໍໃຫ້ມີການທົບທວນຄືນຂອງມະນຸດ, ແກ້ໄຂຂໍ້ມູນທີ່ຜິດພາດ, ແລະ ຊຸກຍູ້ໃຫ້ມີເສັ້ນທາງການເລືອກອອກທີ່ງ່າຍດາຍ.
AI ໄດ້ກ້າວໄປໄກເກີນໄປກັບຄວາມເປັນສ່ວນຕົວ, ການຍິນຍອມ ແລະ ການນຳໃຊ້ຂໍ້ມູນບໍ?
ມັນມັກຈະເປັນແບບນັ້ນເມື່ອການຍິນຍອມກາຍເປັນການລ່າສັດຂອງເກົ່າ ແລະ ການເກັບກຳຂໍ້ມູນຂະຫຍາຍຕົວ “ເພື່ອຄວາມປອດໄພ.” ຈຸດຫຼັກຂອງບົດຄວາມແມ່ນວ່າຄວາມເປັນສ່ວນຕົວ ແລະ ການຍິນຍອມບໍ່ມີນ້ຳໜັກຫຼາຍ ຖ້າພວກມັນຖືກຝັງໄວ້ໃນສະພາບແວດລ້ອມ ຫຼື ຖືກບັງຄັບດ້ວຍເງື່ອນໄຂທີ່ບໍ່ຈະແຈ້ງ. ວິທີການທີ່ດີຕໍ່ສຸຂະພາບແມ່ນການຫຼຸດຜ່ອນຂໍ້ມູນ: ເກັບກຳໜ້ອຍລົງ, ເກັບຮັກສາໜ້ອຍລົງ, ແລະ ຕັດສິນໃຈໄດ້ຢ່າງແນ່ນອນ ເພື່ອບໍ່ໃຫ້ຄົນແປກໃຈໃນພາຍຫຼັງ.
ການຫລອກລວງດ້ວຍ Deepfakes ແລະ AI ປ່ຽນແປງຄວາມໝາຍຂອງ “ຄວາມໄວ້ວາງໃຈ” ທາງອອນລາຍແນວໃດ?
ພວກເຂົາເຮັດໃຫ້ຄວາມຈິງຮູ້ສຶກວ່າເປັນທາງເລືອກໂດຍການຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍໃນການຜະລິດສຽງປອມ, ວິດີໂອ, ການທົບທວນຄືນ ແລະ ຕົວຕົນທີ່ໜ້າເຊື່ອຖື. ຄວາມບໍ່ສົມດຸນແມ່ນບັນຫາ: ການສ້າງຄຳຕົວະແມ່ນລາຄາຖືກ, ໃນຂະນະທີ່ການກວດສອບຄວາມຈິງແມ່ນຊ້າ ແລະ ໜ້າເບື່ອ. ການປ້ອງກັນຕົວຈິງປະກອບມີສັນຍານທີ່ມາຂອງສື່, ການຊ້າລົງການແບ່ງປັນໄວຣັດ, ການກວດສອບຕົວຕົນທີ່ເຂັ້ມແຂງກວ່າບ່ອນທີ່ມັນສຳຄັນ, ແລະ ນິໄສ "ກວດສອບນອກຂອບເຂດ" ເຊັ່ນ: ການໂທກັບຄືນ ຫຼື ການໃຊ້ລະຫັດຄຳທີ່ໃຊ້ຮ່ວມກັນ.
ມີວິທີປ້ອງກັນທີ່ໃຊ້ໄດ້ຜົນດີທີ່ສຸດອັນໃດແດ່ເພື່ອຢຸດ AI ຈາກການໄປໄກເກີນໄປ?
ຮົ້ວກັ້ນທີ່ປ່ຽນແປງຜົນໄດ້ຮັບລວມມີການທົບທວນຄືນແບບມະນຸດໃນວົງຈອນທີ່ແທ້ຈິງສຳລັບການໂທຫາທີ່ມີຄວາມສ່ຽງຕໍ່ການສ່ຽງສູງ, ຂະບວນການອຸທອນທີ່ຊັດເຈນ, ແລະບັນທຶກການກວດສອບທີ່ສາມາດຕອບຄຳຖາມທີ່ວ່າ "ມີຫຍັງເກີດຂຶ້ນ?" ຫຼັງຈາກຄວາມລົ້ມເຫຼວ. ການປະເມີນຮູບແບບ ແລະ ການທົດສອບຄວາມລຳອຽງສາມາດກວດພົບອັນຕະລາຍທີ່ຄາດເດົາໄດ້ໄວກວ່າ, ໃນຂະນະທີ່ການທົດສອບທີມແດງຈຳລອງການໃຊ້ໃນທາງທີ່ຜິດກ່ອນທີ່ຜູ້ໂຈມຕີຈະເຮັດ. ຂໍ້ຈຳກັດອັດຕາ ແລະ ການຄວບຄຸມການເຂົ້າເຖິງຊ່ວຍປ້ອງກັນການລ່ວງລະເມີດຈາກການຂະຫຍາຍໃຫຍ່ຂຶ້ນທັນທີ, ແລະ ການຫຼຸດຜ່ອນຂໍ້ມູນຊ່ວຍຫຼຸດຜ່ອນຄວາມສ່ຽງໃນທົ່ວຄະນະ.
ການເຝົ້າລະວັງທີ່ຂັບເຄື່ອນດ້ວຍ AI ຈະຂ້າມເສັ້ນເວລາໃດ?
ມັນຈະຂ້າມເສັ້ນເມື່ອທຸກຢ່າງກາຍເປັນເຊັນເຊີໂດຍຄ່າເລີ່ມຕົ້ນ: ການຮັບຮູ້ໃບໜ້າໃນຝູງຊົນ, ການຕິດຕາມຮູບແບບການເຄື່ອນໄຫວ, ຫຼື "ການກວດຈັບອາລົມ" ທີ່ໝັ້ນໃຈທີ່ໃຊ້ສຳລັບການລົງໂທດ ຫຼື ການຮັກສາປະຕູ. ແມ່ນແຕ່ລະບົບທີ່ບໍ່ຖືກຕ້ອງກໍ່ສາມາດເຮັດໃຫ້ເກີດອັນຕະລາຍຮ້າຍແຮງໄດ້ ຖ້າພວກເຂົາໃຫ້ເຫດຜົນໃນການແຊກແຊງ ຫຼື ການປະຕິເສດການບໍລິການ. ການປະຕິບັດທີ່ດີເບິ່ງຄືວ່າເປັນກໍລະນີການນຳໃຊ້ທີ່ຄັບແຄບ, ຂໍ້ຈຳກັດການຮັກສາທີ່ເຂັ້ມງວດ, ການເລືອກອອກທີ່ມີຄວາມໝາຍ, ການກວດກາທີ່ເປັນເອກະລາດ, ແລະ "ບໍ່" ຢ່າງໜັກແໜ້ນຕໍ່ການຕັດສິນທີ່ອີງໃສ່ອາລົມທີ່ບໍ່ໝັ້ນຄົງ.
AI ກຳລັງເຮັດໃຫ້ຄົນມີປະສິດທິພາບຫຼາຍຂຶ້ນ - ຫຼືວ່າ ກຳລັງຕັດວຽກອອກຢ່າງງຽບໆ?
ທັງສອງຢ່າງສາມາດເປັນຄວາມຈິງໃນເວລາດຽວກັນ, ແລະ ຄວາມເຄັ່ງຕຶງນັ້ນແມ່ນຈຸດສຳຄັນ. AI ສາມາດຊ່ວຍໃນການຮ່າງແບບປົກກະຕິ, ຮູບແບບການຂຽນໂປຣແກຣມທີ່ຊ້ຳໆ, ແລະ ການເຂົ້າເຖິງໄດ້ງ່າຍ, ເຮັດໃຫ້ມະນຸດມີອິດສະຫຼະໃນການສຸມໃສ່ການຄິດໃນລະດັບສູງ. ມັນໄປໄກເກີນໄປເມື່ອມັນທົດແທນບົດບາດໂດຍບໍ່ມີແຜນການຫັນປ່ຽນ, ບີບອັດຄ່າຈ້າງ, ປະຕິບັດຕໍ່ວຽກງານສ້າງສັນຄືກັບຂໍ້ມູນການຝຶກອົບຮົມຟຣີ, ຫຼື ລຶບບົດບາດລະດັບນ້ອຍທີ່ສ້າງຄວາມຊ່ຽວຊານໃນອະນາຄົດ. ການຖອນພະນັກງານອອກຈາກວຽກຍັງຄົງລະອຽດອ່ອນຈົນກວ່າທີມງານຈະບໍ່ສາມາດເຮັດວຽກໄດ້ໂດຍບໍ່ມີຜູ້ຊ່ວຍ.
ເອກະສານອ້າງອີງ
-
ສະຖາບັນມາດຕະຖານ ແລະ ເຕັກໂນໂລຊີແຫ່ງຊາດ (NIST) - ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງດ້ານ AI (AI RMF 1.0) - nist.gov
-
ສະຫະພາບເອີຣົບ - ກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ (ລະບຽບການ (EU) 2024/1689) - ວາລະສານທາງການ (ພາສາອັງກິດ) - europa.eu
-
ຄະນະກຳມະການເອີຣົບ - ຂອບກົດລະບຽບສຳລັບ AI (ໜ້ານະໂຍບາຍກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU) - europa.eu
-
ໜ່ວຍບໍລິການກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ - ເອກະສານຊ້ອນທ້າຍ III (ລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງ) - europa.eu
-
ສະຫະພາບເອີຣົບ - ກົດລະບຽບສຳລັບປັນຍາປະດິດທີ່ໜ້າເຊື່ອຖືໃນສະຫະພາບເອີຣົບ (ສະຫຼຸບກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ) - europa.eu
-
ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານຂອງສະຫະລາຊະອານາຈັກ (ICO) - ການຕັດສິນໃຈ ແລະ ການວິເຄາະໂປຣໄຟລ໌ສ່ວນບຸກຄົນແບບອັດຕະໂນມັດແມ່ນຫຍັງ? - ico.org.uk
-
ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານຂອງສະຫະລາຊະອານາຈັກ (ICO) - GDPR ຂອງສະຫະລາຊະອານາຈັກເວົ້າແນວໃດກ່ຽວກັບການຕັດສິນໃຈແບບອັດຕະໂນມັດ ແລະ ການວິເຄາະໂປຣໄຟລ໌? - ico.org.uk
-
ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານຂອງສະຫະລາຊະອານາຈັກ (ICO) - ການຕັດສິນໃຈ ແລະ ການວິເຄາະແບບອັດຕະໂນມັດ (ສູນແນະນຳ) - ico.org.uk
-
ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານຂອງສະຫະລາຊະອານາຈັກ (ICO) - ການຫຼຸດຜ່ອນຂໍ້ມູນ (ຄຳແນະນຳຫຼັກການ GDPR ຂອງສະຫະລາຊະອານາຈັກ) - ico.org.uk
-
GDPR-info.eu - ມາດຕາ 22 GDPR - gdpr-info.eu
-
GDPR-info.eu - ມາດຕາ 5 GDPR - gdpr-info.eu
-
ຄະນະກຳມະການການຄ້າລັດຖະບານກາງສະຫະລັດ (FTC) - ພວກຫຼອກລວງໃຊ້ AI ເພື່ອປັບປຸງໂຄງການສຸກເສີນຂອງຄອບຄົວຂອງເຂົາເຈົ້າ - ftc.gov
-
ຄະນະກຳມະການການຄ້າລັດຖະບານກາງສະຫະລັດ (FTC) - ພວກຫຼອກລວງໃຊ້ເຫດສຸກເສີນປອມເພື່ອລັກເງິນຂອງທ່ານ - ftc.gov
-
ຄະນະກຳມະການການຄ້າລັດຖະບານກາງສະຫະລັດ (FTC) - ກົດລະບຽບສຸດທ້າຍຫ້າມການທົບທວນ ແລະ ຄຳຊົມເຊີຍປອມ (ຂ່າວປະຊາສຳພັນ) - ftc.gov
-
ສຳນັກງານສືບສວນກາງສະຫະລັດ (FBI) - FBI ເຕືອນກ່ຽວກັບໄພຂົ່ມຂູ່ທີ່ເພີ່ມຂຶ້ນຂອງອາດຊະຍາກອນທາງໄຊເບີທີ່ໃຊ້ປັນຍາປະດິດ - fbi.gov
-
ອົງການເພື່ອການຮ່ວມມືດ້ານເສດຖະກິດ ແລະ ການພັດທະນາ (OECD) - ຫຼັກການ AI ຂອງ OECD - oecd.ai
-
OECD - ຄຳແນະນຳຂອງສະພາກ່ຽວກັບປັນຍາປະດິດ (OECD/LEGAL/0449) - oecd.org
-
ຄະນະກຳມະການເອີຣົບ - ແນວທາງ ແລະ ລະຫັດການປະຕິບັດສຳລັບລະບົບ AI ທີ່ໂປ່ງໃສ (FAQs) - europa.eu
-
ກຸ່ມພັນທະມິດເພື່ອຄວາມເປັນມາ ແລະ ຄວາມຖືກຕ້ອງຂອງເນື້ອຫາ (C2PA) - ລາຍລະອຽດສະເພາະ v2.3 - c2pa.org
-
ອົງການແຂ່ງຂັນ ແລະ ຕະຫຼາດຂອງສະຫະລາຊະອານາຈັກ (CMA) - ຮູບແບບພື້ນຖານ AI: ບົດລາຍງານເບື້ອງຕົ້ນ - gov.uk
-
ອົງການອາຫານ ແລະ ຢາຂອງສະຫະລັດ (FDA) - ອຸປະກອນການແພດທີ່ໃຊ້ປັນຍາປະດິດ - fda.gov
-
NIST - ການຄວບຄຸມຄວາມປອດໄພ ແລະ ຄວາມເປັນສ່ວນຕົວສຳລັບລະບົບຂໍ້ມູນຂ່າວສານ ແລະ ອົງກອນຕ່າງໆ (SP 800-53 Rev. 5) - nist.gov
-
NIST - ໂປຣໄຟລ໌ AI ທີ່ສ້າງຂຶ້ນ (NIST.AI.600-1, ipd) - nist.gov
-
ໂຄງການຄວາມປອດໄພຂອງແອັບພລິເຄຊັນທົ່ວໂລກແບບເປີດ (OWASP) - ການໃຊ້ຊັບພະຍາກອນທີ່ບໍ່ຈຳກັດ (ອັນດັບ 10 ຄວາມປອດໄພ API, 2023) - owasp.org
-
NIST - ຂໍ້ມູນປະຊາກອນການທົດສອບຜູ້ຂາຍການຮັບຮູ້ໃບໜ້າ (FRVT) - nist.gov
-
Barrett ແລະ ຄະນະ (2019) - ບົດຄວາມ (PMC) - nih.gov
-
OECD - ການນຳໃຊ້ AI ໃນບ່ອນເຮັດວຽກ (PDF) - oecd.org
-
ເວທີປຶກສາຫາລືເສດຖະກິດໂລກ (WEF) - ບົດລາຍງານອະນາຄົດຂອງວຽກເຮັດງານທຳປີ 2025 - ສະຫຼຸບ - weforum.org
-
ຫ້ອງການລິຂະສິດຂອງສະຫະລັດ - ລິຂະສິດ ແລະ ປັນຍາປະດິດ, ພາກທີ 3: ບົດລາຍງານການຝຶກອົບຮົມ AI ທີ່ສ້າງສັນ (ສະບັບກ່ອນການເຜີຍແຜ່) (PDF) - copyright.gov
-
ລັດຖະບານສະຫະລາຊະອານາຈັກ (GOV.UK) - ລິຂະສິດ ແລະ ປັນຍາປະດິດ (ການປຶກສາຫາລື) - gov.uk