AI ໄດ້ໄປໄກເກີນໄປແລ້ວບໍ?

AI ໄດ້ໄປໄກເກີນໄປແລ້ວບໍ?

ຄຳຕອບສັ້ນໆ: AI ໄດ້ໄປໄກເກີນໄປເມື່ອມັນຖືກນຳໃຊ້ໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ, ການເຝົ້າລະວັງ, ຫຼື ການຊັກຊວນໂດຍບໍ່ມີຂໍ້ຈຳກັດທີ່ໜັກແໜ້ນ, ການຍິນຍອມທີ່ໄດ້ຮັບຂໍ້ມູນ, ແລະ ສິດທີ່ແທ້ຈິງໃນການອຸທອນ. ມັນຂ້າມເສັ້ນອີກຄັ້ງເມື່ອ deepfakes ແລະ ການຫຼອກລວງທີ່ສາມາດຂະຫຍາຍໄດ້ເຮັດໃຫ້ຄວາມໄວ້ວາງໃຈຮູ້ສຶກຄືກັບການພະນັນ. ຖ້າຜູ້ຄົນບໍ່ສາມາດບອກໄດ້ວ່າ AI ມີບົດບາດ, ບໍ່ສາມາດເຂົ້າໃຈວ່າເປັນຫຍັງການຕັດສິນໃຈຈຶ່ງລົງມືເຮັດແບບນັ້ນ, ຫຼື ບໍ່ສາມາດເລືອກອອກໄດ້, ມັນກໍ່ໄກເກີນໄປແລ້ວ.

ບົດຮຽນຫຼັກ:

ຂອບເຂດ: ກຳນົດສິ່ງທີ່ລະບົບບໍ່ສາມາດເຮັດໄດ້, ໂດຍສະເພາະເມື່ອຄວາມບໍ່ແນ່ນອນສູງ.

ຄວາມຮັບຜິດຊອບ: ຮັບປະກັນວ່າມະນຸດສາມາດລົບລ້າງຜົນໄດ້ຮັບໂດຍບໍ່ມີການລົງໂທດ ຫຼື ກັບດັກຄວາມກົດດັນດ້ານເວລາ.

ຄວາມໂປ່ງໃສ: ບອກຜູ້ຄົນເມື່ອໃດທີ່ AI ມີສ່ວນຮ່ວມ ແລະ ເປັນຫຍັງມັນຈຶ່ງຕັດສິນໃຈ.

ຄວາມສາມາດໃນການແຂ່ງຂັນ: ສະໜອງເສັ້ນທາງການອຸທອນທີ່ວ່ອງໄວ ແລະ ໃຊ້ໄດ້ຜົນ ແລະ ວິທີການທີ່ຊັດເຈນໃນການແກ້ໄຂຂໍ້ມູນທີ່ບໍ່ດີ.

ການຕ້ານທານການໃຊ້ໃນທາງທີ່ຜິດ: ເພີ່ມແຫຼ່ງທີ່ມາ, ຂໍ້ຈຳກັດອັດຕາ ແລະ ການຄວບຄຸມເພື່ອສະກັດກັ້ນການຫຼອກລວງ ແລະ ການລ່ວງລະເມີດ.

"AI ກ້າວໄປໄກເກີນໄປບໍ?"

ສ່ວນທີ່ແປກປະຫຼາດກໍຄືການຂ້າມເສັ້ນນັ້ນບໍ່ແມ່ນເລື່ອງທີ່ເຫັນໄດ້ຊັດເຈນສະເໝີໄປ. ບາງຄັ້ງມັນກໍ່ດັງ ແລະ ໂດດເດັ່ນ, ຄືກັບການຫຼອກລວງແບບ deepfake. ( FTC , FBI ) ​​ບາງຄັ້ງມັນກໍ່ງຽບໆ - ການຕັດສິນໃຈແບບອັດຕະໂນມັດທີ່ຊຸກຍູ້ຊີວິດຂອງເຈົ້າໄປທາງຂ້າງໂດຍບໍ່ມີຄຳອະທິບາຍໃດໆ, ແລະ ເຈົ້າບໍ່ຮູ້ຕົວເລີຍວ່າເຈົ້າຖືກ "ໃຫ້ຄະແນນ". ( UK ICO , GDPR ມາດຕາ 22 )

ສະນັ້ນ... AI ໄດ້ໄປໄກເກີນໄປແລ້ວບໍ? ໃນບາງບ່ອນ, ແມ່ນແລ້ວ. ໃນບາງບ່ອນ, ມັນຍັງບໍ່ໄກພຽງພໍ - ເພາະມັນຖືກນໍາໃຊ້ໂດຍບໍ່ມີຮາວຄວາມປອດໄພທີ່ບໍ່ໜ້າສົນໃຈແຕ່ຈຳເປັນທີ່ເຮັດໃຫ້ເຄື່ອງມືມີພຶດຕິກຳຄືກັບເຄື່ອງມືແທນທີ່ຈະເປັນລໍ້ roulette ທີ່ມີ UI ທີ່ເປັນມິດ. 🎰🙂 ( NIST AI RMF 1.0 , EU AI Act )

ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:

🔗 ເປັນຫຍັງ AI ຈຶ່ງເປັນອັນຕະລາຍຕໍ່ສັງຄົມ
ຄວາມສ່ຽງທາງສັງຄົມທີ່ສຳຄັນ: ອະຄະຕິ, ວຽກງານ, ຄວາມເປັນສ່ວນຕົວ ແລະ ການສຸມອຳນາດ.

🔗 AI ບໍ່ດີຕໍ່ສິ່ງແວດລ້ອມບໍ? ຜົນກະທົບທີ່ເຊື່ອງໄວ້
ວິທີການທີ່ການຝຶກອົບຮົມ, ສູນຂໍ້ມູນ ແລະ ການໃຊ້ພະລັງງານເພີ່ມການປ່ອຍອາຍພິດ.

🔗 AI ດີ ຫຼື ບໍ່ດີ? ຂໍ້ດີ ແລະ ຂໍ້ເສຍ
ພາບລວມທີ່ສົມດຸນກ່ຽວກັບຜົນປະໂຫຍດ, ຄວາມສ່ຽງ ແລະ ການແລກປ່ຽນໃນໂລກຕົວຈິງ.

🔗 ເປັນຫຍັງ AI ຈຶ່ງຖືກຖືວ່າບໍ່ດີ: ດ້ານມືດ
ສຳຫຼວດການໃຊ້ໃນທາງທີ່ຜິດ, ການຫຼອກລວງ, ໄພຂົ່ມຂູ່ຕໍ່ຄວາມປອດໄພ ແລະ ຄວາມກັງວົນດ້ານຈັນຍາບັນ.


ຄົນເຮົາໝາຍຄວາມວ່າແນວໃດເມື່ອເຂົາເຈົ້າເວົ້າວ່າ “AI ໄປໄກເກີນໄປແລ້ວບໍ?” 😬

ຄົນສ່ວນໃຫຍ່ບໍ່ໄດ້ຖາມວ່າ AI “ມີສະຕິ” ຫຼື “ເຂົ້າຄວບຄຸມ”. ພວກເຂົາກຳລັງຊີ້ໄປທີ່ໜຶ່ງໃນນີ້:

ນັ້ນແມ່ນຫົວໃຈຂອງ “AI ກ້າວໄປໄກເກີນໄປແລ້ວບໍ?” ມັນບໍ່ແມ່ນຊ່ວງເວລາດຽວ. ມັນເປັນການສະສົມຂອງແຮງຈູງໃຈ, ທາງລັດ, ແລະ ຄວາມຄິດ “ພວກເຮົາຈະແກ້ໄຂມັນໃນພາຍຫຼັງ” - ເຊິ່ງ, ເວົ້າແທ້ໆ, ມັກຈະແປເປັນ “ພວກເຮົາຈະແກ້ໄຂມັນຫຼັງຈາກທີ່ມີຄົນໄດ້ຮັບບາດເຈັບ.” 😑

AI ກ້າວໄປໄກເກີນໄປບໍ infographic

ຄວາມຈິງທີ່ບໍ່ລັບປານໃດ: AI ເປັນຕົວຄູນ, ບໍ່ແມ່ນຕົວກະທຳທາງສິນທຳ 🔧✨

ປັນຍາປະດິດບໍ່ໄດ້ຕື່ນຂຶ້ນແລະຕັດສິນໃຈທີ່ຈະເປັນອັນຕະລາຍ. ຜູ້ຄົນແລະອົງກອນຕ່າງໆແນໃສ່ມັນ. ແຕ່ມັນເພີ່ມຈຳນວນສິ່ງໃດກໍ່ຕາມທີ່ເຈົ້າໃຫ້ມັນ:

  • ເຈດຕະນາທີ່ເປັນປະໂຫຍດຈະກາຍເປັນ ປະໂຫຍດຢ່າງຫຼວງຫຼາຍ (ການແປ, ການເຂົ້າເຖິງ, ການສະຫຼຸບ, ການສັງເກດຮູບແບບທາງການແພດ).

  • ເຈດຕະນາທີ່ບໍ່ລະມັດລະວັງກາຍເປັນ ຄວາມບໍ່ລະມັດລະວັງຢ່າງຫຼວງຫຼາຍ (ອະຄະຕິໃນຂອບເຂດ, ການອັດຕະໂນມັດຂອງຄວາມຜິດພາດ).

  • ເຈດຕະນາທີ່ບໍ່ດີກາຍເປັນ ສິ່ງທີ່ບໍ່ດີຢ່າງໃຫຍ່ຫຼວງ (ການສໍ້ໂກງ, ການລົບກວນ, ການໂຄສະນາຊວນເຊື່ອ, ການປອມຕົວເປັນຄົນອື່ນ).

ມັນຄືກັບການເອົາໂທລະໂຂ່ງໃຫ້ເດັກນ້ອຍ. ບາງຄັ້ງເດັກນ້ອຍຮ້ອງເພງ... ບາງຄັ້ງເດັກນ້ອຍຮ້ອງຂຶ້ນໂດຍກົງໃສ່ຈິດວິນຍານຂອງເຈົ້າ. ບໍ່ແມ່ນຄຳປຽບທຽບທີ່ສົມບູນແບບ - ໂງ່ໜ້ອຍໜຶ່ງ - ແຕ່ຈຸດປະສົງແມ່ນຖືກຕ້ອງ 😅📢.


ສິ່ງໃດທີ່ເຮັດໃຫ້ AI ລຸ້ນດີໃນສະພາບການໃຊ້ປະຈຳວັນ? ✅🤝

“ຮຸ່ນທີ່ດີ” ຂອງ AI ບໍ່ໄດ້ຖືກນິຍາມໂດຍຄວາມສະຫຼາດຂອງມັນ. ມັນຖືກນິຍາມໂດຍວ່າມັນປະຕິບັດໄດ້ດີແນວໃດພາຍໃຕ້ຄວາມກົດດັນ, ຄວາມບໍ່ແນ່ນອນ, ແລະ ການລໍ້ລວງ (ແລະມະນຸດກໍ່ຖືກລໍ້ລວງຫຼາຍໂດຍລະບົບອັດຕະໂນມັດລາຄາຖືກ). ( NIST AI RMF 1.0 , OECD )

ນີ້ແມ່ນສິ່ງທີ່ຂ້ອຍຊອກຫາເມື່ອຜູ້ໃດຜູ້ໜຶ່ງອ້າງວ່າການໃຊ້ AI ຂອງເຂົາເຈົ້າມີຄວາມຮັບຜິດຊອບ:

1) ຂອບເຂດທີ່ຊັດເຈນ

  • ລະບົບໄດ້ຮັບອະນຸຍາດໃຫ້ເຮັດຫຍັງ?

  • ມັນຖືກຫ້າມຢ່າງຈະແຈ້ງບໍ່ໃຫ້ເຮັດຫຍັງ?

  • ຈະເກີດຫຍັງຂຶ້ນເມື່ອມັນບໍ່ແນ່ໃຈ?

2) ຄວາມຮັບຜິດຊອບຂອງມະນຸດທີ່ແທ້ຈິງ, ບໍ່ແມ່ນການຕົກແຕ່ງ

ຜົນໄດ້ຮັບ "ການທົບທວນຄືນ" ຂອງມະນຸດຈະມີຄວາມສຳຄັນພຽງແຕ່ຖ້າ:

  • ພວກເຂົາເຂົ້າໃຈສິ່ງທີ່ພວກເຂົາກຳລັງທົບທວນຄືນ, ແລະ

  • ພວກເຂົາສາມາດລົບລ້າງມັນໄດ້ໂດຍບໍ່ຕ້ອງຖືກລົງໂທດຍ້ອນການເຮັດໃຫ້ສິ່ງຕ່າງໆຊ້າລົງ.

3) ການອະທິບາຍໃນລະດັບທີ່ເໝາະສົມ

ບໍ່ແມ່ນທຸກຄົນຕ້ອງການຄະນິດສາດ. ຜູ້ຄົນຕ້ອງການ:

  • ເຫດຜົນຫຼັກທີ່ຢູ່ເບື້ອງຫຼັງການຕັດສິນໃຈ,

  • ຂໍ້ມູນໃດຖືກນຳໃຊ້,

  • ວິທີການອຸທອນ, ແກ້ໄຂ, ຫຼື ເລືອກທີ່ຈະບໍ່ເຂົ້າຮ່ວມ. ( UK ICO )

4) ປະສິດທິພາບທີ່ວັດແທກໄດ້ - ລວມທັງຮູບແບບຄວາມລົ້ມເຫຼວ

ບໍ່ພຽງແຕ່ "ຄວາມຖືກຕ້ອງ", ແຕ່:

  • ມັນລົ້ມເຫຼວໃສ່ໃຜ,

  • ມັນລົ້ມເຫຼວຢ່າງງຽບໆເລື້ອຍປານໃດ,

  • ຈະເກີດຫຍັງຂຶ້ນເມື່ອໂລກປ່ຽນແປງ. ( NIST AI RMF 1.0 )

5) ຄວາມເປັນສ່ວນຕົວ ແລະ ການຍິນຍອມທີ່ບໍ່ໄດ້ “ຝັງໄວ້ໃນການຕັ້ງຄ່າ”

ຖ້າການຍິນຍອມຮຽກຮ້ອງໃຫ້ມີການລ່າສົມບັດຜ່ານເມນູ… ມັນບໍ່ແມ່ນການຍິນຍອມ. ມັນເປັນຊ່ອງໂຫວ່ທີ່ມີຂັ້ນຕອນເພີ່ມເຕີມ 😐🧾. ( GDPR ມາດຕາ 5 , ICO ຂອງອັງກິດ )


ຕາຕະລາງປຽບທຽບ: ວິທີການປະຕິບັດໄດ້ເພື່ອຢຸດ AI ຈາກການໄປໄກເກີນໄປ 🧰📊

ຂ້າງລຸ່ມນີ້ແມ່ນ “ຕົວເລືອກອັນດັບຕົ້ນໆ” ໃນຄວາມໝາຍທີ່ວ່າພວກມັນເປັນຮົ້ວກັ້ນທົ່ວໄປ ຫຼື ເຄື່ອງມືປະຕິບັດງານທີ່ປ່ຽນແປງຜົນໄດ້ຮັບ (ບໍ່ພຽງແຕ່ຄວາມຮູ້ສຶກເທົ່ານັ້ນ).

ເຄື່ອງມື / ທາງເລືອກ ຜູ້ຊົມ ລາຄາ ເປັນຫຍັງມັນຈຶ່ງໃຊ້ໄດ້
ການທົບທວນຄືນໂດຍມະນຸດໃນວົງຈອນ ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ ) ທີມທີ່ເຮັດການໂທທີ່ມີຄວາມສ່ຽງຕໍ່ການສ່ຽງສູງ ££ (ຄ່າໃຊ້ຈ່າຍເວລາ) ເຮັດໃຫ້ລະບົບອັດຕະໂນມັດທີ່ບໍ່ດີຊ້າລົງ. ນອກຈາກນີ້, ມະນຸດສາມາດສັງເກດເຫັນກໍລະນີຂອບແປກໆ, ບາງຄັ້ງ..
ຂະບວນການອຸທອນຄຳຕັດສິນ ( GDPR ມາດຕາ 22 ) ຜູ້ໃຊ້ທີ່ໄດ້ຮັບຜົນກະທົບຈາກການຕັດສິນໃຈຂອງ AI ແບບອິດສະຫຼະ ເພີ່ມຂະບວນການທີ່ເໝາະສົມ. ຜູ້ຄົນສາມາດແກ້ໄຂຂໍ້ມູນທີ່ຜິດພາດໄດ້ - ຟັງແລ້ວຄືວ່າພື້ນຖານເພາະມັນເປັນພື້ນຖານ
ບັນທຶກການກວດສອບ + ການຕິດຕາມ ( NIST SP 800-53 ) ການປະຕິບັດຕາມ, ການປະຕິບັດການ, ຄວາມປອດໄພ £-££ ຊ່ວຍໃຫ້ທ່ານສາມາດຕອບວ່າ "ເກີດຫຍັງຂຶ້ນ?" ຫຼັງຈາກຄວາມລົ້ມເຫຼວ, ແທນທີ່ຈະຍົກບ່າໄຫລ່
ການປະເມີນຮູບແບບ + ການທົດສອບຄວາມລຳອຽງ ( NIST AI RMF 1.0 ) ທີມງານຜະລິດຕະພັນ + ຄວາມສ່ຽງ ແຕກຕ່າງກັນຫຼາຍ ກວດພົບອັນຕະລາຍທີ່ຄາດເດົາໄດ້ແຕ່ຫົວທີ. ບໍ່ສົມບູນແບບ, ແຕ່ດີກວ່າການຄາດເດົາ
ການທົດສອບທີມແດງ ( ໂປຣໄຟລ໌ NIST GenAI ) ພະນັກງານຮັກສາຄວາມປອດໄພ + ພະນັກງານຮັກສາຄວາມປອດໄພ £££ ຈຳລອງການໃຊ້ໃນທາງທີ່ຜິດກ່ອນທີ່ຜູ້ໂຈມຕີຕົວຈິງຈະເຮັດ. ບໍ່ໜ້າພໍໃຈ, ແຕ່ຄຸ້ມຄ່າ 😬
ການຫຼຸດຜ່ອນຂໍ້ມູນ ( UK ICO ) ທຸກໆຄົນ, ແທ້ໆ £ ຂໍ້ມູນໜ້ອຍລົງ = ຄວາມວຸ້ນວາຍໜ້ອຍລົງ. ການລະເມີດໜ້ອຍລົງ, ການສົນທະນາທີ່ງຸ່ມງ່າມໜ້ອຍລົງ
ສັນຍານທີ່ມາຂອງເນື້ອຫາ ( C2PA ) ແພລດຟອມ, ສື່, ຜູ້ໃຊ້ £-££ ຊ່ວຍກວດສອບວ່າ "ມະນຸດເປັນຜູ້ເຮັດສິ່ງນີ້ບໍ?" - ບໍ່ແມ່ນເລື່ອງທີ່ຜິດພາດໄດ້ ແຕ່ຊ່ວຍຫຼຸດຜ່ອນຄວາມວຸ້ນວາຍ
ຂໍ້ຈຳກັດອັດຕາ + ການຄວບຄຸມການເຂົ້າເຖິງ ( OWASP ) ຜູ້ໃຫ້ບໍລິການ AI + ວິສາຫະກິດ £ ຢຸດການຂົ່ມເຫັງຈາກການຂະຫຍາຍຂອບເຂດທັນທີ. ຄືກັບການເລັ່ງຄວາມໄວສຳລັບນັກສະແດງທີ່ບໍ່ດີ

ແມ່ນແລ້ວ, ໂຕະບໍ່ສະໝໍ່າສະເໝີກັນໜ້ອຍໜຶ່ງ. ນັ້ນແຫຼະຊີວິດ. 🙂


AI ໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ: ເມື່ອມັນໄປໄກເກີນໄປ 🏥🏦⚖️

ນີ້ແມ່ນບ່ອນທີ່ສິ່ງຕ່າງໆຮ້າຍແຮງຂຶ້ນໄວ.

ປະດິດ (AI) ໃນ ການດູແລສຸຂະພາບ , ການເງິນ , ທີ່ຢູ່ອາໄສ , ການຈ້າງງານ , ການສຶກສາ , ການເຂົ້າເມືອງ , ຄວາມຍຸຕິທຳທາງອາຍາ - ລະບົບເຫຼົ່ານີ້ແມ່ນບ່ອນທີ່: ( ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ ເອກະສານຊ້ອນທ້າຍທີ III , FDA )

  • ຄວາມຜິດພາດສາມາດເຮັດໃຫ້ຜູ້ໃດຜູ້ໜຶ່ງສູນເສຍເງິນ, ອິດສະລະພາບ, ກຽດສັກສີ, ຫຼື ຄວາມປອດໄພ,

  • ແລະຜູ້ທີ່ໄດ້ຮັບຜົນກະທົບມັກຈະມີພະລັງທີ່ຈຳກັດໃນການຕໍ່ສູ້ກັບຄືນ.

ຄວາມສ່ຽງໃຫຍ່ບໍ່ແມ່ນ “AI ເຮັດຜິດພາດ.” ຄວາມສ່ຽງໃຫຍ່ແມ່ນ ຄວາມຜິດພາດຂອງ AI ກາຍເປັນນະໂຍບາຍ . ( NIST AI RMF 1.0 )

ຄຳວ່າ "ໄກເກີນໄປ" ຢູ່ທີ່ນີ້ເປັນແນວໃດ

  • ການຕັດສິນໃຈແບບອັດຕະໂນມັດໂດຍບໍ່ມີຄຳອະທິບາຍ: “ຄອມພິວເຕີບອກວ່າບໍ່.” ( UK ICO )

  • “ຄະແນນຄວາມສ່ຽງ” ຖືກປະຕິບັດຄືກັບຂໍ້ເທັດຈິງແທນທີ່ຈະເປັນການຄາດເດົາ.

  • ມະນຸດທີ່ບໍ່ສາມາດລົບລ້າງຜົນໄດ້ຮັບໄດ້ ເພາະວ່າຝ່າຍບໍລິຫານຕ້ອງການຄວາມໄວ.

  • ຂໍ້ມູນທີ່ບໍ່ເປັນລະບຽບ, ມີອະຄະຕິ, ລ້າສະໄໝ, ຫຼື ຜິດພາດຢ່າງສິ້ນເຊີງ.

ສິ່ງທີ່ຄວນຈະບໍ່ສາມາດເຈລະຈາໄດ້

  • ສິດໃນການອຸທອນ (ໄວ, ເຂົ້າໃຈງ່າຍ, ບໍ່ແມ່ນເລື່ອງວຸ້ນວາຍ). ( GDPR ມາດຕາ 22 , ICO ຂອງສະຫະລາຊະອານາຈັກ )

  • ສິດທີ່ຈະຮູ້ ວ່າ AI ມີສ່ວນຮ່ວມ. ( ຄະນະກຳມະການເອີຣົບ )

  • ການທົບທວນຄືນຂອງມະນຸດ ສຳລັບຜົນໄດ້ຮັບທີ່ຕາມມາ. ( NIST AI RMF 1.0 )

  • ການຄວບຄຸມຄຸນນະພາບຂໍ້ມູນ - ເພາະວ່າຂີ້ເຫຍື້ອເຂົ້າ, ຂີ້ເຫຍື້ອອອກຍັງເປັນຄວາມຈິງທີ່ເຈັບປວດ.

ຖ້າທ່ານກຳລັງພະຍາຍາມຂີດເສັ້ນທີ່ສະອາດ, ນີ້ແມ່ນອັນໜຶ່ງ:
ຖ້າລະບົບ AI ສາມາດປ່ຽນແປງຊີວິດຂອງຜູ້ໃດຜູ້ໜຶ່ງໄດ້ຢ່າງສຳຄັນ, ມັນຕ້ອງການຄວາມຈິງຈັງຄືກັນກັບທີ່ພວກເຮົາຄາດຫວັງຈາກອຳນາດຮູບແບບອື່ນໆ. ບໍ່ມີ "ການທົດສອບເບຕ້າ" ກັບຜູ້ທີ່ບໍ່ໄດ້ລົງທະບຽນ. 🚫


Deepfakes, ການຫຼອກລວງ, ແລະ ການຕາຍຢ່າງຊ້າໆຂອງ “ຂ້ອຍໄວ້ວາງໃຈຕາຂອງຂ້ອຍ” 👀🧨

ນີ້ແມ່ນສ່ວນທີ່ເຮັດໃຫ້ຊີວິດປະຈຳວັນຮູ້ສຶກ...ລື່ນ.

ເມື່ອ AI ສາມາດສ້າງ:

  • ຂໍ້ຄວາມສຽງທີ່ຟັງຄືກັບສະມາຊິກໃນຄອບຄົວຂອງເຈົ້າ, ( FTC , FBI )

  • ວິດີໂອຂອງບຸກຄົນສາທາລະນະ “ເວົ້າ” ບາງສິ່ງບາງຢ່າງ,

  • ການທົບທວນປອມຫຼາຍໆຄັ້ງທີ່ເບິ່ງຄືວ່າເປັນຄວາມຈິງພຽງພໍ ( FTC )

  • ໂປຣໄຟລ໌ LinkedIn ປອມທີ່ມີປະຫວັດການເຮັດວຽກປອມ ແລະ ໝູ່ເພື່ອນປອມ..

...ມັນບໍ່ພຽງແຕ່ເຮັດໃຫ້ມີການຫຼອກລວງເທົ່ານັ້ນ. ມັນເຮັດໃຫ້ຄວາມຜູກພັນທາງສັງຄົມທີ່ຊ່ວຍໃຫ້ຄົນແປກໜ້າປະສານງານກັນອ່ອນແອລົງ. ແລະສັງຄົມກໍ່ດຳເນີນໄປຕາມການປະສານງານຂອງຄົນແປກໜ້າ. 😵💫

“ໄກເກີນໄປ” ບໍ່ແມ່ນພຽງແຕ່ເນື້ອຫາປອມເທົ່ານັ້ນ

ມັນແມ່ນ ຄວາມບໍ່ສົມດຸນ :

  • ມັນລາຄາຖືກທີ່ຈະສ້າງຄວາມຕົວະ.

  • ມັນມີລາຄາແພງ ແລະ ຊ້າໃນການກວດສອບຄວາມຈິງ.

  • ແລະຄົນສ່ວນໃຫຍ່ກໍ່ຫຍຸ້ງ, ເມື່ອຍ, ແລະ ເລື່ອນເບິ່ງ.

ສິ່ງທີ່ຊ່ວຍໄດ້ (ໜ້ອຍໜຶ່ງ)

  • ເຄື່ອງໝາຍແຫຼ່ງທີ່ມາຂອງສື່. ( C2PA )

  • ແຮງສຽດທານຕໍ່ຄວາມເປັນໄວຣັລ - ເຮັດໃຫ້ການແບ່ງປັນມວນຊົນທັນທີຊ້າລົງ.

  • ການຢືນຢັນຕົວຕົນທີ່ດີກວ່າໃນບ່ອນທີ່ມີຄວາມສຳຄັນ (ການເງິນ, ການບໍລິການຂອງລັດຖະບານ).

  • ນິໄສພື້ນຖານ “ກວດສອບນອກຂອບເຂດ” ສຳລັບບຸກຄົນ (ໂທກັບ, ໃຊ້ລະຫັດຄຳສັບ, ຢືນຢັນຜ່ານຊ່ອງທາງອື່ນ). ( FTC )

ບໍ່ງາມເລີຍ. ແຕ່ສາຍແອວນິລະໄພກໍ່ບໍ່ງາມຄືກັນ, ແລະສ່ວນຕົວຂ້ອຍກໍ່ມັກສິ່ງເຫຼົ່ານັ້ນຫຼາຍ. 🚗


ການເຝົ້າລະວັງທີ່ຮຸນແຮງ: ເມື່ອ AI ປ່ຽນທຸກຢ່າງໃຫ້ກາຍເປັນເຊັນເຊີຢ່າງງຽບໆ 📷🫥

ອັນນີ້ບໍ່ໄດ້ລະເບີດຄືກັບ deepfake. ມັນພຽງແຕ່ແຜ່ລາມອອກໄປ.

AI ເຮັດໃຫ້ມັນງ່າຍທີ່ຈະ:

ແລະເຖິງແມ່ນວ່າມັນບໍ່ຖືກຕ້ອງ, ມັນກໍ່ຍັງອາດເປັນອັນຕະລາຍໄດ້ເພາະມັນສາມາດໃຫ້ເຫດຜົນໃນການແຊກແຊງ. ການຄາດຄະເນທີ່ຜິດພາດຍັງສາມາດກະຕຸ້ນຜົນສະທ້ອນທີ່ແທ້ຈິງໄດ້.

ສ່ວນທີ່ບໍ່ສະບາຍ

ການເຝົ້າລະວັງທີ່ໃຊ້ AI ມັກຈະມາພ້ອມກັບເລື່ອງລາວຄວາມປອດໄພ:

  • "ມັນແມ່ນເພື່ອປ້ອງກັນການສໍ້ໂກງ."

  • "ມັນແມ່ນເພື່ອຄວາມປອດໄພ."

  • "ມັນແມ່ນສຳລັບປະສົບການຂອງຜູ້ໃຊ້."

ບາງຄັ້ງມັນກໍ່ເປັນຄວາມຈິງ. ບາງຄັ້ງມັນຍັງເປັນຂໍ້ແກ້ຕົວທີ່ສະດວກສຳລັບລະບົບການກໍ່ສ້າງທີ່ຍາກທີ່ຈະຮື້ຖອນໃນພາຍຫຼັງ. ຄືກັບການຕິດຕັ້ງປະຕູທາງດຽວໃນເຮືອນຂອງເຈົ້າເອງ ເພາະມັນເບິ່ງຄືວ່າມີປະສິດທິພາບໃນເວລານັ້ນ. ອີກເທື່ອໜຶ່ງ, ບໍ່ແມ່ນຄຳປຽບທຽບທີ່ສົມບູນແບບ - ເປັນເລື່ອງຕະຫຼົກ - ແຕ່ເຈົ້າຮູ້ສຶກໄດ້. 🚪😅

ຄຳວ່າ "ດີ" ຢູ່ທີ່ນີ້ເປັນແນວໃດ

  • ຂໍ້ຈຳກັດທີ່ເຂັ້ມງວດກ່ຽວກັບການເກັບຮັກສາ ແລະ ການແບ່ງປັນ.

  • ລຶບລ້າງການເລືອກອອກ.

  • ກໍລະນີການນຳໃຊ້ທີ່ຄັບແຄບ.

  • ການຊີ້ນຳທີ່ເປັນອິດສະຫຼະ.

  • ຫ້າມໃຊ້ “ການກວດຈັບອາລົມ” ສຳລັບການລົງໂທດ ຫຼື ການເຝົ້າລະວັງ. ກະລຸນາ. 🙃 ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU )


ວຽກງານ, ຄວາມຄິດສ້າງສັນ, ແລະ ບັນຫາການຂຽນໜ້າວຽກແບບງຽບໆ 🧑💻🎨

ນີ້ແມ່ນບ່ອນທີ່ການໂຕ້ວາທີກາຍເປັນເລື່ອງສ່ວນຕົວເພາະມັນແຕະຕ້ອງຕົວຕົນ.

ປັນຍາປະດິດສາມາດເຮັດໃຫ້ຄົນເຮົາມີປະສິດທິພາບຫຼາຍຂຶ້ນ. ມັນຍັງສາມາດເຮັດໃຫ້ຄົນເຮົາຮູ້ສຶກວ່າຕົນເອງສາມາດທົດແທນໄດ້. ທັງສອງຢ່າງສາມາດເປັນຄວາມຈິງໄດ້, ໃນເວລາດຽວກັນ, ໃນອາທິດດຽວກັນ. ( OECD , WEF )

ບ່ອນທີ່ມັນເປັນປະໂຫຍດແທ້ໆ

  • ການຮ່າງຂໍ້ຄວາມປົກກະຕິເພື່ອໃຫ້ມະນຸດສາມາດສຸມໃສ່ການຄິດໄດ້.

  • ການຊ່ວຍເຫຼືອດ້ານການຂຽນໂປຣແກຣມສຳລັບຮູບແບບທີ່ຊ້ຳກັນ.

  • ເຄື່ອງມືຊ່ວຍເຂົ້າເຖິງ (ການໃຫ້ຄຳບັນຍາຍ, ການສະຫຼຸບ, ການແປ).

  • ການລະດົມສະໝອງເມື່ອເຈົ້າຕິດຂັດ.

ບ່ອນທີ່ມັນໄປໄກເກີນໄປ

  • ການທົດແທນບົດບາດໂດຍບໍ່ມີແຜນການປ່ຽນແປງ.

  • ການໃຊ້ AI ເພື່ອບີບອັດຜົນຜະລິດໃນຂະນະທີ່ເຮັດໃຫ້ຄ່າແຮງງານຫຼຸດລົງ.

  • ປະຕິບັດຕໍ່ວຽກງານສ້າງສັນຄືກັບຂໍ້ມູນການຝຶກອົບຮົມທີ່ບໍ່ມີຂອບເຂດ, ແລ້ວຍົກບ່າໄຫລ່. ( ຫ້ອງການລິຂະສິດສະຫະລັດ , ສະຫະລາຊະອານາຈັກ GOV.UK )

  • ການເຮັດໃຫ້ບົດບາດລະດັບນ້ອຍຫາຍໄປ - ເຊິ່ງຟັງແລ້ວມີປະສິດທິພາບຈົນກວ່າທ່ານຈະຮູ້ວ່າທ່ານຫາກໍ່ເຮັດສຳເລັດຕາມຂັ້ນໄດທີ່ຜູ້ຊ່ຽວຊານໃນອະນາຄົດຕ້ອງປີນຂຶ້ນ.

ການຖອດລະຫັດພະນັກງານອອກນັ້ນເປັນເລື່ອງທີ່ລະອຽດອ່ອນ. ເຈົ້າບໍ່ສັງເກດເຫັນມັນທຸກໆມື້. ແລ້ວມື້ໜຶ່ງເຈົ້າກໍ່ຮູ້ວ່າບໍ່ມີໃຜໃນທີມຈື່ໄດ້ວ່າສິ່ງນີ້ເຮັດວຽກແນວໃດໂດຍບໍ່ມີຜູ້ຊ່ວຍ. ແລະຖ້າຜູ້ຊ່ວຍຜິດ, ເຈົ້າທຸກຄົນກໍ່ຜິດຢ່າງໝັ້ນໃຈນຳກັນ... ເຊິ່ງເປັນຝັນຮ້າຍ. 😬


ຄວາມເຂັ້ມຂຸ້ນຂອງອຳນາດ: ໃຜຈະໄດ້ຕັ້ງຄ່າເລີ່ມຕົ້ນ? 🏢⚡

ເຖິງແມ່ນວ່າ AI ຈະ “ເປັນກາງ” (ມັນບໍ່ແມ່ນ), ຜູ້ໃດກໍຕາມທີ່ຄວບຄຸມມັນສາມາດສ້າງຮູບຮ່າງ:

  • ຂໍ້ມູນໃດທີ່ເຂົ້າເຖິງໄດ້ງ່າຍ,

  • ສິ່ງທີ່ຖືກສົ່ງເສີມ ຫຼື ຖືກຝັງໄວ້,

  • ພາສາໃດທີ່ອະນຸຍາດໃຫ້ໃຊ້,

  • ພຶດຕິກຳໃດແດ່ທີ່ຖືກສົ່ງເສີມ.

ແລະ ເນື່ອງຈາກລະບົບ AI ອາດຈະມີລາຄາແພງໃນການສ້າງ ແລະ ດຳເນີນການ, ອຳນາດມັກຈະເຂັ້ມຂຸ້ນ. ນັ້ນບໍ່ແມ່ນການສົມຮູ້ຮ່ວມຄິດ. ນັ້ນແມ່ນເສດຖະສາດທີ່ມີເສື້ອຄຸມເຕັກໂນໂລຢີ. ( CMA ຂອງອັງກິດ )

ຊ່ວງເວລາທີ່ "ໄກເກີນໄປ" ຢູ່ທີ່ນີ້

ເມື່ອຄ່າເລີ່ມຕົ້ນກາຍເປັນກົດໝາຍທີ່ເບິ່ງບໍ່ເຫັນ:

  • ເຈົ້າບໍ່ຮູ້ວ່າມີຫຍັງຖືກກັ່ນຕອງ,

  • ເຈົ້າບໍ່ສາມາດກວດສອບເຫດຜົນໄດ້,

  • ແລະ ທ່ານບໍ່ສາມາດເລືອກທີ່ຈະອອກໄດ້ໂດຍບໍ່ສູນເສຍການເຂົ້າເຖິງວຽກງານ, ຊຸມຊົນ ຫຼື ການບໍລິການຂັ້ນພື້ນຖານ.

ລະບົບນິເວດທີ່ດີຕ້ອງການການແຂ່ງຂັນ, ຄວາມໂປ່ງໃສ, ແລະ ທາງເລືອກຂອງຜູ້ໃຊ້ທີ່ແທ້ຈິງ. ຖ້າບໍ່ດັ່ງນັ້ນ, ເຈົ້າກຳລັງເຊົ່າຄວາມເປັນຈິງ. 😵♂️


ລາຍການກວດສອບທີ່ໃຊ້ໄດ້ຈິງ: ວິທີການບອກວ່າ AI ກຳລັງໄປໄກເກີນໄປໃນໂລກຂອງເຈົ້າ 🧾🔍

ນີ້ແມ່ນບັນຊີກວດສອບລຳໄສ້ທີ່ຂ້ອຍໃຊ້ (ແລະແມ່ນແລ້ວ, ມັນບໍ່ສົມບູນແບບ):

ຖ້າທ່ານເປັນບຸກຄົນ

  • ຂ້ອຍສາມາດບອກໄດ້ວ່າຂ້ອຍກຳລັງພົວພັນກັບ AI ເມື່ອໃດ. ( ຄະນະກຳມະການເອີຣົບ )

  • ລະບົບນີ້ຊຸກຍູ້ໃຫ້ຂ້ອຍແບ່ງປັນຫຼາຍເກີນໄປ.

  • ຂ້ອຍຈະບໍ່ມີບັນຫາຫຍັງກັບຜົນຜະລິດຖ້າມັນຜິດພາດໃນທາງທີ່ໜ້າເຊື່ອຖືໄດ້.

  • ຖ້າຂ້ອຍຖືກຫຼອກລວງໂດຍໃຊ້ສິ່ງນີ້, ແພລດຟອມຈະຊ່ວຍຂ້ອຍໄດ້... ຫຼືມັນຈະຍົກບ່າໄຫລ່.

ຖ້າທ່ານເປັນທຸລະກິດ ຫຼື ທີມງານ

  • ພວກເຮົາກຳລັງໃຊ້ AI ເພາະວ່າມັນມີຄຸນຄ່າ, ຫຼື ຍ້ອນວ່າມັນທັນສະໄໝ ແລະ ຝ່າຍບໍລິຫານກໍ່ບໍ່ສະຫງົບ.

  • ພວກເຮົາຮູ້ວ່າຂໍ້ມູນໃດທີ່ລະບົບແຕະຕ້ອງ.

  • ຜູ້ໃຊ້ທີ່ໄດ້ຮັບຜົນກະທົບສາມາດອຸທອນຜົນໄດ້ຮັບໄດ້. ( UK ICO )

  • ມະນຸດມີອຳນາດທີ່ຈະລົບລ້າງຮູບແບບ.

  • ພວກເຮົາມີແຜນການຕອບສະໜອງຕໍ່ເຫດການສຳລັບຄວາມລົ້ມເຫຼວຂອງ AI.

  • ພວກເຮົາກຳລັງຕິດຕາມກວດກາການເລື່ອນລອຍ, ການໃຊ້ໃນທາງທີ່ຜິດ, ແລະ ກໍລະນີທີ່ຜິດປົກກະຕິກ່ຽວກັບຂອບ.

ຖ້າເຈົ້າຕອບວ່າ "ບໍ່" ຕໍ່ຄຳຖາມເຫຼົ່ານີ້, ນັ້ນບໍ່ໄດ້ໝາຍຄວາມວ່າເຈົ້າເປັນຄົນຊົ່ວ. ມັນໝາຍຄວາມວ່າເຈົ້າຢູ່ໃນສະພາບປົກກະຕິຂອງມະນຸດທີ່ "ພວກເຮົາໄດ້ສົ່ງມັນມາແລະຫວັງໄວ້." ແຕ່ໂຊກບໍ່ດີ, ຄວາມຫວັງບໍ່ແມ່ນຍຸດທະສາດ. 😅


ບັນທຶກປິດ 🧠✅

ສະນັ້ນ... AI ໄດ້ໄປໄກເກີນໄປບໍ?
ມັນໄດ້ໄປໄກເກີນໄປ ບ່ອນທີ່ມັນຖືກນຳໃຊ້ໂດຍບໍ່ມີຄວາມຮັບຜິດຊອບ , ໂດຍສະເພາະໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງສູງ, ການຊັກຊວນມວນຊົນ, ແລະການເຝົ້າລະວັງ. ມັນຍັງໄດ້ໄປໄກເກີນໄປບ່ອນທີ່ມັນທຳລາຍຄວາມໄວ້ວາງໃຈ - ເພາະວ່າເມື່ອຄວາມໄວ້ວາງໃຈຖືກທຳລາຍ, ທຸກຢ່າງຈະມີລາຄາແພງຂຶ້ນ ແລະເປັນສັດຕູຫຼາຍຂຶ້ນ, ເວົ້າເຖິງສັງຄົມ. ( NIST AI RMF 1.0 , EU AI Act )

ແຕ່ AI ບໍ່ໄດ້ຖືກສ້າງຂຶ້ນມາຢ່າງແນ່ນອນ ຫຼື ສົມບູນແບບໂດຍທຳມະຊາດ. ມັນເປັນຕົວຄູນທີ່ມີພະລັງ. ຄຳຖາມແມ່ນວ່າພວກເຮົາສ້າງຮົ້ວປ້ອງກັນຢ່າງຮຸກຮານຄືກັບທີ່ພວກເຮົາສ້າງຄວາມສາມາດຫຼືບໍ່.

ສະຫຼຸບໂດຍຫຍໍ້:

  • AI ເປັນເຄື່ອງມືທີ່ດີ.

  • ມັນເປັນອັນຕະລາຍໃນຖານະເປັນເຈົ້າໜ້າທີ່ທີ່ບໍ່ມີຄວາມຮັບຜິດຊອບ.

  • ຖ້າຜູ້ໃດຜູ້ໜຶ່ງບໍ່ສາມາດອຸທອນ, ເຂົ້າໃຈ, ຫຼື ເລືອກທີ່ຈະບໍ່ເຂົ້າຮ່ວມໄດ້ - ນັ້ນແມ່ນບ່ອນທີ່ "ເກີນໄປ" ເລີ່ມຕົ້ນ. 🚦 ( GDPR ມາດຕາ 22 , ICO ຂອງອັງກິດ )


ຄຳຖາມທີ່ຖືກຖາມເລື້ອຍໆ

AI ໄດ້ກ້າວໄປໄກເກີນໄປໃນຊີວິດປະຈຳວັນບໍ?

ໃນຫຼາຍໆບ່ອນ, AI ໄດ້ກ້າວໄປໄກເກີນໄປເພາະວ່າມັນເລີ່ມມີການຕັດສິນໃຈ ແລະ ການພົວພັນກັນໂດຍບໍ່ມີຂອບເຂດ ຫຼື ຄວາມຮັບຜິດຊອບທີ່ຊັດເຈນ. ບັນຫາບໍ່ຄ່ອຍຈະແມ່ນ "AI ມີຢູ່"; ມັນແມ່ນ AI ທີ່ຖືກລວມເຂົ້າໃນການຈ້າງງານ, ການດູແລສຸຂະພາບ, ການບໍລິການລູກຄ້າ ແລະ ຟີດຢ່າງງຽບໆ ດ້ວຍການເບິ່ງແຍງທີ່ລະອຽດອ່ອນ. ເມື່ອຄົນບໍ່ສາມາດບອກໄດ້ວ່າມັນແມ່ນ AI, ບໍ່ສາມາດຄັດຄ້ານຜົນໄດ້ຮັບ, ຫຼື ບໍ່ສາມາດເລືອກທີ່ຈະບໍ່ເຂົ້າຮ່ວມ, ມັນຈະຢຸດຮູ້ສຶກຄືກັບເຄື່ອງມື ແລະ ເລີ່ມຮູ້ສຶກຄືກັບລະບົບ.

“AI ໄປໄກເກີນໄປ” ມີລັກສະນະແນວໃດໃນການຕັດສິນໃຈທີ່ມີຄວາມສ່ຽງຕໍ່ການສ່ຽງສູງ?

ມັນເບິ່ງຄືວ່າ AI ຖືກນໍາໃຊ້ໃນການດູແລສຸຂະພາບ, ການເງິນ, ທີ່ຢູ່ອາໄສ, ການຈ້າງງານ, ການສຶກສາ, ການເຂົ້າເມືອງ, ຫຼື ຄວາມຍຸຕິທໍາທາງອາຍາໂດຍບໍ່ມີການປ້ອງກັນທີ່ເຂັ້ມແຂງ. ບັນຫາຫຼັກບໍ່ແມ່ນວ່າຕົວແບບເຮັດຜິດພາດ; ແຕ່ມັນແມ່ນວ່າຄວາມຜິດພາດເຫຼົ່ານັ້ນກາຍເປັນນະໂຍບາຍທີ່ແຂງແກ່ນແລະກາຍເປັນການທ້າທາຍທີ່ຍາກທີ່ຈະທ້າທາຍ. ການຕັດສິນໃຈ "ຄອມພິວເຕີບອກວ່າບໍ່" ທີ່ມີຄໍາອະທິບາຍທີ່ບາງໆແລະບໍ່ມີການອຸທອນທີ່ມີຄວາມໝາຍແມ່ນບ່ອນທີ່ຄວາມເສຍຫາຍເພີ່ມຂຶ້ນຢ່າງໄວວາ.

ຂ້ອຍຈະຮູ້ໄດ້ແນວໃດວ່າການຕັດສິນໃຈແບບອັດຕະໂນມັດກຳລັງສົ່ງຜົນກະທົບຕໍ່ຂ້ອຍ, ແລະຂ້ອຍສາມາດເຮັດຫຍັງໄດ້ແດ່?

ອາການທົ່ວໄປແມ່ນຜົນໄດ້ຮັບທີ່ກະທັນຫັນທີ່ທ່ານບໍ່ສາມາດອະທິບາຍໄດ້: ການປະຕິເສດ, ການຈຳກັດ, ຫຼື ຄວາມຮູ້ສຶກ "ຄະແນນຄວາມສ່ຽງ" ໂດຍບໍ່ມີເຫດຜົນທີ່ຊັດເຈນ. ລະບົບຫຼາຍລະບົບຄວນເປີດເຜີຍເວລາທີ່ AI ມີບົດບາດສຳຄັນ, ແລະ ທ່ານຄວນຈະສາມາດຮ້ອງຂໍເຫດຜົນຫຼັກທີ່ຢູ່ເບື້ອງຫຼັງການຕັດສິນໃຈ ແລະ ຂັ້ນຕອນໃນການອຸທອນ. ໃນທາງປະຕິບັດ, ໃຫ້ຂໍໃຫ້ມີການທົບທວນຄືນຂອງມະນຸດ, ແກ້ໄຂຂໍ້ມູນທີ່ຜິດພາດ, ແລະ ຊຸກຍູ້ໃຫ້ມີເສັ້ນທາງການເລືອກອອກທີ່ງ່າຍດາຍ.

AI ໄດ້ກ້າວໄປໄກເກີນໄປກັບຄວາມເປັນສ່ວນຕົວ, ການຍິນຍອມ ແລະ ການນຳໃຊ້ຂໍ້ມູນບໍ?

ມັນມັກຈະເປັນແບບນັ້ນເມື່ອການຍິນຍອມກາຍເປັນການລ່າສັດຂອງເກົ່າ ແລະ ການເກັບກຳຂໍ້ມູນຂະຫຍາຍຕົວ “ເພື່ອຄວາມປອດໄພ.” ຈຸດຫຼັກຂອງບົດຄວາມແມ່ນວ່າຄວາມເປັນສ່ວນຕົວ ແລະ ການຍິນຍອມບໍ່ມີນ້ຳໜັກຫຼາຍ ຖ້າພວກມັນຖືກຝັງໄວ້ໃນສະພາບແວດລ້ອມ ຫຼື ຖືກບັງຄັບດ້ວຍເງື່ອນໄຂທີ່ບໍ່ຈະແຈ້ງ. ວິທີການທີ່ດີຕໍ່ສຸຂະພາບແມ່ນການຫຼຸດຜ່ອນຂໍ້ມູນ: ເກັບກຳໜ້ອຍລົງ, ເກັບຮັກສາໜ້ອຍລົງ, ແລະ ຕັດສິນໃຈໄດ້ຢ່າງແນ່ນອນ ເພື່ອບໍ່ໃຫ້ຄົນແປກໃຈໃນພາຍຫຼັງ.

ການຫລອກລວງດ້ວຍ Deepfakes ແລະ AI ປ່ຽນແປງຄວາມໝາຍຂອງ “ຄວາມໄວ້ວາງໃຈ” ທາງອອນລາຍແນວໃດ?

ພວກເຂົາເຮັດໃຫ້ຄວາມຈິງຮູ້ສຶກວ່າເປັນທາງເລືອກໂດຍການຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍໃນການຜະລິດສຽງປອມ, ວິດີໂອ, ການທົບທວນຄືນ ແລະ ຕົວຕົນທີ່ໜ້າເຊື່ອຖື. ຄວາມບໍ່ສົມດຸນແມ່ນບັນຫາ: ການສ້າງຄຳຕົວະແມ່ນລາຄາຖືກ, ໃນຂະນະທີ່ການກວດສອບຄວາມຈິງແມ່ນຊ້າ ແລະ ໜ້າເບື່ອ. ການປ້ອງກັນຕົວຈິງປະກອບມີສັນຍານທີ່ມາຂອງສື່, ການຊ້າລົງການແບ່ງປັນໄວຣັດ, ການກວດສອບຕົວຕົນທີ່ເຂັ້ມແຂງກວ່າບ່ອນທີ່ມັນສຳຄັນ, ແລະ ນິໄສ "ກວດສອບນອກຂອບເຂດ" ເຊັ່ນ: ການໂທກັບຄືນ ຫຼື ການໃຊ້ລະຫັດຄຳທີ່ໃຊ້ຮ່ວມກັນ.

ມີວິທີປ້ອງກັນທີ່ໃຊ້ໄດ້ຜົນດີທີ່ສຸດອັນໃດແດ່ເພື່ອຢຸດ AI ຈາກການໄປໄກເກີນໄປ?

ຮົ້ວກັ້ນທີ່ປ່ຽນແປງຜົນໄດ້ຮັບລວມມີການທົບທວນຄືນແບບມະນຸດໃນວົງຈອນທີ່ແທ້ຈິງສຳລັບການໂທຫາທີ່ມີຄວາມສ່ຽງຕໍ່ການສ່ຽງສູງ, ຂະບວນການອຸທອນທີ່ຊັດເຈນ, ແລະບັນທຶກການກວດສອບທີ່ສາມາດຕອບຄຳຖາມທີ່ວ່າ "ມີຫຍັງເກີດຂຶ້ນ?" ຫຼັງຈາກຄວາມລົ້ມເຫຼວ. ການປະເມີນຮູບແບບ ແລະ ການທົດສອບຄວາມລຳອຽງສາມາດກວດພົບອັນຕະລາຍທີ່ຄາດເດົາໄດ້ໄວກວ່າ, ໃນຂະນະທີ່ການທົດສອບທີມແດງຈຳລອງການໃຊ້ໃນທາງທີ່ຜິດກ່ອນທີ່ຜູ້ໂຈມຕີຈະເຮັດ. ຂໍ້ຈຳກັດອັດຕາ ແລະ ການຄວບຄຸມການເຂົ້າເຖິງຊ່ວຍປ້ອງກັນການລ່ວງລະເມີດຈາກການຂະຫຍາຍໃຫຍ່ຂຶ້ນທັນທີ, ແລະ ການຫຼຸດຜ່ອນຂໍ້ມູນຊ່ວຍຫຼຸດຜ່ອນຄວາມສ່ຽງໃນທົ່ວຄະນະ.

ການເຝົ້າລະວັງທີ່ຂັບເຄື່ອນດ້ວຍ AI ຈະຂ້າມເສັ້ນເວລາໃດ?

ມັນຈະຂ້າມເສັ້ນເມື່ອທຸກຢ່າງກາຍເປັນເຊັນເຊີໂດຍຄ່າເລີ່ມຕົ້ນ: ການຮັບຮູ້ໃບໜ້າໃນຝູງຊົນ, ການຕິດຕາມຮູບແບບການເຄື່ອນໄຫວ, ຫຼື "ການກວດຈັບອາລົມ" ທີ່ໝັ້ນໃຈທີ່ໃຊ້ສຳລັບການລົງໂທດ ຫຼື ການຮັກສາປະຕູ. ແມ່ນແຕ່ລະບົບທີ່ບໍ່ຖືກຕ້ອງກໍ່ສາມາດເຮັດໃຫ້ເກີດອັນຕະລາຍຮ້າຍແຮງໄດ້ ຖ້າພວກເຂົາໃຫ້ເຫດຜົນໃນການແຊກແຊງ ຫຼື ການປະຕິເສດການບໍລິການ. ການປະຕິບັດທີ່ດີເບິ່ງຄືວ່າເປັນກໍລະນີການນຳໃຊ້ທີ່ຄັບແຄບ, ຂໍ້ຈຳກັດການຮັກສາທີ່ເຂັ້ມງວດ, ການເລືອກອອກທີ່ມີຄວາມໝາຍ, ການກວດກາທີ່ເປັນເອກະລາດ, ແລະ "ບໍ່" ຢ່າງໜັກແໜ້ນຕໍ່ການຕັດສິນທີ່ອີງໃສ່ອາລົມທີ່ບໍ່ໝັ້ນຄົງ.

AI ກຳລັງເຮັດໃຫ້ຄົນມີປະສິດທິພາບຫຼາຍຂຶ້ນ - ຫຼືວ່າ ກຳລັງຕັດວຽກອອກຢ່າງງຽບໆ?

ທັງສອງຢ່າງສາມາດເປັນຄວາມຈິງໃນເວລາດຽວກັນ, ແລະ ຄວາມເຄັ່ງຕຶງນັ້ນແມ່ນຈຸດສຳຄັນ. AI ສາມາດຊ່ວຍໃນການຮ່າງແບບປົກກະຕິ, ຮູບແບບການຂຽນໂປຣແກຣມທີ່ຊ້ຳໆ, ແລະ ການເຂົ້າເຖິງໄດ້ງ່າຍ, ເຮັດໃຫ້ມະນຸດມີອິດສະຫຼະໃນການສຸມໃສ່ການຄິດໃນລະດັບສູງ. ມັນໄປໄກເກີນໄປເມື່ອມັນທົດແທນບົດບາດໂດຍບໍ່ມີແຜນການຫັນປ່ຽນ, ບີບອັດຄ່າຈ້າງ, ປະຕິບັດຕໍ່ວຽກງານສ້າງສັນຄືກັບຂໍ້ມູນການຝຶກອົບຮົມຟຣີ, ຫຼື ລຶບບົດບາດລະດັບນ້ອຍທີ່ສ້າງຄວາມຊ່ຽວຊານໃນອະນາຄົດ. ການຖອນພະນັກງານອອກຈາກວຽກຍັງຄົງລະອຽດອ່ອນຈົນກວ່າທີມງານຈະບໍ່ສາມາດເຮັດວຽກໄດ້ໂດຍບໍ່ມີຜູ້ຊ່ວຍ.

ເອກະສານອ້າງອີງ

  1. ສະຖາບັນມາດຕະຖານ ແລະ ເຕັກໂນໂລຊີແຫ່ງຊາດ (NIST) - ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງດ້ານ AI (AI RMF 1.0) - nist.gov

  2. ສະຫະພາບເອີຣົບ - ກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ (ລະບຽບການ (EU) 2024/1689) - ວາລະສານທາງການ (ພາສາອັງກິດ) - europa.eu

  3. ຄະນະກຳມະການເອີຣົບ - ຂອບກົດລະບຽບສຳລັບ AI (ໜ້ານະໂຍບາຍກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU) - europa.eu

  4. ໜ່ວຍບໍລິການກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ - ເອກະສານຊ້ອນທ້າຍ III (ລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງ) - europa.eu

  5. ສະຫະພາບເອີຣົບ - ກົດລະບຽບສຳລັບປັນຍາປະດິດທີ່ໜ້າເຊື່ອຖືໃນສະຫະພາບເອີຣົບ (ສະຫຼຸບກົດໝາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບ) - europa.eu

  6. ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານຂອງສະຫະລາຊະອານາຈັກ (ICO) - ການຕັດສິນໃຈ ແລະ ການວິເຄາະໂປຣໄຟລ໌ສ່ວນບຸກຄົນແບບອັດຕະໂນມັດແມ່ນຫຍັງ? - ico.org.uk

  7. ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານຂອງສະຫະລາຊະອານາຈັກ (ICO) - GDPR ຂອງສະຫະລາຊະອານາຈັກເວົ້າແນວໃດກ່ຽວກັບການຕັດສິນໃຈແບບອັດຕະໂນມັດ ແລະ ການວິເຄາະໂປຣໄຟລ໌? - ico.org.uk

  8. ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານຂອງສະຫະລາຊະອານາຈັກ (ICO) - ການຕັດສິນໃຈ ແລະ ການວິເຄາະແບບອັດຕະໂນມັດ (ສູນແນະນຳ) - ico.org.uk

  9. ຫ້ອງການຄະນະກຳມະການຂໍ້ມູນຂ່າວສານຂອງສະຫະລາຊະອານາຈັກ (ICO) - ການຫຼຸດຜ່ອນຂໍ້ມູນ (ຄຳແນະນຳຫຼັກການ GDPR ຂອງສະຫະລາຊະອານາຈັກ) - ico.org.uk

  10. GDPR-info.eu - ມາດຕາ 22 GDPR - gdpr-info.eu

  11. GDPR-info.eu - ມາດຕາ 5 GDPR - gdpr-info.eu

  12. ຄະນະກຳມະການການຄ້າລັດຖະບານກາງສະຫະລັດ (FTC) - ພວກຫຼອກລວງໃຊ້ AI ເພື່ອປັບປຸງໂຄງການສຸກເສີນຂອງຄອບຄົວຂອງເຂົາເຈົ້າ - ftc.gov

  13. ຄະນະກຳມະການການຄ້າລັດຖະບານກາງສະຫະລັດ (FTC) - ພວກຫຼອກລວງໃຊ້ເຫດສຸກເສີນປອມເພື່ອລັກເງິນຂອງທ່ານ - ftc.gov

  14. ຄະນະກຳມະການການຄ້າລັດຖະບານກາງສະຫະລັດ (FTC) - ກົດລະບຽບສຸດທ້າຍຫ້າມການທົບທວນ ແລະ ຄຳຊົມເຊີຍປອມ (ຂ່າວປະຊາສຳພັນ) - ftc.gov

  15. ສຳນັກງານສືບສວນກາງສະຫະລັດ (FBI) - FBI ເຕືອນກ່ຽວກັບໄພຂົ່ມຂູ່ທີ່ເພີ່ມຂຶ້ນຂອງອາດຊະຍາກອນທາງໄຊເບີທີ່ໃຊ້ປັນຍາປະດິດ - fbi.gov

  16. ອົງການເພື່ອການຮ່ວມມືດ້ານເສດຖະກິດ ແລະ ການພັດທະນາ (OECD) - ຫຼັກການ AI ຂອງ OECD - oecd.ai

  17. OECD - ຄຳແນະນຳຂອງສະພາກ່ຽວກັບປັນຍາປະດິດ (OECD/LEGAL/0449) - oecd.org

  18. ຄະນະກຳມະການເອີຣົບ - ແນວທາງ ແລະ ລະຫັດການປະຕິບັດສຳລັບລະບົບ AI ທີ່ໂປ່ງໃສ (FAQs) - europa.eu

  19. ກຸ່ມພັນທະມິດເພື່ອຄວາມເປັນມາ ແລະ ຄວາມຖືກຕ້ອງຂອງເນື້ອຫາ (C2PA) - ລາຍລະອຽດສະເພາະ v2.3 - c2pa.org

  20. ອົງການແຂ່ງຂັນ ແລະ ຕະຫຼາດຂອງສະຫະລາຊະອານາຈັກ (CMA) - ຮູບແບບພື້ນຖານ AI: ບົດລາຍງານເບື້ອງຕົ້ນ - gov.uk

  21. ອົງການອາຫານ ແລະ ຢາຂອງສະຫະລັດ (FDA) - ອຸປະກອນການແພດທີ່ໃຊ້ປັນຍາປະດິດ - fda.gov

  22. NIST - ການຄວບຄຸມຄວາມປອດໄພ ແລະ ຄວາມເປັນສ່ວນຕົວສຳລັບລະບົບຂໍ້ມູນຂ່າວສານ ແລະ ອົງກອນຕ່າງໆ (SP 800-53 Rev. 5) - nist.gov

  23. NIST - ໂປຣໄຟລ໌ AI ທີ່ສ້າງຂຶ້ນ (NIST.AI.600-1, ipd) - nist.gov

  24. ໂຄງການຄວາມປອດໄພຂອງແອັບພລິເຄຊັນທົ່ວໂລກແບບເປີດ (OWASP) - ການໃຊ້ຊັບພະຍາກອນທີ່ບໍ່ຈຳກັດ (ອັນດັບ 10 ຄວາມປອດໄພ API, 2023) - owasp.org

  25. NIST - ຂໍ້ມູນປະຊາກອນການທົດສອບຜູ້ຂາຍການຮັບຮູ້ໃບໜ້າ (FRVT) - nist.gov

  26. Barrett ແລະ ຄະນະ (2019) - ບົດຄວາມ (PMC) - nih.gov

  27. OECD - ການນຳໃຊ້ AI ໃນບ່ອນເຮັດວຽກ (PDF) - oecd.org

  28. ເວທີປຶກສາຫາລືເສດຖະກິດໂລກ (WEF) - ບົດລາຍງານອະນາຄົດຂອງວຽກເຮັດງານທຳປີ 2025 - ສະຫຼຸບ - weforum.org

  29. ຫ້ອງການລິຂະສິດຂອງສະຫະລັດ - ລິຂະສິດ ແລະ ປັນຍາປະດິດ, ພາກທີ 3: ບົດລາຍງານການຝຶກອົບຮົມ AI ທີ່ສ້າງສັນ (ສະບັບກ່ອນການເຜີຍແຜ່) (PDF) - copyright.gov

  30. ລັດຖະບານສະຫະລາຊະອານາຈັກ (GOV.UK) - ລິຂະສິດ ແລະ ປັນຍາປະດິດ (ການປຶກສາຫາລື) - gov.uk

ຊອກຫາ AI ລ່າສຸດໄດ້ທີ່ຮ້ານ AI Assistant ຢ່າງເປັນທາງການ

ກ່ຽວກັບພວກເຮົາ

ກັບໄປທີ່ບລັອກ