ປັນຍາທຽມສາມາດຮູ້ສຶກຄືກັບກົນອຸບາຍວິເສດ ທຸກຄົນຍ່ອງມືໃນຂະນະທີ່ຄິດຢ່າງງຽບໆ... ລໍຖ້າ, ອັນນີ້ເຮັດ ວຽກ ? ຂ່າວດີ. ພວກເຮົາຈະ demystify ມັນໂດຍບໍ່ມີການ fluff, ຢູ່ທີ່ປະຕິບັດ, ແລະຖິ້ມໃນການປຽບທຽບທີ່ບໍ່ສົມບູນແບບຈໍານວນຫນຶ່ງທີ່ຍັງເຮັດໃຫ້ມັນຄລິກ. ຖ້າເຈົ້າຢາກໄດ້ຂໍ້ສະຫຼຸບ, ໄປຫາຄຳຕອບໜຶ່ງນາທີຂ້າງລຸ່ມ; ແຕ່ດ້ວຍຄວາມຊື່ສັດ, ລາຍລະອຽດແມ່ນບ່ອນທີ່ bulb ປາກົດຂຶ້ນ 💡.
ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:
🔗 GPT ໝາຍ ຄວາມວ່າແນວໃດ
ຜູ້ອະທິບາຍໄວຂອງຕົວຫຍໍ້ GPT ແລະຄວາມຫມາຍຂອງມັນ.
🔗 AI ໄດ້ຮັບຂໍ້ມູນຂອງມັນຢູ່ໃສ
ແຫຼ່ງທີ່ AI ໃຊ້ເພື່ອຮຽນຮູ້, ຝຶກອົບຮົມ, ແລະຕອບຄໍາຖາມ.
🔗 ວິທີການລວມ AI ເຂົ້າໃນທຸລະກິດຂອງທ່ານ
ຂັ້ນຕອນການປະຕິບັດ, ເຄື່ອງມື, ແລະຂັ້ນຕອນການເຮັດວຽກເພື່ອປະສົມປະສານ AI ປະສິດທິຜົນ.
🔗 ວິທີການເລີ່ມຕົ້ນບໍລິສັດ AI
ຈາກແນວຄວາມຄິດທີ່ຈະເປີດຕົວ: ການກວດສອບ, ການສະຫນອງທຶນ, ທີມງານ, ແລະການປະຕິບັດ.
AI ເຮັດວຽກແນວໃດ? ຄຳຕອບນາທີ⏱️
AI ຮຽນຮູ້ຮູບແບບຈາກຂໍ້ມູນເພື່ອເຮັດໃຫ້ການຄາດເດົາຫຼືສ້າງເນື້ອຫາ - ບໍ່ຈໍາເປັນຕ້ອງມີກົດລະບຽບການຂຽນດ້ວຍມື. ລະບົບຈະເອົາຕົວຢ່າງ, ວັດແທກຄວາມຜິດໂດຍການທໍາງານຂອງການສູນເສຍ, ແລະ nudges ລູກບິດພາຍໃນຂອງມັນ - ຕົວກໍານົດການ - ທີ່ຈະຜິດພາດຫນ້ອຍລົງໃນແຕ່ລະຄັ້ງ. ລ້າງ, ເຮັດຊ້ໍາ, ປັບປຸງ. ມີຮອບວຽນພຽງພໍ, ມັນເປັນປະໂຫຍດ. ເລື່ອງດຽວກັນບໍ່ວ່າທ່ານກໍາລັງຈັດປະເພດອີເມລ໌, ກວດພົບເນື້ອງອກ, ຫຼິ້ນເກມກະດານ, ຫຼືຂຽນ haikus. ສໍາລັບພື້ນຖານພາສາທໍາມະດາໃນ "ການຮຽນຮູ້ເຄື່ອງຈັກ," ສະພາບລວມຂອງ IBM ແມ່ນແຂງ [1].
AI ທີ່ທັນສະໄຫມທີ່ສຸດແມ່ນການຮຽນຮູ້ເຄື່ອງຈັກ. ສະບັບທີ່ງ່າຍດາຍ: ປ້ອນຂໍ້ມູນ, ຮຽນຮູ້ການສ້າງແຜນທີ່ຈາກວັດສະດຸປ້ອນໄປຫາຜົນໄດ້ຮັບ, ຫຼັງຈາກນັ້ນໂດຍທົ່ວໄປໄປສິ່ງໃຫມ່. ບໍ່ແມ່ນ magic-math, compute, ແລະ, ຖ້າພວກເຮົາມີຄວາມຊື່ສັດ, pinch ຂອງສິນລະປະ.
"AI ເຮັດວຽກແນວໃດ?" ✅
ເມື່ອຄົນ google AI ເຮັດວຽກແນວໃດ? , ປົກກະຕິແລ້ວພວກເຂົາຕ້ອງການ:
-
ຮູບແບບຈິດໃຈທີ່ສາມາດໃຊ້ຄືນໄດ້ທີ່ພວກເຂົາສາມາດໄວ້ວາງໃຈໄດ້
-
ແຜນທີ່ຂອງປະເພດການຮຽນຮູ້ຕົ້ນຕໍທີ່ຈະຢຸດເຊົາການເປັນຕາຢ້ານ
-
ເບິ່ງພາຍໃນເຄືອຂ່າຍ neural ໂດຍບໍ່ມີການສູນເສຍ
-
ເປັນຫຍັງໝໍ້ແປງໄຟເບິ່ງຄືວ່າຈະແລ່ນໄປທົ່ວໂລກໃນຕອນນີ້
-
ທໍ່ພາກປະຕິບັດຈາກຂໍ້ມູນໄປສູ່ການຈັດຕັ້ງປະຕິບັດ
-
ຕາຕະລາງປຽບທຽບໄວທີ່ທ່ານສາມາດ screenshot ແລະເກັບຮັກສາໄວ້
-
guardrails ກ່ຽວກັບຈັນຍາບັນ, ຄວາມລໍາອຽງ, ແລະຄວາມຫນ້າເຊື່ອຖືທີ່ບໍ່ເປັນຄື້ນ
ນັ້ນແມ່ນສິ່ງທີ່ເຈົ້າຈະໄດ້ຮັບທີ່ນີ້. ຖ້າຂ້ອຍຍ່າງ, ມັນມີຈຸດປະສົງຄືກັບເສັ້ນທາງທີ່ສວຍງາມແລະຈື່ຈໍາຖະຫນົນໄດ້ດີກວ່າໃນຄັ້ງຕໍ່ໄປ. 🗺️
ສ່ວນປະກອບຫຼັກຂອງລະບົບ AI ສ່ວນໃຫຍ່🧪
ຄິດເຖິງລະບົບ AI ຄືກັບເຮືອນຄົວ. ສີ່ສ່ວນປະກອບສໍາສະແດງໃຫ້ເຫັນອີກເທື່ອຫນຶ່ງ:
-
ຂໍ້ມູນ — ຕົວຢ່າງທີ່ມີ ຫຼືບໍ່ມີປ້າຍກຳກັບ.
-
ຕົວແບບ — ເປັນຟັງຊັນທາງຄະນິດສາດທີ່ມີຕົວກໍານົດການປັບໄດ້.
-
ຈຸດປະສົງ — ເປັນຫນ້າທີ່ການສູນເສຍການວັດແທກວ່າການຄາດຄະເນບໍ່ດີປານໃດ.
-
ການເພີ່ມປະສິດທິພາບ - ສູດການຄິດໄລ່ທີ່ nudges ຕົວກໍານົດການເພື່ອຫຼຸດຜ່ອນການສູນເສຍ.
ໃນການຮຽນຮູ້ຢ່າງເລິກເຊິ່ງ, ການກະຕຸ້ນນັ້ນແມ່ນປົກກະຕິແລ້ວ ການສືບເຊື້ອສາຍແບບ gradient ດ້ວຍ ການຂະຫຍາຍພັນທາງຫຼັງ - ເປັນວິທີທີ່ມີປະສິດທິພາບໃນການຄິດອອກວ່າລູກບິດໃດຢູ່ໃນກະດານສຽງຂະໜາດໃຫຍ່ທີ່ບີບອັດ, ຈາກນັ້ນເຮັດໃຫ້ຜົມຫຼົ່ນ [2].
Mini-case: ພວກເຮົາໄດ້ປ່ຽນແທນຕົວກອງ spam ທີ່ອີງໃສ່ກົດລະບຽບທີ່ອ່ອນແອດ້ວຍຮູບແບບທີ່ມີການເບິ່ງແຍງຂະຫນາດນ້ອຍ. ຫຼັງຈາກຫນຶ່ງອາທິດຂອງປ້າຍ → ການວັດແທກ → ການປັບປຸງ loops, ບວກທີ່ບໍ່ຖືກຕ້ອງຫຼຸດລົງແລະປີ້ສະຫນັບສະຫນູນຫຼຸດລົງ. ບໍ່ມີຫຍັງທີ່ແປກປະຫຼາດ - ພຽງແຕ່ຈຸດປະສົງທີ່ສະອາດກວ່າ (ຄວາມຊັດເຈນກ່ຽວກັບອີເມວ "ham") ແລະການເພີ່ມປະສິດທິພາບທີ່ດີກວ່າ.
ການຮຽນຮູ້ແບບຫຍໍ້ໆ 🎓
-
ການຮຽນຮູ້ທີ່ມີການຄວບຄຸມ
ທ່ານໃຫ້ຄູ່ການປ້ອນຂໍ້ມູນຜົນຜະລິດ (ຮູບພາບທີ່ມີປ້າຍຊື່, ອີເມລ໌ຫມາຍ spam / ບໍ່ spam). ຕົວແບບຮຽນຮູ້ການປ້ອນຂໍ້ມູນ → ຜົນຜະລິດ. ກະດູກສັນຫຼັງຂອງລະບົບການປະຕິບັດຫຼາຍ [1]. -
ການຮຽນຮູ້ແບບບໍ່ມີການຄວບຄຸມ
ບໍ່ມີປ້າຍກຳກັບ. ຊອກຫາໂຄງສ້າງ-ກຸ່ມ, ການບີບອັດ, ປັດໃຈທີ່ແຝງ. ທີ່ຍິ່ງໃຫຍ່ສໍາລັບການຂຸດຄົ້ນຫຼື pretraining. -
ການຮຽນຮູ້ການເບິ່ງແຍງຕົນເອງ
ແບບຈໍາລອງເຮັດປ້າຍຂອງຕົນເອງ (ຄາດເດົາຄໍາຕໍ່ໄປ, ແຜ່ນປ້າຍໂຄສະນາທີ່ຂາດຫາຍໄປ). ປ່ຽນຂໍ້ມູນດິບເປັນສັນຍານການຝຶກອົບຮົມໃນລະດັບ; ສະຫນັບສະຫນູນຮູບແບບພາສາທີ່ທັນສະໄຫມແລະວິໄສທັດ. -
ການຮຽນຮູ້ການເສີມສ້າງ
ຕົວແທນປະຕິບັດ, ເກັບກໍາ ລາງວັນ , ແລະຮຽນຮູ້ນະໂຍບາຍທີ່ເຮັດໃຫ້ລາງວັນສະສົມສູງສຸດ. ຖ້າ "ຫນ້າທີ່ຄຸນຄ່າ," "ນະໂຍບາຍ," ແລະ "ການຮຽນຮູ້ຄວາມແຕກຕ່າງຊົ່ວຄາວ" ດັງຂຶ້ນ - ນີ້ແມ່ນເຮືອນຂອງພວກເຂົາ [5].
ແມ່ນແລ້ວ, ໝວດໝູ່ມົວໃນທາງປະຕິບັດ. ວິທີການປະສົມແມ່ນປົກກະຕິ. ຊີວິດຈິງແມ່ນ messy; ວິສະວະກໍາທີ່ດີພົບມັນບ່ອນທີ່ມັນຢູ່.
ພາຍໃນລະບົບປະສາດທີ່ບໍ່ເຈັບຫົວ🧠
ເຄືອຂ່າຍ neural stacks ຊັ້ນຂອງຫນ່ວຍຄະນິດສາດຂະຫນາດນ້ອຍ (neurons). ແຕ່ລະຊັ້ນປ່ຽນວັດສະດຸປ້ອນດ້ວຍນ້ຳໜັກ, ຄວາມລຳອຽງ, ແລະ ຄວາມບໍ່ເປັນເສັ້ນຊື່ໆຄື ReLU ຫຼື GELU. ຊັ້ນຕົ້ນຮຽນຮູ້ລັກສະນະງ່າຍດາຍ; ເລິກເຂົ້າລະຫັດ abstractions. " magic " - ຖ້າພວກເຮົາສາມາດເອີ້ນມັນວ່າ - ອົງປະກອບ : ຫນ້າທີ່ຂະຫນາດນ້ອຍຂອງລະບົບຕ່ອງໂສ້ແລະທ່ານສາມາດສ້າງແບບຈໍາລອງປະກົດການທີ່ສັບສົນຫຼາຍ.
ຮອບເຝິກຊ້ອມ, vibes-only:
-
ເດົາ → ການວັດແທກຄວາມຜິດພາດ → ຄຸນສົມບັດຕໍານິຜ່ານ backprop → nudge weights → repeat.
ເຮັດແນວນີ້ຂ້າມຊຸດ ແລະ, ຄືກັບນັກເຕັ້ນລໍາທີ່ໂງ່ທີ່ປັບປຸງແຕ່ລະເພງ, ຕົວແບບຈະຢຸດການກ້າວຕີນຂອງທ່ານ. ສໍາລັບບົດ backprop ທີ່ເປັນມິດ, ເຄັ່ງຄັດ, ເບິ່ງ [2].
ເປັນຫຍັງໝໍ້ແປງຈຶ່ງເອົາມາຄອບຄອງ - ແລະສິ່ງທີ່ "ເອົາໃຈໃສ່" ຫມາຍຄວາມວ່າ 🧲
Transformers ໃຊ້ ການເອົາໃຈໃສ່ຕົນເອງ ເພື່ອຊັ່ງນໍ້າຫນັກວ່າພາກສ່ວນໃດຂອງວັດສະດຸປ້ອນເຂົ້າກັນ, ທັງຫມົດໃນເວລາດຽວກັນ. ແທນທີ່ຈະອ່ານປະໂຫຍກຢ່າງເຂັ້ມງວດຈາກຊ້າຍຫາຂວາຄືກັບຮຸ່ນເກົ່າ, ເຄື່ອງຫັນສາມາດເບິ່ງຢູ່ທົ່ວທຸກແຫ່ງແລະປະເມີນຄວາມສໍາພັນແບບເຄື່ອນໄຫວຄືກັບການສະແກນຫ້ອງທີ່ແອອັດເພື່ອເບິ່ງວ່າໃຜເວົ້າກັບໃຜ.
ການອອກແບບນີ້ຫຼຸດລົງການເກີດຂຶ້ນຊ້ຳ ແລະການຜັນແປຂອງການສ້າງແບບຈໍາລອງຕາມລໍາດັບ, ເຮັດໃຫ້ການຂະຫນານອັນໃຫຍ່ຫຼວງ ແລະການສ້າງຂະໜາດທີ່ດີເລີດ. ກະດາດທີ່ເຕະມັນອອກ - ເອົາໃຈໃສ່ແມ່ນສິ່ງທີ່ທ່ານຕ້ອງການ - ຈັດວາງສະຖາປັດຕະຍະກໍາແລະຜົນໄດ້ຮັບ [3].
ການໃສ່ໃຈຕົນເອງໃນແຖວດຽວ: ສ້າງ query , key , and value vectors ສໍາລັບແຕ່ລະ token; ຄິດໄລ່ຄວາມຄ້າຍຄືກັນເພື່ອໃຫ້ໄດ້ຮັບນ້ໍາຫນັກຄວາມສົນໃຈ; ປະສົມມູນຄ່າຕາມຄວາມເຫມາະສົມ. Fussy ໃນລາຍລະອຽດ, elegant ໃນຈິດໃຈ.
ຂໍ້ຄວນລະວັງ: Transformers ຄອບງຳ, ບໍ່ຜູກຂາດ. CNNs, RNNs, ແລະກຸ່ມຕົ້ນໄມ້ຍັງຄົງຊະນະໃນບາງປະເພດຂໍ້ມູນແລະຂໍ້ຈໍາກັດຂອງຄ່າໃຊ້ຈ່າຍ / latency. ເລືອກສະຖາປັດຕະຍະກໍາສໍາລັບວຽກ, ບໍ່ແມ່ນ hype.
AI ເຮັດວຽກແນວໃດ? ທໍ່ທີ່ເຈົ້າຈະໃຊ້ຕົວຈິງ🛠️
-
ກອບບັນຫາ
ທ່ານກໍາລັງຄາດຄະເນຫຼືສ້າງອັນໃດ, ແລະຄວາມສໍາເລັດຈະຖືກວັດແທກແນວໃດ? -
ຂໍ້ມູນ
, ຕິດສະຫຼາກຖ້າຫາກວ່າຈໍາເປັນ, ທໍາຄວາມສະອາດ, ແລະແບ່ງປັນ. ຄາດຫວັງວ່າມູນຄ່າທີ່ຂາດຫາຍໄປແລະກໍລະນີຂອບ. -
ການສ້າງແບບຈໍາລອງ
ເລີ່ມຕົ້ນງ່າຍດາຍ. ພື້ນຖານ (ການຖົດຖອຍຂອງ logistic, gradient boosting, ຫຼື transformer ຂະຫນາດນ້ອຍ) ມັກຈະເອົາຊະນະຄວາມຊັບຊ້ອນ heroic. -
ການຝຶກອົບຮົມ
ເລືອກຈຸດປະສົງ, ເລືອກເອົາ optimizer ເປັນ, ກໍານົດ hyperparameters. ເຮັດຊ້ຳ. -
ການປະເມີນຜົນ
ໃຊ້ການຢຸດ, ການກວດສອບຂ້າມ, ແລະຕົວຊີ້ວັດທີ່ເຊື່ອມໂຍງກັບເປົ້າຫມາຍທີ່ແທ້ຈິງຂອງທ່ານ (ຄວາມຖືກຕ້ອງ, F1, AUROC, BLEU, ຄວາມສັບສົນ, ຄວາມຊັກຊ້າ). -
Deployment
Serve ຢູ່ເບື້ອງຫຼັງ API ຫຼືຝັງຢູ່ໃນແອັບຯ. ຕິດຕາມການຕອບສະໜອງ, ຄ່າໃຊ້ຈ່າຍ, ການສົ່ງຜ່ານ. -
ການຕິດຕາມ ແລະການປົກຄອງ
ເຝົ້າລະວັງ, ຄວາມຍຸຕິທຳ, ຄວາມໝັ້ນຄົງ ແລະຄວາມປອດໄພ. ຂອບ ການຄຸ້ມຄອງຄວາມສ່ຽງຂອງ NIST AI (ລັດຖະບານ, ແຜນທີ່, ມາດຕະການ, ການຄຸ້ມຄອງ) ແມ່ນລາຍການກວດສອບການປະຕິບັດສໍາລັບລະບົບທີ່ເຊື່ອຖືໄດ້ໃນຕອນທ້າຍ [4].
Mini-case: ຮູບແບບວິໄສທັດເຮັດໃຫ້ຫ້ອງທົດລອງ, ຫຼັງຈາກນັ້ນ flubbed ໃນພາກສະຫນາມໃນເວລາທີ່ແສງສະຫວ່າງມີການປ່ຽນແປງ. ການຕິດຕາມກວດກາການຊັກທຸງຢູ່ໃນ histograms ການປ້ອນຂໍ້ມູນ; ການເພີ່ມຂຶ້ນຢ່າງວ່ອງໄວ + ການປັບຕໍາແຫນ່ງການປັບປຸງປະຕິບັດການຟື້ນຟູ. ເບື່ອ? ແມ່ນແລ້ວ. ມີປະສິດທິພາບ? ຄືກັນ.
ຕາຕະລາງປຽບທຽບ - ວິທີການ, ພວກເຂົາແມ່ນໃຜ, ຄ່າໃຊ້ຈ່າຍທີ່ຫຍາບຄາຍ, ເປັນຫຍັງພວກເຂົາເຮັດວຽກ 📊
ບໍ່ສົມບູນແບບຕາມຈຸດປະສົງ: ປະໂຫຍກທີ່ບໍ່ສະໝ່ຳສະເໝີເລັກນ້ອຍຈະຊ່ວຍໃຫ້ຮູ້ສຶກເປັນມະນຸດ.
| ວິທີການ | ຜູ້ຊົມທີ່ເຫມາະສົມ | ລາຄາປະມານ | ເປັນຫຍັງມັນເຮັດວຽກ / ບັນທຶກ |
|---|---|---|---|
| ການຮຽນຮູ້ການຄວບຄຸມ | ນັກວິເຄາະ, ທີມງານຜະລິດຕະພັນ | ຕ່ຳ–ກາງ | ການປ້ອນຂໍ້ມູນແຜນທີ່ໂດຍກົງ→ປ້າຍກຳກັບ. ດີເລີດເມື່ອມີປ້າຍຊື່; ປະກອບເປັນກະດູກສັນຫຼັງຂອງລະບົບທີ່ນຳໃຊ້ຫຼາຍ [1]. |
| ບໍ່ມີການຄວບຄຸມ | ນັກສຳຫຼວດຂໍ້ມູນ, R&D | ຕໍ່າ | ຊອກຫາກຸ່ມ / ການບີບອັດ / ປັດໃຈທີ່ແຝງ - ທີ່ດີສໍາລັບການຄົ້ນພົບແລະການຝຶກອົບຮົມກ່ອນ. |
| ຄວບຄຸມຕົນເອງ | ທີມງານແພລດຟອມ | ປານກາງ | ເຮັດປ້າຍຂອງຕົນເອງຈາກຂໍ້ມູນດິບ - ຂະຫນາດທີ່ມີຄອມພິວເຕີ້ແລະຂໍ້ມູນ. |
| ການຮຽນຮູ້ເສີມ | ຫຸ່ນຍົນ, ການຄົ້ນຄວ້າ ops | ປານກາງ–ສູງ | ຮຽນຮູ້ນະໂຍບາຍຈາກສັນຍານລາງວັນ; ອ່ານ Sutton & Barto ສໍາລັບ canon [5]. |
| ໝໍ້ແປງ | NLP, ວິໄສທັດ, multimodal | ປານກາງ–ສູງ | ຄວາມສົນໃຈຂອງຕົນເອງ captures deps ໄລຍະຍາວແລະ parallelizes ດີ; ເບິ່ງເຈ້ຍຕົ້ນສະບັບ [3]. |
| ຄລາສິກ ML (ຕົ້ນໄມ້) | ແອັບ Tabular biz | ຕໍ່າ | ລາຄາຖືກ, ໄວ, ມັກຈະເປັນພື້ນຖານທີ່ເຂັ້ມແຂງທີ່ຫນ້າຕົກໃຈກ່ຽວກັບຂໍ້ມູນທີ່ມີໂຄງສ້າງ. |
| ຕາມກົດລະບຽບ/ສັນຍາລັກ | ປະຕິບັດຕາມ, ກໍານົດ | ຕ່ຳຫຼາຍ | ເຫດຜົນໂປ່ງໃສ; ມີປະໂຫຍດໃນການປະສົມໃນເວລາທີ່ທ່ານຕ້ອງການການກວດສອບ. |
| ການປະເມີນຜົນແລະຄວາມສ່ຽງ | ທຸກໆຄົນ | ແຕກຕ່າງກັນ | ໃຊ້ GOVERN-MAP-MEASURE-MANAGE ຂອງ NIST ເພື່ອຮັກສາມັນໃຫ້ປອດໄພ ແລະເປັນປະໂຫຍດ [4]. |
ລາຄາ-ish = ການຕິດສະຫຼາກຂໍ້ມູນ + ຄອມພິວເຕີ້ + ຄົນ + ການບໍລິການ.
Deep dive 1 - ຟັງຊັນການສູນເສຍ, gradients, ແລະຂັ້ນຕອນນ້ອຍໆທີ່ປ່ຽນແປງທຸກຢ່າງ📉
ຈິນຕະນາການໃຫ້ເຫມາະສົມກັບເສັ້ນເພື່ອຄາດຄະເນລາຄາເຮືອນຈາກຂະຫນາດ. ທ່ານເລືອກພາລາມິເຕີ (w) ແລະ (b), ຄາດຄະເນ (\hat{y} = wx + b), ແລະວັດແທກຄວາມຜິດພາດກັບການສູນເສຍກໍາລັງສອງສະເລ່ຍ. ການເລື່ອນຊັ້ນບອກທ່ານວ່າທິດທາງໃດທີ່ຈະຍ້າຍອອກ (w) ແລະ (b) ເພື່ອຫຼຸດຜ່ອນການສູນເສຍໄວທີ່ສຸດ ຄືກັບການຍ່າງລົງຄ້ອຍໃນໝອກ ໂດຍຮູ້ສຶກວ່າດິນມີຄວາມຄ້ອຍໄປທາງໃດ. ອັບເດດຫຼັງຈາກແຕ່ລະຊຸດ ແລະສາຍຂອງທ່ານເຂົ້າໃກ້ຄວາມເປັນຈິງແລ້ວ.
ໃນ nets ເລິກ, ມັນເປັນເພງດຽວກັນກັບແຖບທີ່ໃຫຍ່ກວ່າ. Backprop ຄິດໄລ່ວ່າຕົວກໍານົດການຂອງແຕ່ລະຊັ້ນມີຜົນກະທົບແນວໃດກັບຄວາມຜິດພາດສຸດທ້າຍຢ່າງມີປະສິດທິພາບ - ດັ່ງນັ້ນທ່ານສາມາດ nudge ລ້ານ (ຫຼືຫຼາຍຕື້) ຂອງ knobs ໃນທິດທາງທີ່ຖືກຕ້ອງ [2].
ສະຕິປັນຍາຫຼັກ:
-
ການສູນເສຍສ້າງຮູບຮ່າງພູມສັນຖານ.
-
Gradients ແມ່ນເຂັມທິດຂອງທ່ານ.
-
ອັດຕາການຮຽນຮູ້ແມ່ນຂະໜາດຂັ້ນຕອນ-ໃຫຍ່ເກີນໄປ ແລະເຈົ້າສັ່ນສະເທືອນ, ນ້ອຍເກີນໄປ ແລະເຈົ້ານອນຫຼັບ.
-
ຄວາມເປັນປົກກະຕິເຮັດໃຫ້ເຈົ້າບໍ່ຈື່ຊຸດຝຶກອົບຮົມຄືກັບນົກແກ້ວທີ່ມີການເອີ້ນຄືນທີ່ສົມບູນແບບແຕ່ບໍ່ມີຄວາມເຂົ້າໃຈ.
Deep dive 2 - ການຝັງ, ການກະຕຸ້ນ, ແລະດຶງຂໍ້ມູນ 🧭
ການຝັງ ຄໍາແຜນທີ່, ຮູບພາບ, ຫຼືລາຍການເຂົ້າໄປໃນຊ່ອງ vector ບ່ອນທີ່ສິ່ງທີ່ຄ້າຍຄືກັນມາໃກ້ກັນ. ທີ່ເຮັດໃຫ້ທ່ານ:
-
ຊອກຫາ passages ທີ່ຄ້າຍຄືກັນ semantic
-
ການຊອກຫາພະລັງງານທີ່ເຂົ້າໃຈຄວາມຫມາຍ
-
plug in retrieval-augmented generation (RAG) ເພື່ອໃຫ້ຕົວແບບພາສາສາມາດຊອກຫາຂໍ້ເທັດຈິງກ່ອນທີ່ມັນຈະຂຽນ
ການກະຕຸ້ນເຕືອນ ແມ່ນວິທີທີ່ທ່ານຊີ້ນໍາແບບຈໍາລອງທົ່ວໄປ - ອະທິບາຍວຽກງານ, ໃຫ້ຕົວຢ່າງ, ກໍານົດຂໍ້ຈໍາກັດ. ຄິດວ່າມັນຄ້າຍຄືການຂຽນສະເພາະທີ່ລະອຽດຫຼາຍສໍາລັບນັກຝຶກງານທີ່ໄວທີ່ສຸດ: eager, ບາງຄັ້ງຄາວ overconfident.
ຄໍາແນະນໍາພາກປະຕິບັດ: ຖ້າຕົວແບບຂອງທ່ານເຮັດໃຫ້ຕາຕົກໃຈ, ເພີ່ມການດຶງຂໍ້ມູນ, ຮັດແຫນ້ນການກະຕຸ້ນເຕືອນ, ຫຼືປະເມີນດ້ວຍການວັດແທກພື້ນຖານແທນທີ່ຈະເປັນ " vibes."
Deep dive 3 - ການປະເມີນທີ່ບໍ່ມີພາບລວງຕາ🧪
ການປະເມີນຜົນທີ່ດີຮູ້ສຶກວ່າຫນ້າເບື່ອ - ເຊິ່ງແມ່ນຈຸດທີ່ແນ່ນອນ.
-
ໃຊ້ຊຸດທົດສອບທີ່ຖືກລັອກ.
-
ເລືອກຕົວວັດແທກທີ່ສະທ້ອນຄວາມເຈັບປວດຂອງຜູ້ໃຊ້.
-
ດໍາເນີນການ ablations ດັ່ງນັ້ນທ່ານຮູ້ວ່າສິ່ງທີ່ຊ່ວຍໄດ້.
-
ບັນທຶກຄວາມລົ້ມເຫລວດ້ວຍຕົວຢ່າງທີ່ສັບສົນແທ້ໆ.
ໃນການຜະລິດ, ການຕິດຕາມແມ່ນການປະເມີນຜົນທີ່ບໍ່ເຄີຍຢຸດ. ພຽງການລອຍລົມເກີດຂຶ້ນ. ຄຳສັບໃໝ່ປະກົດຂຶ້ນ, ເຊັນເຊີໄດ້ຮັບການປັບຕົວຄືນໃໝ່, ແລະຕົວແບບໃນມື້ວານນີ້ເລື່ອນລົງເລັກນ້ອຍ. ໂຄງຮ່າງ NIST ເປັນການອ້າງອີງພາກປະຕິບັດສໍາລັບການຄຸ້ມຄອງຄວາມສ່ຽງຕໍ່ເນື່ອງ ແລະການປົກຄອງ-ບໍ່ແມ່ນເອກະສານນະໂຍບາຍທີ່ຈະວາງ [4].
ບັນທຶກກ່ຽວກັບຈັນຍາບັນ, ຄວາມລຳອຽງ, ແລະຄວາມໜ້າເຊື່ອຖື ⚖️
ລະບົບ AI ສະທ້ອນເຖິງຂໍ້ມູນ ແລະສະພາບການນຳໃຊ້ຂອງເຂົາເຈົ້າ. ທີ່ນໍາເອົາຄວາມສ່ຽງ: ຄວາມລໍາອຽງ, ຄວາມຜິດພາດທີ່ບໍ່ສະເຫມີກັນໃນທົ່ວກຸ່ມ, ຄວາມແຕກຫັກພາຍໃຕ້ການປ່ຽນແປງການແຈກຢາຍ. ການນໍາໃຊ້ດ້ານຈັນຍາບັນບໍ່ແມ່ນທາງເລືອກ - ມັນເປັນຕາຕະລາງສະເຕກ. NIST ຊີ້ໃຫ້ເຫັນເຖິງການປະຕິບັດທີ່ຊັດເຈນ: ຄວາມສ່ຽງແລະຜົນກະທົບຂອງເອກະສານ, ມາດຕະການສໍາລັບຄວາມລໍາອຽງທີ່ເປັນອັນຕະລາຍ, ສ້າງຄວາມຫຼົ້ມເຫຼວ, ແລະຮັກສາມະນຸດໃນເວລາທີ່ມີສະເຕກສູງ [4].
ຍ້າຍຄອນກີດທີ່ຊ່ວຍ:
-
ເກັບກໍາຂໍ້ມູນທີ່ຫຼາກຫຼາຍ, ຕົວແທນ
-
ວັດແທກປະສິດທິພາບໃນທົ່ວປະຊາກອນຍ່ອຍ
-
ບັດຕົວແບບເອກະສານ ແລະແຜ່ນຂໍ້ມູນ
-
ເພີ່ມການກວດກາຂອງມະນຸດບ່ອນທີ່ມີສະເຕກສູງ
-
ການອອກແບບລົ້ມເຫລວ - ປອດໄພເມື່ອລະບົບບໍ່ແນ່ນອນ
AI ເຮັດວຽກແນວໃດ? ເປັນຕົວແບບທາງດ້ານຈິດໃຈທີ່ທ່ານສາມາດນໍາໃຊ້ຄືນ 🧩
ບັນຊີລາຍການກວດສອບທີ່ຫນາແຫນ້ນທີ່ທ່ານສາມາດນໍາໃຊ້ກັບເກືອບທຸກລະບົບ AI:
-
ເປົ້າໝາຍແມ່ນຫຍັງ? ການຄາດເດົາ, ການຈັດອັນດັບ, ການຜະລິດ, ການຄວບຄຸມ?
-
ສັນຍານການຮຽນຮູ້ມາຈາກໃສ? ປ້າຍກຳກັບ, ວຽກງານຄວບຄຸມຕົນເອງ, ລາງວັນ?
-
ໃຊ້ສະຖາປັດຕະຍະກໍາອັນໃດ? ຮູບແບບເສັ້ນ, ຊຸດຕົ້ນໄມ້, CNN, RNN, transformer [3]?
-
ມັນຖືກປັບປຸງແນວໃດ? ການປ່ຽນແປງການສືບເຊື້ອສາຍແບບສີ/ຫຼັງ [2]?
-
ລະບອບຂໍ້ມູນອັນໃດ? ຊຸດຕິດສະຫຼາກຂະໜາດນ້ອຍ, ມະຫາສະໝຸດຂອງຂໍ້ຄວາມທີ່ບໍ່ມີປ້າຍກຳກັບ, ສະພາບແວດລ້ອມຈຳລອງ?
-
ຮູບແບບຄວາມລົ້ມເຫລວ ແລະການປ້ອງກັນແມ່ນຫຍັງ? ຄວາມລຳອຽງ, ການລອຍລົມ, ຄວາມຫຼົງໄຫຼ, ຄວາມວຸ້ນວາຍ, ຄ່າໃຊ້ຈ່າຍໃນແຜນທີ່ຂອງ NIST's GOVERN-MAP-MEASURE-MANAGE [4].
ຖ້າທ່ານສາມາດຕອບໄດ້, ທ່ານເຂົ້າໃຈພື້ນຖານຂອງລະບົບ - ສ່ວນທີ່ເຫຼືອແມ່ນລາຍລະອຽດການປະຕິບັດແລະຄວາມຮູ້ໂດເມນ.
ແຫຼ່ງໄວທີ່ມີມູນຄ່າ bookmarking 🔖
-
ບົດແນະນຳພາສາທຳມະດາກ່ຽວກັບແນວຄວາມຄິດການຮຽນຮູ້ເຄື່ອງຈັກ (IBM) [1]
-
ການຂະຫຍາຍພັນດ້ວຍແຜນວາດ ແລະຄະນິດສາດອ່ອນ [2]
-
ເຈ້ຍ transformer ທີ່ມີການປ່ຽນແປງແບບຈໍາລອງລໍາດັບ [3]
-
ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ AI ຂອງ NIST (ການປົກຄອງພາກປະຕິບັດ) [4]
-
ປື້ມແບບຮຽນການເສີມສ້າງ canonical (ຟຣີ) [5]
ຄຳຖາມທີ່ຖືກຖາມເລື້ອຍໆກ່ຽວກັບຟ້າຜ່າ ⚡
AI ພຽງແຕ່ສະຖິຕິ?
ມັນເປັນສະຖິຕິບວກກັບການເພີ່ມປະສິດທິພາບ, ຄອມພິວເຕີ້, ວິສະວະກໍາຂໍ້ມູນ, ແລະການອອກແບບຜະລິດຕະພັນ. ສະຖິຕິແມ່ນໂຄງກະດູກ; ສ່ວນທີ່ເຫຼືອແມ່ນກ້າມເນື້ອ.
ຕົວແບບໃຫຍ່ກວ່າສະເຫມີຊະນະບໍ?
ການປັບຂະໜາດຊ່ວຍໄດ້, ແຕ່ຄຸນນະພາບຂໍ້ມູນ, ການປະເມີນ ແລະຂໍ້ຈຳກັດໃນການນຳໃຊ້ ມັກຈະສຳຄັນກວ່າ. ຮູບແບບຂະຫນາດນ້ອຍທີ່ສຸດທີ່ບັນລຸເປົ້າຫມາຍຂອງທ່ານແມ່ນປົກກະຕິແລ້ວທີ່ດີທີ່ສຸດສໍາລັບຜູ້ໃຊ້ແລະກະເປົາເງິນ.
AI ສາມາດເຂົ້າໃຈໄດ້ບໍ?
ກໍານົດ ຄວາມເຂົ້າໃຈ . ແບບຈໍາລອງເກັບກໍາໂຄງສ້າງໃນຂໍ້ມູນແລະໂດຍທົ່ວໄປປະທັບໃຈ; ແຕ່ພວກເຂົາເຈົ້າມີຈຸດຕາບອດແລະສາມາດມີຄວາມຫມັ້ນໃຈຜິດພາດ. ປະຕິບັດຕໍ່ພວກເຂົາຄືກັບເຄື່ອງມືທີ່ມີປະສິດທິພາບ - ບໍ່ແມ່ນປັນຍາຊົນ.
ຍຸກຫັນປ່ຽນຕະຫຼອດໄປບໍ?
ອາດຈະບໍ່ຕະຫຼອດໄປ. ມັນເດັ່ນໃນຕອນນີ້ເພາະວ່າຄວາມສົນໃຈຂະຫນານກັນແລະຂະຫນາດໄດ້ດີ, ດັ່ງທີ່ເອກະສານຕົ້ນສະບັບສະແດງໃຫ້ເຫັນ [3]. ແຕ່ການຄົ້ນຄວ້າສືບຕໍ່ເຄື່ອນໄຫວ.
AI ເຮັດວຽກແນວໃດ? ດົນເກີນໄປບໍ່ໄດ້ອ່ານ🧵
-
AI ຮຽນຮູ້ຮູບແບບຈາກຂໍ້ມູນ, ຫຼຸດຜ່ອນການສູນເສຍ, ແລະໂດຍທົ່ວໄປແລ້ວກັບວັດສະດຸປ້ອນໃຫມ່ [1,2].
-
ການຊີ້ນຳ, ບໍ່ມີການຊີ້ນຳ, ການຄຸ້ມຄອງຕົນເອງ, ແລະ ການຮຽນຮູ້ເສີມແມ່ນການຈັດຕັ້ງການຝຶກອົບຮົມຕົ້ນຕໍ; RL ຮຽນຮູ້ຈາກລາງວັນ [5].
-
ເຄືອຂ່າຍ neural ໃຊ້ backpropagation ແລະການສືບເຊື້ອສາຍ gradient ເພື່ອປັບຕົວກໍານົດການລ້ານຢ່າງມີປະສິດທິພາບ [2].
-
Transformers ຄອບງໍາວຽກງານລໍາດັບຫຼາຍເພາະວ່າຄວາມສົນໃຈຂອງຕົນເອງ captures ຄວາມສໍາພັນໃນຂະຫນານໃນລະດັບ [3].
-
AI ໃນໂລກທີ່ແທ້ຈິງແມ່ນທໍ່ສົ່ງຕໍ່ບັນຫາໂດຍຜ່ານການປະຕິບັດແລະການຄຸ້ມຄອງ - ແລະກອບຂອງ NIST ເຮັດໃຫ້ທ່ານມີຄວາມຊື່ສັດກ່ຽວກັບຄວາມສ່ຽງ [4].
ຖ້າມີຄົນຖາມອີກວ່າ AI ເຮັດວຽກແນວໃດ? , ທ່ານສາມາດຍິ້ມ, ຈິບກາເຟຂອງເຈົ້າ, ແລະເວົ້າວ່າ: ມັນຮຽນຮູ້ຈາກຂໍ້ມູນ, ເພີ່ມປະສິດທິພາບການສູນເສຍ, ແລະນໍາໃຊ້ສະຖາປັດຕະຍະກໍາເຊັ່ນ: ຫມໍ້ແປງຫຼືຊຸດຕົ້ນໄມ້ຂຶ້ນກັບບັນຫາ. ຫຼັງຈາກນັ້ນ, ເພີ່ມ wink, ເພາະວ່ານັ້ນແມ່ນທັງສອງງ່າຍດາຍແລະ sneakily ສໍາເລັດສົມບູນ. 😉
ເອກະສານອ້າງອີງ
[1] IBM - Machine Learning ແມ່ນຫຍັງ?
ອ່ານເພີ່ມເຕີມ
[2] Michael Nielsen - ວິທີການ Backpropagation Algorithm ເຮັດວຽກ
ອ່ານເພີ່ມເຕີມ
[3] Vaswani et al. - ເອົາໃຈໃສ່ແມ່ນທັງຫມົດທີ່ທ່ານຕ້ອງການ (arXiv)
ອ່ານເພີ່ມເຕີມ
[4] NIST - Artificial Intelligence Risk Management Framework (AI RMF 1.0)
ອ່ານເພີ່ມເຕີມ
[5] Sutton & Barto - ການຮຽນຮູ້ເສີມ: ການແນະນໍາ (2nd ed.)
ອ່ານເພີ່ມເຕີມ