AI ຮຽນຮູ້ແນວໃດ? , ຄູ່ມືນີ້ເປີດເຜີຍແນວຄວາມຄິດອັນໃຫຍ່ຫຼວງໃນພາສາທໍາມະດາ - ມີຕົວຢ່າງ, ເສັ້ນທາງນ້ອຍໆ, ແລະຄໍາປຽບທຽບທີ່ບໍ່ສົມບູນແບບທີ່ຍັງຊ່ວຍໄດ້. ໃຫ້ເຂົ້າໄປໃນມັນ. 🙂
ບົດຄວາມທີ່ເຈົ້າອາດຈະມັກອ່ານຫຼັງຈາກນີ້:
🔗 AI ຄາດຄະເນແມ່ນຫຍັງ
ຮູບແບບການຄາດຄະເນຄາດຄະເນຜົນໄດ້ຮັບໂດຍໃຊ້ຂໍ້ມູນປະຫວັດສາດແລະເວລາຈິງ.
🔗 ອຸດສາຫະກໍາໃດທີ່ AI ຈະລົບກວນ
ພາກສ່ວນທີ່ອາດຈະປ່ຽນແປງຫຼາຍທີ່ສຸດໂດຍອັດຕະໂນມັດ, ການວິເຄາະ, ແລະຕົວແທນ.
🔗 GPT ໝາຍ ຄວາມວ່າແນວໃດ
ຄໍາອະທິບາຍທີ່ຊັດເຈນຂອງຕົວຫຍໍ້ GPT ແລະຕົ້ນກໍາເນີດ.
🔗 ທັກສະ AI ແມ່ນຫຍັງ
ຄວາມສາມາດຫຼັກໃນການກໍ່ສ້າງ, ນຳໃຊ້ ແລະຄຸ້ມຄອງລະບົບ AI.
ດັ່ງນັ້ນ, ມັນເຮັດແນວໃດ? ✅
ເມື່ອຄົນຖາມວ່າ AI ຮຽນຮູ້ແນວໃດ? , ເຂົາເຈົ້າມັກຈະຫມາຍຄວາມວ່າ: ຮູບແບບຈະເປັນປະໂຫຍດແນວໃດແທນທີ່ຈະເປັນພຽງແຕ່ຂອງຫຼິ້ນຄະນິດສາດ fancy. ຄໍາຕອບແມ່ນສູດ:
-
ຈຸດປະສົງທີ່ຊັດເຈນ - ຫນ້າທີ່ສູນເສຍທີ່ກໍານົດວ່າ "ດີ" ຫມາຍຄວາມວ່າແນວໃດ. [1]
-
ຂໍ້ມູນຄຸນນະພາບ - ແຕກຕ່າງກັນ, ສະອາດ, ແລະທີ່ກ່ຽວຂ້ອງ. ປະລິມານຊ່ວຍ; ແນວພັນຈະຊ່ວຍໃຫ້ຫຼາຍ. [1]
-
ການເພີ່ມປະສິດທິພາບທີ່ຄົງທີ່ - ການສືບເຊື້ອສາຍ gradient ທີ່ມີເຄັດລັບເພື່ອຫຼີກເວັ້ນການ wobbling ຈາກຫນ້າຜາ. [1], [2]
-
Generalization - ຄວາມສໍາເລັດກ່ຽວກັບຂໍ້ມູນໃຫມ່, ບໍ່ພຽງແຕ່ຊຸດການຝຶກອົບຮົມ. [1]
-
loops ຄໍາເຫັນ - ການປະເມີນຜົນ, ການວິເຄາະຄວາມຜິດພາດ, ແລະການຊ້ໍາ. [2], [3]
-
ຄວາມປອດໄພແລະຄວາມຫນ້າເຊື່ອຖື - guardrails, ການທົດສອບ, ແລະເອກະສານສະນັ້ນມັນບໍ່ແມ່ນ chaos. [4]
ສໍາລັບພື້ນຖານທີ່ເຂົ້າໃກ້ໄດ້, ຂໍ້ຄວາມການຮຽນຮູ້ແບບເລິກເຊິ່ງຄລາສສິກ, ບັນທຶກຫຼັກສູດທີ່ເປັນມິດກັບສາຍຕາ, ແລະຫຼັກສູດການລົ້ມລົງຂອງມືໄດ້ກວມເອົາສິ່ງທີ່ສໍາຄັນໂດຍບໍ່ມີການເຮັດໃຫ້ເຈົ້າຈົມລົງໃນສັນຍາລັກ. [1]–[3]
AI ຮຽນຮູ້ແນວໃດ? ຄໍາຕອບສັ້ນໃນພາສາອັງກິດທໍາມະດາ ✍️
ຮູບແບບ AI ເລີ່ມຕົ້ນດ້ວຍຄ່າພາລາມິເຕີແບບສຸ່ມ. ມັນເຮັດໃຫ້ການຄາດຄະເນ. ທ່ານໃຫ້ຄະແນນການຄາດຄະເນນັ້ນກັບການ ສູນເສຍ . ຫຼັງຈາກນັ້ນ, ທ່ານ nudge ຕົວກໍານົດການເຫຼົ່ານັ້ນເພື່ອຫຼຸດຜ່ອນການສູນເສຍໂດຍໃຊ້ gradients . ເຮັດເລື້ມຄືນນີ້ໃນທົ່ວຫຼາຍໆຕົວຢ່າງຈົນກ່ວາຕົວແບບຢຸດການປັບປຸງ (ຫຼືທ່ານບໍ່ມີອາຫານຫວ່າງ). ນັ້ນແມ່ນການຝຶກຊ້ອມໃນລົມຫາຍໃຈດຽວ. [1], [2]
ຖ້າທ່ານຕ້ອງການຄວາມແມ່ນຍໍາຫຼາຍ, ເບິ່ງພາກສ່ວນກ່ຽວກັບການສືບເຊື້ອສາຍ gradient ແລະ backpropagation ຂ້າງລຸ່ມນີ້. ສໍາລັບພື້ນຖານທີ່ໄວ, ຍ່ອຍໄດ້, ການບັນຍາຍສັ້ນ ແລະຫ້ອງທົດລອງແມ່ນມີຢູ່ຢ່າງກວ້າງຂວາງ. [2], [3]
ພື້ນຖານ: ຂໍ້ມູນ, ຈຸດປະສົງ, ການເພີ່ມປະສິດທິພາບ 🧩
-
ຂໍ້ມູນ : ວັດສະດຸປ້ອນ (x) ແລະ ເປົ້າໝາຍ (y). ຂໍ້ມູນກວ້າງກວ່າ ແລະສະອາດຂຶ້ນ, ໂອກາດຂອງເຈົ້າໃນການຂະຫຍາຍຂໍ້ມູນໄດ້ດີຂຶ້ນ. ການຈັດເກັບຂໍ້ມູນບໍ່ໄດ້ເປັນທີ່ສວຍງາມ, ແຕ່ວ່າມັນເປັນ hero ທີ່ບໍ່ໄດ້ຮັບການຮ້ອງຂໍ. [1]
-
ຮູບແບບ : ຟັງຊັນ (f_\theta(x)) ທີ່ມີພາລາມິເຕີ (\theta). ເຄືອຂ່າຍ neural ແມ່ນ stacks ຂອງຫນ່ວຍງານງ່າຍດາຍທີ່ປະສົມປະສານໃນວິທີການທີ່ສັບສົນ - Lego bricks, ແຕ່ squishier. [1]
-
ຈຸດປະສົງ : ການສູນເສຍ (L(f_\theta(x), y)) ທີ່ວັດແທກຄວາມຜິດພາດ. ຕົວຢ່າງ: ຫມາຍຄວາມວ່າຄວາມຜິດພາດສີ່ຫຼ່ຽມ (regression) ແລະ cross-entropy (ການຈັດປະເພດ). [1]
-
ການເພີ່ມປະສິດທິພາບ : ໃຊ້ (stochastic) descent gradient ເພື່ອປັບປຸງພາລາມິເຕີ: (\theta \leftarrow \theta - \eta \nabla_\theta L). ອັດຕາການຮຽນຮູ້ (\eta): ໃຫຍ່ເກີນໄປແລະທ່ານ bounce ປະມານ; ນ້ອຍເກີນໄປ ແລະເຈົ້ານອນຫຼັບຕະຫຼອດໄປ. [2]
ສໍາລັບການແນະນໍາທີ່ສະອາດກ່ຽວກັບຫນ້າທີ່ສູນເສຍແລະການເພີ່ມປະສິດທິພາບ, ບັນທຶກຄລາສສິກກ່ຽວກັບເຄັດລັບການຝຶກອົບຮົມແລະ pitfalls ແມ່ນ skim ທີ່ຍິ່ງໃຫຍ່. [2]
ການຮຽນຮູ້ແບບຄວບຄຸມ: ຮຽນຮູ້ຈາກຕົວຢ່າງທີ່ມີປ້າຍຊື່ 🎯
ແນວຄວາມຄິດ : ສະແດງຄູ່ຕົວແບບຂອງການປ້ອນຂໍ້ມູນ ແລະຄໍາຕອບທີ່ຖືກຕ້ອງ. ຕົວແບບຮຽນຮູ້ການສ້າງແຜນທີ່ (x \rightarrow y).
-
ວຽກງານທົ່ວໄປ : ການຈັດປະເພດຮູບພາບ, ການວິເຄາະຄວາມຮູ້ສຶກ, ການຄາດຄະເນຕາຕະລາງ, ການຮັບຮູ້ສຽງເວົ້າ.
-
ການສູນເສຍທົ່ວໄປ : cross-entropy ສໍາລັບການຈັດປະເພດ, ຫມາຍຄວາມຜິດສອງຮຽບຮ້ອຍສໍາລັບການ regression. [1]
-
Pitfalls : ສຽງປ້າຍຊື່, ຄວາມບໍ່ສົມດຸນຂອງຫ້ອງຮຽນ, ຂໍ້ມູນຮົ່ວໄຫຼ.
-
ການແກ້ໄຂ : ການເກັບກໍາຂໍ້ມູນທີ່ແຕກຕ່າງກັນ, ການສູນເສຍທີ່ເຂັ້ມແຂງ, ການເກັບກໍາຂໍ້ມູນທີ່ຫຼາກຫຼາຍ. [1], [2]
ອີງຕາມມາດຕະການທົດສະວັດຂອງມາດຕະຖານແລະການປະຕິບັດການຜະລິດ, ການຄວບຄຸມການຮຽນຮູ້ຍັງຄົງເປັນ workhorse ເພາະວ່າຜົນໄດ້ຮັບແມ່ນຄາດຄະເນແລະການວັດແທກແມ່ນກົງໄປກົງມາ. [1], [3]
ການຮຽນຮູ້ແບບບໍ່ມີການຄວບຄຸມ ແລະ ຄວບຄຸມຕົນເອງ: ຮຽນຮູ້ໂຄງສ້າງຂອງຂໍ້ມູນ 🔍
Unsupervised ຮຽນຮູ້ຮູບແບບທີ່ບໍ່ມີປ້າຍກຳກັບ.
-
ການຈັດກຸ່ມ : ກຸ່ມຈຸດທີ່ຄ້າຍຄືກັນ—k-means ແມ່ນງ່າຍດາຍ ແລະເປັນປະໂຫຍດທີ່ຫນ້າປະຫລາດໃຈ.
-
ການຫຼຸດຜ່ອນຂະຫນາດ : ບີບອັດຂໍ້ມູນໄປຫາທິດທາງທີ່ສໍາຄັນ—PCA ແມ່ນເຄື່ອງມືປະຕູ.
-
ການສ້າງແບບຈໍາລອງຄວາມຫນາແຫນ້ນ / ການຜະລິດ : ຮຽນຮູ້ການແຈກຢາຍຂໍ້ມູນຂອງມັນເອງ. [1]
ການເບິ່ງແຍງຕົນເອງ ແມ່ນເຄື່ອງຈັກທີ່ທັນສະໄຫມ: ແບບຈໍາລອງສ້າງການຊີ້ນໍາຂອງຕົນເອງ (ການຄາດເດົາແບບປິດບັງ, ການຮຽນຮູ້ກົງກັນຂ້າມ), ຊ່ວຍໃຫ້ທ່ານສາມາດຝຶກຝົນໃນມະຫາສະຫມຸດຂອງຂໍ້ມູນທີ່ບໍ່ມີປ້າຍຊື່ແລະປັບລະອຽດຕໍ່ມາ. [1]
ການຮຽນຮູ້ເສີມ: ຮຽນຮູ້ໂດຍການເຮັດ ແລະຮັບຄໍາຕິຊົມ 🕹️
ຕົວ ແທນ ພົວພັນກັບ ສະພາບແວດລ້ອມ , ໄດ້ຮັບ ລາງວັນ , ແລະຮຽນຮູ້ ນະໂຍບາຍ ທີ່ໃຫ້ລາງວັນສູງສຸດໃນໄລຍະຍາວ.
-
ຊິ້ນສ່ວນຫຼັກ : ລັດ, ການປະຕິບັດ, ລາງວັນ, ນະໂຍບາຍ, ຫນ້າທີ່ມູນຄ່າ.
-
ສູດການຄິດໄລ່ : Q-learning, gradients ນະໂຍບາຍ, ນັກສະແດງ-ນັກວິຈານ.
-
ການຂຸດຄົ້ນທຽບກັບການຂູດຮີດ : ລອງສິ່ງໃໝ່ໆ ຫຼືໃຊ້ຄືນສິ່ງທີ່ໄດ້ຜົນ.
-
ການມອບໝາຍສິນເຊື່ອ : ການກະທຳໃດເຮັດໃຫ້ເກີດຜົນອັນໃດ?
ຄໍາຕິຊົມຂອງມະນຸດສາມາດນໍາພາການຝຶກອົບຮົມໃນເວລາທີ່ລາງວັນແມ່ນລັງເລ - ການຈັດອັນດັບຫຼືຄວາມມັກຊ່ວຍສ້າງພຶດຕິກໍາໂດຍບໍ່ມີການຂຽນລະຫັດດ້ວຍມືຂອງລາງວັນທີ່ສົມບູນແບບ. [5]
ການຮຽນຮູ້ທີ່ເລິກເຊິ່ງ, ດ້ານຫຼັງ, ແລະ ການສືບເຊື້ອສາຍແບບເລື່ອນຊັ້ນ - ຫົວໃຈທີ່ເຕັ້ນແຮງ 🫀
ຕາຫນ່າງ neural ແມ່ນອົງປະກອບຂອງຫນ້າທີ່ງ່າຍດາຍ. ເພື່ອຮຽນຮູ້, ພວກເຂົາອີງໃສ່ ການຂະຫຍາຍພັນຄືນ :
-
Forward pass : ຄິດໄລ່ການຄາດເດົາຈາກການປ້ອນຂໍ້ມູນ.
-
ການສູນເສຍ : ການວັດແທກຄວາມຜິດພາດລະຫວ່າງການຄາດຄະເນແລະເປົ້າຫມາຍ.
-
Backward pass : ໃຊ້ກົດລະບຽບລະບົບຕ່ອງໂສ້ເພື່ອຄິດໄລ່ gradients ຂອງການສູນເສຍ wrt ແຕ່ລະພາລາມິເຕີ.
-
ອັບເດດ : nudge ພາຣາມິເຕີຕໍ່ກັບການ gradient ໂດຍໃຊ້ຕົວເພີ່ມປະສິດທິພາບ.
ຕົວແປເຊັ່ນ: momentum, RMProp, ແລະ Adam ເຮັດໃຫ້ການຝຶກອົບຮົມມີອາລົມໜ້ອຍລົງ. ວິທີການປົກກະຕິເຊັ່ນ: ການລຸດອອກ , ການຫຼຸດນໍ້າໜັກ , ແລະ ການຢຸດໄວ ຊ່ວຍໃຫ້ຕົວແບບທົ່ວໄປແທນທີ່ຈະຈື່ຈໍາ. [1], [2]
ໝໍ້ແປງ ແລະ ຄວາມໃສ່ໃຈ: ເປັນຫຍັງເຄື່ອງແບບທັນສະໄໝຈຶ່ງຮູ້ສຶກສະຫຼາດ🧠✨
ໝໍ້ແປງປ່ຽນແທນການຕິດຕັ້ງແບບຊ້ຳໆຫຼາຍຢ່າງໃນພາສາ ແລະວິໄສທັດ. ເຄັດລັບຫຼັກແມ່ນ ການໃສ່ໃຈຕົນເອງ , ເຊິ່ງເຮັດໃຫ້ຕົວແບບໃດໜຶ່ງສາມາດຊັ່ງນໍ້າໜັກພາກສ່ວນຕ່າງໆຂອງວັດສະດຸປ້ອນຂອງມັນ ຂຶ້ນກັບບໍລິບົດ. ການເຂົ້າລະຫັດຕໍາແຫນ່ງຈັດການຄໍາສັ່ງ, ແລະ ການໃສ່ໃຈຫຼາຍຫົວ ເຮັດໃຫ້ຕົວແບບສຸມໃສ່ຄວາມສໍາພັນທີ່ແຕກຕ່າງກັນໃນເວລາດຽວກັນ. ການຂະຫຍາຍຂໍ້ມູນທີ່ມີຄວາມຫຼາກຫຼາຍຫຼາຍຂຶ້ນ, ຕົວກໍານົດການເພີ່ມເຕີມ, ການຝຶກອົບຮົມທີ່ຍາວກວ່າ - ມັກຈະຊ່ວຍ, ມີຜົນຕອບແທນຫຼຸດລົງແລະຄ່າໃຊ້ຈ່າຍທີ່ເພີ່ມຂຶ້ນ. [1], [2]
ການເຮັດໃຫ້ທົ່ວໄປ, ພໍດີ, ແລະການເຕັ້ນແບບອະຄະຕິ-ການຜັນແປ 🩰
ຕົວແບບສາມາດ ace ທີ່ກໍານົດໄວ້ການຝຶກອົບຮົມແລະຍັງ flop ໃນໂລກທີ່ແທ້ຈິງ.
-
Overfitting : ຈື່ສຽງລົບກວນ. ຄວາມຜິດພາດການຝຶກອົບຮົມຫຼຸດລົງ, ການທົດສອບຄວາມຜິດພາດຂຶ້ນ.
-
underfitting : ງ່າຍດາຍເກີນໄປ; ພາດສັນຍານ.
-
Bias–variance trade-off : ຄວາມຊັບຊ້ອນຫຼຸດຜ່ອນຄວາມລຳອຽງແຕ່ສາມາດເພີ່ມຄວາມແຕກຕ່າງກັນໄດ້.
ວິທີການທົ່ວໄປທີ່ດີກວ່າ:
-
ຂໍ້ມູນທີ່ມີຄວາມຫຼາກຫຼາຍຫຼາຍ - ແຫຼ່ງທີ່ແຕກຕ່າງກັນ, ໂດເມນ, ແລະກໍລະນີແຂບ.
-
Regularization - dropout, ການຫຼຸດລົງນ້ໍາ, ການເພີ່ມຂໍ້ມູນ.
-
ການກວດສອບທີ່ຖືກຕ້ອງ - ຊຸດການທົດສອບທີ່ສະອາດ, ການກວດສອບຂໍ້ມູນຂະຫນາດນ້ອຍ.
-
ການຕິດຕາມ drift - ການແຜ່ກະຈາຍຂໍ້ມູນຂອງທ່ານຈະປ່ຽນແປງຕາມເວລາ.
ການປະຕິບັດການຮັບຮູ້ຄວາມສ່ຽງເຮັດໃຫ້ສິ່ງເຫຼົ່ານີ້ເປັນກິດຈະກໍາວົງຈອນຊີວິດ - ການຄຸ້ມຄອງ, ການສ້າງແຜນທີ່, ການວັດແທກ, ແລະການຄຸ້ມຄອງ - ບໍ່ແມ່ນລາຍການກວດສອບຫນຶ່ງ. [4]
Metrics ທີ່ສໍາຄັນ: ເຮັດແນວໃດພວກເຮົາຮູ້ວ່າການຮຽນຮູ້ເກີດຂຶ້ນ 📈
-
ການຈັດປະເພດ : ຄວາມຖືກຕ້ອງ, ຄວາມແມ່ນຍໍາ, recall, F1, ROC AUC. ຂໍ້ມູນທີ່ບໍ່ສົມດູນຮຽກຮ້ອງເສັ້ນໂຄ້ງຄວາມແມ່ນຍໍາ-ການເອີ້ນຄືນ. [3]
-
Regression : MSE, MAE, (R^2). [1]
-
ອັນດັບ/ການດຶງຂໍ້ມູນ : MAP, NDCG, recall@K. [1]
-
ຮູບແບບການຜະລິດ : ຄວາມສັບສົນ (ພາສາ), BLEU/ROUGE/CIDEr (ຂໍ້ຄວາມ), ຄະແນນທີ່ອີງໃສ່ CLIP (ຫຼາຍຮູບແບບ), ແລະການປະເມີນຄວາມສໍາຄັນຂອງມະນຸດ. [1], [3]
ເລືອກຕົວວັດແທກທີ່ສອດຄ່ອງກັບຜົນກະທົບຂອງຜູ້ໃຊ້. ຄວາມຜິດພາດພຽງເລັກໆນ້ອຍໆໃນຄວາມຖືກຕ້ອງອາດບໍ່ກ່ຽວຂ້ອງກັນ ຖ້າຜົນບວກທີ່ບໍ່ຖືກຕ້ອງແມ່ນຄ່າໃຊ້ຈ່າຍທີ່ແທ້ຈິງ. [3]
ຂັ້ນຕອນການເຮັດວຽກຂອງການຝຶກອົບຮົມໃນໂລກຄວາມເປັນຈິງ: ແຜນທີ່ງ່າຍດາຍ 🛠️
-
ກອບບັນຫາ - ກໍານົດວັດສະດຸປ້ອນ, ຜົນໄດ້ຮັບ, ຂໍ້ຈໍາກັດ, ແລະເງື່ອນໄຂຄວາມສໍາເລັດ.
-
ທໍ່ຂໍ້ມູນ - ການລວບລວມ, ການຕິດສະຫຼາກ, ການເຮັດຄວາມສະອາດ, ການແຍກ, ການຂະຫຍາຍ.
-
ພື້ນຖານ - ເລີ່ມຕົ້ນງ່າຍດາຍ; ເສັ້ນຊື່ ຫຼື ພື້ນຖານຕົ້ນໄມ້ມີການແຂ່ງຂັນທີ່ໜ້າຕົກໃຈ.
-
ການສ້າງແບບຈໍາລອງ - ທົດລອງສອງສາມຄອບຄົວ: ຕົ້ນໄມ້ທີ່ເພີ່ມລະດັບ gradient (ຕາຕະລາງ), CNNs (ຮູບພາບ), ການຫັນເປັນ (ຂໍ້ຄວາມ).
-
ການຝຶກອົບຮົມ - ຕາຕະລາງ, ຍຸດທະສາດການຮຽນຮູ້ອັດຕາ, ດ່ານ, ຄວາມແມ່ນຍໍາປະສົມຖ້າຈໍາເປັນ.
-
ການປະເມີນຜົນ - ablations ແລະການວິເຄາະຄວາມຜິດພາດ. ເບິ່ງຄວາມຜິດພາດ, ບໍ່ພຽງແຕ່ສະເລ່ຍ.
-
ການປະຕິບັດ - inference pipeline, ການຕິດຕາມ, ການຕັດໄມ້, ແຜນ rollback.
-
Iterate - ຂໍ້ມູນທີ່ດີກວ່າ, ການປັບລະອຽດ, ຫຼືການປັບປຸງສະຖາປັດຕະຍະກໍາ.
ກໍລະນີຂະໜາດນ້ອຍ : ໂຄງການຈັດປະເພດອີເມລ໌ເລີ່ມຕົ້ນດ້ວຍເສັ້ນພື້ນຖານແບບເສັ້ນແບບງ່າຍໆ, ຈາກນັ້ນປັບປ່ຽນໝໍ້ແປງທີ່ໄດ້ຝຶກໄວ້ກ່ອນ. ໄຊຊະນະທີ່ໃຫຍ່ທີ່ສຸດບໍ່ແມ່ນແບບຈໍາລອງ - ມັນແມ່ນການເຄັ່ງຄັດຂອງ rubric ການຕິດສະຫລາກແລະເພີ່ມປະເພດ "ແຂບ" ທີ່ເປັນຕົວແທນ. ເມື່ອສິ່ງເຫຼົ່ານັ້ນຖືກຄຸ້ມຄອງ, ການກວດສອບ F1 ສຸດທ້າຍໄດ້ຕິດຕາມການປະຕິບັດຕົວຈິງຂອງໂລກ. (ອານາຄົດຂອງເຈົ້າ: ຂອບໃຈຫຼາຍ.)
ຄຸນະພາບຂອງຂໍ້ມູນ, ການຕິດສະຫຼາກ, ແລະສິນລະປະທີ່ລະອຽດອ່ອນຂອງການບໍ່ຕົວະຕົວເອງ🧼
ຂີ້ເຫຍື້ອໃນ, ເສຍໃຈອອກ. ຂໍ້ແນະນຳການຕິດສະຫຼາກຄວນສອດຄ່ອງ, ສາມາດວັດແທກໄດ້ ແລະ ທົບທວນຄືນ. ຂໍ້ຕົກລົງລະຫວ່າງຜູ້ອະທິບາຍເລື່ອງສຳຄັນ.
-
ຂຽນ rubrics ກັບຕົວຢ່າງ, ກໍລະນີມຸມ, ແລະ tie-breakers.
-
ກວດສອບຊຸດຂໍ້ມູນສໍາລັບການຊ້ໍາກັນແລະໃກ້ຈະຊ້ໍາກັນ.
-
ຕິດຕາມການພິສູດ - ບ່ອນທີ່ແຕ່ລະຕົວຢ່າງມາຈາກແລະເປັນຫຍັງມັນໄດ້ຖືກລວມເຂົ້າ.
-
ວັດແທກການຄຸ້ມຄອງຂໍ້ມູນຕໍ່ກັບສະຖານະການຂອງຜູ້ໃຊ້ທີ່ແທ້ຈິງ, ບໍ່ພຽງແຕ່ເປັນມາດຕະຖານທີ່ກະທັດຮັດ.
ສິ່ງເຫຼົ່ານີ້ເໝາະສົມກັບກອບການຮັບປະກັນ ແລະການຄຸ້ມຄອງທີ່ກວ້າງກວ່າທີ່ເຈົ້າສາມາດປະຕິບັດຕົວຈິງໄດ້. [4]
ຖ່າຍທອດການຮຽນຮູ້, ການປັບລະອຽດ, ແລະອະແດັບເຕີ - ໃຊ້ການຍົກໜັກຄືນໃໝ່ ♻️
ຮູບແບບທີ່ຝຶກຝົນໄດ້ຮຽນຮູ້ການເປັນຕົວແທນທົ່ວໄປ; ການປັບແຕ່ງປັບພວກມັນໃຫ້ເຂົ້າກັບວຽກຂອງເຈົ້າດ້ວຍຂໍ້ມູນໜ້ອຍລົງ.
-
ການສະກັດເອົາຄຸນສົມບັດ : ແຊ່ກະດູກສັນຫຼັງ, ຝຶກອົບຮົມຫົວຂະຫນາດນ້ອຍ.
-
ການປັບລະອຽດເຕັມຮູບແບບ : ອັບເດດພາລາມິເຕີທັງໝົດສໍາລັບຄວາມອາດສາມາດສູງສຸດ.
-
ວິທີການປະສິດທິພາບພາຣາມິເຕີ : ອະແດບເຕີ, ການປັບປຸງລະດັບຕ່ໍາແບບ LoRA - ດີໃນເວລາທີ່ຄອມພິວເຕີເຄັ່ງຄັດ.
-
ການປັບຕົວໂດເມນ : ຈັດວາງການຝັງຢູ່ທົ່ວໂດເມນ; ການປ່ຽນແປງຂະຫນາດນ້ອຍ, ຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງ. [1], [2]
ຮູບແບບການນໍາໃຊ້ຄືນໃຫມ່ນີ້ແມ່ນເຫດຜົນທີ່ວ່າໂຄງການທີ່ທັນສະໄຫມສາມາດເຄື່ອນຍ້າຍໄດ້ໄວໂດຍບໍ່ມີງົບປະມານທີ່ກ້າຫານ.
ຄວາມປອດໄພ, ຄວາມຫນ້າເຊື່ອຖື, ແລະການຈັດລຽງລໍາດັບ - bits ທີ່ບໍ່ແມ່ນທາງເລືອກ 🧯
ການຮຽນຮູ້ບໍ່ພຽງແຕ່ກ່ຽວກັບຄວາມຖືກຕ້ອງ. ທ່ານຍັງຕ້ອງການຕົວແບບທີ່ແຂງແຮງ, ຍຸຕິທໍາ, ແລະສອດຄ່ອງກັບການນໍາໃຊ້ທີ່ຕັ້ງໃຈ.
-
ຄວາມແຂງແກ່ນຂອງສັດຕູ : ການລົບກວນຂະໜາດນ້ອຍສາມາດຫຼອກລວງຕົວແບບໄດ້.
-
ຄວາມລຳອຽງ ແລະ ຄວາມຍຸຕິທຳ : ວັດແທກການປະຕິບັດກຸ່ມຍ່ອຍ, ບໍ່ພຽງແຕ່ຄ່າສະເລ່ຍລວມເທົ່ານັ້ນ.
-
ຄວາມສາມາດແປຄວາມໝາຍ : ການສະແດງໃຫ້ເຫັນຄຸນສົມບັດແລະການສອບສວນຊ່ວຍໃຫ້ທ່ານເຫັນ ວ່າເປັນຫຍັງ .
-
ມະນຸດຢູ່ໃນວົງຈອນ : ເສັ້ນທາງກ້າວໄປສູ່ການຕັດສິນໃຈທີ່ບໍ່ຊັດເຈນ ຫຼືມີຜົນກະທົບສູງ. [4], [5]
ການຮຽນຮູ້ທີ່ອີງໃສ່ຄວາມມັກເປັນວິທີທາງປະຕິບັດອັນໜຶ່ງທີ່ຈະລວມເອົາການຕັດສິນຂອງມະນຸດເມື່ອເປົ້າໝາຍບໍ່ເປັນລະບຽບ. [5]
FAQs ໃນຫນຶ່ງນາທີ - ໄຟຢ່າງໄວວາ ⚡
-
ດັ່ງນັ້ນ, ແທ້, AI ຮຽນຮູ້ແນວໃດ? ໂດຍຜ່ານການເພີ່ມປະສິດທິພາບຊໍ້າຄືນຕໍ່ກັບການສູນເສຍ, ໂດຍມີ gradients ນໍາພາຕົວກໍານົດການໄປສູ່ການຄາດຄະເນທີ່ດີກວ່າ. [1], [2]
-
ຂໍ້ມູນເພີ່ມເຕີມສະເຫມີຊ່ວຍບໍ? ປົກກະຕິແລ້ວ, ຈົນກ່ວາການຫຼຸດລົງກັບຄືນມາ. ແນວພັນມັກຈະຕີປະລິມານດິບ. [1]
-
ຈະເປັນແນວໃດຖ້າປ້າຍຊື່ສັບສົນ? ໃຊ້ວິທີການທີ່ມີສຽງລົບກວນ, rubrics ທີ່ດີກວ່າ, ແລະພິຈາລະນາ pretraining ຕົນເອງຄວບຄຸມ. [1]
-
ເປັນຫຍັງໝໍ້ແປງຈຶ່ງຄອບງຳ? ລະດັບຄວາມສົນໃຈໄດ້ດີແລະເກັບກໍາຄວາມເພິ່ງພາອາໄສໃນໄລຍະຍາວ; ເຄື່ອງມືແມ່ນແກ່ແລ້ວ. [1], [2]
-
ຂ້ອຍຈະຮູ້ໄດ້ແນວໃດວ່າຂ້ອຍສໍາເລັດການຝຶກອົບຮົມ? ຄວາມຖືກຕ້ອງຂອງການສູນເສຍທີ່ພູພຽງ, metrics ສະຖຽນລະພາບ, ແລະຂໍ້ມູນໃຫມ່ປະຕິບັດຕົວຕາມທີ່ຄາດໄວ້, ຫຼັງຈາກນັ້ນຕິດຕາມກວດກາ drift. [3], [4]
ຕາຕະລາງປຽບທຽບ - ເຄື່ອງມືທີ່ເຈົ້າສາມາດນຳໃຊ້ໄດ້ຈິງໃນມື້ນີ້🧰
ແປກປະຫຼາດເລັກນ້ອຍກ່ຽວກັບຈຸດປະສົງ. ລາຄາແມ່ນສໍາລັບຫ້ອງສະຫມຸດຫຼັກ - ການຝຶກອົບຮົມໃນລະດັບມີຄ່າໃຊ້ຈ່າຍ infra, ແນ່ນອນ.
| ເຄື່ອງມື | ດີທີ່ສຸດສຳລັບ | ລາຄາ | ເປັນຫຍັງມັນເຮັດວຽກໄດ້ດີ |
|---|---|---|---|
| PyTorch | ນັກຄົ້ນຄວ້າ, ຜູ້ກໍ່ສ້າງ | ຟຣີ - ເປີດ src | ກຣາຟແບບໄດນາມິກ, ລະບົບນິເວດທີ່ເຂັ້ມແຂງ, ການສອນທີ່ດີ. |
| TensorFlow | ທີມງານຜະລິດ | ຟຣີ - ເປີດ src | ການໃຫ້ບໍລິການແກ່ຜູ້ໃຫຍ່, TF Lite ສໍາລັບມືຖື; ຊຸມຊົນໃຫຍ່. |
| ຮຽນຮູ້ Scikit | ຂໍ້ມູນຕາຕະລາງ, ພື້ນຖານ | ຟຣີ | API ສະອາດ, ໄວທີ່ຈະເຮັດຊ້ຳ, ເອກະສານທີ່ດີ. |
| ເຄຣາສ | ຕົວແບບດ່ວນ | ຟຣີ | API ລະດັບສູງຫຼາຍກວ່າ TF, ຊັ້ນຂໍ້ມູນທີ່ສາມາດອ່ານໄດ້. |
| JAX | ຜູ້ໃຊ້ພະລັງງານ, ການຄົ້ນຄວ້າ | ຟຣີ | ອັດຕະໂນມັດ vectorization, ຄວາມໄວ XLA, vibes ຄະນິດສາດ elegant. |
| ກອດຕົວຫັນໜ້າ | NLP, ວິໄສທັດ, ສຽງ | ຟຣີ | ຮູບແບບທີ່ຝຶກມາກ່ອນ, ການປັບແຕ່ງແບບງ່າຍດາຍ, ສູນກາງທີ່ດີ. |
| ຟ້າຜ່າ | ຂະບວນການຝຶກອົບຮົມ | ແກນຟຣີ | ໂຄງສ້າງ, ການຕັດໄມ້, ແບດເຕີຣີຫຼາຍ GPU ລວມ. |
| XGBoost | ຕາຕະລາງການແຂ່ງຂັນ | ຟຣີ | ພື້ນຖານທີ່ເຂັ້ມແຂງ, ມັກຈະຊະນະຂໍ້ມູນທີ່ມີໂຄງສ້າງ. |
| ນ້ຳໜັກ ແລະ ອະຄະຕິ | ການທົດລອງຕິດຕາມ | ຊັ້ນຮຽນຟຣີ | Reproducibility, ປຽບທຽບການແລ່ນ, ການຮຽນຮູ້ທີ່ໄວກວ່າ loops. |
ເອກະສານອະນຸຍາດເພື່ອເລີ່ມຕົ້ນດ້ວຍ: PyTorch, TensorFlow, ແລະຄູ່ມືຜູ້ໃຊ້ scikit-learn ທີ່ສະອາດ. (ເລືອກອັນໜຶ່ງ, ສ້າງອັນນ້ອຍໆ, ເຮັດຊ້ຳ.)
ການດໍານ້ໍາເລິກ: ຄໍາແນະນໍາພາກປະຕິບັດທີ່ຊ່ວຍປະຢັດເວລາທີ່ແທ້ຈິງ 🧭
-
ຕາຕະລາງອັດຕາການຮຽນຮູ້ : ການເສື່ອມໂຊມຂອງ cosine ຫຼືຫນຶ່ງຮອບສາມາດສະຖຽນລະພາບການຝຶກອົບຮົມ.
-
ຂະໜາດ batch : ໃຫຍ່ກວ່າບໍ່ແມ່ນຕົວຊີ້ວັດການກວດສອບທີ່ດີຂຶ້ນສະເໝີໄປ, ບໍ່ພຽງແຕ່ຜ່ານ.
-
ນ້ໍາຫນັກ init : ມາດຕະຖານທີ່ທັນສະໄຫມແມ່ນດີ; ຖ້າຫາກວ່າການຝຶກອົບຮົມຢຸດເຊົາການ, ຢ້ຽມຢາມໃນເບື້ອງຕົ້ນຫຼືເຮັດໃຫ້ຂັ້ນຕອນຕົ້ນເປັນປົກກະຕິ.
-
Normalization : batch norm ຫຼື layer norm ສາມາດເຮັດໃຫ້ການເພີ່ມປະສິດທິພາບທີ່ລຽບງ່າຍ.
-
ການເພີ່ມຂໍ້ມູນ : flips / ການປູກພືດ / ສີ jitter ສໍາລັບຮູບພາບ; ການສວມໜ້າກາກ/ໂທເຄັນສຳລັບຂໍ້ຄວາມ.
-
ການວິເຄາະຄວາມຜິດພາດ : ຄວາມຜິດພາດຂອງກຸ່ມໂດຍການເປັນຕົວສອຍຫນຶ່ງແຂບສາມາດລາກທຸກສິ່ງທຸກຢ່າງລົງ.
-
Repro : ຕັ້ງແກ່ນ, ບັນທຶກ hyperparams, ບັນທຶກຈຸດກວດກາ. ໃນອະນາຄົດເຈົ້າຈະຮູ້ບຸນຄຸນ, ຂ້ອຍສັນຍາ. [2], [3]
ໃນເວລາທີ່ສົງໃສ, retrace ພື້ນຖານ. ພື້ນຖານຍັງຄົງເປັນເຂັມທິດ. [1], [2]
ຄຳປຽບທຽບນ້ອຍໆທີ່ເກືອບຈະໃຊ້ໄດ້🪴
ການຝຶກອົບຮົມແບບຈໍາລອງແມ່ນຄ້າຍຄືກັບການຫົດນໍ້າຕົ້ນໄມ້ດ້ວຍຫົວທີ່ແປກປະຫຼາດ. ໜອງນ້ຳຫຼາຍໂພດ. ໄພແຫ້ງແລ້ງໜ້ອຍເກີນໄປ. cadence ທີ່ຖືກຕ້ອງ, ມີແສງແດດຈາກຂໍ້ມູນທີ່ດີແລະສານອາຫານຈາກຈຸດປະສົງທີ່ສະອາດ, ແລະທ່ານໄດ້ຮັບການຂະຫຍາຍຕົວ. ແມ່ນແລ້ວ, ເນີຍແຂງເລັກນ້ອຍ, ແຕ່ມັນຕິດຢູ່.
AI ຮຽນຮູ້ແນວໃດ? ເອົາມາລວມກັນ 🧾
ຮູບແບບເລີ່ມຕົ້ນແບບສຸ່ມ. ໂດຍຜ່ານການປັບປຸງແບບ gradient, ນໍາພາໂດຍການສູນເສຍ, ມັນຈັດລໍາດັບພາລາມິເຕີຂອງມັນກັບຮູບແບບໃນຂໍ້ມູນ. ການເປັນຕົວແທນອອກມາທີ່ເຮັດໃຫ້ການຄາດເດົາໄດ້ງ່າຍ. ການປະເມີນຜົນບອກໃຫ້ທ່ານຮູ້ວ່າການຮຽນຮູ້ແມ່ນແທ້ຈິງ, ບໍ່ແມ່ນອຸບັດຕິເຫດ. ແລະ iteration-with guardrails for safety-turns a demo into a dependable system. ນັ້ນແມ່ນເລື່ອງທັງຫມົດ, ມີ vibes ລຶກລັບຫນ້ອຍກ່ວາມັນທໍາອິດທີ່ເບິ່ງຄືວ່າ. [1]–[4]
ຂໍ້ສັງເກດສຸດທ້າຍ - ດົນເກີນໄປ, ບໍ່ໄດ້ອ່ານ🎁
-
AI ຮຽນຮູ້ແນວໃດ? ໂດຍການຫຼຸດການສູນເສຍທີ່ມີ gradients ຫຼາຍກວ່າຕົວຢ່າງຈໍານວນຫລາຍ. [1], [2]
-
ຂໍ້ມູນທີ່ດີ, ຈຸດປະສົງທີ່ຈະແຈ້ງ, ແລະການປັບປຸງທີ່ຫມັ້ນຄົງເຮັດໃຫ້ການຮຽນຮູ້. [1]–[3]
-
Generalization ຊະນະການຈົດຈຳ-ສະເໝີ. [1]
-
ຄວາມປອດໄພ, ການປະເມີນຜົນ, ແລະການຊ້ໍາຄືນເຮັດໃຫ້ຄວາມຄິດສະຫລາດເປັນຜະລິດຕະພັນທີ່ເຊື່ອຖືໄດ້. [3], [4]
-
ເລີ່ມຕົ້ນງ່າຍດາຍ, ວັດແທກໄດ້ດີ, ແລະປັບປຸງໂດຍການແກ້ໄຂຂໍ້ມູນກ່ອນທີ່ທ່ານຈະແລ່ນສະຖາປັດຕະຍະກໍາ exotic. [2], [3]
ເອກະສານອ້າງອີງ
-
Goodfellow, Bengio, Courville - ການຮຽນຮູ້ເລິກເຊິ່ງ (ຂໍ້ຄວາມອອນໄລນ໌ຟຣີ). ເຊື່ອມຕໍ່
-
Stanford CS231n - Convolutional Neural Networks for Visual Recognition (ບັນທຶກຫຼັກສູດ & ການມອບໝາຍ). ເຊື່ອມຕໍ່
-
Google - ຫຼັກສູດການຂັດຂ້ອງຂອງການຮຽນຮູ້ເຄື່ອງຈັກ: ການວັດແທກການຈັດປະເພດ (ຄວາມຖືກຕ້ອງ, ຄວາມຊັດເຈນ, ການເອີ້ນຄືນ, ROC/AUC) . ເຊື່ອມຕໍ່
-
NIST - AI Risk Management Framework (AI RMF 1.0) . ເຊື່ອມຕໍ່
-
OpenAI - ການຮຽນຮູ້ຈາກຄວາມມັກຂອງມະນຸດ (ພາບລວມຂອງການຝຶກອົບຮົມໂດຍອີງໃສ່ຄວາມມັກ). ເຊື່ອມຕໍ່