AI ຮຽນຮູ້ແນວໃດ?

AI ຮຽນຮູ້ແນວໃດ?

AI ຮຽນຮູ້ແນວໃດ? , ຄູ່ມືນີ້ເປີດເຜີຍແນວຄວາມຄິດອັນໃຫຍ່ຫຼວງໃນພາສາທໍາມະດາ - ມີຕົວຢ່າງ, ເສັ້ນທາງນ້ອຍໆ, ແລະຄໍາປຽບທຽບທີ່ບໍ່ສົມບູນແບບທີ່ຍັງຊ່ວຍໄດ້. ໃຫ້ເຂົ້າໄປໃນມັນ. 🙂

ບົດຄວາມທີ່ເຈົ້າອາດຈະມັກອ່ານຫຼັງຈາກນີ້:

🔗 AI ຄາດຄະເນແມ່ນຫຍັງ
ຮູບແບບການຄາດຄະເນຄາດຄະເນຜົນໄດ້ຮັບໂດຍໃຊ້ຂໍ້ມູນປະຫວັດສາດແລະເວລາຈິງ.

🔗 ອຸດສາຫະກໍາໃດທີ່ AI ຈະລົບກວນ
ພາກສ່ວນທີ່ອາດຈະປ່ຽນແປງຫຼາຍທີ່ສຸດໂດຍອັດຕະໂນມັດ, ການວິເຄາະ, ແລະຕົວແທນ.

🔗 GPT ໝາຍ ຄວາມວ່າແນວໃດ
ຄໍາອະທິບາຍທີ່ຊັດເຈນຂອງຕົວຫຍໍ້ GPT ແລະຕົ້ນກໍາເນີດ.

🔗 ທັກສະ AI ແມ່ນຫຍັງ
ຄວາມສາມາດຫຼັກໃນການກໍ່ສ້າງ, ນຳໃຊ້ ແລະຄຸ້ມຄອງລະບົບ AI.


ດັ່ງນັ້ນ, ມັນເຮັດແນວໃດ? ✅

ເມື່ອຄົນຖາມວ່າ AI ຮຽນຮູ້ແນວໃດ? , ເຂົາເຈົ້າມັກຈະຫມາຍຄວາມວ່າ: ຮູບແບບຈະເປັນປະໂຫຍດແນວໃດແທນທີ່ຈະເປັນພຽງແຕ່ຂອງຫຼິ້ນຄະນິດສາດ fancy. ຄໍາຕອບແມ່ນສູດ:

  • ຈຸດປະສົງທີ່ຊັດເຈນ - ຫນ້າທີ່ສູນເສຍທີ່ກໍານົດວ່າ "ດີ" ຫມາຍຄວາມວ່າແນວໃດ. [1]

  • ຂໍ້ມູນຄຸນນະພາບ - ແຕກຕ່າງກັນ, ສະອາດ, ແລະທີ່ກ່ຽວຂ້ອງ. ປະລິມານຊ່ວຍ; ແນວ​ພັນ​ຈະ​ຊ່ວຍ​ໃຫ້​ຫຼາຍ​. [1]

  • ການເພີ່ມປະສິດທິພາບທີ່ຄົງທີ່ - ການສືບເຊື້ອສາຍ gradient ທີ່ມີເຄັດລັບເພື່ອຫຼີກເວັ້ນການ wobbling ຈາກຫນ້າຜາ. [1], [2]

  • Generalization - ຄວາມສໍາເລັດກ່ຽວກັບຂໍ້ມູນໃຫມ່, ບໍ່ພຽງແຕ່ຊຸດການຝຶກອົບຮົມ. [1]

  • loops ຄໍາ​ເຫັນ - ການ​ປະ​ເມີນ​ຜົນ​, ການ​ວິ​ເຄາະ​ຄວາມ​ຜິດ​ພາດ​, ແລະ​ການ​ຊ​້​ໍາ​. [2], [3]

  • ຄວາມປອດໄພແລະຄວາມຫນ້າເຊື່ອຖື - guardrails, ການທົດສອບ, ແລະເອກະສານສະນັ້ນມັນບໍ່ແມ່ນ chaos. [4]

ສໍາລັບພື້ນຖານທີ່ເຂົ້າໃກ້ໄດ້, ຂໍ້ຄວາມການຮຽນຮູ້ແບບເລິກເຊິ່ງຄລາສສິກ, ບັນທຶກຫຼັກສູດທີ່ເປັນມິດກັບສາຍຕາ, ແລະຫຼັກສູດການລົ້ມລົງຂອງມືໄດ້ກວມເອົາສິ່ງທີ່ສໍາຄັນໂດຍບໍ່ມີການເຮັດໃຫ້ເຈົ້າຈົມລົງໃນສັນຍາລັກ. [1]–[3]


AI ຮຽນຮູ້ແນວໃດ? ຄໍາຕອບສັ້ນໃນພາສາອັງກິດທໍາມະດາ ✍️

ຮູບແບບ AI ເລີ່ມຕົ້ນດ້ວຍຄ່າພາລາມິເຕີແບບສຸ່ມ. ມັນເຮັດໃຫ້ການຄາດຄະເນ. ທ່ານໃຫ້ຄະແນນການຄາດຄະເນນັ້ນກັບການ ສູນເສຍ . ຫຼັງຈາກນັ້ນ, ທ່ານ nudge ຕົວກໍານົດການເຫຼົ່ານັ້ນເພື່ອຫຼຸດຜ່ອນການສູນເສຍໂດຍໃຊ້ gradients . ເຮັດເລື້ມຄືນນີ້ໃນທົ່ວຫຼາຍໆຕົວຢ່າງຈົນກ່ວາຕົວແບບຢຸດການປັບປຸງ (ຫຼືທ່ານບໍ່ມີອາຫານຫວ່າງ). ນັ້ນແມ່ນການຝຶກຊ້ອມໃນລົມຫາຍໃຈດຽວ. [1], [2]

ຖ້າທ່ານຕ້ອງການຄວາມແມ່ນຍໍາຫຼາຍ, ເບິ່ງພາກສ່ວນກ່ຽວກັບການສືບເຊື້ອສາຍ gradient ແລະ backpropagation ຂ້າງລຸ່ມນີ້. ສໍາລັບພື້ນຖານທີ່ໄວ, ຍ່ອຍໄດ້, ການບັນຍາຍສັ້ນ ແລະຫ້ອງທົດລອງແມ່ນມີຢູ່ຢ່າງກວ້າງຂວາງ. [2], [3]


ພື້ນຖານ: ຂໍ້ມູນ, ຈຸດປະສົງ, ການເພີ່ມປະສິດທິພາບ 🧩

  • ຂໍ້ມູນ : ວັດສະດຸປ້ອນ (x) ແລະ ເປົ້າໝາຍ (y). ຂໍ້ມູນກວ້າງກວ່າ ແລະສະອາດຂຶ້ນ, ໂອກາດຂອງເຈົ້າໃນການຂະຫຍາຍຂໍ້ມູນໄດ້ດີຂຶ້ນ. ການ​ຈັດ​ເກັບ​ຂໍ້​ມູນ​ບໍ່​ໄດ້​ເປັນ​ທີ່​ສວຍ​ງາມ​, ແຕ່​ວ່າ​ມັນ​ເປັນ hero ທີ່​ບໍ່​ໄດ້​ຮັບ​ການ​ຮ້ອງ​ຂໍ​. [1]

  • ຮູບແບບ : ຟັງຊັນ (f_\theta(x)) ທີ່ມີພາລາມິເຕີ (\theta). ເຄືອຂ່າຍ neural ແມ່ນ stacks ຂອງຫນ່ວຍງານງ່າຍດາຍທີ່ປະສົມປະສານໃນວິທີການທີ່ສັບສົນ - Lego bricks, ແຕ່ squishier. [1]

  • ຈຸດປະສົງ : ການສູນເສຍ (L(f_\theta(x), y)) ທີ່ວັດແທກຄວາມຜິດພາດ. ຕົວ​ຢ່າງ: ຫມາຍ​ຄວາມ​ວ່າ​ຄວາມ​ຜິດ​ພາດ​ສີ່​ຫຼ່ຽມ (regression​) ແລະ cross-entropy (ການ​ຈັດ​ປະ​ເພດ​)​. [1]

  • ການເພີ່ມປະສິດທິພາບ : ໃຊ້ (stochastic) descent gradient ເພື່ອປັບປຸງພາລາມິເຕີ: (\theta \leftarrow \theta - \eta \nabla_\theta L). ອັດຕາການຮຽນຮູ້ (\eta): ໃຫຍ່ເກີນໄປແລະທ່ານ bounce ປະມານ; ນ້ອຍເກີນໄປ ແລະເຈົ້ານອນຫຼັບຕະຫຼອດໄປ. [2]

ສໍາລັບການແນະນໍາທີ່ສະອາດກ່ຽວກັບຫນ້າທີ່ສູນເສຍແລະການເພີ່ມປະສິດທິພາບ, ບັນທຶກຄລາສສິກກ່ຽວກັບເຄັດລັບການຝຶກອົບຮົມແລະ pitfalls ແມ່ນ skim ທີ່ຍິ່ງໃຫຍ່. [2]


ການຮຽນຮູ້ແບບຄວບຄຸມ: ຮຽນຮູ້ຈາກຕົວຢ່າງທີ່ມີປ້າຍຊື່ 🎯

ແນວຄວາມຄິດ : ສະແດງຄູ່ຕົວແບບຂອງການປ້ອນຂໍ້ມູນ ແລະຄໍາຕອບທີ່ຖືກຕ້ອງ. ຕົວແບບຮຽນຮູ້ການສ້າງແຜນທີ່ (x \rightarrow y).

  • ວຽກງານທົ່ວໄປ : ການຈັດປະເພດຮູບພາບ, ການວິເຄາະຄວາມຮູ້ສຶກ, ການຄາດຄະເນຕາຕະລາງ, ການຮັບຮູ້ສຽງເວົ້າ.

  • ການສູນເສຍທົ່ວໄປ : cross-entropy ສໍາລັບການຈັດປະເພດ, ຫມາຍຄວາມຜິດສອງຮຽບຮ້ອຍສໍາລັບການ regression. [1]

  • Pitfalls : ສຽງປ້າຍຊື່, ຄວາມບໍ່ສົມດຸນຂອງຫ້ອງຮຽນ, ຂໍ້ມູນຮົ່ວໄຫຼ.

  • ການ​ແກ້​ໄຂ ​: ການ​ເກັບ​ກໍາ​ຂໍ້​ມູນ​ທີ່​ແຕກ​ຕ່າງ​ກັນ​, ການ​ສູນ​ເສຍ​ທີ່​ເຂັ້ມ​ແຂງ​, ການ​ເກັບ​ກໍາ​ຂໍ້​ມູນ​ທີ່​ຫຼາກ​ຫຼາຍ​. [1], [2]

ອີງ​ຕາມ​ມາດ​ຕະ​ການ​ທົດ​ສະ​ວັດ​ຂອງ​ມາດ​ຕະ​ຖານ​ແລະ​ການ​ປະ​ຕິ​ບັດ​ການ​ຜະ​ລິດ, ການ​ຄວບ​ຄຸມ​ການ​ຮຽນ​ຮູ້​ຍັງ​ຄົງ​ເປັນ workhorse ເພາະ​ວ່າ​ຜົນ​ໄດ້​ຮັບ​ແມ່ນ​ຄາດ​ຄະ​ເນ​ແລະ​ການ​ວັດ​ແທກ​ແມ່ນ​ກົງ​ໄປ​ກົງ​ມາ. [1], [3]


ການຮຽນຮູ້ແບບບໍ່ມີການຄວບຄຸມ ແລະ ຄວບຄຸມຕົນເອງ: ຮຽນຮູ້ໂຄງສ້າງຂອງຂໍ້ມູນ 🔍

Unsupervised ຮຽນຮູ້ຮູບແບບທີ່ບໍ່ມີປ້າຍກຳກັບ.

  • ການຈັດກຸ່ມ : ກຸ່ມຈຸດທີ່ຄ້າຍຄືກັນ—k-means ແມ່ນງ່າຍດາຍ ແລະເປັນປະໂຫຍດທີ່ຫນ້າປະຫລາດໃຈ.

  • ການຫຼຸດຜ່ອນຂະຫນາດ : ບີບອັດຂໍ້ມູນໄປຫາທິດທາງທີ່ສໍາຄັນ—PCA ແມ່ນເຄື່ອງມືປະຕູ.

  • ການສ້າງແບບຈໍາລອງຄວາມຫນາແຫນ້ນ / ການຜະລິດ : ຮຽນຮູ້ການແຈກຢາຍຂໍ້ມູນຂອງມັນເອງ. [1]

ການເບິ່ງແຍງຕົນເອງ ແມ່ນເຄື່ອງຈັກທີ່ທັນສະໄຫມ: ແບບຈໍາລອງສ້າງການຊີ້ນໍາຂອງຕົນເອງ (ການຄາດເດົາແບບປິດບັງ, ການຮຽນຮູ້ກົງກັນຂ້າມ), ຊ່ວຍໃຫ້ທ່ານສາມາດຝຶກຝົນໃນມະຫາສະຫມຸດຂອງຂໍ້ມູນທີ່ບໍ່ມີປ້າຍຊື່ແລະປັບລະອຽດຕໍ່ມາ. [1]


ການຮຽນຮູ້ເສີມ: ຮຽນຮູ້ໂດຍການເຮັດ ແລະຮັບຄໍາຕິຊົມ 🕹️

ຕົວ ແທນ ພົວພັນກັບ ສະພາບແວດລ້ອມ , ໄດ້ຮັບ ລາງວັນ , ແລະຮຽນຮູ້ ນະໂຍບາຍ ທີ່ໃຫ້ລາງວັນສູງສຸດໃນໄລຍະຍາວ.

  • ຊິ້ນສ່ວນຫຼັກ : ລັດ, ການປະຕິບັດ, ລາງວັນ, ນະໂຍບາຍ, ຫນ້າທີ່ມູນຄ່າ.

  • ສູດການຄິດໄລ່ : Q-learning, gradients ນະໂຍບາຍ, ນັກສະແດງ-ນັກວິຈານ.

  • ການຂຸດຄົ້ນທຽບກັບການຂູດຮີດ : ລອງສິ່ງໃໝ່ໆ ຫຼືໃຊ້ຄືນສິ່ງທີ່ໄດ້ຜົນ.

  • ການ​ມອບ​ໝາຍ​ສິນ​ເຊື່ອ : ການ​ກະ​ທຳ​ໃດ​ເຮັດ​ໃຫ້​ເກີດ​ຜົນ​ອັນ​ໃດ?

ຄໍາຕິຊົມຂອງມະນຸດສາມາດນໍາພາການຝຶກອົບຮົມໃນເວລາທີ່ລາງວັນແມ່ນລັງເລ - ການຈັດອັນດັບຫຼືຄວາມມັກຊ່ວຍສ້າງພຶດຕິກໍາໂດຍບໍ່ມີການຂຽນລະຫັດດ້ວຍມືຂອງລາງວັນທີ່ສົມບູນແບບ. [5]


ການຮຽນຮູ້ທີ່ເລິກເຊິ່ງ, ດ້ານຫຼັງ, ແລະ ການສືບເຊື້ອສາຍແບບເລື່ອນຊັ້ນ - ຫົວໃຈທີ່ເຕັ້ນແຮງ 🫀

ຕາຫນ່າງ neural ແມ່ນອົງປະກອບຂອງຫນ້າທີ່ງ່າຍດາຍ. ເພື່ອຮຽນຮູ້, ພວກເຂົາອີງໃສ່ ການຂະຫຍາຍພັນຄືນ :

  1. Forward pass : ຄິດໄລ່ການຄາດເດົາຈາກການປ້ອນຂໍ້ມູນ.

  2. ການສູນເສຍ : ການວັດແທກຄວາມຜິດພາດລະຫວ່າງການຄາດຄະເນແລະເປົ້າຫມາຍ.

  3. Backward pass : ໃຊ້ກົດລະບຽບລະບົບຕ່ອງໂສ້ເພື່ອຄິດໄລ່ gradients ຂອງການສູນເສຍ wrt ແຕ່ລະພາລາມິເຕີ.

  4. ອັບເດດ : nudge ພາຣາມິເຕີຕໍ່ກັບການ gradient ໂດຍໃຊ້ຕົວເພີ່ມປະສິດທິພາບ.

ຕົວແປເຊັ່ນ: momentum, RMProp, ແລະ Adam ເຮັດໃຫ້ການຝຶກອົບຮົມມີອາລົມໜ້ອຍລົງ. ວິທີການປົກກະຕິເຊັ່ນ: ການລຸດອອກ , ການຫຼຸດນໍ້າໜັກ , ແລະ ການຢຸດໄວ ຊ່ວຍໃຫ້ຕົວແບບທົ່ວໄປແທນທີ່ຈະຈື່ຈໍາ. [1], [2]


ໝໍ້ແປງ ແລະ ຄວາມໃສ່ໃຈ: ເປັນຫຍັງເຄື່ອງແບບທັນສະໄໝຈຶ່ງຮູ້ສຶກສະຫຼາດ🧠✨

ໝໍ້ແປງປ່ຽນແທນການຕິດຕັ້ງແບບຊ້ຳໆຫຼາຍຢ່າງໃນພາສາ ແລະວິໄສທັດ. ເຄັດລັບຫຼັກແມ່ນ ການໃສ່ໃຈຕົນເອງ , ເຊິ່ງເຮັດໃຫ້ຕົວແບບໃດໜຶ່ງສາມາດຊັ່ງນໍ້າໜັກພາກສ່ວນຕ່າງໆຂອງວັດສະດຸປ້ອນຂອງມັນ ຂຶ້ນກັບບໍລິບົດ. ການເຂົ້າລະຫັດຕໍາແຫນ່ງຈັດການຄໍາສັ່ງ, ແລະ ການໃສ່ໃຈຫຼາຍຫົວ ເຮັດໃຫ້ຕົວແບບສຸມໃສ່ຄວາມສໍາພັນທີ່ແຕກຕ່າງກັນໃນເວລາດຽວກັນ. ການຂະຫຍາຍຂໍ້ມູນທີ່ມີຄວາມຫຼາກຫຼາຍຫຼາຍຂຶ້ນ, ຕົວກໍານົດການເພີ່ມເຕີມ, ການຝຶກອົບຮົມທີ່ຍາວກວ່າ - ມັກຈະຊ່ວຍ, ມີຜົນຕອບແທນຫຼຸດລົງແລະຄ່າໃຊ້ຈ່າຍທີ່ເພີ່ມຂຶ້ນ. [1], [2]


ການເຮັດໃຫ້ທົ່ວໄປ, ພໍດີ, ແລະການເຕັ້ນແບບອະຄະຕິ-ການຜັນແປ 🩰

ຕົວແບບສາມາດ ace ທີ່ກໍານົດໄວ້ການຝຶກອົບຮົມແລະຍັງ flop ໃນໂລກທີ່ແທ້ຈິງ.

  • Overfitting : ຈື່ສຽງລົບກວນ. ຄວາມຜິດພາດການຝຶກອົບຮົມຫຼຸດລົງ, ການທົດສອບຄວາມຜິດພາດຂຶ້ນ.

  • underfitting : ງ່າຍ​ດາຍ​ເກີນ​ໄປ​; ພາດສັນຍານ.

  • Bias–variance trade-off : ຄວາມຊັບຊ້ອນຫຼຸດຜ່ອນຄວາມລຳອຽງແຕ່ສາມາດເພີ່ມຄວາມແຕກຕ່າງກັນໄດ້.

ວິທີການທົ່ວໄປທີ່ດີກວ່າ:

  • ຂໍ້ມູນທີ່ມີຄວາມຫຼາກຫຼາຍຫຼາຍ - ແຫຼ່ງທີ່ແຕກຕ່າງກັນ, ໂດເມນ, ແລະກໍລະນີແຂບ.

  • Regularization - dropout, ການ​ຫຼຸດ​ລົງ​ນ​້​ໍ​າ​, ການ​ເພີ່ມ​ຂໍ້​ມູນ​.

  • ການກວດສອບທີ່ຖືກຕ້ອງ - ຊຸດການທົດສອບທີ່ສະອາດ, ການກວດສອບຂໍ້ມູນຂະຫນາດນ້ອຍ.

  • ການຕິດຕາມ drift - ການແຜ່ກະຈາຍຂໍ້ມູນຂອງທ່ານຈະປ່ຽນແປງຕາມເວລາ.

ການປະຕິບັດການຮັບຮູ້ຄວາມສ່ຽງເຮັດໃຫ້ສິ່ງເຫຼົ່ານີ້ເປັນກິດຈະກໍາວົງຈອນຊີວິດ - ການຄຸ້ມຄອງ, ການສ້າງແຜນທີ່, ການວັດແທກ, ແລະການຄຸ້ມຄອງ - ບໍ່ແມ່ນລາຍການກວດສອບຫນຶ່ງ. [4]


Metrics ທີ່ສໍາຄັນ: ເຮັດແນວໃດພວກເຮົາຮູ້ວ່າການຮຽນຮູ້ເກີດຂຶ້ນ 📈

  • ການ​ຈັດ​ປະ​ເພດ ​: ຄວາມ​ຖືກ​ຕ້ອງ​, ຄວາມ​ແມ່ນ​ຍໍາ​, recall​, F1​, ROC AUC​. ຂໍ້ມູນທີ່ບໍ່ສົມດູນຮຽກຮ້ອງເສັ້ນໂຄ້ງຄວາມແມ່ນຍໍາ-ການເອີ້ນຄືນ. [3]

  • Regression : MSE, MAE, (R^2). [1]

  • ອັນດັບ/ການດຶງຂໍ້ມູນ : MAP, NDCG, recall@K. [1]

  • ຮູບແບບການຜະລິດ : ຄວາມສັບສົນ (ພາສາ), BLEU/ROUGE/CIDEr (ຂໍ້ຄວາມ), ຄະແນນທີ່ອີງໃສ່ CLIP (ຫຼາຍຮູບແບບ), ແລະການປະເມີນຄວາມສໍາຄັນຂອງມະນຸດ. [1], [3]

ເລືອກຕົວວັດແທກທີ່ສອດຄ່ອງກັບຜົນກະທົບຂອງຜູ້ໃຊ້. ຄວາມຜິດພາດພຽງເລັກໆນ້ອຍໆໃນຄວາມຖືກຕ້ອງອາດບໍ່ກ່ຽວຂ້ອງກັນ ຖ້າຜົນບວກທີ່ບໍ່ຖືກຕ້ອງແມ່ນຄ່າໃຊ້ຈ່າຍທີ່ແທ້ຈິງ. [3]


ຂັ້ນຕອນການເຮັດວຽກຂອງການຝຶກອົບຮົມໃນໂລກຄວາມເປັນຈິງ: ແຜນທີ່ງ່າຍດາຍ 🛠️

  1. ກອບບັນຫາ - ກໍານົດວັດສະດຸປ້ອນ, ຜົນໄດ້ຮັບ, ຂໍ້ຈໍາກັດ, ແລະເງື່ອນໄຂຄວາມສໍາເລັດ.

  2. ທໍ່ຂໍ້ມູນ - ການລວບລວມ, ການຕິດສະຫຼາກ, ການເຮັດຄວາມສະອາດ, ການແຍກ, ການຂະຫຍາຍ.

  3. ພື້ນຖານ - ເລີ່ມຕົ້ນງ່າຍດາຍ; ເສັ້ນຊື່ ຫຼື ພື້ນຖານຕົ້ນໄມ້ມີການແຂ່ງຂັນທີ່ໜ້າຕົກໃຈ.

  4. ການສ້າງແບບຈໍາລອງ - ທົດລອງສອງສາມຄອບຄົວ: ຕົ້ນໄມ້ທີ່ເພີ່ມລະດັບ gradient (ຕາຕະລາງ), CNNs (ຮູບພາບ), ການຫັນເປັນ (ຂໍ້ຄວາມ).

  5. ການຝຶກອົບຮົມ - ຕາຕະລາງ, ຍຸດທະສາດການຮຽນຮູ້ອັດຕາ, ດ່ານ, ຄວາມແມ່ນຍໍາປະສົມຖ້າຈໍາເປັນ.

  6. ການປະເມີນຜົນ - ablations ແລະການວິເຄາະຄວາມຜິດພາດ. ເບິ່ງຄວາມຜິດພາດ, ບໍ່ພຽງແຕ່ສະເລ່ຍ.

  7. ການປະຕິບັດ - inference pipeline, ການຕິດຕາມ, ການຕັດໄມ້, ແຜນ rollback.

  8. Iterate - ຂໍ້ມູນທີ່ດີກວ່າ, ການປັບລະອຽດ, ຫຼືການປັບປຸງສະຖາປັດຕະຍະກໍາ.

ກໍລະນີຂະໜາດນ້ອຍ : ໂຄງການຈັດປະເພດອີເມລ໌ເລີ່ມຕົ້ນດ້ວຍເສັ້ນພື້ນຖານແບບເສັ້ນແບບງ່າຍໆ, ຈາກນັ້ນປັບປ່ຽນໝໍ້ແປງທີ່ໄດ້ຝຶກໄວ້ກ່ອນ. ໄຊຊະນະທີ່ໃຫຍ່ທີ່ສຸດບໍ່ແມ່ນແບບຈໍາລອງ - ມັນແມ່ນການເຄັ່ງຄັດຂອງ rubric ການຕິດສະຫລາກແລະເພີ່ມປະເພດ "ແຂບ" ທີ່ເປັນຕົວແທນ. ເມື່ອສິ່ງເຫຼົ່ານັ້ນຖືກຄຸ້ມຄອງ, ການກວດສອບ F1 ສຸດທ້າຍໄດ້ຕິດຕາມການປະຕິບັດຕົວຈິງຂອງໂລກ. (ອານາຄົດຂອງເຈົ້າ: ຂອບໃຈຫຼາຍ.)


ຄຸນະພາບຂອງຂໍ້ມູນ, ການຕິດສະຫຼາກ, ແລະສິນລະປະທີ່ລະອຽດອ່ອນຂອງການບໍ່ຕົວະຕົວເອງ🧼

ຂີ້ເຫຍື້ອໃນ, ເສຍໃຈອອກ. ຂໍ້ແນະນຳການຕິດສະຫຼາກຄວນສອດຄ່ອງ, ສາມາດວັດແທກໄດ້ ແລະ ທົບທວນຄືນ. ຂໍ້ຕົກລົງລະຫວ່າງຜູ້ອະທິບາຍເລື່ອງສຳຄັນ.

  • ຂຽນ rubrics ກັບຕົວຢ່າງ, ກໍລະນີມຸມ, ແລະ tie-breakers.

  • ກວດ​ສອບ​ຊຸດ​ຂໍ້​ມູນ​ສໍາ​ລັບ​ການ​ຊ​້​ໍາ​ກັນ​ແລະ​ໃກ້​ຈະ​ຊ​້​ໍາ​ກັນ​.

  • ຕິດຕາມການພິສູດ - ບ່ອນທີ່ແຕ່ລະຕົວຢ່າງມາຈາກແລະເປັນຫຍັງມັນໄດ້ຖືກລວມເຂົ້າ.

  • ວັດແທກການຄຸ້ມຄອງຂໍ້ມູນຕໍ່ກັບສະຖານະການຂອງຜູ້ໃຊ້ທີ່ແທ້ຈິງ, ບໍ່ພຽງແຕ່ເປັນມາດຕະຖານທີ່ກະທັດຮັດ.

ສິ່ງເຫຼົ່ານີ້ເໝາະສົມກັບກອບການຮັບປະກັນ ແລະການຄຸ້ມຄອງທີ່ກວ້າງກວ່າທີ່ເຈົ້າສາມາດປະຕິບັດຕົວຈິງໄດ້. [4]


ຖ່າຍທອດການຮຽນຮູ້, ການປັບລະອຽດ, ແລະອະແດັບເຕີ - ໃຊ້ການຍົກໜັກຄືນໃໝ່ ♻️

ຮູບແບບທີ່ຝຶກຝົນໄດ້ຮຽນຮູ້ການເປັນຕົວແທນທົ່ວໄປ; ການປັບແຕ່ງປັບພວກມັນໃຫ້ເຂົ້າກັບວຽກຂອງເຈົ້າດ້ວຍຂໍ້ມູນໜ້ອຍລົງ.

  • ການສະກັດເອົາຄຸນສົມບັດ : ແຊ່ກະດູກສັນຫຼັງ, ຝຶກອົບຮົມຫົວຂະຫນາດນ້ອຍ.

  • ການປັບລະອຽດເຕັມຮູບແບບ : ອັບເດດພາລາມິເຕີທັງໝົດສໍາລັບຄວາມອາດສາມາດສູງສຸດ.

  • ວິ​ທີ​ການ​ປະ​ສິດ​ທິ​ພາບ​ພາ​ຣາ​ມິ​ເຕີ : ອະ​ແດບ​ເຕີ​, ການ​ປັບ​ປຸງ​ລະ​ດັບ​ຕ​່​ໍ​າ​ແບບ LoRA - ດີ​ໃນ​ເວ​ລາ​ທີ່​ຄອມ​ພິວ​ເຕີ​ເຄັ່ງ​ຄັດ​.

  • ການປັບຕົວໂດເມນ : ຈັດວາງການຝັງຢູ່ທົ່ວໂດເມນ; ການປ່ຽນແປງຂະຫນາດນ້ອຍ, ຜົນປະໂຫຍດອັນໃຫຍ່ຫຼວງ. [1], [2]

ຮູບແບບການນໍາໃຊ້ຄືນໃຫມ່ນີ້ແມ່ນເຫດຜົນທີ່ວ່າໂຄງການທີ່ທັນສະໄຫມສາມາດເຄື່ອນຍ້າຍໄດ້ໄວໂດຍບໍ່ມີງົບປະມານທີ່ກ້າຫານ.


ຄວາມ​ປອດ​ໄພ​, ຄວາມ​ຫນ້າ​ເຊື່ອ​ຖື​, ແລະ​ການ​ຈັດ​ລຽງ​ລໍາ​ດັບ - bits ທີ່​ບໍ່​ແມ່ນ​ທາງ​ເລືອກ 🧯​

ການຮຽນຮູ້ບໍ່ພຽງແຕ່ກ່ຽວກັບຄວາມຖືກຕ້ອງ. ທ່ານຍັງຕ້ອງການຕົວແບບທີ່ແຂງແຮງ, ຍຸຕິທໍາ, ແລະສອດຄ່ອງກັບການນໍາໃຊ້ທີ່ຕັ້ງໃຈ.

  • ຄວາມແຂງແກ່ນຂອງສັດຕູ : ການລົບກວນຂະໜາດນ້ອຍສາມາດຫຼອກລວງຕົວແບບໄດ້.

  • ຄວາມລຳອຽງ ແລະ ຄວາມຍຸຕິທຳ : ວັດແທກການປະຕິບັດກຸ່ມຍ່ອຍ, ບໍ່ພຽງແຕ່ຄ່າສະເລ່ຍລວມເທົ່ານັ້ນ.

  • ຄວາມ​ສາ​ມາດ​ແປ​ຄວາມ​ໝາຍ : ການ​ສະ​ແດງ​ໃຫ້​ເຫັນ​ຄຸນ​ສົມ​ບັດ​ແລະ​ການ​ສອບ​ສວນ​ຊ່ວຍ​ໃຫ້​ທ່ານ​ເຫັນ ​ວ່າ​ເປັນ​ຫຍັງ .

  • ມະນຸດຢູ່ໃນວົງຈອນ : ເສັ້ນທາງກ້າວໄປສູ່ການຕັດສິນໃຈທີ່ບໍ່ຊັດເຈນ ຫຼືມີຜົນກະທົບສູງ. [4], [5]

ການຮຽນຮູ້ທີ່ອີງໃສ່ຄວາມມັກເປັນວິທີທາງປະຕິບັດອັນໜຶ່ງທີ່ຈະລວມເອົາການຕັດສິນຂອງມະນຸດເມື່ອເປົ້າໝາຍບໍ່ເປັນລະບຽບ. [5]


FAQs ໃນຫນຶ່ງນາທີ - ໄຟຢ່າງໄວວາ ⚡

  • ດັ່ງນັ້ນ, ແທ້, AI ຮຽນຮູ້ແນວໃດ? ໂດຍຜ່ານການເພີ່ມປະສິດທິພາບຊໍ້າຄືນຕໍ່ກັບການສູນເສຍ, ໂດຍມີ gradients ນໍາພາຕົວກໍານົດການໄປສູ່ການຄາດຄະເນທີ່ດີກວ່າ. [1], [2]

  • ຂໍ້ມູນເພີ່ມເຕີມສະເຫມີຊ່ວຍບໍ? ປົກກະຕິແລ້ວ, ຈົນກ່ວາການຫຼຸດລົງກັບຄືນມາ. ແນວພັນມັກຈະຕີປະລິມານດິບ. [1]

  • ຈະເປັນແນວໃດຖ້າປ້າຍຊື່ສັບສົນ? ໃຊ້ວິທີການທີ່ມີສຽງລົບກວນ, rubrics ທີ່ດີກວ່າ, ແລະພິຈາລະນາ pretraining ຕົນເອງຄວບຄຸມ. [1]

  • ເປັນຫຍັງໝໍ້ແປງຈຶ່ງຄອບງຳ? ລະດັບຄວາມສົນໃຈໄດ້ດີແລະເກັບກໍາຄວາມເພິ່ງພາອາໄສໃນໄລຍະຍາວ; ເຄື່ອງມືແມ່ນແກ່ແລ້ວ. [1], [2]

  • ຂ້ອຍຈະຮູ້ໄດ້ແນວໃດວ່າຂ້ອຍສໍາເລັດການຝຶກອົບຮົມ? ຄວາມຖືກຕ້ອງຂອງການສູນເສຍທີ່ພູພຽງ, metrics ສະຖຽນລະພາບ, ແລະຂໍ້ມູນໃຫມ່ປະຕິບັດຕົວຕາມທີ່ຄາດໄວ້, ຫຼັງຈາກນັ້ນຕິດຕາມກວດກາ drift. [3], [4]


ຕາຕະລາງປຽບທຽບ - ເຄື່ອງມືທີ່ເຈົ້າສາມາດນຳໃຊ້ໄດ້ຈິງໃນມື້ນີ້🧰

ແປກປະຫຼາດເລັກນ້ອຍກ່ຽວກັບຈຸດປະສົງ. ລາຄາແມ່ນສໍາລັບຫ້ອງສະຫມຸດຫຼັກ - ການຝຶກອົບຮົມໃນລະດັບມີຄ່າໃຊ້ຈ່າຍ infra, ແນ່ນອນ.

ເຄື່ອງມື ດີທີ່ສຸດສຳລັບ ລາຄາ ເປັນຫຍັງມັນເຮັດວຽກໄດ້ດີ
PyTorch ນັກຄົ້ນຄວ້າ, ຜູ້ກໍ່ສ້າງ ຟຣີ - ເປີດ src ກຣາຟແບບໄດນາມິກ, ລະບົບນິເວດທີ່ເຂັ້ມແຂງ, ການສອນທີ່ດີ.
TensorFlow ທີມງານຜະລິດ ຟຣີ - ເປີດ src ການໃຫ້ບໍລິການແກ່ຜູ້ໃຫຍ່, TF Lite ສໍາລັບມືຖື; ຊຸມຊົນໃຫຍ່.
ຮຽນຮູ້ Scikit ຂໍ້ມູນຕາຕະລາງ, ພື້ນຖານ ຟຣີ API ສະອາດ, ໄວທີ່ຈະເຮັດຊ້ຳ, ເອກະສານທີ່ດີ.
ເຄຣາສ ຕົວແບບດ່ວນ ຟຣີ API ລະດັບສູງຫຼາຍກວ່າ TF, ຊັ້ນຂໍ້ມູນທີ່ສາມາດອ່ານໄດ້.
JAX ຜູ້ໃຊ້ພະລັງງານ, ການຄົ້ນຄວ້າ ຟຣີ ອັດຕະໂນມັດ vectorization, ຄວາມໄວ XLA, vibes ຄະນິດສາດ elegant.
ກອດຕົວຫັນໜ້າ NLP, ວິໄສທັດ, ສຽງ ຟຣີ ຮູບແບບທີ່ຝຶກມາກ່ອນ, ການປັບແຕ່ງແບບງ່າຍດາຍ, ສູນກາງທີ່ດີ.
ຟ້າຜ່າ ຂະບວນການຝຶກອົບຮົມ ແກນຟຣີ ໂຄງສ້າງ, ການຕັດໄມ້, ແບດເຕີຣີຫຼາຍ GPU ລວມ.
XGBoost ຕາຕະລາງການແຂ່ງຂັນ ຟຣີ ພື້ນຖານທີ່ເຂັ້ມແຂງ, ມັກຈະຊະນະຂໍ້ມູນທີ່ມີໂຄງສ້າງ.
ນ້ຳໜັກ ແລະ ອະຄະຕິ ການ​ທົດ​ລອງ​ຕິດ​ຕາມ​ ຊັ້ນຮຽນຟຣີ Reproducibility, ປຽບທຽບການແລ່ນ, ການຮຽນຮູ້ທີ່ໄວກວ່າ loops.

ເອກະສານອະນຸຍາດເພື່ອເລີ່ມຕົ້ນດ້ວຍ: PyTorch, TensorFlow, ແລະຄູ່ມືຜູ້ໃຊ້ scikit-learn ທີ່ສະອາດ. (ເລືອກອັນໜຶ່ງ, ສ້າງອັນນ້ອຍໆ, ເຮັດຊ້ຳ.)


ການດໍານ້ໍາເລິກ: ຄໍາແນະນໍາພາກປະຕິບັດທີ່ຊ່ວຍປະຢັດເວລາທີ່ແທ້ຈິງ 🧭

  • ຕາຕະລາງອັດຕາການຮຽນຮູ້ : ການເສື່ອມໂຊມຂອງ cosine ຫຼືຫນຶ່ງຮອບສາມາດສະຖຽນລະພາບການຝຶກອົບຮົມ.

  • ຂະໜາດ batch : ໃຫຍ່ກວ່າບໍ່ແມ່ນຕົວຊີ້ວັດການກວດສອບທີ່ດີຂຶ້ນສະເໝີໄປ, ບໍ່ພຽງແຕ່ຜ່ານ.

  • ນ້ໍາຫນັກ init : ມາດຕະຖານທີ່ທັນສະໄຫມແມ່ນດີ; ຖ້າ​ຫາກ​ວ່າ​ການ​ຝຶກ​ອົບ​ຮົມ​ຢຸດ​ເຊົາ​ການ​, ຢ້ຽມ​ຢາມ​ໃນ​ເບື້ອງ​ຕົ້ນ​ຫຼື​ເຮັດ​ໃຫ້​ຂັ້ນ​ຕອນ​ຕົ້ນ​ເປັນ​ປົກ​ກະ​ຕິ​.

  • Normalization : batch norm ຫຼື layer norm ສາມາດເຮັດໃຫ້ການເພີ່ມປະສິດທິພາບທີ່ລຽບງ່າຍ.

  • ການເພີ່ມຂໍ້ມູນ : flips / ການປູກພືດ / ສີ jitter ສໍາລັບຮູບພາບ; ການສວມໜ້າກາກ/ໂທເຄັນສຳລັບຂໍ້ຄວາມ.

  • ການ​ວິ​ເຄາະ​ຄວາມ​ຜິດ​ພາດ ​: ຄວາມ​ຜິດ​ພາດ​ຂອງ​ກຸ່ມ​ໂດຍ​ການ​ເປັນ​ຕົວ​ສອຍ​ຫນຶ່ງ​ແຂບ​ສາ​ມາດ​ລາກ​ທຸກ​ສິ່ງ​ທຸກ​ຢ່າງ​ລົງ​.

  • Repro : ຕັ້ງແກ່ນ, ບັນທຶກ hyperparams, ບັນທຶກຈຸດກວດກາ. ໃນອະນາຄົດເຈົ້າຈະຮູ້ບຸນຄຸນ, ຂ້ອຍສັນຍາ. [2], [3]

ໃນເວລາທີ່ສົງໃສ, retrace ພື້ນຖານ. ພື້ນຖານຍັງຄົງເປັນເຂັມທິດ. [1], [2]


ຄຳປຽບທຽບນ້ອຍໆທີ່ເກືອບຈະໃຊ້ໄດ້🪴

ການຝຶກອົບຮົມແບບຈໍາລອງແມ່ນຄ້າຍຄືກັບການຫົດນໍ້າຕົ້ນໄມ້ດ້ວຍຫົວທີ່ແປກປະຫຼາດ. ໜອງນ້ຳຫຼາຍໂພດ. ໄພແຫ້ງແລ້ງໜ້ອຍເກີນໄປ. cadence ທີ່ຖືກຕ້ອງ, ມີແສງແດດຈາກຂໍ້ມູນທີ່ດີແລະສານອາຫານຈາກຈຸດປະສົງທີ່ສະອາດ, ແລະທ່ານໄດ້ຮັບການຂະຫຍາຍຕົວ. ແມ່ນແລ້ວ, ເນີຍແຂງເລັກນ້ອຍ, ແຕ່ມັນຕິດຢູ່.


AI ຮຽນຮູ້ແນວໃດ? ເອົາມາລວມກັນ 🧾

ຮູບແບບເລີ່ມຕົ້ນແບບສຸ່ມ. ໂດຍຜ່ານການປັບປຸງແບບ gradient, ນໍາພາໂດຍການສູນເສຍ, ມັນຈັດລໍາດັບພາລາມິເຕີຂອງມັນກັບຮູບແບບໃນຂໍ້ມູນ. ການເປັນຕົວແທນອອກມາທີ່ເຮັດໃຫ້ການຄາດເດົາໄດ້ງ່າຍ. ການ​ປະ​ເມີນ​ຜົນ​ບອກ​ໃຫ້​ທ່ານ​ຮູ້​ວ່າ​ການ​ຮຽນ​ຮູ້​ແມ່ນ​ແທ້​ຈິງ​, ບໍ່​ແມ່ນ​ອຸ​ບັດ​ຕິ​ເຫດ​. ແລະ iteration-with guardrails for safety-turns a demo into a dependable system. ນັ້ນແມ່ນເລື່ອງທັງຫມົດ, ມີ vibes ລຶກລັບຫນ້ອຍກ່ວາມັນທໍາອິດທີ່ເບິ່ງຄືວ່າ. [1]–[4]


ຂໍ້ສັງເກດສຸດທ້າຍ - ດົນເກີນໄປ, ບໍ່ໄດ້ອ່ານ🎁

  • AI ຮຽນຮູ້ແນວໃດ? ໂດຍການຫຼຸດການສູນເສຍທີ່ມີ gradients ຫຼາຍກວ່າຕົວຢ່າງຈໍານວນຫລາຍ. [1], [2]

  • ຂໍ້​ມູນ​ທີ່​ດີ, ຈຸດ​ປະ​ສົງ​ທີ່​ຈະ​ແຈ້ງ, ແລະ​ການ​ປັບ​ປຸງ​ທີ່​ຫມັ້ນ​ຄົງ​ເຮັດ​ໃຫ້​ການ​ຮຽນ​ຮູ້. [1]–[3]

  • Generalization ຊະນະການຈົດຈຳ-ສະເໝີ. [1]

  • ຄວາມ​ປອດ​ໄພ, ການ​ປະ​ເມີນ​ຜົນ, ແລະ​ການ​ຊ​້​ໍາ​ຄືນ​ເຮັດ​ໃຫ້​ຄວາມ​ຄິດ​ສະ​ຫລາດ​ເປັນ​ຜະ​ລິດ​ຕະ​ພັນ​ທີ່​ເຊື່ອ​ຖື​ໄດ້. [3], [4]

  • ເລີ່ມຕົ້ນງ່າຍດາຍ, ວັດແທກໄດ້ດີ, ແລະປັບປຸງໂດຍການແກ້ໄຂຂໍ້ມູນກ່ອນທີ່ທ່ານຈະແລ່ນສະຖາປັດຕະຍະກໍາ exotic. [2], [3]


ເອກະສານອ້າງອີງ

  1. Goodfellow, Bengio, Courville - ການຮຽນຮູ້ເລິກເຊິ່ງ (ຂໍ້ຄວາມອອນໄລນ໌ຟຣີ). ເຊື່ອມຕໍ່

  2. Stanford CS231n - Convolutional Neural Networks for Visual Recognition (ບັນທຶກຫຼັກສູດ & ການມອບໝາຍ). ເຊື່ອມຕໍ່

  3. Google - ຫຼັກສູດການຂັດຂ້ອງຂອງການຮຽນຮູ້ເຄື່ອງຈັກ: ການວັດແທກການຈັດປະເພດ (ຄວາມຖືກຕ້ອງ, ຄວາມຊັດເຈນ, ການເອີ້ນຄືນ, ROC/AUC) . ເຊື່ອມຕໍ່

  4. NIST - AI Risk Management Framework (AI RMF 1.0) . ເຊື່ອມຕໍ່

  5. OpenAI - ການຮຽນຮູ້ຈາກຄວາມມັກຂອງມະນຸດ (ພາບລວມຂອງການຝຶກອົບຮົມໂດຍອີງໃສ່ຄວາມມັກ). ເຊື່ອມຕໍ່

ຊອກຫາ AI ລ່າສຸດໄດ້ທີ່ຮ້ານ AI Assistant ຢ່າງເປັນທາງການ

ກ່ຽວກັບພວກເຮົາ

ກັບໄປທີ່ບລັອກ