ວິທີການສຶກສາ AI

ວິທີການສຶກສາ AI?

ປັນຍາທຽມມີຄວາມຮູ້ສຶກໃຫຍ່ ແລະມີຄວາມລຶກລັບເລັກນ້ອຍ. ຂ່າວດີ: ທ່ານບໍ່ຕ້ອງການພະລັງງານທາງຄະນິດສາດລັບຫຼືຫ້ອງທົດລອງທີ່ເຕັມໄປດ້ວຍ GPUs ເພື່ອເຮັດໃຫ້ຄວາມກ້າວຫນ້າທີ່ແທ້ຈິງ. ຖ້າທ່ານສົງໄສວ່າ ວິທີການສຶກສາ AI , ຄູ່ມືນີ້ເຮັດໃຫ້ທ່ານມີເສັ້ນທາງທີ່ຊັດເຈນຈາກສູນໄປສູ່ການສ້າງໂຄງການທີ່ກຽມພ້ອມ. ແລະແມ່ນແລ້ວ, ພວກເຮົາຈະເອົາຊັບພະຍາກອນ, ສຶກສາຍຸດທະວິທີ, ແລະທາງລັດທີ່ຫາໄດ້ຍາກຈຳນວນໜຶ່ງ. ໄປກັນເລີຍ.

🔗 AI ຮຽນຮູ້ແນວໃດ
ພາບລວມຂອງ algorithms, ຂໍ້ມູນ, ແລະຄໍາຄຶດຄໍາເຫັນທີ່ສອນເຄື່ອງຈັກ.

🔗 ການຮຽນຮູ້ເຄື່ອງມື AI ຍອດນິຍົມເພື່ອເຮັດອັນໃດອັນໜຶ່ງໄດ້ໄວຂຶ້ນ
ແອັບທີ່ຄັດສັນມາເພື່ອເລັ່ງການຮຽນ, ຝຶກຝົນ, ແລະທັກສະຄວາມຊຳນານ.

🔗 ເຄື່ອງມື AI ທີ່ດີທີ່ສຸດສໍາລັບການຮຽນຮູ້ພາສາ
ແອັບທີ່ປັບແຕ່ງຄຳສັບ, ໄວຍາກອນ, ການເວົ້າ ແລະ ການຝຶກຄວາມເຂົ້າໃຈ.

🔗 ເຄື່ອງມື AI ອັນດັບຕົ້ນສໍາລັບການສຶກສາ, ການຮຽນຮູ້ ແລະການບໍລິຫານທີ່ສູງຂຶ້ນ
ເວທີທີ່ສະຫນັບສະຫນູນການສອນ, ການປະເມີນ, ການວິເຄາະ, ແລະປະສິດທິພາບການດໍາເນີນງານວິທະຍາເຂດ.


ວິທີການສຶກສາ AI

ແຜນການສຶກສາທີ່ດີແມ່ນຄ້າຍຄືກ່ອງເຄື່ອງມືທີ່ແຂງແຮງ, ບໍ່ແມ່ນລິ້ນຊັກຂີ້ເຫຍື້ອແບບສຸ່ມ. ມັນຄວນຈະ:

  • ທັກສະການຈັດລໍາດັບ ເພື່ອໃຫ້ແຕ່ລະທ່ອນໄມ້ໃຫມ່ນັ່ງຢູ່ບ່ອນສຸດທ້າຍ.

  • ບູລິມະສິດການປະຕິບັດ ກ່ອນ, ທິດສະດີທີສອງ , ແຕ່ບໍ່ແມ່ນບໍ່ເຄີຍ .

  • Anchor ກັບໂຄງການທີ່ແທ້ຈິງ ທີ່ທ່ານສາມາດສະແດງໃຫ້ເຫັນກັບມະນຸດຕົວຈິງ.

  • ໃຊ້ແຫຼ່ງທີ່ມີອໍານາດ ທີ່ຈະບໍ່ສອນເຈົ້າກ່ຽວກັບນິໄສທີ່ອ່ອນແອ.

  • ປັບຊີວິດຂອງເຈົ້າໃຫ້ພໍດີ ກັບກິດຈະວັດນ້ອຍໆທີ່ເຮັດຊ້ຳໆ.

  • ຮັກສາຄວາມຊື່ສັດ ຕໍ່ວົງການຕິຊົມ, ມາດຕະຖານ, ແລະການທົບທວນຄືນລະຫັດ.

ຖ້າແຜນການຂອງເຈົ້າບໍ່ໄດ້ໃຫ້ສິ່ງເຫຼົ່ານີ້ແກ່ເຈົ້າ, ມັນເປັນພຽງແຕ່ vibes. ສະມໍທີ່ເຂັ້ມແຂງທີ່ສະຫນອງຢ່າງຕໍ່ເນື່ອງ: CS229 / CS231n ຂອງ Stanford ສໍາລັບພື້ນຖານແລະວິໄສທັດ, MIT's Linear Algebra ແລະ Intro to Deep Learning, fast.ai ສໍາລັບຄວາມໄວໃນມື, ຫຼັກສູດ Hugging Face's LLM ສໍາລັບ NLP / transformers ທີ່ທັນສະໄຫມ, ແລະ OpenAI Cookbook ສໍາລັບຮູບແບບ API ປະຕິບັດ [1–5].


ຄໍາຕອບສັ້ນໆ: ວິທີການສຶກສາ AI Roadmap 🗺️

  1. ຮຽນຮູ້ Python + ປື້ມບັນທຶກ ພຽງພໍທີ່ຈະເປັນອັນຕະລາຍ.

  2. ທົບທວນຄະນິດສາດທີ່ຈຳເປັນ : ພຶດຊະຄະນິດເສັ້ນຊື່, ຄວາມເປັນໄປໄດ້, ພື້ນຖານການເພີ່ມປະສິດທິພາບ.

  3. ເຮັດໂຄງການ ML ຂະຫນາດນ້ອຍ ໃນຕອນທ້າຍ: ຂໍ້ມູນ, ຮູບແບບ, metrics, ການເຮັດຊ້ໍາ.

  4. ຍົກລະດັບການຮຽນຮູ້ຢ່າງເລິກເຊິ່ງ : CNNs, transformers, dynamic ການຝຶກອົບຮົມ.

  5. ເລືອກເສັ້ນທາງ : ວິໄສທັດ, NLP, ລະບົບການແນະນໍາ, ຕົວແທນ, ຊຸດເວລາ.

  6. ການຂົນສົ່ງໂຄງການຫຼັກຊັບ ທີ່ມີ repos ສະອາດ, READMEs, ແລະສາທິດ.

  7. ອ່ານເອກະສານດ້ວຍວິທີທີ່ສະຫຼາດທີ່ຂີ້ຄ້ານ ແລະເຮັດຊໍ້າຜົນໄດ້ຮັບນ້ອຍໆ.

  8. ເກັບ​ຮັກ​ສາ​ວົງ​ການ​ຮຽນ​ຮູ້ ​: ການ​ປະ​ເມີນ​ຜົນ​, refactor​, ເອ​ກະ​ສານ​, ແບ່ງ​ປັນ​.

ສໍາລັບຄະນິດສາດ, Linear Algebra ຂອງ MIT ແມ່ນຕົວຍຶດທີ່ເຂັ້ມແຂງ, ແລະຂໍ້ຄວາມ Goodfellow-Bengio-Courville ເປັນການອ້າງອີງທີ່ເຊື່ອຖືໄດ້ໃນເວລາທີ່ທ່ານຕິດຢູ່ໃນ backprop, ປົກກະຕິ, ຫຼື nuances ການເພີ່ມປະສິດທິພາບ [2, 5].


ລາຍການກວດກາທັກສະກ່ອນຈະລົງເລິກ 🧰

  • Python : functions, classes, list/dict comps, virtualenvs, ການທົດສອບພື້ນຖານ.

  • ການຈັດການຂໍ້ມູນ : pandas, NumPy, ການວາງແຜນ, EDA ງ່າຍດາຍ.

  • ຄະນິດສາດທີ່ເຈົ້າຈະໃຊ້ຕົວຈິງ : vectors, matrices, eigen-intuition, gradients, probability distributions, cross-entropy, normalization.

  • ເຄື່ອງມື : Git, GitHub ບັນຫາ, Jupyter, GPU ໂນ໊ດບຸ໊ກ, ບັນທຶກການແລ່ນຂອງທ່ານ.

  • ແນວຄວາມຄິດ : ວັດແທກສອງຄັ້ງ, ຂົນສົ່ງຄັ້ງດຽວ; embrace ຮ່າງ ugly; ແກ້ໄຂຂໍ້ມູນຂອງທ່ານກ່ອນ.

ການຊະນະໄວ: ວິທີການເທິງລົງລຸ່ມຂອງ fast.ai ເຮັດໃຫ້ທ່ານຝຶກອົບຮົມແບບຈໍາລອງທີ່ເປັນປະໂຫຍດໃນຕອນຕົ້ນ, ໃນຂະນະທີ່ບົດຮຽນກັດຂະຫນາດຂອງ Kaggle ສ້າງຄວາມຊົງຈໍາຂອງກ້າມເນື້ອສໍາລັບ pandas ແລະພື້ນຖານ [3].


ຕາຕະລາງປຽບທຽບ: ວິທີການສຶກສາ AI Learning Paths ຍອດນິຍົມ 📊

ລວມເອົາສິ່ງແປກໆນ້ອຍໆ - ເພາະວ່າຕາຕະລາງຕົວຈິງບໍ່ຄ່ອຍເປັນລະບຽບຮຽບຮ້ອຍ.

ເຄື່ອງມື / ຫຼັກສູດ ດີທີ່ສຸດສຳລັບ ລາຄາ ເປັນຫຍັງມັນເຮັດວຽກ / ຫມາຍເຫດ
Stanford CS229 / CS231n ທິດສະດີແຂງ + ຄວາມເລິກວິໄສທັດ ຟຣີ ພື້ນຖານ ML ທີ່ສະອາດ + ລາຍລະອຽດການຝຶກອົບຮົມ CNN; ຄູ່ກັບໂຄງການຕໍ່ມາ [1].
MIT Intro to DL + 18.06 ຂົວແນວຄວາມຄິດເພື່ອປະຕິບັດ ຟຣີ ການບັນຍາຍ DL ຫຍໍ້ + ພຶດຊະຄະນິດເສັ້ນທີ່ເຂັ້ມງວດທີ່ວາງແຜນການຝັງ ແລະ ອື່ນໆ. [2].
fast.ai ປະຕິບັດ DL ແຮກເກີທີ່ຮຽນຮູ້ໂດຍການເຮັດ ຟຣີ ໂຄງການທໍາອິດ, ຄະນິດສາດຫນ້ອຍທີ່ສຸດຈົນກ່ວາຈໍາເປັນ; loops ຄໍາຄຶດຄໍາເຫັນທີ່ກະຕຸ້ນຫຼາຍ [3].
Hugging Face LLM ຫຼັກສູດ Transformers + stack NLP ທີ່ທັນສະໄຫມ ຟຣີ ສອນ tokenizers, ຊຸດຂໍ້ມູນ, Hub; ຂັ້ນຕອນການເຮັດວຽກແບບລະອຽດ/ການອະນິຈາພາກປະຕິບັດ [4].
OpenAI Cookbook ຜູ້ກໍ່ສ້າງໂດຍໃຊ້ຮູບແບບພື້ນຖານ ຟຣີ ສູດ ແລະຮູບແບບທີ່ສາມາດແລ່ນໄດ້ສໍາລັບວຽກງານການຜະລິດ-ish ແລະ guardrails [5].

Deep Dive 1: ເດືອນທໍາອິດ - ໂຄງການຫຼາຍກວ່າຄວາມສົມບູນແບບ 🧪

ເລີ່ມຕົ້ນດ້ວຍສອງໂຄງການນ້ອຍໆ. ນ້ອຍໆຢ່າງຈິງຈັງ:

  • Tabular baseline : ໂຫຼດຊຸດຂໍ້ມູນສາທາລະນະ, ແຍກລົດໄຟ/ການທົດສອບ, ສອດຄ່ອງ logistic regression ຫຼືຕົ້ນໄມ້ນ້ອຍ, ຕິດຕາມ metrics, ຂຽນສິ່ງທີ່ລົ້ມເຫລວ.

  • ຂໍ້ຄວາມ ຫຼືຮູບພາບຂອງຫຼິ້ນ : ປັບຕົວແບບທີ່ໄດ້ຝຶກຝົນມາແບບລະອຽດໃສ່ແຜ່ນຂໍ້ມູນ. ການກະກຽມເອກະສານ, ເວລາການຝຶກອົບຮົມ, ແລະການຊື້ຂາຍ.

ເປັນຫຍັງຕ້ອງເລີ່ມຕົ້ນດ້ວຍວິທີນີ້? ການຊະນະໃນຕອນຕົ້ນສ້າງຈັງຫວະ. ທ່ານ​ຈະ​ໄດ້​ຮຽນ​ຮູ້​ການ​ເຮັດ​ວຽກ​ຂອງ​ກາວ—ການ​ທໍາ​ຄວາມ​ສະ​ອາດ​ຂໍ້​ມູນ​, ການ​ເລືອກ​ຄຸນ​ສົມ​ບັດ​, ການ​ປະ​ເມີນ​ຜົນ​, ແລະ​ການ​ຊ​້​ໍ​າ​. ບົດຮຽນເທິງລົງລຸ່ມຂອງ fast.ai ແລະປື້ມບັນທຶກທີ່ມີໂຄງສ້າງຂອງ Kaggle ເສີມສ້າງ "ເຮືອທໍາອິດ, ເຂົ້າໃຈເລິກຕໍ່ໄປ" cadence [3].

Mini-case (2 ອາທິດ, ຫຼັງຈາກການເຮັດວຽກ): ນັກວິເຄາະ junior ກໍ່ສ້າງພື້ນຖານ churn (logistic regression) ໃນອາທິດ 1, ຫຼັງຈາກນັ້ນ swapped ເປັນປົກກະຕິແລະລັກສະນະທີ່ດີກວ່າໃນອາທິດ 2. Model AUC +7 ຈຸດກັບຕອນບ່າຍຫນຶ່ງຂອງ pruning ຄຸນນະສົມບັດ - ບໍ່ມີຄວາມຈໍາເປັນສະຖາປັດຕະ fancy.


Deep Dive 2: Math without Tears - ທິດສະດີພຽງພໍ 📐

ທ່ານບໍ່ຕ້ອງການທຸກໆທິດສະດີເພື່ອສ້າງລະບົບທີ່ເຂັ້ມແຂງ. ທ່ານຕ້ອງການ bits ທີ່ແຈ້ງການຕັດສິນໃຈ:

  • Linear algebra ສໍາລັບການຝັງ, ຄວາມສົນໃຈ, ແລະເລຂາຄະນິດການເພີ່ມປະສິດທິພາບ.

  • ຄວາມເປັນໄປໄດ້ ສໍາລັບຄວາມບໍ່ແນ່ນອນ, ຂ້າມ entropy, calibration, ແລະກ່ອນ.

  • ການເພີ່ມປະສິດທິພາບ ອັດຕາການຮຽນຮູ້, ການເຮັດໃຫ້ເປັນປົກກະຕິ, ແລະເປັນຫຍັງສິ່ງຕ່າງໆຈຶ່ງລະເບີດ.

MIT 18.06 ໃຫ້ແອັບພລິເຄຊັ່ນ - arc ທຳອິດ. ເມື່ອທ່ານຕ້ອງການຄວາມເລິກທາງດ້ານແນວຄິດຫຼາຍຂຶ້ນ, ໃຫ້ເຂົ້າໄປໃນ ຮຽນແບບ Deep Learning ເປັນການອ້າງອີງ, ບໍ່ແມ່ນເລື່ອງນິຍາຍ [2, 5].

ນິໄສຈຸລະພາກ: 20 ນາທີຂອງຄະນິດສາດຕໍ່ມື້, ສູງສຸດທີ່ເຄຍ. ຫຼັງຈາກນັ້ນ, ກັບຄືນໄປບ່ອນລະຫັດ. ທິດສະດີຈະດີຂຶ້ນ ຫຼັງຈາກທີ່ເຈົ້າໄດ້ປະສົບບັນຫາໃນການປະຕິບັດ.


Deep Dive 3: Modern NLP ແລະ LLMs - The Transformer Turn 💬

ລະບົບຂໍ້ຄວາມສ່ວນໃຫຍ່ໃນມື້ນີ້ອີງໃສ່ການຫັນປ່ຽນ. ເພື່ອ​ຮັບ​ມື​ຢ່າງ​ມີ​ປະ​ສິດ​ທິ​ຜົນ​:

  • ເຮັດວຽກຜ່ານ Hugging Face LLM: tokenization, datasets, Hub, fine-tuning, inference.

  • ຈັດສົ່ງຕົວຢ່າງທີ່ປະຕິບັດໄດ້: ດຶງຂໍ້ມູນ QA ເພີ່ມເຕີມຜ່ານບັນທຶກຂອງທ່ານ, ການວິເຄາະຄວາມຮູ້ສຶກດ້ວຍຕົວແບບຂະຫນາດນ້ອຍ, ຫຼືບົດສະຫຼຸບທີ່ມີນ້ໍາຫນັກເບົາ.

  • ຕິດຕາມສິ່ງທີ່ສໍາຄັນ: latency, ຄ່າໃຊ້ຈ່າຍ, ຄວາມຖືກຕ້ອງ, ແລະສອດຄ່ອງກັບຄວາມຕ້ອງການຂອງຜູ້ໃຊ້.

ຫຼັກສູດ HF ແມ່ນປະຕິບັດໄດ້ ແລະຮູ້ຈັກລະບົບນິເວດ, ເຊິ່ງຊ່ວຍປະຫຍັດການໂກນຫນວດໃນການເລືອກເຄື່ອງມື [4]. ສໍາລັບຮູບແບບ API ສີມັງແລະ guardrails (ການກະຕຸ້ນເຕືອນ, scaffolds ການປະເມີນຜົນ), OpenAI Cookbook ແມ່ນເຕັມໄປດ້ວຍຕົວຢ່າງ runnable [5].


Deep Dive 4: ພື້ນຖານວິໄສທັດໂດຍບໍ່ມີການ Drowning ໃນ Pixels 👁️

ວິໄສທັດ - ຢາກຮູ້ຢາກເຫັນ? ຈັບ CS231n ກັບໂຄງການຂະໜາດນ້ອຍ: ຈັດປະເພດຊຸດຂໍ້ມູນແບບກຳນົດເອງ ຫຼືປັບຕົວແບບທີ່ຝຶກມາລ່ວງໜ້າໃນໝວດໝູ່ສະເພາະ. ສຸມໃສ່ຄຸນນະພາບຂໍ້ມູນ, ການຂະຫຍາຍ, ແລະການປະເມີນຜົນກ່ອນທີ່ຈະລ່າສັດສະຖາປັດຕະ exotic. CS231n ເປັນດາວເຫນືອທີ່ເຊື່ອຖືໄດ້ສໍາລັບວິທີການ convs, residuals, ແລະ heuristics ການຝຶກອົບຮົມເຮັດວຽກຕົວຈິງ [1].


📄 📄 📄 📄 📄 📄 📄 📄 📄 📄 📄

loop ທີ່​ເຮັດ​ວຽກ​:

  1. ອ່ານບົດ ຄັດຫຍໍ້ ແລະຕົວເລກ ກ່ອນ.

  2. Skim ສົມຜົນຂອງວິທີການພຽງແຕ່ຕັ້ງຊື່ຕ່ອນ.

  3. ໄປຫາ ການທົດລອງ ແລະ ຂໍ້ຈຳກັດ .

  4. ຜະລິດຄືນຜົນໄດ້ຮັບຈຸນລະພາກຢູ່ໃນຊຸດຂໍ້ມູນຂອງຫຼິ້ນ.

  5. ຂຽນບົດສະຫຼຸບສອງຫຍໍ້ຫນ້າດ້ວຍຄໍາຖາມຫນຶ່ງທີ່ທ່ານຍັງມີຢູ່.

ເພື່ອຊອກຫາການປະຕິບັດຫຼືພື້ນຖານ, ກວດເບິ່ງຫຼັກສູດແລະຫ້ອງສະຫມຸດຢ່າງເປັນທາງການທີ່ເຊື່ອມໂຍງກັບແຫຼ່ງຂ້າງເທິງກ່ອນທີ່ຈະໄປຫາບລັອກແບບສຸ່ມ [1–5].

ການສາລະພາບນ້ອຍໆ: ບາງຄັ້ງຂ້ອຍອ່ານບົດສະຫຼຸບກ່ອນ. ບໍ່ແມ່ນແບບດັ້ງເດີມ, ແຕ່ມັນຊ່ວຍຕັດສິນໃຈວ່າທາງອ້ອມແມ່ນຄຸ້ມຄ່າຫຼືບໍ່.


ການສ້າງ AI Stack ສ່ວນຕົວຂອງທ່ານ🧱

  • ຂະບວນການຂໍ້ມູນ : pandas ສໍາລັບ wrangling, scikit-ຮຽນຮູ້ສໍາລັບພື້ນຖານ.

  • ການຕິດຕາມ : ສະເປຣດຊີດແບບງ່າຍໆ ຫຼືຕົວຕິດຕາມການທົດລອງທີ່ມີນ້ຳໜັກເບົາແມ່ນດີ.

  • ການໃຫ້ບໍລິການ : ແອັບ FastAPI ນ້ອຍໆ ຫຼືການສາທິດປື້ມບັນທຶກແມ່ນພຽງພໍທີ່ຈະເລີ່ມຕົ້ນ.

  • ການ​ປະ​ເມີນ​ຜົນ ​: ການ​ວັດ​ແທກ​ທີ່​ຈະ​ແຈ້ງ​, ablation​, ການ​ກວດ​ສອບ​ສຸ​ຂະ​ພາບ​; ຫຼີກເວັ້ນການເກັບ cherry.

fast.ai ແລະ Kaggle ແມ່ນ underrated ສໍາລັບຄວາມໄວໃນການກໍ່ສ້າງພື້ນຖານແລະບັງຄັບໃຫ້ທ່ານ iterate ໄວກັບຄໍາຄຶດຄໍາເຫັນ [3].


ໂຄງການ Portfolio ທີ່ເຮັດໃຫ້ຜູ້ຮັບສະໝັກ Nod 👍

ສູ້ຊົນໃຫ້ສາມໂຄງການທີ່ແຕ່ລະຄົນສະແດງໃຫ້ເຫັນຄວາມເຂັ້ມແຂງທີ່ແຕກຕ່າງກັນ:

  1. ພື້ນຖານ ML ຄລາສສິກ : EDA ທີ່ເຂັ້ມແຂງ, ຄຸນສົມບັດ, ແລະການວິເຄາະຄວາມຜິດພາດ.

  2. ແອັບການຮຽນຮູ້ເລິກເຊິ່ງ : ຮູບພາບ ຫຼືຂໍ້ຄວາມ, ດ້ວຍການສາທິດເວັບໜ້ອຍທີ່ສຸດ.

  3. LLM-powered tool : retrieval-augmented chatbot or evaluator, with prompt and data hygiene decuated.

ໃຊ້ READMEs ດ້ວຍຄຳຊີ້ແຈງບັນຫາທີ່ຄົມຊັດ, ຂັ້ນຕອນການຕິດຕັ້ງ, ບັດຂໍ້ມູນ, ຕາຕະລາງການປະເມີນຜົນ, ແລະການສະແດງໜ້າຈໍສັ້ນ. ຖ້າທ່ານສາມາດປຽບທຽບຕົວແບບຂອງທ່ານກັບພື້ນຖານທີ່ງ່າຍດາຍ, ດີກວ່າ. ຮູບ​ແບບ​ປຶ້ມ​ປຸງ​ແຕ່ງ​ອາ​ຫານ​ຊ່ວຍ​ໃນ​ເວ​ລາ​ທີ່​ໂຄງ​ການ​ຂອງ​ທ່ານ​ກ່ຽວ​ກັບ​ການ​ຜະ​ລິດ​ຕະ​ພັນ​ຫຼື​ການ​ນໍາ​ໃຊ້​ເຄື່ອງ​ມື [5​]​.


ສຶກສານິໄສທີ່ປ້ອງກັນການເຜົາຜານ ⏱️

  • Pomodoro ຄູ່ : 25 ນາທີເຂົ້າລະຫັດ, 5 ນາທີບັນທຶກສິ່ງທີ່ມີການປ່ຽນແປງ.

  • ວາລະສານລະຫັດ : ຂຽນບົດບັນທຶກນ້ອຍໆຫຼັງຈາກການທົດລອງທີ່ລົ້ມເຫລວ.

  • ການປະຕິບັດໂດຍເຈດຕະນາ : ທັກສະທີ່ໂດດດ່ຽວ (ຕົວຢ່າງ, ສາມຕົວໂຫຼດຂໍ້ມູນທີ່ແຕກຕ່າງກັນໃນຫນຶ່ງອາທິດ).

  • ຄໍາ​ຕິ​ຊົມ​ຂອງ​ຊຸມ​ຊົນ ​: ແບ່ງ​ປັນ​ການ​ປັບ​ປຸງ​ປະ​ຈໍາ​ອາ​ທິດ​, ຂໍ​ໃຫ້​ມີ​ການ​ທົບ​ທວນ​ຄືນ​ລະ​ຫັດ​, ການ​ຄ້າ​ຫນຶ່ງ​ຄໍາ​ແນະ​ນໍາ​ສໍາ​ລັບ​ການ​ວິ​ຈານ​ຫນຶ່ງ​.

  • ການຟື້ນຕົວ : ແມ່ນແລ້ວ, ການພັກຜ່ອນແມ່ນທັກສະ; ອະນາຄົດຂອງເຈົ້າຈະຂຽນລະຫັດໄດ້ດີກວ່າຫຼັງນອນ.

ແຮງຈູງໃຈລອຍ. ໄຊຊະນະຂະຫນາດນ້ອຍແລະຄວາມກ້າວຫນ້າທີ່ເຫັນໄດ້ແມ່ນກາວ.


ຂຸມທົ່ວໄປເພື່ອ Dodge 🧯

  • ການເລື່ອນເວລາທາງຄະນິດສາດ : ການພິສູດຢ່າງໜັກກ່ອນທີ່ຈະແຕະຊຸດຂໍ້ມູນ.

  • ການສອນແບບບໍ່ມີທີ່ສິ້ນສຸດ : ເບິ່ງ 20 ວິດີໂອ, ສ້າງບໍ່ມີຫຍັງ.

  • Shiny-model syndrome : swapping ສະຖາປັດຕະຍະກໍາແທນທີ່ຈະແກ້ໄຂຂໍ້ມູນຫຼືການສູນເສຍ.

  • ບໍ່ມີແຜນການປະເມີນຜົນ : ຖ້າທ່ານບໍ່ສາມາດເວົ້າວິທີທີ່ທ່ານຈະວັດແທກຄວາມສໍາເລັດ, ທ່ານຈະບໍ່.

  • Copy-paste labs : ພິມຕາມ, ລືມທຸກຢ່າງໃນອາທິດໜ້າ.

  • repos ຂັດເກີນ : README ທີ່ສົມບູນແບບ, ບໍ່ມີການທົດລອງ. ອຸຍ.

ເມື່ອທ່ານຕ້ອງການວັດສະດຸທີ່ມີໂຄງສ້າງ, ຊື່ສຽງເພື່ອປັບຕົວຄືນໃຫມ່, CS229/CS231n ແລະການສະເຫນີຂອງ MIT ແມ່ນປຸ່ມຣີເຊັດອັນແຂງ [1–2].


ຊັ້ນວາງເອກະສານທີ່ເຈົ້າຈະກັບມາເບິ່ງ 📚

  • Goodfellow, Bengio, Courville - ການຮຽນຮູ້ແບບເລິກເຊິ່ງ : ການອ້າງອີງມາດຕະຖານສໍາລັບ backprop, ປົກກະຕິ, ການເພີ່ມປະສິດທິພາບ, ແລະສະຖາປັດຕະຍະກໍາ [5].

  • MIT 18.06 : ການແນະນໍາທີ່ສະອາດທີ່ສຸດກ່ຽວກັບ matrices ແລະ vector spaces ສໍາລັບຜູ້ປະຕິບັດ [2].

  • CS229/CS231n ບັນທຶກ : ທິດສະດີ ML ພາກປະຕິບັດ + ລາຍລະອຽດການຝຶກອົບຮົມວິໄສທັດທີ່ອະທິບາຍວ່າເປັນຫຍັງການເລີ່ມຕົ້ນເຮັດວຽກ [1].

  • Hugging Face LLM Course : tokenizers, datasets, transformer fine-tuning, Hub workflows [4].

  • fast.ai + Kaggle : ການປະຕິບັດຢ່າງໄວວາ loops ທີ່ໃຫ້ລາງວັນການຂົນສົ່ງຫຼາຍກວ່າການຢຸດ [3].


ແຜນການ 6 ອາທິດທີ່ອ່ອນໂຍນເພື່ອເລີ່ມຕົ້ນສິ່ງຕ່າງໆ 🗓️

ບໍ່ແມ່ນປື້ມກົດລະບຽບທີ່ຄ້າຍຄືກັບສູດທີ່ປ່ຽນແປງໄດ້.

ອາທິດທີ 1
Python tune-up, pandas pandas, visualizations. ໂຄງການ Mini: ຄາດຄະເນບາງສິ່ງບາງຢ່າງ trivial; ຂຽນບົດລາຍງານ 1 ຫນ້າ.

ອາທິດທີ 2
ປັບປຸງພຶດຊະຄະນິດເສັ້ນຊື່, ເຝິກຊ້ອມ vectorization. ເຮັດໂຄງການຂະໜາດນ້ອຍຂອງທ່ານຄືນໃໝ່ດ້ວຍຄຸນສົມບັດທີ່ດີຂຶ້ນ ແລະ ພື້ນຖານທີ່ເຂັ້ມແຂງກວ່າ [2].

ອາທິດທີ 3
Hands-on modules (ສັ້ນ, ເນັ້ນ). ເພີ່ມການກວດສອບຂ້າມ, matrices ສັບສົນ, ຕາຕະລາງການປັບທຽບ.

ອາທິດທີ 4
fast.ai ບົດຮຽນ 1–2; ສົ່ງຮູບພາບຂະຫນາດນ້ອຍຫຼືຕົວຈັດປະເພດຂໍ້ຄວາມ [3]. ບັນທຶກທໍ່ຂໍ້ມູນຂອງທ່ານຄືກັບວ່າເພື່ອນຮ່ວມທີມຈະອ່ານມັນໃນພາຍຫຼັງ.

ອາທິດທີ 5
Hugging Face LLM ຫຼັກສູດຜ່ານໄວ; ປະຕິບັດການສາທິດ RAG ຂະຫນາດນ້ອຍໃນ corpus ຂະຫນາດນ້ອຍ. ວັດແທກຄວາມລ່າຊ້າ/ຄຸນນະພາບ/ຄ່າໃຊ້ຈ່າຍ, ຈາກນັ້ນປັບປຸງອັນໜຶ່ງ [4].

ອາທິດທີ 6
ຂຽນບົດໜຶ່ງປຽບທຽບແບບຈໍາລອງຂອງເຈົ້າກັບພື້ນຖານທີ່ງ່າຍດາຍ. ໂປແລນ repo, ບັນທຶກວິດີໂອຕົວຢ່າງສັ້ນ, ແບ່ງປັນເພື່ອໃຫ້ຄໍາຄິດເຫັນ. ຮູບແບບປື້ມຄູ່ມືຊ່ວຍໄດ້ທີ່ນີ້ [5].


ຂໍ້ສັງເກດສຸດທ້າຍ - ຍາວເກີນໄປ, ບໍ່ໄດ້ອ່ານ 🎯

ວິທີການສຶກສາ AI ໄດ້ດີແມ່ນງ່າຍດາຍຜິດປົກກະຕິ: ຂົນສົ່ງໂຄງການຂະຫນາດນ້ອຍ, ຮຽນຮູ້ຄະນິດສາດພຽງແຕ່ພຽງພໍ, ແລະອີງໃສ່ຫຼັກສູດທີ່ເຊື່ອຖືໄດ້ແລະປື້ມເຮັດອາຫານເພື່ອບໍ່ໃຫ້ທ່ານປະດິດລໍ້ດ້ວຍມຸມສີ່ຫລ່ຽມ. ເລືອກເສັ້ນທາງ, ສ້າງຫຼັກຊັບດ້ວຍການປະເມີນຄວາມຊື່ສັດ, ແລະສືບຕໍ່ປະຕິບັດທິດສະດີ - ການປະຕິບັດ. ຄິດວ່າມັນຄ້າຍຄືການຮຽນຮູ້ການແຕ່ງກິນດ້ວຍມີດແຫຼມເລັກນ້ອຍແລະກະທະຮ້ອນ - ບໍ່ແມ່ນທຸກ gadget, ມີພຽງແຕ່ຜູ້ທີ່ໄດ້ອາຫານຄ່ໍາເທິງໂຕະ. ທ່ານໄດ້ຮັບອັນນີ້. 🌟


ເອກະສານອ້າງອີງ

[1] Stanford CS229 / CS231n - ການຮຽນຮູ້ເຄື່ອງຈັກ; ການຮຽນຮູ້ເລິກສໍາລັບວິໄສທັດຄອມພິວເຕີ.

[2] MIT - Linear Algebra (18.06) ແລະ Intro to Deep Learning (6.S191).

[3] Hands-on Practice - fast.ai ແລະ Kaggle ຮຽນຮູ້.

[4] Transformers & Modern NLP - Hugging Face LLM Course.

[5] ການອ້າງອີງການຮຽນຮູ້ເລິກ + ຮູບແບບ API - Goodfellow et al .; OpenAI Cookbook.

ຊອກຫາ AI ລ່າສຸດໄດ້ທີ່ຮ້ານ AI Assistant ຢ່າງເປັນທາງການ

ກ່ຽວກັບພວກເຮົາ

ກັບໄປທີ່ບລັອກ