ເຄືອຂ່າຍ neural ມີສຽງລຶກລັບຈົນກ່ວາພວກເຂົາເຮັດບໍ່ໄດ້. ຖ້າທ່ານເຄີຍສົງໄສວ່າ Neural Network ໃນ AI ແມ່ນຫຍັງ? ແລະບໍ່ວ່າຈະເປັນຄະນິດສາດທີ່ມີຫມວກ fancy, ທ່ານຢູ່ໃນສະຖານທີ່ທີ່ເຫມາະສົມ. ພວກເຮົາຈະຮັກສາມັນປະຕິບັດ, sprinkle ໃນທາງອ້ອມຂະຫນາດນ້ອຍ, ແລະແມ່ນ - emojis ຈໍານວນຫນຶ່ງ. ທ່ານຈະປ່ອຍໃຫ້ຮູ້ວ່າລະບົບເຫຼົ່ານີ້ແມ່ນຫຍັງ, ເປັນຫຍັງພວກມັນເຮັດວຽກ, ບ່ອນທີ່ພວກເຂົາລົ້ມເຫລວ, ແລະວິທີການເວົ້າກ່ຽວກັບພວກມັນໂດຍບໍ່ມີການໂບກມື.
ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:
🔗 ຄວາມລຳອຽງຂອງ AI ແມ່ນຫຍັງ
ຄວາມເຂົ້າໃຈຄວາມລໍາອຽງໃນລະບົບ AI ແລະຍຸດທະສາດເພື່ອຮັບປະກັນຄວາມຍຸຕິທໍາ.
🔗 AI ແບບຄາດເດົາແມ່ນຫຍັງ
ວິທີການທີ່ AI ຄາດຄະເນໃຊ້ຮູບແບບເພື່ອຄາດຄະເນຜົນໄດ້ຮັບໃນອະນາຄົດ.
🔗 ຄູຝຶກ AI ແມ່ນຫຍັງ
ຂຸດຄົ້ນພາລະບົດບາດແລະຄວາມຮັບຜິດຊອບຂອງຜູ້ຊ່ຽວຊານທີ່ຝຶກອົບຮົມ AI.
🔗 ວິໄສທັດຄອມພິວເຕີໃນ AI ແມ່ນຫຍັງ
AI ຕີຄວາມໝາຍ ແລະວິເຄາະຂໍ້ມູນພາບຜ່ານວິໄສທັດຂອງຄອມພິວເຕີແນວໃດ.
Neural Network ໃນ AI ແມ່ນຫຍັງ? ຄຳຕອບ 10 ວິນາທີ ⏱️
ເຄືອຂ່າຍ neural ເປັນ stack ຂອງຫນ່ວຍງານການຄິດໄລ່ງ່າຍດາຍທີ່ເອີ້ນວ່າ neurons ທີ່ສົ່ງຕົວເລກໄປຂ້າງຫນ້າ, ປັບຄວາມເຂັ້ມຂົ້ນຂອງການເຊື່ອມຕໍ່ຂອງເຂົາເຈົ້າໃນລະຫວ່າງການຝຶກອົບຮົມ, ແລະຄ່ອຍໆຮຽນຮູ້ຮູບແບບໃນຂໍ້ມູນ. ໃນເວລາທີ່ທ່ານໄດ້ຍິນ ການຮຽນຮູ້ເລິກ , ປົກກະຕິແລ້ວຫມາຍຄວາມວ່າເຄືອຂ່າຍ neural ທີ່ມີຊັ້ນ stacked ຫຼາຍ, ຄຸນນະສົມບັດການຮຽນຮູ້ອັດຕະໂນມັດແທນທີ່ຈະໃຫ້ທ່ານ coding ເຂົາເຈົ້າດ້ວຍມື. ໃນຄໍາສັບຕ່າງໆອື່ນໆ: ຫຼາຍຕ່ອນຄະນິດສາດຂະຫນາດນ້ອຍ, ຈັດລຽງຢ່າງສະຫລາດ, ການຝຶກອົບຮົມຂໍ້ມູນຈົນກ່ວາພວກເຂົາເປັນປະໂຫຍດ [1].
ສິ່ງທີ່ເຮັດໃຫ້ Neural Network ມີປະໂຫຍດ? ✅
-
ພະລັງງານການເປັນຕົວແທນ : ດ້ວຍສະຖາປັດຕະຍະກໍາແລະຂະຫນາດທີ່ເຫມາະສົມ, ເຄືອຂ່າຍສາມາດປະມານການທໍາງານທີ່ສັບສົນທໍາມະຊາດ (ເບິ່ງທິດສະດີການປະມານທົ່ວໄປ) [4].
-
ການຮຽນຮູ້ຈາກຈຸດຈົບ : ແທນທີ່ຈະເປັນລັກສະນະວິສະວະກໍາດ້ວຍມື, ຮູບແບບຄົ້ນພົບພວກມັນ [1].
-
Generalization : ເຄືອຂ່າຍທີ່ເປັນປົກກະຕິດີບໍ່ພຽງແຕ່ຈື່ - ມັນປະຕິບັດກັບຂໍ້ມູນໃຫມ່, ບໍ່ເຫັນ [1].
-
ຄວາມອາດສາມາດຂະຫຍາຍໄດ້ : ຊຸດຂໍ້ມູນທີ່ໃຫຍ່ກວ່າບວກກັບແບບຈໍາລອງທີ່ໃຫຍ່ກວ່າມັກຈະປັບປຸງຜົນໄດ້ຮັບ... ເຖິງຂີດຈຳກັດໃນພາກປະຕິບັດເຊັ່ນ: ຄອມພິວເຕີ້ ແລະຄຸນນະພາບຂໍ້ມູນ [1].
-
ຄວາມສາມາດໃນການໂອນຍ້າຍ : ຄຸນສົມບັດທີ່ໄດ້ຮຽນຮູ້ໃນວຽກງານໜຶ່ງສາມາດຊ່ວຍໃຫ້ອີກວຽກໜຶ່ງໄດ້ (ການຖ່າຍທອດການຮຽນຮູ້ ແລະ ການປັບແຕ່ງລະອຽດ) [1].
ບັນທຶກພາກສະຫນາມນ້ອຍໆ (ຕົວຢ່າງຕົວຢ່າງ): ທີມງານຈັດປະເພດຜະລິດຕະພັນຂະຫນາດນ້ອຍໄດ້ແລກປ່ຽນຄຸນສົມບັດທີ່ສ້າງດ້ວຍມືສໍາລັບ CNN ທີ່ຫນາແຫນ້ນ, ເພີ່ມການຂະຫຍາຍແບບງ່າຍໆ (flips / ການປູກພືດ), ແລະເບິ່ງຄວາມຜິດພາດໃນການກວດສອບ - ບໍ່ແມ່ນຍ້ອນວ່າເຄືອຂ່າຍແມ່ນ " magic," ແຕ່ເນື່ອງຈາກວ່າມັນໄດ້ຮຽນຮູ້ລັກສະນະທີ່ເປັນປະໂຫຍດຫຼາຍໂດຍກົງຈາກ pixels.
"ເຄືອຂ່າຍ Neural Network ໃນ AI ແມ່ນຫຍັງ?" ໃນພາສາອັງກິດທຳມະດາ, ພ້ອມກັບຄຳປຽບທຽບ 🍞
ຮູບພາບເສັ້ນເບເກີຣີ. ສ່ວນປະກອບເຂົ້າໄປໃນ, ຄົນງານປັບສູດ, ນັກທົດສອບລົດຊາດຈົ່ມ, ແລະທີມງານປັບປຸງສູດອີກເທື່ອຫນຶ່ງ. ໃນເຄືອຂ່າຍ, ວັດສະດຸປ້ອນເຂົ້າໄຫຼຜ່ານຊັ້ນຂໍ້ມູນ, ຟັງຊັນການສູນເສຍຈະຈັດລໍາດັບຜົນໄດ້ຮັບ, ແລະ gradients nudge ນ້ໍາຫນັກເພື່ອເຮັດໃຫ້ດີກວ່າໃນຄັ້ງຕໍ່ໄປ. ບໍ່ສົມບູນແບບເປັນການປຽບທຽບ - ເຂົ້າຈີ່ບໍ່ແຕກຕ່າງກັນ - ແຕ່ມັນຕິດ [1].
ຮ່າງກາຍຂອງລະບົບປະສາດ 🧩
-
Neurons : ເຄື່ອງຄິດໄລ່ຂະຫນາດນ້ອຍນໍາໃຊ້ຜົນລວມນ້ໍາຫນັກແລະການທໍາງານຂອງການກະຕຸ້ນ.
-
ນ້ຳໜັກ ແລະອະຄະຕິ : ລູກບິດທີ່ສາມາດປັບໄດ້ເຊິ່ງກຳນົດວິທີການລວມສັນຍານກັນ.
-
Layers : ຊັ້ນປ້ອນຂໍ້ມູນໄດ້ຮັບຂໍ້ມູນ, ຊັ້ນທີ່ເຊື່ອງໄວ້ປ່ຽນມັນ, ຊັ້ນຜົນຜະລິດເຮັດໃຫ້ການຄາດຄະເນ.
-
ຟັງຊັນການເປີດໃຊ້ງານ : ການບິດແບບບໍ່ມີເສັ້ນເຊັ່ນ ReLU, sigmoid, tanh, ແລະ softmax ເຮັດໃຫ້ການຮຽນຮູ້ມີຄວາມຍືດຫຍຸ່ນ.
-
ຟັງຊັນການສູນເສຍ : ຄະແນນຂອງການຄາດຄະເນທີ່ຜິດພາດ (cross-entropy ສໍາລັບການຈັດປະເພດ, MSE ສໍາລັບ regression).
-
Optimizer : Algorithms ເຊັ່ນ SGD ຫຼື Adam ໃຊ້ gradients ເພື່ອປັບປຸງນ້ໍາຫນັກ.
-
Regularization : ເຕັກນິກເຊັ່ນ: ການຫຼຸດລົງຫຼືການທໍາລາຍນ້ໍາຫນັກເພື່ອຮັກສາຕົວແບບຈາກການ overfitting.
ຖ້າທ່ານຕ້ອງການການປິ່ນປົວຢ່າງເປັນທາງການ (ແຕ່ຍັງສາມາດອ່ານໄດ້), ປຶ້ມແບບ ຮຽນແບບເລິກ ໄດ້ກວມເອົາຢ່າງເຕັມທີ່: ພື້ນຖານຄະນິດສາດ, ການເພີ່ມປະສິດທິພາບແລະການເພີ່ມປະສິດທິພາບທົ່ວໄປ [1].
ຟັງຊັນການເປີດໃຊ້, ໄລຍະສັ້ນໆແຕ່ມີປະໂຫຍດ ⚡
-
ReLU : Zero for negatives, linear for positives. ງ່າຍດາຍ, ໄວ, ປະສິດທິຜົນ.
-
Sigmoid : Squashes ຄ່າລະຫວ່າງ 0 ແລະ 1 - ມີປະໂຫຍດແຕ່ສາມາດອີ່ມຕົວໄດ້.
-
Tanh : ຄ້າຍຄື sigmoid ແຕ່ symmetric ປະມານສູນ.
-
Softmax : ປ່ຽນຄະແນນດິບໃຫ້ເປັນຄວາມເປັນໄປໄດ້ໃນທົ່ວຫ້ອງຮຽນ.
ທ່ານບໍ່ ຈຳ ເປັນຕ້ອງຈື່ທຸກຮູບຮ່າງຂອງເສັ້ນໂຄ້ງ - ພຽງແຕ່ຮູ້ການຊື້ຂາຍແລະຄ່າເລີ່ມຕົ້ນທົ່ວໄປ [1, 2].
ການຮຽນຮູ້ເກີດຂຶ້ນຈິງແນວໃດ: backprop, ແຕ່ບໍ່ຫນ້າຢ້ານ 🔁
-
Forward pass : ຂໍ້ມູນໄຫຼເຂົ້າກັນເປັນຊັ້ນໆເພື່ອຜະລິດການຄາດເດົາ.
-
ການສູນເສຍຄອມພິວເຕີ້ : ປຽບທຽບການຄາດຄະເນກັບຄວາມຈິງ.
-
Backpropagation : ຄິດໄລ່ gradients ຂອງການສູນເສຍທີ່ກ່ຽວຂ້ອງກັບແຕ່ລະນ້ໍາຫນັກໂດຍໃຊ້ລະບົບຕ່ອງໂສ້.
-
ອັບເດດ : Optimizer ປ່ຽນແປງນ້ຳໜັກໜ້ອຍໜຶ່ງ.
-
Repeat : ຫຼາຍຍຸກ. ຕົວແບບຄ່ອຍໆຮຽນຮູ້.
ສໍາລັບຄວາມເຂົ້າໃຈໃນມືທີ່ມີຮູບພາບແລະຄໍາອະທິບາຍທີ່ຢູ່ຕິດກັນ, ເບິ່ງບັນທຶກ CS231n ຄລາສສິກກ່ຽວກັບ backprop ແລະການເພີ່ມປະສິດທິພາບ [2].
ຄອບຄົວທີ່ສໍາຄັນຂອງເຄືອຂ່າຍ neural, ໃນ glance 🏡
-
ເຄືອຂ່າຍ Feedforward (MLPs) : ປະເພດທີ່ງ່າຍດາຍທີ່ສຸດ. ຂໍ້ມູນພຽງແຕ່ກ້າວໄປຂ້າງຫນ້າ.
-
Convolutional Neural Networks (CNNs) : ດີເລີດສຳລັບຮູບພາບຍ້ອນຕົວກອງທາງກວ້າງຂອງພື້ນທີ່ກວດພົບຂອບ, ໂຄງສ້າງ, ຮູບຮ່າງ [2].
-
Recurrent Neural Networks (RNNs) & variants : ສ້າງສໍາລັບລໍາດັບເຊັ່ນຂໍ້ຄວາມ ຫຼືຊຸດເວລາໂດຍການຮັກສາຄວາມຮູ້ສຶກ [1].
-
Transformers : ໃຊ້ຄວາມສົນໃຈໃນການສ້າງແບບຈໍາລອງຄວາມສໍາພັນໃນທົ່ວຕໍາແຫນ່ງໃນລໍາດັບທັງຫມົດໃນເວລາດຽວກັນ; ເດັ່ນໃນພາສາ ແລະຫຼາຍກວ່າ [3].
-
Graph Neural Networks (GNNs) : ປະຕິບັດການຢູ່ໃນ nodes ແລະຂອບຂອງກາຟ - ເປັນປະໂຫຍດສໍາລັບໂມເລກຸນ, ເຄືອຂ່າຍສັງຄົມ, ຄໍາແນະນໍາ [1].
-
Autoencoders & VAEs : ຮຽນຮູ້ການບີບອັດຕົວແທນ ແລະສ້າງການປ່ຽນແປງ [1].
-
ຮູບແບບການຜະລິດ : ຈາກ GANs ໄປຫາແບບຈໍາລອງການແຜ່ກະຈາຍ, ໃຊ້ສໍາລັບຮູບພາບ, ສຽງ, ເຖິງແມ່ນວ່າລະຫັດ [1].
ບັນທຶກ CS231n ແມ່ນເປັນມິດກັບ CNN ໂດຍສະເພາະ, ໃນຂະນະທີ່ກະດາດ Transformer ເປັນແຫຼ່ງຕົ້ນຕໍສໍາລັບຮູບແບບທີ່ອີງໃສ່ຄວາມສົນໃຈ [2, 3].
ຕາຕະລາງປຽບທຽບ: ປະເພດເຄືອຂ່າຍ neural ທົ່ວໄປ, ພວກເຂົາແມ່ນໃຜ, ຄ່າໃຊ້ຈ່າຍ vibes, ແລະເປັນຫຍັງພວກມັນເຮັດວຽກ 📊
| ເຄື່ອງມື / ປະເພດ | ຜູ້ຊົມ | ລາຄາປະມານ | ເປັນຫຍັງມັນຈຶ່ງໃຊ້ໄດ້ |
|---|---|---|---|
| Feedforward (MLP) | ຜູ້ເລີ່ມຕົ້ນ, ນັກວິເຄາະ | ຕ່ຳ-ກາງ | ງ່າຍດາຍ, ປ່ຽນແປງໄດ້, ພື້ນຖານທີ່ເໝາະສົມ |
| CNN | ທີມງານວິໄສທັດ | ປານກາງ | ຮູບແບບທ້ອງຖິ່ນ + ການແບ່ງປັນພາລາມິເຕີ |
| RNN / LSTM / GRU | ຄົນຕາມລໍາດັບ | ປານກາງ | ຄວາມຊົງຈໍາຊົ່ວຄາວ-ish… ບັນທຶກຄໍາສັ່ງ |
| ໝໍ້ແປງ | NLP, multimodal | ປານກາງ-ສູງ | ຄວາມສົນໃຈສຸມໃສ່ການພົວພັນທີ່ກ່ຽວຂ້ອງ |
| GNN | ນັກວິທະຍາສາດ, recsys | ປານກາງ | ຂໍ້ຄວາມຜ່ານກາຟສະແດງໃຫ້ເຫັນໂຄງສ້າງ |
| Autoencoder / VAE | ນັກຄົ້ນຄວ້າ | ຕ່ຳ-ກາງ | ຮຽນຮູ້ການບີບອັດຕົວແທນ |
| GAN / ການແຜ່ກະຈາຍ | ຫ້ອງທົດລອງສ້າງສັນ | ປານກາງ-ສູງ | ກົນອຸບາຍ ຫຼື ຊໍ້າຊາກ ປະຕິເສດ magic |
ຫມາຍເຫດ: ລາຄາແມ່ນກ່ຽວກັບຄອມພິວເຕີ້ແລະເວລາ; ໄລຍະທາງຂອງທ່ານແຕກຕ່າງກັນ. ເຊລ ຫຼື ສອງຫ້ອງແມ່ນເຈດຕະນາລົມກັນຢ່າງຕັ້ງໃຈ.
"ເຄືອຂ່າຍ Neural Network ໃນ AI ແມ່ນຫຍັງ?" ທຽບກັບ ML algorithms ຄລາສສິກ ⚖️
-
ວິສະວະກໍາຄຸນສົມບັດ : ຄລາສິກ ML ມັກຈະອີງໃສ່ຄຸນສົມບັດຄູ່ມື. ຕາຫນ່າງ Neural ຮຽນຮູ້ລັກສະນະອັດຕະໂນມັດ - ໄຊຊະນະໃຫຍ່ສໍາລັບຂໍ້ມູນສະລັບສັບຊ້ອນ [1].
-
ຄວາມອຶດຢາກຂໍ້ມູນ : ເຄືອຂ່າຍມັກຈະສ່ອງແສງດ້ວຍຂໍ້ມູນຫຼາຍຂຶ້ນ; ຂໍ້ມູນຂະຫນາດນ້ອຍອາດຈະມັກແບບທີ່ງ່າຍດາຍ [1].
-
ການຄິດໄລ່ : ເຄືອຂ່າຍມັກຕົວເລັ່ງຄວາມໄວເຊັ່ນ GPUs [1].
-
ເພດານການປະຕິບັດ : ສໍາລັບຂໍ້ມູນທີ່ບໍ່ມີໂຄງສ້າງ (ຮູບພາບ, ສຽງ, ຂໍ້ຄວາມ), ຕາຫນ່າງເລິກມີແນວໂນ້ມທີ່ຈະຄອບງໍາ [1, 2].
ຂັ້ນຕອນການຝຶກຊ້ອມທີ່ປະຕິບັດຕົວຈິງ 🛠️
-
ກໍານົດຈຸດປະສົງ : ການຈັດປະເພດ, regression, ການຈັດອັນດັບ, ການຜະລິດ - ເລືອກເອົາການສູນເສຍທີ່ກົງກັນ.
-
ຂໍ້ມູນຂັດແຍ່ງ : ແບ່ງອອກເປັນການຝຶກອົບຮົມ / validation / ການທົດສອບ. ເຮັດໃຫ້ຄຸນສົມບັດປົກກະຕິ. ຫ້ອງຮຽນການດຸ່ນດ່ຽງ. ສໍາລັບຮູບພາບ, ພິຈາລະນາການຂະຫຍາຍເຊັ່ນ: flips, ການປູກພືດ, ສິ່ງລົບກວນຂະຫນາດນ້ອຍ.
-
ທາງເລືອກສະຖາປັດຕະຍະກໍາ : ເລີ່ມຕົ້ນງ່າຍດາຍ. ເພີ່ມຄວາມອາດສາມາດພຽງແຕ່ເມື່ອຈໍາເປັນ.
-
ການຝຶກອົບຮົມ : batch ຂໍ້ມູນ. ສົ່ງຕໍ່. ຄິດໄລ່ການສູນເສຍ. Backprop. ອັບເດດ. ບັນທຶກການວັດແທກ.
-
Regularize : Dropout, ຫຼຸດນ້ຳໜັກ, ຢຸດໄວ.
-
ການປະເມີນ : ໃຊ້ຊຸດການຢືນຢັນສຳລັບ hyperparameters. ຖືຊຸດທົດສອບສໍາລັບການກວດສອບຄັ້ງສຸດທ້າຍ.
-
ເຮືອຢ່າງລະມັດລະວັງ : ຕິດຕາມການລອຍ, ກວດເບິ່ງຄວາມລໍາອຽງ, ວາງແຜນການກັບຄືນ.
ສໍາລັບການສອນແບບຮຽນຈົບແບບລະຫັດກັບທິດສະດີແຂງ, ປື້ມແບບຮຽນເປີດແລະບັນທຶກ CS231n ແມ່ນສະມໍທີ່ເຊື່ອຖືໄດ້ [1, 2].
Overfitting, ໂດຍທົ່ວໄປ, ແລະ gremlins ອື່ນໆ 👀
-
Overfitting : ແບບຈໍາລອງການຈື່ຈໍາ quirks ການຝຶກອົບຮົມ. ແກ້ໄຂດ້ວຍຂໍ້ມູນເພີ່ມເຕີມ, ການເຮັດໃຫ້ເປັນປົກກະຕິທີ່ເຂັ້ມແຂງ, ຫຼືສະຖາປັດຕະຍະກໍາທີ່ງ່າຍດາຍກວ່າ.
-
Underfitting : ຕົວແບບແມ່ນງ່າຍດາຍເກີນໄປຫຼືການຝຶກອົບຮົມຂີ້ອາຍເກີນໄປ. ເພີ່ມຄວາມອາດສາມາດຫຼືການຝຶກອົບຮົມຕໍ່ໄປອີກແລ້ວ.
-
ຂໍ້ມູນຮົ່ວໄຫລ : ຂໍ້ມູນຈາກຊຸດທົດສອບ sneaks ເຂົ້າໄປໃນການຝຶກອົບຮົມ. ສາມຄັ້ງກວດສອບການແບ່ງປັນຂອງທ່ານ.
-
ການປັບທຽບທີ່ບໍ່ດີ : ຕົວແບບທີ່ມີຄວາມຫມັ້ນໃຈແຕ່ຜິດພາດແມ່ນອັນຕະລາຍ. ພິຈາລະນາການປັບຫຼືການສູນເສຍນ້ໍາທີ່ແຕກຕ່າງກັນ.
-
ການປ່ຽນແປງການແຜ່ກະຈາຍ : ຂໍ້ມູນໃນໂລກທີ່ແທ້ຈິງຍ້າຍ. ຕິດຕາມແລະປັບຕົວ.
ສໍາລັບທິດສະດີທີ່ຢູ່ເບື້ອງຫລັງໂດຍທົ່ວໄປແລະປົກກະຕິ, ອີງໃສ່ການອ້າງອິງມາດຕະຖານ [1, 2].
ຄວາມປອດໄພ, ຄວາມສາມາດຕີຄວາມຫມາຍ, ແລະການນໍາໃຊ້ທີ່ມີຄວາມຮັບຜິດຊອບ 🧭
ເຄືອຂ່າຍ neural ສາມາດເຮັດການຕັດສິນໃຈທີ່ມີສະເຕກສູງ. ມັນບໍ່ພຽງພໍທີ່ພວກເຂົາເຮັດໄດ້ດີໃນກະດານຈັດອັນດັບ. ທ່ານຕ້ອງການການປົກຄອງ, ການວັດແທກ, ແລະຂັ້ນຕອນການຫຼຸດຜ່ອນໃນທົ່ວວົງຈອນຊີວິດ. ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງຂອງ NIST AI ອະທິບາຍເຖິງຫນ້າທີ່ປະຕິບັດ - ການປົກຄອງ, ແຜນທີ່, ມາດຕະການ, ການຄຸ້ມຄອງ - ເພື່ອຊ່ວຍໃຫ້ທີມງານປະສົມປະສານການຄຸ້ມຄອງຄວາມສ່ຽງເຂົ້າໃນການອອກແບບແລະການປະຕິບັດ [5].
ການກະຕຸ້ນໄວບາງອັນ:
-
ການກວດສອບຄວາມລຳອຽງ : ປະເມີນໃນທົ່ວພາກສ່ວນປະຊາກອນຕາມຄວາມເໝາະສົມ ແລະ ຖືກຕ້ອງຕາມກົດໝາຍ.
-
ຄວາມສາມາດແປພາສາ : ໃຊ້ເຕັກນິກຕ່າງໆເຊັ່ນຄວາມເຂັ້ມແຂງ ຫຼືຄຸນສົມບັດທີ່ມີຄຸນສົມບັດ. ພວກມັນບໍ່ສົມບູນແບບ, ແຕ່ມີປະໂຫຍດ.
-
ການຕິດຕາມກວດກາ : ຕັ້ງການແຈ້ງເຕືອນສໍາລັບການຫຼຸດລົງ metric ຢ່າງກະທັນຫັນຫຼືຂໍ້ມູນພຽງເລັກນ້ອຍ.
-
ການຄວບຄຸມຂອງມະນຸດ : ຮັກສາມະນຸດຢູ່ໃນວົງການສໍາລັບການຕັດສິນໃຈທີ່ມີຜົນກະທົບ. ບໍ່ມີວິລະຊົນ, ພຽງແຕ່ອະນາໄມ.
ຄຳຖາມທີ່ມັກຖາມເລື້ອຍໆ 🙋
ເຄືອຂ່າຍ neural ເປັນພື້ນຖານຂອງສະຫມອງບໍ?
ໄດ້ຮັບການດົນໃຈຈາກສະຫມອງ, ແມ່ນແລ້ວ - ແຕ່ງ່າຍດາຍ. Neurons ໃນເຄືອຂ່າຍແມ່ນຫນ້າທີ່ຄະນິດສາດ; neurons ຊີວະສາດແມ່ນຈຸລັງທີ່ມີຊີວິດທີ່ມີການເຄື່ອນໄຫວທີ່ສັບສົນ. vibes ທີ່ຄ້າຍຄືກັນ, ຟີຊິກທີ່ແຕກຕ່າງກັນຫຼາຍ [1].
ຂ້ອຍຕ້ອງການຊັ້ນໃດ?
ເລີ່ມຕົ້ນຂະຫນາດນ້ອຍ. ຖ້າເຈົ້າບໍ່ພໍດີ, ໃຫ້ເພີ່ມຄວາມກວ້າງ ຫຼື ຄວາມເລິກ. ຖ້າເຈົ້າພໍດີ, ປັບປົກກະຕິ ຫຼືຫຼຸດຄວາມອາດສາມາດ. ບໍ່ມີຕົວເລກ magic; ມີພຽງແຕ່ເສັ້ນໂຄ້ງຄວາມຖືກຕ້ອງແລະຄວາມອົດທົນ [1].
ຂ້ອຍຕ້ອງການ GPU ສະເໝີບໍ?
ບໍ່ສະເຫມີ. ຮູບແບບຂະຫນາດນ້ອຍກ່ຽວກັບຂໍ້ມູນເລັກນ້ອຍສາມາດຝຶກອົບຮົມໃນ CPU ໄດ້, ແຕ່ສໍາລັບຮູບພາບ, ຕົວແບບຂໍ້ຄວາມຂະຫນາດໃຫຍ່, ຫຼືຊຸດຂໍ້ມູນໃຫຍ່, ຕົວເລັ່ງຄວາມໄວປະຫຍັດເວລາຫຼາຍ [1].
ເປັນຫຍັງຜູ້ຄົນເວົ້າວ່າຄວາມສົນໃຈແມ່ນມີອໍານາດ?
ເນື່ອງຈາກວ່າຄວາມສົນໃຈເຮັດໃຫ້ຕົວແບບສຸມໃສ່ພາກສ່ວນທີ່ກ່ຽວຂ້ອງທີ່ສຸດຂອງວັດສະດຸປ້ອນໂດຍບໍ່ມີການຍ່າງຢ່າງເຂັ້ມງວດ. ມັນຈັບເອົາການພົວພັນທົ່ວໂລກ, ເຊິ່ງເປັນເລື່ອງໃຫຍ່ສໍາລັບວຽກງານພາສາແລະ multimodal [3].
ແມ່ນ "ເຄືອຂ່າຍ Neural ໃນ AI ແມ່ນຫຍັງ?" ແຕກຕ່າງຈາກ "ການຮຽນຮູ້ເລິກແມ່ນຫຍັງ"?
ການຮຽນຮູ້ເລິກແມ່ນວິທີການທີ່ກວ້າງກວ່າທີ່ໃຊ້ເຄືອຂ່າຍ neural ເລິກ. ດັ່ງນັ້ນການຖາມວ່າ Neural Network ໃນ AI ແມ່ນຫຍັງ? ແມ່ນຄ້າຍຄືຖາມກ່ຽວກັບລັກສະນະຕົ້ນຕໍ; ການຮຽນຮູ້ເລິກແມ່ນຮູບເງົາທັງຫມົດ [1].
ຄໍາແນະນໍາການປະຕິບັດ, ຄວາມຄິດເຫັນເລັກນ້ອຍ 💡
-
ຕ້ອງການ ພື້ນຖານທີ່ງ່າຍດາຍ ກ່ອນ. ເຖິງແມ່ນວ່າ perceptron multilayer ຂະຫນາດນ້ອຍສາມາດບອກທ່ານວ່າຂໍ້ມູນສາມາດຮຽນຮູ້ໄດ້.
-
ທໍ່ຂໍ້ມູນ ຂອງເຈົ້າ . ຖ້າທ່ານບໍ່ສາມາດແລ່ນມັນຄືນໄດ້, ທ່ານບໍ່ສາມາດໄວ້ວາງໃຈມັນໄດ້.
-
ອັດຕາການຮຽນຮູ້ ສຳຄັນກວ່າທີ່ເຈົ້າຄິດ. ລອງກຳນົດເວລາ. ການອົບອຸ່ນສາມາດຊ່ວຍໄດ້.
-
ການຊື້ຂາຍຂະໜາດຊຸດ . ຊຸດທີ່ໃຫຍ່ກວ່າຈະຮັກສາຄວາມຄົງທີ່ຂອງ gradients ແຕ່ໂດຍທົ່ວໄປອາດຈະແຕກຕ່າງກັນ.
-
ໃນເວລາທີ່ສັບສົນ, ການສູນເສຍເສັ້ນໂຄ້ງ ແລະ ບັນດາມາດຕະຖານນ້ໍາ . ເຈົ້າຈະແປກໃຈວ່າຄຳຕອບຢູ່ໃນຕອນນັ້ນເລື້ອຍໆສໍ່າໃດ.
-
ສົມມຸດຕິຖານເອກະສານ. ອະນາຄົດ - ເຈົ້າລືມສິ່ງຕ່າງໆ - ໄວ [1, 2].
Deep-dive dive dive: ບົດບາດຂອງຂໍ້ມູນ, ຫຼືວ່າເປັນຫຍັງຂີ້ເຫຍື້ອໃນຍັງຫມາຍຄວາມວ່າຂີ້ເຫຍື້ອອອກ 🗑️➡️✨
ເຄືອຂ່າຍ neural ບໍ່ໄດ້ແກ້ໄຂຂໍ້ບົກພ່ອງຢ່າງມະຫັດສະຈັນ. ປ້າຍຊື່ທີ່ບິດເບືອນ, ຄວາມຜິດພາດຂອງຄໍາບັນຍາຍ, ຫຼືການເກັບຕົວຢ່າງແຄບຈະສະທ້ອນອອກມາຈາກຕົວແບບ. ຄຸ້ມຄອງ, ກວດສອບ, ແລະຂະຫຍາຍ. ແລະຖ້າທ່ານບໍ່ແນ່ໃຈວ່າທ່ານຕ້ອງການຂໍ້ມູນເພີ່ມເຕີມຫຼືຮູບແບບທີ່ດີກວ່າ, ຄໍາຕອບມັກຈະເປັນເລື່ອງທີ່ຫນ້າລໍາຄານ: ທັງສອງ - ແຕ່ເລີ່ມຕົ້ນດ້ວຍຄຸນນະພາບຂໍ້ມູນ [1].
"ເຄືອຂ່າຍ Neural Network ໃນ AI ແມ່ນຫຍັງ?" - ຄໍານິຍາມສັ້ນທີ່ທ່ານສາມາດນໍາໃຊ້ຄືນ🧾
-
ເຄືອຂ່າຍ neural ເປັນຕົວປະມານການທໍາງານຂອງຊັ້ນທີ່ຮຽນຮູ້ຮູບແບບທີ່ຊັບຊ້ອນໂດຍການປັບນ້ໍາຫນັກໂດຍໃຊ້ສັນຍານ gradient [1, 2].
-
ມັນເປັນລະບົບທີ່ປ່ຽນການນໍາເຂົ້າເປັນຜົນຜະລິດໂດຍຜ່ານຂັ້ນຕອນບໍ່ແມ່ນເສັ້ນຕໍ່ເນື່ອງ, ການຝຶກອົບຮົມເພື່ອຫຼຸດຜ່ອນການສູນເສຍ [1].
-
ມັນເປັນວິທີການສ້າງແບບຈໍາລອງແບບຍືດຫຍຸ່ນ, ຫິວໂຫຍທີ່ຈະເລີນເຕີບໂຕໃນວັດສະດຸປ້ອນທີ່ບໍ່ມີໂຄງສ້າງເຊັ່ນ: ຮູບພາບ, ຂໍ້ຄວາມ, ແລະສຽງ [1, 2, 3].
ຍາວເກີນໄປ, ບໍ່ໄດ້ອ່ານແລະຂໍ້ສັງເກດສຸດທ້າຍ 🎯
ຖ້າມີຄົນຖາມເຈົ້າ ວ່າ Neural Network ໃນ AI ແມ່ນຫຍັງ? ນີ້ແມ່ນການກັດສຽງ: ເຄືອຂ່າຍ neural ແມ່ນ stack ຂອງຫນ່ວຍງານງ່າຍດາຍທີ່ຫັນປ່ຽນຂໍ້ມູນເປັນຂັ້ນຕອນ, ຮຽນຮູ້ການຫັນເປັນໂດຍການຫຼຸດຜ່ອນການສູນເສຍແລະປະຕິບັດຕາມ gradients. ພວກມັນມີອໍານາດເພາະວ່າພວກເຂົາຂະຫຍາຍ, ຮຽນຮູ້ລັກສະນະອັດຕະໂນມັດ, ແລະສາມາດເປັນຕົວແທນຂອງຫນ້າທີ່ສະລັບສັບຊ້ອນຫຼາຍ [1, 4]. ພວກມັນມີຄວາມສ່ຽງຖ້າທ່ານບໍ່ສົນໃຈຄຸນນະພາບຂໍ້ມູນ, ການປົກຄອງ, ຫຼືການຕິດຕາມ [5]. ແລະພວກເຂົາບໍ່ແມ່ນ magic. ພຽງແຕ່ຄະນິດສາດ, ຄອມພິວເຕີ້, ແລະວິສະວະ ກຳ ທີ່ດີ - ມີລົດຊາດ.
ການອ່ານເພີ່ມເຕີມ, ເລືອກຢ່າງລະມັດລະວັງ (ສ່ວນທີ່ບໍ່ໄດ້ອ້າງອີງ)
-
ບັນທຶກ Stanford CS231n - ສາມາດເຂົ້າຫາໄດ້ ແລະປະຕິບັດໄດ້: https://cs231n.github.io/
-
DeepLearningBook.org - ອ້າງອິງ canonical: https://www.deeplearningbook.org/
-
NIST AI Risk Management Framework - ຄຳແນະນຳ AI ທີ່ມີຄວາມຮັບຜິດຊອບ: https://www.nist.gov/itl/ai-risk-management-framework
-
"ຄວາມສົນໃຈແມ່ນສິ່ງທີ່ທ່ານຕ້ອງການ" - ເຈ້ຍ Transformer: https://arxiv.org/abs/1706.03762
ເອກະສານອ້າງອີງ
[1] Goodfellow, I., Bengio, Y., & Courville, A. Deep Learning . ໜັງສືພິມ MIT. ສະບັບອອນໄລນ໌ຟຣີ: ອ່ານເພີ່ມເຕີມ
[2] ສະແຕນຟອດ CS231n. Convolutional Neural Networks ສໍາລັບ Visual Recognition (ບັນທຶກຫຼັກສູດ): ອ່ານເພີ່ມເຕີມ
[3] Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). ເອົາໃຈໃສ່ແມ່ນທັງຫມົດທີ່ທ່ານຕ້ອງການ . NeurIPS. arXiv: ອ່ານເພີ່ມເຕີມ
[4] Cybenko, G. (1989). ການປະມານໂດຍ superpositions ຂອງຫນ້າທີ່ sigmoidal . ຄະນິດສາດຂອງການຄວບຄຸມ, ສັນຍານ ແລະລະບົບ , 2, 303–314. Springer: ອ່ານເພີ່ມເຕີມ
[5] NIST. ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ AI (AI RMF) : ອ່ານເພີ່ມເຕີມ