ເຄືອຂ່າຍປະສາດໃນ AI ແມ່ນຫຍັງ?

ເຄືອຂ່າຍປະສາດໃນ AI ແມ່ນຫຍັງ?

ເຄືອຂ່າຍ neural ມີສຽງລຶກລັບຈົນກ່ວາພວກເຂົາເຮັດບໍ່ໄດ້. ຖ້າທ່ານເຄີຍສົງໄສວ່າ Neural Network ໃນ AI ແມ່ນຫຍັງ? ແລະບໍ່ວ່າຈະເປັນຄະນິດສາດທີ່ມີຫມວກ fancy, ທ່ານຢູ່ໃນສະຖານທີ່ທີ່ເຫມາະສົມ. ພວກ​ເຮົາ​ຈະ​ຮັກ​ສາ​ມັນ​ປະ​ຕິ​ບັດ​, sprinkle ໃນ​ທາງ​ອ້ອມ​ຂະ​ຫນາດ​ນ້ອຍ​, ແລະ​ແມ່ນ - emojis ຈໍາ​ນວນ​ຫນຶ່ງ​. ທ່ານຈະປ່ອຍໃຫ້ຮູ້ວ່າລະບົບເຫຼົ່ານີ້ແມ່ນຫຍັງ, ເປັນຫຍັງພວກມັນເຮັດວຽກ, ບ່ອນທີ່ພວກເຂົາລົ້ມເຫລວ, ແລະວິທີການເວົ້າກ່ຽວກັບພວກມັນໂດຍບໍ່ມີການໂບກມື.

ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:

🔗 ຄວາມລຳອຽງຂອງ AI ແມ່ນຫຍັງ
ຄວາມເຂົ້າໃຈຄວາມລໍາອຽງໃນລະບົບ AI ແລະຍຸດທະສາດເພື່ອຮັບປະກັນຄວາມຍຸຕິທໍາ.

🔗 AI ແບບຄາດເດົາແມ່ນຫຍັງ
ວິທີການທີ່ AI ຄາດຄະເນໃຊ້ຮູບແບບເພື່ອຄາດຄະເນຜົນໄດ້ຮັບໃນອະນາຄົດ.

🔗 ຄູຝຶກ AI ແມ່ນຫຍັງ
ຂຸດຄົ້ນພາລະບົດບາດແລະຄວາມຮັບຜິດຊອບຂອງຜູ້ຊ່ຽວຊານທີ່ຝຶກອົບຮົມ AI.

🔗 ວິໄສທັດຄອມພິວເຕີໃນ AI ແມ່ນຫຍັງ
AI ຕີຄວາມໝາຍ ແລະວິເຄາະຂໍ້ມູນພາບຜ່ານວິໄສທັດຂອງຄອມພິວເຕີແນວໃດ.


Neural Network ໃນ AI ແມ່ນຫຍັງ? ຄຳຕອບ 10 ວິນາທີ ⏱️

ເຄືອຂ່າຍ neural ເປັນ stack ຂອງຫນ່ວຍງານການຄິດໄລ່ງ່າຍດາຍທີ່ເອີ້ນວ່າ neurons ທີ່ສົ່ງຕົວເລກໄປຂ້າງຫນ້າ, ປັບຄວາມເຂັ້ມຂົ້ນຂອງການເຊື່ອມຕໍ່ຂອງເຂົາເຈົ້າໃນລະຫວ່າງການຝຶກອົບຮົມ, ແລະຄ່ອຍໆຮຽນຮູ້ຮູບແບບໃນຂໍ້ມູນ. ໃນເວລາທີ່ທ່ານໄດ້ຍິນ ການຮຽນຮູ້ເລິກ , ປົກກະຕິແລ້ວຫມາຍຄວາມວ່າເຄືອຂ່າຍ neural ທີ່ມີຊັ້ນ stacked ຫຼາຍ, ຄຸນນະສົມບັດການຮຽນຮູ້ອັດຕະໂນມັດແທນທີ່ຈະໃຫ້ທ່ານ coding ເຂົາເຈົ້າດ້ວຍມື. ໃນຄໍາສັບຕ່າງໆອື່ນໆ: ຫຼາຍຕ່ອນຄະນິດສາດຂະຫນາດນ້ອຍ, ຈັດລຽງຢ່າງສະຫລາດ, ການຝຶກອົບຮົມຂໍ້ມູນຈົນກ່ວາພວກເຂົາເປັນປະໂຫຍດ [1].


ສິ່ງທີ່ເຮັດໃຫ້ Neural Network ມີປະໂຫຍດ? ✅

  • ພະລັງງານການເປັນຕົວແທນ : ດ້ວຍສະຖາປັດຕະຍະກໍາແລະຂະຫນາດທີ່ເຫມາະສົມ, ເຄືອຂ່າຍສາມາດປະມານການທໍາງານທີ່ສັບສົນທໍາມະຊາດ (ເບິ່ງທິດສະດີການປະມານທົ່ວໄປ) [4].

  • ການຮຽນຮູ້ຈາກຈຸດຈົບ : ແທນທີ່ຈະເປັນລັກສະນະວິສະວະກໍາດ້ວຍມື, ຮູບແບບຄົ້ນພົບພວກມັນ [1].

  • Generalization : ເຄືອຂ່າຍທີ່ເປັນປົກກະຕິດີບໍ່ພຽງແຕ່ຈື່ - ມັນປະຕິບັດກັບຂໍ້ມູນໃຫມ່, ບໍ່ເຫັນ [1].

  • ຄວາມອາດສາມາດຂະຫຍາຍໄດ້ : ຊຸດຂໍ້ມູນທີ່ໃຫຍ່ກວ່າບວກກັບແບບຈໍາລອງທີ່ໃຫຍ່ກວ່າມັກຈະປັບປຸງຜົນໄດ້ຮັບ... ເຖິງຂີດຈຳກັດໃນພາກປະຕິບັດເຊັ່ນ: ຄອມພິວເຕີ້ ແລະຄຸນນະພາບຂໍ້ມູນ [1].

  • ຄວາມສາມາດໃນການໂອນຍ້າຍ : ຄຸນສົມບັດທີ່ໄດ້ຮຽນຮູ້ໃນວຽກງານໜຶ່ງສາມາດຊ່ວຍໃຫ້ອີກວຽກໜຶ່ງໄດ້ (ການຖ່າຍທອດການຮຽນຮູ້ ແລະ ການປັບແຕ່ງລະອຽດ) [1].

ບັນທຶກພາກສະຫນາມນ້ອຍໆ (ຕົວຢ່າງຕົວຢ່າງ): ທີມງານຈັດປະເພດຜະລິດຕະພັນຂະຫນາດນ້ອຍໄດ້ແລກປ່ຽນຄຸນສົມບັດທີ່ສ້າງດ້ວຍມືສໍາລັບ CNN ທີ່ຫນາແຫນ້ນ, ເພີ່ມການຂະຫຍາຍແບບງ່າຍໆ (flips / ການປູກພືດ), ແລະເບິ່ງຄວາມຜິດພາດໃນການກວດສອບ - ບໍ່ແມ່ນຍ້ອນວ່າເຄືອຂ່າຍແມ່ນ " magic," ແຕ່ເນື່ອງຈາກວ່າມັນໄດ້ຮຽນຮູ້ລັກສະນະທີ່ເປັນປະໂຫຍດຫຼາຍໂດຍກົງຈາກ pixels.


"ເຄືອຂ່າຍ Neural Network ໃນ AI ແມ່ນຫຍັງ?" ໃນພາສາອັງກິດທຳມະດາ, ພ້ອມກັບຄຳປຽບທຽບ 🍞

ຮູບພາບເສັ້ນເບເກີຣີ. ສ່ວນປະກອບເຂົ້າໄປໃນ, ຄົນງານປັບສູດ, ນັກທົດສອບລົດຊາດຈົ່ມ, ແລະທີມງານປັບປຸງສູດອີກເທື່ອຫນຶ່ງ. ໃນເຄືອຂ່າຍ, ວັດສະດຸປ້ອນເຂົ້າໄຫຼຜ່ານຊັ້ນຂໍ້ມູນ, ຟັງຊັນການສູນເສຍຈະຈັດລໍາດັບຜົນໄດ້ຮັບ, ແລະ gradients nudge ນ້ໍາຫນັກເພື່ອເຮັດໃຫ້ດີກວ່າໃນຄັ້ງຕໍ່ໄປ. ບໍ່ສົມບູນແບບເປັນການປຽບທຽບ - ເຂົ້າຈີ່ບໍ່ແຕກຕ່າງກັນ - ແຕ່ມັນຕິດ [1].


ຮ່າງກາຍຂອງລະບົບປະສາດ 🧩

  • Neurons : ເຄື່ອງ​ຄິດ​ໄລ່​ຂະ​ຫນາດ​ນ້ອຍ​ນໍາ​ໃຊ້​ຜົນ​ລວມ​ນ​້​ໍາ​ຫນັກ​ແລະ​ການ​ທໍາ​ງານ​ຂອງ​ການ​ກະ​ຕຸ້ນ​.

  • ນ້ຳໜັກ ແລະອະຄະຕິ : ລູກບິດທີ່ສາມາດປັບໄດ້ເຊິ່ງກຳນົດວິທີການລວມສັນຍານກັນ.

  • Layers : ຊັ້ນປ້ອນຂໍ້ມູນໄດ້ຮັບຂໍ້ມູນ, ຊັ້ນທີ່ເຊື່ອງໄວ້ປ່ຽນມັນ, ຊັ້ນຜົນຜະລິດເຮັດໃຫ້ການຄາດຄະເນ.

  • ຟັງຊັນການເປີດໃຊ້ງານ : ການບິດແບບບໍ່ມີເສັ້ນເຊັ່ນ ReLU, sigmoid, tanh, ແລະ softmax ເຮັດໃຫ້ການຮຽນຮູ້ມີຄວາມຍືດຫຍຸ່ນ.

  • ຟັງຊັນການສູນເສຍ : ຄະແນນຂອງການຄາດຄະເນທີ່ຜິດພາດ (cross-entropy ສໍາລັບການຈັດປະເພດ, MSE ສໍາລັບ regression).

  • Optimizer : Algorithms ເຊັ່ນ SGD ຫຼື Adam ໃຊ້ gradients ເພື່ອປັບປຸງນ້ໍາຫນັກ.

  • Regularization : ເຕັກນິກເຊັ່ນ: ການຫຼຸດລົງຫຼືການທໍາລາຍນ້ໍາຫນັກເພື່ອຮັກສາຕົວແບບຈາກການ overfitting.

ຖ້າທ່ານຕ້ອງການການປິ່ນປົວຢ່າງເປັນທາງການ (ແຕ່ຍັງສາມາດອ່ານໄດ້), ປຶ້ມແບບ ຮຽນແບບເລິກ ໄດ້ກວມເອົາຢ່າງເຕັມທີ່: ພື້ນຖານຄະນິດສາດ, ການເພີ່ມປະສິດທິພາບແລະການເພີ່ມປະສິດທິພາບທົ່ວໄປ [1].


ຟັງຊັນການເປີດໃຊ້, ໄລຍະສັ້ນໆແຕ່ມີປະໂຫຍດ ⚡

  • ReLU : Zero for negatives, linear for positives. ງ່າຍ​ດາຍ​, ໄວ​, ປະ​ສິດ​ທິ​ຜົນ​.

  • Sigmoid : Squashes ຄ່າລະຫວ່າງ 0 ແລະ 1 - ມີປະໂຫຍດແຕ່ສາມາດອີ່ມຕົວໄດ້.

  • Tanh : ຄ້າຍຄື sigmoid ແຕ່ symmetric ປະມານສູນ.

  • Softmax : ປ່ຽນຄະແນນດິບໃຫ້ເປັນຄວາມເປັນໄປໄດ້ໃນທົ່ວຫ້ອງຮຽນ.

ທ່ານບໍ່ ຈຳ ເປັນຕ້ອງຈື່ທຸກຮູບຮ່າງຂອງເສັ້ນໂຄ້ງ - ພຽງແຕ່ຮູ້ການຊື້ຂາຍແລະຄ່າເລີ່ມຕົ້ນທົ່ວໄປ [1, 2].


ການຮຽນຮູ້ເກີດຂຶ້ນຈິງແນວໃດ: backprop, ແຕ່ບໍ່ຫນ້າຢ້ານ 🔁

  1. Forward pass : ຂໍ້ມູນໄຫຼເຂົ້າກັນເປັນຊັ້ນໆເພື່ອຜະລິດການຄາດເດົາ.

  2. ການສູນເສຍຄອມພິວເຕີ້ : ປຽບທຽບການຄາດຄະເນກັບຄວາມຈິງ.

  3. Backpropagation : ຄິດໄລ່ gradients ຂອງການສູນເສຍທີ່ກ່ຽວຂ້ອງກັບແຕ່ລະນ້ໍາຫນັກໂດຍໃຊ້ລະບົບຕ່ອງໂສ້.

  4. ອັບເດດ : Optimizer ປ່ຽນແປງນ້ຳໜັກໜ້ອຍໜຶ່ງ.

  5. Repeat : ຫຼາຍຍຸກ. ຕົວແບບຄ່ອຍໆຮຽນຮູ້.

ສໍາລັບຄວາມເຂົ້າໃຈໃນມືທີ່ມີຮູບພາບແລະຄໍາອະທິບາຍທີ່ຢູ່ຕິດກັນ, ເບິ່ງບັນທຶກ CS231n ຄລາສສິກກ່ຽວກັບ backprop ແລະການເພີ່ມປະສິດທິພາບ [2].


ຄອບຄົວທີ່ສໍາຄັນຂອງເຄືອຂ່າຍ neural, ໃນ glance 🏡

  • ເຄືອຂ່າຍ Feedforward (MLPs) : ປະເພດທີ່ງ່າຍດາຍທີ່ສຸດ. ຂໍ້ມູນພຽງແຕ່ກ້າວໄປຂ້າງຫນ້າ.

  • Convolutional Neural Networks (CNNs) : ດີເລີດສຳລັບຮູບພາບຍ້ອນຕົວກອງທາງກວ້າງຂອງພື້ນທີ່ກວດພົບຂອບ, ໂຄງສ້າງ, ຮູບຮ່າງ [2].

  • Recurrent Neural Networks (RNNs) & variants : ສ້າງສໍາລັບລໍາດັບເຊັ່ນຂໍ້ຄວາມ ຫຼືຊຸດເວລາໂດຍການຮັກສາຄວາມຮູ້ສຶກ [1].

  • Transformers : ໃຊ້ຄວາມສົນໃຈໃນການສ້າງແບບຈໍາລອງຄວາມສໍາພັນໃນທົ່ວຕໍາແຫນ່ງໃນລໍາດັບທັງຫມົດໃນເວລາດຽວກັນ; ເດັ່ນໃນພາສາ ແລະຫຼາຍກວ່າ [3].

  • Graph Neural Networks (GNNs) : ປະຕິບັດການຢູ່ໃນ nodes ແລະຂອບຂອງກາຟ - ເປັນປະໂຫຍດສໍາລັບໂມເລກຸນ, ເຄືອຂ່າຍສັງຄົມ, ຄໍາແນະນໍາ [1].

  • Autoencoders & VAEs : ຮຽນຮູ້ການບີບອັດຕົວແທນ ແລະສ້າງການປ່ຽນແປງ [1].

  • ຮູບແບບການຜະລິດ : ຈາກ GANs ໄປຫາແບບຈໍາລອງການແຜ່ກະຈາຍ, ໃຊ້ສໍາລັບຮູບພາບ, ສຽງ, ເຖິງແມ່ນວ່າລະຫັດ [1].

ບັນທຶກ CS231n ແມ່ນເປັນມິດກັບ CNN ໂດຍສະເພາະ, ໃນຂະນະທີ່ກະດາດ Transformer ເປັນແຫຼ່ງຕົ້ນຕໍສໍາລັບຮູບແບບທີ່ອີງໃສ່ຄວາມສົນໃຈ [2, 3].


ຕາຕະລາງປຽບທຽບ: ປະເພດເຄືອຂ່າຍ neural ທົ່ວໄປ, ພວກເຂົາແມ່ນໃຜ, ຄ່າໃຊ້ຈ່າຍ vibes, ແລະເປັນຫຍັງພວກມັນເຮັດວຽກ 📊

ເຄື່ອງມື / ປະເພດ ຜູ້ຊົມ ລາຄາປະມານ ເປັນຫຍັງມັນຈຶ່ງໃຊ້ໄດ້
Feedforward (MLP) ຜູ້ເລີ່ມຕົ້ນ, ນັກວິເຄາະ ຕ່ຳ-ກາງ ງ່າຍດາຍ, ປ່ຽນແປງໄດ້, ພື້ນຖານທີ່ເໝາະສົມ
CNN ທີມງານວິໄສທັດ ປານກາງ ຮູບແບບທ້ອງຖິ່ນ + ການແບ່ງປັນພາລາມິເຕີ
RNN / LSTM / GRU ຄົນຕາມລໍາດັບ ປານກາງ ຄວາມຊົງຈໍາຊົ່ວຄາວ-ish… ບັນທຶກຄໍາສັ່ງ
ໝໍ້ແປງ NLP, multimodal ປານກາງ-ສູງ ຄວາມສົນໃຈສຸມໃສ່ການພົວພັນທີ່ກ່ຽວຂ້ອງ
GNN ນັກວິທະຍາສາດ, recsys ປານກາງ ຂໍ້ຄວາມຜ່ານກາຟສະແດງໃຫ້ເຫັນໂຄງສ້າງ
Autoencoder / VAE ນັກຄົ້ນຄວ້າ ຕ່ຳ-ກາງ ຮຽນຮູ້ການບີບອັດຕົວແທນ
GAN / ການແຜ່ກະຈາຍ ຫ້ອງທົດລອງສ້າງສັນ ປານກາງ-ສູງ ກົນອຸບາຍ ຫຼື ຊໍ້າຊາກ ປະຕິເສດ magic

ຫມາຍເຫດ: ລາຄາແມ່ນກ່ຽວກັບຄອມພິວເຕີ້ແລະເວລາ; ໄລຍະທາງຂອງທ່ານແຕກຕ່າງກັນ. ເຊລ ຫຼື ສອງຫ້ອງແມ່ນເຈດຕະນາລົມກັນຢ່າງຕັ້ງໃຈ.


"ເຄືອຂ່າຍ Neural Network ໃນ AI ແມ່ນຫຍັງ?" ທຽບກັບ ML algorithms ຄລາສສິກ ⚖️

  • ວິສະວະກໍາຄຸນສົມບັດ : ຄລາສິກ ML ມັກຈະອີງໃສ່ຄຸນສົມບັດຄູ່ມື. ຕາຫນ່າງ Neural ຮຽນຮູ້ລັກສະນະອັດຕະໂນມັດ - ໄຊຊະນະໃຫຍ່ສໍາລັບຂໍ້ມູນສະລັບສັບຊ້ອນ [1].

  • ຄວາມອຶດຢາກຂໍ້ມູນ : ເຄືອຂ່າຍມັກຈະສ່ອງແສງດ້ວຍຂໍ້ມູນຫຼາຍຂຶ້ນ; ຂໍ້​ມູນ​ຂະ​ຫນາດ​ນ້ອຍ​ອາດ​ຈະ​ມັກ​ແບບ​ທີ່​ງ່າຍ​ດາຍ [1​]​.

  • ການຄິດໄລ່ : ເຄືອຂ່າຍມັກຕົວເລັ່ງຄວາມໄວເຊັ່ນ GPUs [1].

  • ເພດານການປະຕິບັດ : ສໍາລັບຂໍ້ມູນທີ່ບໍ່ມີໂຄງສ້າງ (ຮູບພາບ, ສຽງ, ຂໍ້ຄວາມ), ຕາຫນ່າງເລິກມີແນວໂນ້ມທີ່ຈະຄອບງໍາ [1, 2].


ຂັ້ນຕອນການຝຶກຊ້ອມທີ່ປະຕິບັດຕົວຈິງ 🛠️

  1. ກໍາ​ນົດ​ຈຸດ​ປະ​ສົງ ​: ການ​ຈັດ​ປະ​ເພດ​, regression​, ການ​ຈັດ​ອັນ​ດັບ​, ການ​ຜະ​ລິດ - ເລືອກ​ເອົາ​ການ​ສູນ​ເສຍ​ທີ່​ກົງ​ກັນ​.

  2. ຂໍ້​ມູນ​ຂັດ​ແຍ່ງ ​: ແບ່ງ​ອອກ​ເປັນ​ການ​ຝຶກ​ອົບ​ຮົມ / validation / ການ​ທົດ​ສອບ​. ເຮັດໃຫ້ຄຸນສົມບັດປົກກະຕິ. ຫ້ອງຮຽນການດຸ່ນດ່ຽງ. ສໍາລັບຮູບພາບ, ພິຈາລະນາການຂະຫຍາຍເຊັ່ນ: flips, ການປູກພືດ, ສິ່ງລົບກວນຂະຫນາດນ້ອຍ.

  3. ທາງເລືອກສະຖາປັດຕະຍະກໍາ : ເລີ່ມຕົ້ນງ່າຍດາຍ. ເພີ່ມຄວາມອາດສາມາດພຽງແຕ່ເມື່ອຈໍາເປັນ.

  4. ການຝຶກອົບຮົມ : batch ຂໍ້ມູນ. ສົ່ງຕໍ່. ຄິດໄລ່ການສູນເສຍ. Backprop. ອັບເດດ. ບັນທຶກການວັດແທກ.

  5. Regularize : Dropout, ຫຼຸດນ້ຳໜັກ, ຢຸດໄວ.

  6. ການປະເມີນ : ໃຊ້ຊຸດການຢືນຢັນສຳລັບ hyperparameters. ຖືຊຸດທົດສອບສໍາລັບການກວດສອບຄັ້ງສຸດທ້າຍ.

  7. ເຮືອຢ່າງລະມັດລະວັງ : ຕິດຕາມການລອຍ, ກວດເບິ່ງຄວາມລໍາອຽງ, ວາງແຜນການກັບຄືນ.

ສໍາລັບການສອນແບບຮຽນຈົບແບບລະຫັດກັບທິດສະດີແຂງ, ປື້ມແບບຮຽນເປີດແລະບັນທຶກ CS231n ແມ່ນສະມໍທີ່ເຊື່ອຖືໄດ້ [1, 2].


Overfitting, ໂດຍທົ່ວໄປ, ແລະ gremlins ອື່ນໆ 👀

  • Overfitting : ແບບຈໍາລອງການຈື່ຈໍາ quirks ການຝຶກອົບຮົມ. ແກ້ໄຂດ້ວຍຂໍ້ມູນເພີ່ມເຕີມ, ການເຮັດໃຫ້ເປັນປົກກະຕິທີ່ເຂັ້ມແຂງ, ຫຼືສະຖາປັດຕະຍະກໍາທີ່ງ່າຍດາຍກວ່າ.

  • Underfitting : ຕົວແບບແມ່ນງ່າຍດາຍເກີນໄປຫຼືການຝຶກອົບຮົມຂີ້ອາຍເກີນໄປ. ເພີ່ມຄວາມອາດສາມາດຫຼືການຝຶກອົບຮົມຕໍ່ໄປອີກແລ້ວ.

  • ຂໍ້​ມູນ​ຮົ່ວ​ໄຫລ : ຂໍ້​ມູນ​ຈາກ​ຊຸດ​ທົດ​ສອບ sneaks ເຂົ້າ​ໄປ​ໃນ​ການ​ຝຶກ​ອົບ​ຮົມ​. ສາມ​ຄັ້ງ​ກວດ​ສອບ​ການ​ແບ່ງ​ປັນ​ຂອງ​ທ່ານ​.

  • ການ​ປັບ​ທຽບ​ທີ່​ບໍ່​ດີ ​: ຕົວ​ແບບ​ທີ່​ມີ​ຄວາມ​ຫມັ້ນ​ໃຈ​ແຕ່​ຜິດ​ພາດ​ແມ່ນ​ອັນ​ຕະ​ລາຍ​. ພິ​ຈາ​ລະ​ນາ​ການ​ປັບ​ຫຼື​ການ​ສູນ​ເສຍ​ນ​້​ໍ​າ​ທີ່​ແຕກ​ຕ່າງ​ກັນ​.

  • ການ​ປ່ຽນ​ແປງ​ການ​ແຜ່​ກະ​ຈາຍ ​: ຂໍ້​ມູນ​ໃນ​ໂລກ​ທີ່​ແທ້​ຈິງ​ຍ້າຍ​. ຕິດຕາມແລະປັບຕົວ.

ສໍາລັບທິດສະດີທີ່ຢູ່ເບື້ອງຫລັງໂດຍທົ່ວໄປແລະປົກກະຕິ, ອີງໃສ່ການອ້າງອິງມາດຕະຖານ [1, 2].


ຄວາມ​ປອດ​ໄພ, ຄວາມ​ສາ​ມາດ​ຕີ​ຄວາມ​ຫມາຍ, ແລະ​ການ​ນໍາ​ໃຊ້​ທີ່​ມີ​ຄວາມ​ຮັບ​ຜິດ​ຊອບ 🧭

ເຄືອຂ່າຍ neural ສາມາດເຮັດການຕັດສິນໃຈທີ່ມີສະເຕກສູງ. ມັນບໍ່ພຽງພໍທີ່ພວກເຂົາເຮັດໄດ້ດີໃນກະດານຈັດອັນດັບ. ທ່ານຕ້ອງການການປົກຄອງ, ການວັດແທກ, ແລະຂັ້ນຕອນການຫຼຸດຜ່ອນໃນທົ່ວວົງຈອນຊີວິດ. ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງຂອງ NIST AI ອະທິບາຍເຖິງຫນ້າທີ່ປະຕິບັດ - ການປົກຄອງ, ແຜນທີ່, ມາດຕະການ, ການຄຸ້ມຄອງ - ເພື່ອຊ່ວຍໃຫ້ທີມງານປະສົມປະສານການຄຸ້ມຄອງຄວາມສ່ຽງເຂົ້າໃນການອອກແບບແລະການປະຕິບັດ [5].

ການກະຕຸ້ນໄວບາງອັນ:

  • ການກວດສອບຄວາມລຳອຽງ : ປະເມີນໃນທົ່ວພາກສ່ວນປະຊາກອນຕາມຄວາມເໝາະສົມ ແລະ ຖືກຕ້ອງຕາມກົດໝາຍ.

  • ຄວາມ​ສາ​ມາດ​ແປ​ພາ​ສາ : ໃຊ້​ເຕັກ​ນິກ​ຕ່າງໆ​ເຊັ່ນ​ຄວາມ​ເຂັ້ມ​ແຂງ ຫຼື​ຄຸນ​ສົມ​ບັດ​ທີ່​ມີ​ຄຸນ​ສົມ​ບັດ. ພວກມັນບໍ່ສົມບູນແບບ, ແຕ່ມີປະໂຫຍດ.

  • ການ​ຕິດ​ຕາມ​ກວດ​ກາ : ຕັ້ງ​ການ​ແຈ້ງ​ເຕືອນ​ສໍາ​ລັບ​ການ​ຫຼຸດ​ລົງ metric ຢ່າງ​ກະ​ທັນ​ຫັນ​ຫຼື​ຂໍ້​ມູນ​ພຽງ​ເລັກ​ນ້ອຍ​.

  • ການຄວບຄຸມຂອງມະນຸດ : ຮັກສາມະນຸດຢູ່ໃນວົງການສໍາລັບການຕັດສິນໃຈທີ່ມີຜົນກະທົບ. ບໍ່ມີວິລະຊົນ, ພຽງແຕ່ອະນາໄມ.


ຄຳຖາມທີ່ມັກຖາມເລື້ອຍໆ 🙋

ເຄືອຂ່າຍ neural ເປັນພື້ນຖານຂອງສະຫມອງບໍ?

ໄດ້ຮັບການດົນໃຈຈາກສະຫມອງ, ແມ່ນແລ້ວ - ແຕ່ງ່າຍດາຍ. Neurons ໃນເຄືອຂ່າຍແມ່ນຫນ້າທີ່ຄະນິດສາດ; neurons ຊີວະສາດແມ່ນຈຸລັງທີ່ມີຊີວິດທີ່ມີການເຄື່ອນໄຫວທີ່ສັບສົນ. vibes ທີ່ຄ້າຍຄືກັນ, ຟີຊິກທີ່ແຕກຕ່າງກັນຫຼາຍ [1].

ຂ້ອຍຕ້ອງການຊັ້ນໃດ?

ເລີ່ມຕົ້ນຂະຫນາດນ້ອຍ. ຖ້າເຈົ້າບໍ່ພໍດີ, ໃຫ້ເພີ່ມຄວາມກວ້າງ ຫຼື ຄວາມເລິກ. ຖ້າເຈົ້າພໍດີ, ປັບປົກກະຕິ ຫຼືຫຼຸດຄວາມອາດສາມາດ. ບໍ່ມີຕົວເລກ magic; ມີພຽງແຕ່ເສັ້ນໂຄ້ງຄວາມຖືກຕ້ອງແລະຄວາມອົດທົນ [1].

ຂ້ອຍຕ້ອງການ GPU ສະເໝີບໍ?

ບໍ່ສະເຫມີ. ຮູບແບບຂະຫນາດນ້ອຍກ່ຽວກັບຂໍ້ມູນເລັກນ້ອຍສາມາດຝຶກອົບຮົມໃນ CPU ໄດ້, ແຕ່ສໍາລັບຮູບພາບ, ຕົວແບບຂໍ້ຄວາມຂະຫນາດໃຫຍ່, ຫຼືຊຸດຂໍ້ມູນໃຫຍ່, ຕົວເລັ່ງຄວາມໄວປະຫຍັດເວລາຫຼາຍ [1].

ເປັນຫຍັງຜູ້ຄົນເວົ້າວ່າຄວາມສົນໃຈແມ່ນມີອໍານາດ?

ເນື່ອງຈາກວ່າຄວາມສົນໃຈເຮັດໃຫ້ຕົວແບບສຸມໃສ່ພາກສ່ວນທີ່ກ່ຽວຂ້ອງທີ່ສຸດຂອງວັດສະດຸປ້ອນໂດຍບໍ່ມີການຍ່າງຢ່າງເຂັ້ມງວດ. ມັນຈັບເອົາການພົວພັນທົ່ວໂລກ, ເຊິ່ງເປັນເລື່ອງໃຫຍ່ສໍາລັບວຽກງານພາສາແລະ multimodal [3].

ແມ່ນ "ເຄືອຂ່າຍ Neural ໃນ AI ແມ່ນຫຍັງ?" ແຕກຕ່າງຈາກ "ການຮຽນຮູ້ເລິກແມ່ນຫຍັງ"?

ການຮຽນຮູ້ເລິກແມ່ນວິທີການທີ່ກວ້າງກວ່າທີ່ໃຊ້ເຄືອຂ່າຍ neural ເລິກ. ດັ່ງນັ້ນການຖາມວ່າ Neural Network ໃນ AI ແມ່ນຫຍັງ? ແມ່ນຄ້າຍຄືຖາມກ່ຽວກັບລັກສະນະຕົ້ນຕໍ; ການຮຽນຮູ້ເລິກແມ່ນຮູບເງົາທັງຫມົດ [1].


ຄໍາແນະນໍາການປະຕິບັດ, ຄວາມຄິດເຫັນເລັກນ້ອຍ 💡

  • ຕ້ອງການ ພື້ນຖານທີ່ງ່າຍດາຍ ກ່ອນ. ເຖິງແມ່ນວ່າ perceptron multilayer ຂະຫນາດນ້ອຍສາມາດບອກທ່ານວ່າຂໍ້ມູນສາມາດຮຽນຮູ້ໄດ້.

  • ທໍ່ຂໍ້ມູນ ຂອງເຈົ້າ . ຖ້າທ່ານບໍ່ສາມາດແລ່ນມັນຄືນໄດ້, ທ່ານບໍ່ສາມາດໄວ້ວາງໃຈມັນໄດ້.

  • ອັດຕາການຮຽນຮູ້ ສຳຄັນກວ່າທີ່ເຈົ້າຄິດ. ລອງກຳນົດເວລາ. ການອົບອຸ່ນສາມາດຊ່ວຍໄດ້.

  • ການຊື້ຂາຍຂະໜາດຊຸດ . ຊຸດທີ່ໃຫຍ່ກວ່າຈະຮັກສາຄວາມຄົງທີ່ຂອງ gradients ແຕ່ໂດຍທົ່ວໄປອາດຈະແຕກຕ່າງກັນ.

  • ໃນ​ເວ​ລາ​ທີ່​ສັບ​ສົນ​, ການ​ສູນ​ເສຍ​ເສັ້ນ​ໂຄ້ງ ​ແລະ ​ບັນ​ດາ​ມາດ​ຕະ​ຖານ​ນ​້​ໍ​າ ​. ເຈົ້າຈະແປກໃຈວ່າຄຳຕອບຢູ່ໃນຕອນນັ້ນເລື້ອຍໆສໍ່າໃດ.

  • ສົມມຸດຕິຖານເອກະສານ. ອະນາຄົດ - ເຈົ້າລືມສິ່ງຕ່າງໆ - ໄວ [1, 2].


Deep-dive dive dive: ບົດບາດຂອງຂໍ້ມູນ, ຫຼືວ່າເປັນຫຍັງຂີ້ເຫຍື້ອໃນຍັງຫມາຍຄວາມວ່າຂີ້ເຫຍື້ອອອກ 🗑️➡️✨

ເຄືອຂ່າຍ neural ບໍ່ໄດ້ແກ້ໄຂຂໍ້ບົກພ່ອງຢ່າງມະຫັດສະຈັນ. ປ້າຍຊື່ທີ່ບິດເບືອນ, ຄວາມຜິດພາດຂອງຄໍາບັນຍາຍ, ຫຼືການເກັບຕົວຢ່າງແຄບຈະສະທ້ອນອອກມາຈາກຕົວແບບ. ຄຸ້ມຄອງ, ກວດສອບ, ແລະຂະຫຍາຍ. ແລະຖ້າທ່ານບໍ່ແນ່ໃຈວ່າທ່ານຕ້ອງການຂໍ້ມູນເພີ່ມເຕີມຫຼືຮູບແບບທີ່ດີກວ່າ, ຄໍາຕອບມັກຈະເປັນເລື່ອງທີ່ຫນ້າລໍາຄານ: ທັງສອງ - ແຕ່ເລີ່ມຕົ້ນດ້ວຍຄຸນນະພາບຂໍ້ມູນ [1].


"ເຄືອຂ່າຍ Neural Network ໃນ AI ແມ່ນຫຍັງ?" - ຄໍານິຍາມສັ້ນທີ່ທ່ານສາມາດນໍາໃຊ້ຄືນ🧾

  • ເຄືອຂ່າຍ neural ເປັນຕົວປະມານການທໍາງານຂອງຊັ້ນທີ່ຮຽນຮູ້ຮູບແບບທີ່ຊັບຊ້ອນໂດຍການປັບນ້ໍາຫນັກໂດຍໃຊ້ສັນຍານ gradient [1, 2].

  • ມັນ​ເປັນ​ລະ​ບົບ​ທີ່​ປ່ຽນ​ການ​ນໍາ​ເຂົ້າ​ເປັນ​ຜົນ​ຜະ​ລິດ​ໂດຍ​ຜ່ານ​ຂັ້ນ​ຕອນ​ບໍ່​ແມ່ນ​ເສັ້ນ​ຕໍ່​ເນື່ອງ​, ການ​ຝຶກ​ອົບ​ຮົມ​ເພື່ອ​ຫຼຸດ​ຜ່ອນ​ການ​ສູນ​ເສຍ [1​]​.

  • ມັນເປັນວິທີການສ້າງແບບຈໍາລອງແບບຍືດຫຍຸ່ນ, ຫິວໂຫຍທີ່ຈະເລີນເຕີບໂຕໃນວັດສະດຸປ້ອນທີ່ບໍ່ມີໂຄງສ້າງເຊັ່ນ: ຮູບພາບ, ຂໍ້ຄວາມ, ແລະສຽງ [1, 2, 3].


ຍາວເກີນໄປ, ບໍ່ໄດ້ອ່ານແລະຂໍ້ສັງເກດສຸດທ້າຍ 🎯

ຖ້າມີຄົນຖາມເຈົ້າ ວ່າ Neural Network ໃນ AI ແມ່ນຫຍັງ? ນີ້ແມ່ນການກັດສຽງ: ເຄືອຂ່າຍ neural ແມ່ນ stack ຂອງຫນ່ວຍງານງ່າຍດາຍທີ່ຫັນປ່ຽນຂໍ້ມູນເປັນຂັ້ນຕອນ, ຮຽນຮູ້ການຫັນເປັນໂດຍການຫຼຸດຜ່ອນການສູນເສຍແລະປະຕິບັດຕາມ gradients. ພວກມັນມີອໍານາດເພາະວ່າພວກເຂົາຂະຫຍາຍ, ຮຽນຮູ້ລັກສະນະອັດຕະໂນມັດ, ແລະສາມາດເປັນຕົວແທນຂອງຫນ້າທີ່ສະລັບສັບຊ້ອນຫຼາຍ [1, 4]. ພວກມັນມີຄວາມສ່ຽງຖ້າທ່ານບໍ່ສົນໃຈຄຸນນະພາບຂໍ້ມູນ, ການປົກຄອງ, ຫຼືການຕິດຕາມ [5]. ແລະພວກເຂົາບໍ່ແມ່ນ magic. ພຽງແຕ່ຄະນິດສາດ, ຄອມພິວເຕີ້, ແລະວິສະວະ ກຳ ທີ່ດີ - ມີລົດຊາດ.


ການອ່ານເພີ່ມເຕີມ, ເລືອກຢ່າງລະມັດລະວັງ (ສ່ວນທີ່ບໍ່ໄດ້ອ້າງອີງ)


ເອກະສານອ້າງອີງ

[1] Goodfellow, I., Bengio, Y., & Courville, A. Deep Learning . ໜັງສືພິມ MIT. ສະບັບອອນໄລນ໌ຟຣີ: ອ່ານເພີ່ມເຕີມ

[2] ສະແຕນຟອດ CS231n. Convolutional Neural Networks ສໍາລັບ Visual Recognition (ບັນທຶກຫຼັກສູດ): ອ່ານເພີ່ມເຕີມ

[3] Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). ເອົາ​ໃຈ​ໃສ່​ແມ່ນ​ທັງ​ຫມົດ​ທີ່​ທ່ານ​ຕ້ອງ​ການ ​. NeurIPS. arXiv: ອ່ານເພີ່ມເຕີມ

[4] Cybenko, G. (1989). ການປະມານໂດຍ superpositions ຂອງຫນ້າທີ່ sigmoidal . ຄະນິດສາດຂອງການຄວບຄຸມ, ສັນຍານ ແລະລະບົບ , 2, 303–314. Springer: ອ່ານເພີ່ມເຕີມ

[5] NIST. ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງ AI (AI RMF) : ອ່ານເພີ່ມເຕີມ


ຊອກຫາ AI ລ່າສຸດໄດ້ທີ່ຮ້ານ AI Assistant ຢ່າງເປັນທາງການ

ກ່ຽວກັບພວກເຮົາ

ກັບໄປທີ່ບລັອກ