ວິທີການສ້າງ AI ໃນຄອມພິວເຕີຂອງທ່ານ

ວິທີສ້າງ AI ໃນຄອມພິວເຕີຂອງທ່ານ. ຄູ່ມືເຕັມ.

ຕົກລົງ, ສະນັ້ນທ່ານຢາກຮູ້ຢາກເຫັນກ່ຽວກັບການສ້າງ "AI." ບໍ່ແມ່ນໃນຄວາມຫມາຍຂອງ Hollywood ທີ່ມັນຄິດເຖິງການມີຢູ່, ແຕ່ປະເພດທີ່ທ່ານສາມາດດໍາເນີນການໃນຄອມພິວເຕີໂນດບຸກຂອງທ່ານທີ່ເຮັດໃຫ້ການຄາດຄະເນ, ການຈັດລຽງສິ່ງຂອງ, ອາດຈະເປັນການສົນທະນາເລັກນ້ອຍ. ຄູ່ມືນີ້ກ່ຽວກັບ ວິທີການສ້າງ AI ໃນຄອມພິວເຕີຂອງທ່ານ ແມ່ນຄວາມພະຍາຍາມຂອງຂ້ອຍທີ່ຈະລາກເຈົ້າຈາກ ບໍ່ມີຫຍັງ ໄປຫາ ສິ່ງທີ່ເຮັດວຽກຢູ່ໃນທ້ອງຖິ່ນ . ຄາດຫວັງວ່າທາງລັດ, ຄວາມຄິດເຫັນທີ່ເສີຍໆ, ແລະເປັນບາງໂອກາດທາງຂ້າງເພາະວ່າ, ໃຫ້ຂອງແທ້, tinkering ບໍ່ເຄີຍສະອາດ.

ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:

🔗 ວິທີການສ້າງແບບຈໍາລອງ AI: ຂັ້ນຕອນເຕັມທີ່ອະທິບາຍ
ການແບ່ງຂັ້ນຊັດເຈນຂອງການສ້າງແບບຈໍາລອງ AI ຕັ້ງແຕ່ຕົ້ນຈົນຈົບ.

🔗 AI ສັນຍາລັກແມ່ນຫຍັງ: ສິ່ງທີ່ທ່ານຕ້ອງຮູ້
ຮຽນຮູ້ພື້ນຖານ AI ທີ່ເປັນສັນຍາລັກ, ປະຫວັດສາດ, ແລະຄໍາຮ້ອງສະຫມັກທີ່ທັນສະໄຫມ.

🔗 ຄວາມຕ້ອງການເກັບຮັກສາຂໍ້ມູນສໍາລັບ AI: ສິ່ງທີ່ທ່ານຕ້ອງການ
ເຂົ້າໃຈຄວາມຕ້ອງການເກັບຮັກສາສໍາລັບລະບົບ AI ທີ່ມີປະສິດທິພາບ ແລະສາມາດຂະຫຍາຍໄດ້.


ເປັນ​ຫຍັງ​ກັງ​ວົນ​ໃນ​ປັດ​ຈຸ​ບັນ​? 🧭

ເນື່ອງຈາກວ່າຍຸກຂອງ "ພຽງແຕ່ຫ້ອງທົດລອງຂະຫນາດ Google ສາມາດເຮັດໄດ້ AI" ໄດ້ຫມົດໄປ. ມື້ນີ້, ດ້ວຍຄອມພິວເຕີໂນດບຸກປົກກະຕິ, ບາງເຄື່ອງມືເປີດ, ແລະຄວາມແຂງກະດ້າງ, ທ່ານສາມາດແຕ່ງຕົວແບບຂະຫນາດນ້ອຍທີ່ຈັດປະເພດອີເມວ, ສະຫຼຸບຂໍ້ຄວາມ, ຫຼືແທັກຮູບພາບ. ບໍ່ມີສູນຂໍ້ມູນທີ່ຕ້ອງການ. ທ່ານພຽງແຕ່ຕ້ອງການ:

  • ແຜນ​ການ​,

  • ການ​ຕັ້ງ​ຄ່າ​ທີ່​ສະ​ອາດ​,

  • ແລະເປົ້າຫມາຍທີ່ທ່ານສາມາດສໍາເລັດໂດຍບໍ່ຕ້ອງການຖິ້ມເຄື່ອງຈັກອອກຈາກປ່ອງຢ້ຽມ.


ແມ່ນຫຍັງເຮັດໃຫ້ຄຸ້ມຄ່າຕາມນີ້ ✅

ຄົນທີ່ຖາມວ່າ "ວິທີການສ້າງ AI ໃນຄອມພິວເຕີຂອງທ່ານ" ປົກກະຕິແລ້ວບໍ່ຕ້ອງການປະລິນຍາເອກ. ພວກເຂົາຕ້ອງການບາງສິ່ງບາງຢ່າງທີ່ພວກເຂົາສາມາດດໍາເນີນການໄດ້. ແຜນການທີ່ດີມີບາງອັນ:

  • ເລີ່ມຕົ້ນນ້ອຍໆ : ຈັດປະເພດຄວາມຮູ້ສຶກ, ບໍ່ແມ່ນ "ແກ້ໄຂປັນຍາ."

  • Reproducibility : conda ຫຼື venv ດັ່ງນັ້ນທ່ານສາມາດສ້າງໃຫມ່ໃນມື້ອື່ນໂດຍບໍ່ມີການຕົກໃຈ.

  • ຄວາມຊື່ສັດຂອງຮາດແວ : CPUs ປັບໄຫມສໍາລັບ scikit-learn, GPUs ສໍາລັບ nets ເລິກ (ຖ້າທ່ານໂຊກດີ) [2][3].

  • ຂໍ້​ມູນ​ທີ່​ສະ​ອາດ ​: ບໍ່​ມີ junk mislabeled​; ສະເຫມີແບ່ງອອກເປັນລົດໄຟ / ຖືກຕ້ອງ / ການທົດສອບ.

  • metrics ທີ່​ຫມາຍ​ເຖິງ​ບາງ​ສິ່ງ​ບາງ​ຢ່າງ ​: ຄວາມ​ຖືກ​ຕ້ອງ​, ຄວາມ​ແມ່ນ​ຍໍາ​, recall​, F1​. ສໍາລັບຄວາມບໍ່ສົມດຸນ, ROC-AUC/PR-AUC [1].

  • ວິທີການແບ່ງປັນ : API ນ້ອຍໆ, CLI, ຫຼືແອັບ demo.

  • ຄວາມ​ປອດ​ໄພ ​: ບໍ່​ມີ​ຊຸດ​ຂໍ້​ມູນ​ຮົ່ມ​, ບໍ່​ມີ​ຂໍ້​ມູນ​ສ່ວນ​ຕົວ​ຮົ່ວ​ໄຫລ​, ສັງ​ເກດ​ຄວາມ​ສ່ຽງ​ຢ່າງ​ຈະ​ແຈ້ງ [4​]​.

ໄດ້ຮັບສິດທິເຫຼົ່ານັ້ນ, ແລະແມ້ກະທັ້ງຕົວແບບ "ຂະຫນາດນ້ອຍ" ຂອງທ່ານແມ່ນແທ້ຈິງ.


ແຜນທີ່ເສັ້ນທາງທີ່ບໍ່ເປັນຕາຢ້ານ 🗺️

  1. ເລືອກບັນຫານ້ອຍໆ + ນຶ່ງເມຕຣິກ.

  2. ຕິດຕັ້ງ Python ແລະຫ້ອງສະຫມຸດທີ່ສໍາຄັນຈໍານວນຫນຶ່ງ.

  3. ສ້າງສະພາບແວດລ້ອມທີ່ສະອາດ (ທ່ານຈະຂອບໃຈຕົວເອງຕໍ່ມາ).

  4. ໂຫຼດຊຸດຂໍ້ມູນຂອງທ່ານ, ແຍກໃຫ້ຖືກຕ້ອງ.

  5. ຝຶກ​ອົບ​ຮົມ​ພື້ນ​ຖານ​ໂງ່​ແຕ່​ຊື່​ສັດ​.

  6. ພະຍາຍາມສຸດທິ neural ພຽງແຕ່ຖ້າຫາກວ່າມັນເພີ່ມມູນຄ່າ.

  7. ຫຸ້ມຫໍ່ຕົວຢ່າງ.

  8. ບັນທຶກບາງບັນທຶກ, ໃນອະນາຄົດ - ເຈົ້າຈະຂອບໃຈ.


ຊຸດຕໍາ່ສຸດທີ່: ຢ່າສັບສົນ 🧰

  • Python : grab ຈາກ python.org.

  • ສະພາບແວດລ້ອມ : Conda ຫຼື venv ກັບ pip.

  • ປື້ມບັນທຶກ : Jupyter ສໍາລັບຫຼິ້ນ.

  • ບັນ​ນາ​ທິ​ການ : VS ລະ​ຫັດ​, ເປັນ​ມິດ​ແລະ​ມີ​ອໍາ​ນາດ​.

  • libs ຫຼັກ

    • pandas + NumPy (ການຂັດແຍ້ງຂໍ້ມູນ)

    • scikit-learn (ML ຄລາສສິກ)

    • PyTorch ຫຼື TensorFlow (ການຮຽນຮູ້ເລິກເຊິ່ງ, GPU ສ້າງບັນຫາ) [2][3]

    • Hugging Face Transformers, spaCy, OpenCV (NLP + ວິໄສທັດ)

  • ການເລັ່ງ (ທາງເລືອກ)

    • NVIDIA → CUDA ກໍ່ສ້າງ [2]

    • AMD → ROCm ກໍ່ສ້າງ [2]

    • Apple → PyTorch ກັບ backend ໂລຫະ (MPS) [2]

⚡ ບັນທຶກຂ້າງຄຽງ: "ຄວາມເຈັບປວດໃນການຕິດຕັ້ງ" ສ່ວນໃຫຍ່ຈະຫາຍໄປຖ້າທ່ານພຽງແຕ່ໃຫ້ຜູ້ຕິດຕັ້ງຢ່າງເປັນທາງການໃຫ້ ທີ່ແນ່ນອນ ສໍາລັບການຕິດຕັ້ງຂອງທ່ານ. ສຳເນົາ, ວາງ, ແລ້ວໆ [2][3].

ກົດລະບຽບຂອງໂປ້ມື: ລວບລວມຂໍ້ມູນໃສ່ CPU ທໍາອິດ, ແລ່ນດ້ວຍ GPU ຕໍ່ມາ.


ການເລືອກ stack ຂອງທ່ານ: ຕ້ານກັບສິ່ງທີ່ເປັນເງົາ 🧪

  • ຂໍ້ມູນຕາຕະລາງ → scikit-learn. Logistic regression, ປ່າສຸ່ມ, gradient boosting.

  • ຂໍ້ຄວາມ ຫຼືຮູບພາບ → PyTorch ຫຼື TensorFlow. ສໍາລັບຂໍ້ຄວາມ, ການປັບປ່ຽນ Transformer ຂະຫນາດນ້ອຍແມ່ນໄຊຊະນະອັນໃຫຍ່ຫຼວງ.

  • Chatbot-ish → llama.cpp ສາມາດແລ່ນ LLMs ນ້ອຍໆໃນແລັບທັອບໄດ້. ຢ່າຄາດຫວັງວ່າ magic, ແຕ່ມັນເຮັດວຽກສໍາລັບບັນທຶກແລະສະຫຼຸບ [5].


ຕັ້ງຄ່າສະພາບແວດລ້ອມທີ່ສະອາດ 🧼

# conda way conda create -n localai python=3.11 conda activate localai # OR venv python -m venv .venv source .venv/bin/activate # Windows: .venv\Scripts\activate

ຫຼັງ​ຈາກ​ນັ້ນ​, ການ​ຕິດ​ຕັ້ງ​ທີ່​ສໍາ​ຄັນ​:

pip ຕິດຕັ້ງ numpy pandas scikit-learn jupyter pip ຕິດຕັ້ງ torch torchvision torchaudio # ຫຼື tensorflow pip ຕິດຕັ້ງຊຸດຂໍ້ມູນການຫັນປ່ຽນ

(ສໍາລັບ GPU ກໍ່ສ້າງ, ຢ່າງຮຸນແຮງ, ພຽງແຕ່ໃຊ້ຕົວເລືອກຢ່າງເປັນທາງການ [2][3].)


ຮູບແບບການເຮັດວຽກທໍາອິດ: ຮັກສາມັນນ້ອຍໆ🏁

ພື້ນຖານກ່ອນ. CSV → ຄຸນສົມບັດ + ປ້າຍກຳກັບ → logistic regression.

ຈາກ sklearn.linear_model import LogisticRegression ... print("ຄວາມຖືກຕ້ອງ:", accuracy_score(y_test, preds)) print(classification_report(y_test, preds))

ຖ້າອັນນີ້ປະຕິບັດແບບສຸ່ມ, ເຈົ້າສະຫຼອງ. ກາເຟຫຼືຄຸກກີ, ໂທຂອງທ່ານ ☕.
ສໍາລັບຊັ້ນຮຽນທີ່ບໍ່ສົມດຸນ, ເບິ່ງຄວາມແມ່ນຍໍາ / ຈື່ + ROC / PR curves ແທນທີ່ຈະເປັນຄວາມຖືກຕ້ອງດິບ [1].


ຕາຫນ່າງປະສາດ (ພຽງແຕ່ຖ້າພວກເຂົາຊ່ວຍ) 🧠

ມີຂໍ້ຄວາມແລະຕ້ອງການການຈັດປະເພດຄວາມຮູ້ສຶກບໍ? ປັບປ່ຽນໝໍ້ແປງຂະໜາດນ້ອຍທີ່ໄດ້ຝຶກໄວ້ກ່ອນ. ດ່ວນ, ສະອາດ, ບໍ່ຈືນເຄື່ອງຂອງທ່ານ.

ຈາກ transformers ນໍາເຂົ້າ AutoModelForSequenceClassification ... trainer.train() print(trainer.evaluate())

Pro tip: ເລີ່ມຕົ້ນດ້ວຍຕົວຢ່າງນ້ອຍໆ. ການດີບັກໃນ 1% ຂອງຂໍ້ມູນຈະຊ່ວຍປະຢັດຊົ່ວໂມງ.


ຂໍ້ມູນ: ພື້ນຖານທີ່ທ່ານບໍ່ສາມາດຂ້າມໄດ້ 📦

  • ຊຸດຂໍ້ມູນສາທາລະນະ: Kaggle, Hugging Face, repos ທາງວິຊາການ (ກວດເບິ່ງໃບອະນຸຍາດ).

  • ຈັນຍາບັນ: ຂັດຂໍ້ມູນສ່ວນຕົວ, ເຄົາລົບສິດ.

  • ແຍກ: ການຝຶກອົບຮົມ, ການກວດສອບ, ການທົດສອບ. ບໍ່ເຄີຍເບິ່ງ.

  • ປ້າຍກຳກັບ: ຄວາມສອດຄ່ອງສຳຄັນກວ່າຕົວແບບແຟນຊີ.

ລະເບີດຄວາມຈິງ: 60% ຂອງຜົນໄດ້ຮັບແມ່ນມາຈາກປ້າຍທີ່ສະອາດ, ບໍ່ແມ່ນຕົວຊ່ວຍສ້າງສະຖາປັດຕະຍະກໍາ.


Metrics ທີ່ເຮັດໃຫ້ເຈົ້າຊື່ສັດ 🎯

  • ການຈັດປະເພດ →ຄວາມຖືກຕ້ອງ, ຄວາມແມ່ນຍໍາ, ການເອີ້ນຄືນ, F1.

  • ຊຸດທີ່ບໍ່ສົມດຸນກັນ → ROC-AUC, PR-AUC ສຳຄັນກວ່າ.

  • Regression → MAE, RMSE, R².

  • ການກວດສອບຄວາມເປັນຈິງ → eyeball ຜົນໄດ້ຮັບຈໍານວນຫນ້ອຍ; ຕົວເລກສາມາດຕົວະ.

ອ້າງອີງທີ່ເປັນປະໂຫຍດ: ຄູ່ມືການວັດແທກ scikit-learn [1].


ເຄັດລັບການເລັ່ງຄວາມໄວ 🚀

  • NVIDIA → PyTorch CUDA ກໍ່ສ້າງ [2]

  • AMD → ROCm [2]

  • Apple → MPS backend [2]

  • TensorFlow → ປະຕິບັດຕາມການຕິດຕັ້ງ GPU ຢ່າງເປັນທາງການ + ຢືນຢັນ [3]

ແຕ່ຢ່າເພີ່ມປະສິດທິພາບກ່ອນທີ່ເສັ້ນພື້ນຖານຂອງເຈົ້າຈະເຮັດວຽກ. ນັ້ນຄືກັບການຂັດຂອບກ່ອນລົດມີລໍ້.


ຮູບແບບການຜະລິດໃນທ້ອງຖິ່ນ: ມັງກອນເດັກນ້ອຍ 🐉

  • ພາສາ → quantized LLMs ຜ່ານ llama.cpp [5]. ດີສໍາລັບບັນທຶກຫຼືຄໍາແນະນໍາລະຫັດ, ບໍ່ແມ່ນການສົນທະນາເລິກ.

  • ຮູບພາບ → ຕົວແປການແຜ່ກະຈາຍທີ່ຫມັ້ນຄົງມີຢູ່; ອ່ານໃບອະນຸຍາດຢ່າງລະມັດລະວັງ.

ບາງຄັ້ງ Transformer ທີ່ຖືກປັບລະອຽດສະເພາະໜ້າວຽກຈະຕີ LLM ທີ່ບວມໃສ່ຮາດແວຂະໜາດນ້ອຍ.


ການສາທິດການຫຸ້ມຫໍ່: ໃຫ້ຄົນຄລິກ 🖥️

  • Gradio → UI ທີ່ງ່າຍທີ່ສຸດ.

  • FastAPI → API ທີ່ສະອາດ.

  • Flask → scripts ໄວ.

import gradio as gr clf = pipeline("ການວິເຄາະຄວາມຮູ້ສຶກ") ... demo.launch()

ຮູ້ສຶກຄືກັບເວດມົນເມື່ອໂປຣແກຣມທ່ອງເວັບຂອງເຈົ້າສະແດງມັນ.


ນິໄສຮັກສາສຸຂະພາບ🧠

  • Git ສໍາລັບການຄວບຄຸມສະບັບ.

  • MLflow ຫຼືປື້ມບັນທຶກສໍາລັບການຕິດຕາມການທົດລອງ.

  • ສະບັບຂໍ້ມູນດ້ວຍ DVC ຫຼື hashes.

  • Docker ຖ້າຜູ້ອື່ນຕ້ອງການແລ່ນສິ່ງຕ່າງໆຂອງເຈົ້າ.

  • Pin dependencies ( requirement.txt ).

ເຊື່ອຂ້ອຍ, ໃນອະນາຄົດ - ເຈົ້າຈະຮູ້ບຸນຄຸນ.


ການ​ແກ້​ໄຂ​ບັນ​ຫາ​: ປັດ​ຈຸ​ບັນ "ugh​" ທົ່ວ​ໄປ 🧯​

  • ຕິດຕັ້ງຜິດພາດບໍ? ພຽງແຕ່ເຊັດ env ແລະສ້າງໃຫມ່.

  • ກວດບໍ່ພົບ GPU ບໍ? ຄົນຂັບບໍ່ກົງກັນ, ໃຫ້ກວດເບິ່ງເວີຊັນ [2][3].

  • ຕົວແບບບໍ່ໄດ້ຮຽນ? ອັດຕາການຮຽນຮູ້ຕ່ໍາ, ເຮັດໃຫ້ງ່າຍ, ຫຼືປ້າຍຊື່ທີ່ສະອາດ.

  • Overfitting? ປົກກະຕິ, ອອກ, ຫຼືພຽງແຕ່ຂໍ້ມູນເພີ່ມເຕີມ.

  • metrics ດີເກີນໄປ? ທ່ານຮົ່ວຊຸດທົດສອບ (ມັນເກີດຂຶ້ນຫຼາຍກວ່າທີ່ເຈົ້າຄິດ).


ຄວາມປອດໄພ + ຄວາມຮັບຜິດຊອບ 🛡️

  • ແຖບ PII.

  • ເຄົາລົບໃບອະນຸຍາດ.

  • Local-first = ຄວາມເປັນສ່ວນຕົວ + ການຄວບຄຸມ, ແຕ່ມີຂອບເຂດຈໍາກັດຄອມພິວເຕີ້.

  • ຄວາມສ່ຽງດ້ານເອກະສານ (ຄວາມຍຸຕິທໍາ, ຄວາມປອດໄພ, ຄວາມຢືດຢຸ່ນ, ແລະອື່ນໆ) [4].


ຕາຕະລາງປຽບທຽບທີ່ມີປະໂຫຍດ 📊

ເຄື່ອງມື ດີທີ່ສຸດສຳລັບ ເປັນຫຍັງຕ້ອງໃຊ້ມັນ
ຮຽນຮູ້ Scikit ຂໍ້ມູນຕາຕະລາງ ໄວຊະນະ, API ສະອາດ🙂
PyTorch nets ເລິກ custom ມີຄວາມຍືດຫຍຸ່ນ, ຊຸມຊົນຂະຫນາດໃຫຍ່
TensorFlow ທໍ່ການຜະລິດ ລະບົບນິເວດ + ທາງເລືອກການໃຫ້ບໍລິການ
ໝໍ້ແປງໄຟຟ້າ ຂໍ້ຄວາມ ຮູບແບບທີ່ຝຶກໄວ້ກ່ອນຈະຊ່ວຍປະຢັດຄອມພິວເຕີ
ສະປາຊີ ທໍ່ NLP ຄວາມເຂັ້ມແຂງດ້ານອຸດສາຫະກໍາ, pragmatic
Gradio Demos/UIs 1 ໄຟລ໌ → UI
FastAPI API ຄວາມໄວ + ເອກະສານອັດຕະໂນມັດ
ເວລາແລ່ນ ONNX ການນໍາໃຊ້ຂ້າມກອບ Portable + ປະສິດທິພາບ
llama.cpp LLM ທ້ອງຖິ່ນນ້ອຍໆ ປະລິມານທີ່ເປັນມິດກັບ CPU [5]
ນັກດັອກເກີ ການແບ່ງປັນ envs "ມັນເຮັດວຽກຢູ່ທົ່ວທຸກແຫ່ງ"

ສາມ dive deeper (ເຈົ້າຈະໃຊ້ຕົວຈິງ) 🏊

  1. ວິສະວະກໍາຄຸນສົມບັດສໍາລັບຕາຕະລາງ → normalize, one-hot, ລອງແບບຕົ້ນໄມ້, cross-validate [1].

  2. ການ​ຮຽນ​ຮູ້​ການ​ໂອນ​ຍ້າຍ​ສໍາ​ລັບ​ຂໍ້​ຄວາມ →​ປັບ​ປັບ​ຂະ​ຫນາດ​ນ້ອຍ Transformers​, ຮັກ​ສາ​ຄວາມ​ຍາວ seq ເລັກ​ນ້ອຍ​, F1 ສໍາ​ລັບ​ການ​ຮຽນ​ທີ່​ຫາ​ຍາກ [1​]​.

  3. ການເພີ່ມປະສິດທິພາບສໍາລັບ inference ທ້ອງຖິ່ນ → quantize, ສົ່ງອອກ ONNX, cache tokenizers.


ຂຸມຄລາສສິກ🪤

  • ການກໍ່ສ້າງໃຫຍ່ເກີນໄປ, ໄວເກີນໄປ.

  • ບໍ່ສົນໃຈຄຸນນະພາບຂໍ້ມູນ.

  • ຂ້າມການແຍກການທົດສອບ.

  • ລະຫັດສຳເນົາ-ວາງແບບຕາບອດ.

  • ບໍ່ໄດ້ບັນທຶກຫຍັງ.

ເຖິງແມ່ນວ່າ README ຈະຊ່ວຍປະຢັດຊົ່ວໂມງຕໍ່ມາ.


ແຫຼ່ງການຮຽນຮູ້ທີ່ຄຸ້ມຄ່າກັບເວລາ 📚

  • ເອກະສານທີ່ເປັນທາງການ (PyTorch, TensorFlow, scikit-learn, Transformers).

  • Google ML Crash Course, DeepLearning.AI.

  • OpenCV docs ສໍາລັບພື້ນຖານວິໄສທັດ.

  • ຄູ່ມືການນໍາໃຊ້ spaCy ສໍາລັບທໍ່ NLP.

ການແຮັກຊີວິດນ້ອຍໆ: ຜູ້ຕິດຕັ້ງຢ່າງເປັນທາງການທີ່ສ້າງຄໍາສັ່ງຕິດຕັ້ງ GPU ຂອງທ່ານແມ່ນຕົວຊ່ວຍຊີວິດ [2][3].


ດຶງເຂົ້າກັນ 🧩

  1. ເປົ້າໝາຍ → ຈັດປະເພດປີ້ສະໜັບສະໜູນອອກເປັນ 3 ປະເພດ.

  2. ຂໍ້ມູນ → ການສົ່ງອອກ CSV, ບໍ່ເປີດເຜີຍຊື່, ແຍກ.

  3. ພື້ນຖານ → scikit-learn TF-IDF + logistic regression.

  4. ອັບເກຣດ → Transformer fine-tune ຖ້າມີບ່ອນວາງພື້ນຖານ.

  5. Demo → Gradio textbox app.

  6. ເຮືອ → Docker + README.

  7. Iterate → ແກ້​ໄຂ​ຄວາມ​ຜິດ​ພາດ​, relabel​, ເຮັດ​ເລ​ື້ມ​ຄືນ​.

  8. ປົກປ້ອງ → ຄວາມສ່ຽງດ້ານເອກະສານ [4].

ມັນມີປະສິດທິພາບທີ່ຫນ້າເບື່ອ.


TL;DR 🎂

ການຮຽນຮູ້ ວິທີການສ້າງ AI ໃນຄອມພິວເຕີຂອງທ່ານ = ເລືອກບັນຫານ້ອຍໆອັນໜຶ່ງ, ສ້າງພື້ນຖານ, ພຽງແຕ່ຂະຫຍາຍເວລາທີ່ມັນຊ່ວຍ, ແລະຮັກສາການຕັ້ງຄ່າຂອງເຈົ້າໃຫ້ສາມາດແຜ່ພັນໄດ້. ເຮັດມັນສອງຄັ້ງແລະເຈົ້າຈະຮູ້ສຶກວ່າມີຄວາມສາມາດ. ເຮັດຫ້າເທື່ອແລ້ວຄົນກໍຈະເລີ່ມຂໍຄວາມຊ່ວຍເຫຼືອຈາກເຈົ້າ, ເຊິ່ງເປັນສ່ວນທີ່ມ່ວນຢ່າງລັບໆ.

ແລະແມ່ນແລ້ວ, ບາງຄັ້ງມັນຮູ້ສຶກຄືກັບການສອນເຕົາອົບເພື່ອຂຽນບົດກະວີ. ບໍ່ເປັນຫຍັງ. ຮັກ​ສາ tinkering. 🔌📝


ເອກະສານອ້າງອີງ

[1] scikit-learn — Metrics & model evaluation: link
[2] PyTorch — Local install selector (CUDA/ROCm/Mac MPS): link
[3] TensorFlow — Install + GPU verification: link
[4] NIST — AI Risk Management Framework: link
[5] llama.cpp — Local LLM repo: link


ຊອກຫາ AI ລ່າສຸດໄດ້ທີ່ຮ້ານ AI Assistant ຢ່າງເປັນທາງການ

ກ່ຽວກັບພວກເຮົາ

ກັບໄປທີ່ບລັອກ