ຕົກລົງ, ສະນັ້ນທ່ານຢາກຮູ້ຢາກເຫັນກ່ຽວກັບການສ້າງ "AI." ບໍ່ແມ່ນໃນຄວາມຫມາຍຂອງ Hollywood ທີ່ມັນຄິດເຖິງການມີຢູ່, ແຕ່ປະເພດທີ່ທ່ານສາມາດດໍາເນີນການໃນຄອມພິວເຕີໂນດບຸກຂອງທ່ານທີ່ເຮັດໃຫ້ການຄາດຄະເນ, ການຈັດລຽງສິ່ງຂອງ, ອາດຈະເປັນການສົນທະນາເລັກນ້ອຍ. ຄູ່ມືນີ້ກ່ຽວກັບ ວິທີການສ້າງ AI ໃນຄອມພິວເຕີຂອງທ່ານ ແມ່ນຄວາມພະຍາຍາມຂອງຂ້ອຍທີ່ຈະລາກເຈົ້າຈາກ ບໍ່ມີຫຍັງ ໄປຫາ ສິ່ງທີ່ເຮັດວຽກຢູ່ໃນທ້ອງຖິ່ນ . ຄາດຫວັງວ່າທາງລັດ, ຄວາມຄິດເຫັນທີ່ເສີຍໆ, ແລະເປັນບາງໂອກາດທາງຂ້າງເພາະວ່າ, ໃຫ້ຂອງແທ້, tinkering ບໍ່ເຄີຍສະອາດ.
ບົດຄວາມທີ່ທ່ານອາດຈະຢາກອ່ານຫຼັງຈາກບົດຄວາມນີ້:
🔗 ວິທີການສ້າງແບບຈໍາລອງ AI: ຂັ້ນຕອນເຕັມທີ່ອະທິບາຍ
ການແບ່ງຂັ້ນຊັດເຈນຂອງການສ້າງແບບຈໍາລອງ AI ຕັ້ງແຕ່ຕົ້ນຈົນຈົບ.
🔗 AI ສັນຍາລັກແມ່ນຫຍັງ: ສິ່ງທີ່ທ່ານຕ້ອງຮູ້
ຮຽນຮູ້ພື້ນຖານ AI ທີ່ເປັນສັນຍາລັກ, ປະຫວັດສາດ, ແລະຄໍາຮ້ອງສະຫມັກທີ່ທັນສະໄຫມ.
🔗 ຄວາມຕ້ອງການເກັບຮັກສາຂໍ້ມູນສໍາລັບ AI: ສິ່ງທີ່ທ່ານຕ້ອງການ
ເຂົ້າໃຈຄວາມຕ້ອງການເກັບຮັກສາສໍາລັບລະບົບ AI ທີ່ມີປະສິດທິພາບ ແລະສາມາດຂະຫຍາຍໄດ້.
ເປັນຫຍັງກັງວົນໃນປັດຈຸບັນ? 🧭
ເນື່ອງຈາກວ່າຍຸກຂອງ "ພຽງແຕ່ຫ້ອງທົດລອງຂະຫນາດ Google ສາມາດເຮັດໄດ້ AI" ໄດ້ຫມົດໄປ. ມື້ນີ້, ດ້ວຍຄອມພິວເຕີໂນດບຸກປົກກະຕິ, ບາງເຄື່ອງມືເປີດ, ແລະຄວາມແຂງກະດ້າງ, ທ່ານສາມາດແຕ່ງຕົວແບບຂະຫນາດນ້ອຍທີ່ຈັດປະເພດອີເມວ, ສະຫຼຸບຂໍ້ຄວາມ, ຫຼືແທັກຮູບພາບ. ບໍ່ມີສູນຂໍ້ມູນທີ່ຕ້ອງການ. ທ່ານພຽງແຕ່ຕ້ອງການ:
-
ແຜນການ,
-
ການຕັ້ງຄ່າທີ່ສະອາດ,
-
ແລະເປົ້າຫມາຍທີ່ທ່ານສາມາດສໍາເລັດໂດຍບໍ່ຕ້ອງການຖິ້ມເຄື່ອງຈັກອອກຈາກປ່ອງຢ້ຽມ.
ແມ່ນຫຍັງເຮັດໃຫ້ຄຸ້ມຄ່າຕາມນີ້ ✅
ຄົນທີ່ຖາມວ່າ "ວິທີການສ້າງ AI ໃນຄອມພິວເຕີຂອງທ່ານ" ປົກກະຕິແລ້ວບໍ່ຕ້ອງການປະລິນຍາເອກ. ພວກເຂົາຕ້ອງການບາງສິ່ງບາງຢ່າງທີ່ພວກເຂົາສາມາດດໍາເນີນການໄດ້. ແຜນການທີ່ດີມີບາງອັນ:
-
ເລີ່ມຕົ້ນນ້ອຍໆ : ຈັດປະເພດຄວາມຮູ້ສຶກ, ບໍ່ແມ່ນ "ແກ້ໄຂປັນຍາ."
-
Reproducibility :
condaຫຼືvenvດັ່ງນັ້ນທ່ານສາມາດສ້າງໃຫມ່ໃນມື້ອື່ນໂດຍບໍ່ມີການຕົກໃຈ. -
ຄວາມຊື່ສັດຂອງຮາດແວ : CPUs ປັບໄຫມສໍາລັບ scikit-learn, GPUs ສໍາລັບ nets ເລິກ (ຖ້າທ່ານໂຊກດີ) [2][3].
-
ຂໍ້ມູນທີ່ສະອາດ : ບໍ່ມີ junk mislabeled; ສະເຫມີແບ່ງອອກເປັນລົດໄຟ / ຖືກຕ້ອງ / ການທົດສອບ.
-
metrics ທີ່ຫມາຍເຖິງບາງສິ່ງບາງຢ່າງ : ຄວາມຖືກຕ້ອງ, ຄວາມແມ່ນຍໍາ, recall, F1. ສໍາລັບຄວາມບໍ່ສົມດຸນ, ROC-AUC/PR-AUC [1].
-
ວິທີການແບ່ງປັນ : API ນ້ອຍໆ, CLI, ຫຼືແອັບ demo.
-
ຄວາມປອດໄພ : ບໍ່ມີຊຸດຂໍ້ມູນຮົ່ມ, ບໍ່ມີຂໍ້ມູນສ່ວນຕົວຮົ່ວໄຫລ, ສັງເກດຄວາມສ່ຽງຢ່າງຈະແຈ້ງ [4].
ໄດ້ຮັບສິດທິເຫຼົ່ານັ້ນ, ແລະແມ້ກະທັ້ງຕົວແບບ "ຂະຫນາດນ້ອຍ" ຂອງທ່ານແມ່ນແທ້ຈິງ.
ແຜນທີ່ເສັ້ນທາງທີ່ບໍ່ເປັນຕາຢ້ານ 🗺️
-
ເລືອກບັນຫານ້ອຍໆ + ນຶ່ງເມຕຣິກ.
-
ຕິດຕັ້ງ Python ແລະຫ້ອງສະຫມຸດທີ່ສໍາຄັນຈໍານວນຫນຶ່ງ.
-
ສ້າງສະພາບແວດລ້ອມທີ່ສະອາດ (ທ່ານຈະຂອບໃຈຕົວເອງຕໍ່ມາ).
-
ໂຫຼດຊຸດຂໍ້ມູນຂອງທ່ານ, ແຍກໃຫ້ຖືກຕ້ອງ.
-
ຝຶກອົບຮົມພື້ນຖານໂງ່ແຕ່ຊື່ສັດ.
-
ພະຍາຍາມສຸດທິ neural ພຽງແຕ່ຖ້າຫາກວ່າມັນເພີ່ມມູນຄ່າ.
-
ຫຸ້ມຫໍ່ຕົວຢ່າງ.
-
ບັນທຶກບາງບັນທຶກ, ໃນອະນາຄົດ - ເຈົ້າຈະຂອບໃຈ.
ຊຸດຕໍາ່ສຸດທີ່: ຢ່າສັບສົນ 🧰
-
Python : grab ຈາກ python.org.
-
ສະພາບແວດລ້ອມ : Conda ຫຼື
venvກັບ pip. -
ປື້ມບັນທຶກ : Jupyter ສໍາລັບຫຼິ້ນ.
-
ບັນນາທິການ : VS ລະຫັດ, ເປັນມິດແລະມີອໍານາດ.
-
libs ຫຼັກ
-
pandas + NumPy (ການຂັດແຍ້ງຂໍ້ມູນ)
-
scikit-learn (ML ຄລາສສິກ)
-
PyTorch ຫຼື TensorFlow (ການຮຽນຮູ້ເລິກເຊິ່ງ, GPU ສ້າງບັນຫາ) [2][3]
-
Hugging Face Transformers, spaCy, OpenCV (NLP + ວິໄສທັດ)
-
-
ການເລັ່ງ (ທາງເລືອກ)
-
NVIDIA → CUDA ກໍ່ສ້າງ [2]
-
AMD → ROCm ກໍ່ສ້າງ [2]
-
Apple → PyTorch ກັບ backend ໂລຫະ (MPS) [2]
-
⚡ ບັນທຶກຂ້າງຄຽງ: "ຄວາມເຈັບປວດໃນການຕິດຕັ້ງ" ສ່ວນໃຫຍ່ຈະຫາຍໄປຖ້າທ່ານພຽງແຕ່ໃຫ້ຜູ້ຕິດຕັ້ງຢ່າງເປັນທາງການໃຫ້ ທີ່ແນ່ນອນ ສໍາລັບການຕິດຕັ້ງຂອງທ່ານ. ສຳເນົາ, ວາງ, ແລ້ວໆ [2][3].
ກົດລະບຽບຂອງໂປ້ມື: ລວບລວມຂໍ້ມູນໃສ່ CPU ທໍາອິດ, ແລ່ນດ້ວຍ GPU ຕໍ່ມາ.
ການເລືອກ stack ຂອງທ່ານ: ຕ້ານກັບສິ່ງທີ່ເປັນເງົາ 🧪
-
ຂໍ້ມູນຕາຕະລາງ → scikit-learn. Logistic regression, ປ່າສຸ່ມ, gradient boosting.
-
ຂໍ້ຄວາມ ຫຼືຮູບພາບ → PyTorch ຫຼື TensorFlow. ສໍາລັບຂໍ້ຄວາມ, ການປັບປ່ຽນ Transformer ຂະຫນາດນ້ອຍແມ່ນໄຊຊະນະອັນໃຫຍ່ຫຼວງ.
-
Chatbot-ish →
llama.cppສາມາດແລ່ນ LLMs ນ້ອຍໆໃນແລັບທັອບໄດ້. ຢ່າຄາດຫວັງວ່າ magic, ແຕ່ມັນເຮັດວຽກສໍາລັບບັນທຶກແລະສະຫຼຸບ [5].
ຕັ້ງຄ່າສະພາບແວດລ້ອມທີ່ສະອາດ 🧼
# conda way conda create -n localai python=3.11 conda activate localai # OR venv python -m venv .venv source .venv/bin/activate # Windows: .venv\Scripts\activate
ຫຼັງຈາກນັ້ນ, ການຕິດຕັ້ງທີ່ສໍາຄັນ:
pip ຕິດຕັ້ງ numpy pandas scikit-learn jupyter pip ຕິດຕັ້ງ torch torchvision torchaudio # ຫຼື tensorflow pip ຕິດຕັ້ງຊຸດຂໍ້ມູນການຫັນປ່ຽນ
(ສໍາລັບ GPU ກໍ່ສ້າງ, ຢ່າງຮຸນແຮງ, ພຽງແຕ່ໃຊ້ຕົວເລືອກຢ່າງເປັນທາງການ [2][3].)
ຮູບແບບການເຮັດວຽກທໍາອິດ: ຮັກສາມັນນ້ອຍໆ🏁
ພື້ນຖານກ່ອນ. CSV → ຄຸນສົມບັດ + ປ້າຍກຳກັບ → logistic regression.
ຈາກ sklearn.linear_model import LogisticRegression ... print("ຄວາມຖືກຕ້ອງ:", accuracy_score(y_test, preds)) print(classification_report(y_test, preds))
ຖ້າອັນນີ້ປະຕິບັດແບບສຸ່ມ, ເຈົ້າສະຫຼອງ. ກາເຟຫຼືຄຸກກີ, ໂທຂອງທ່ານ ☕.
ສໍາລັບຊັ້ນຮຽນທີ່ບໍ່ສົມດຸນ, ເບິ່ງຄວາມແມ່ນຍໍາ / ຈື່ + ROC / PR curves ແທນທີ່ຈະເປັນຄວາມຖືກຕ້ອງດິບ [1].
ຕາຫນ່າງປະສາດ (ພຽງແຕ່ຖ້າພວກເຂົາຊ່ວຍ) 🧠
ມີຂໍ້ຄວາມແລະຕ້ອງການການຈັດປະເພດຄວາມຮູ້ສຶກບໍ? ປັບປ່ຽນໝໍ້ແປງຂະໜາດນ້ອຍທີ່ໄດ້ຝຶກໄວ້ກ່ອນ. ດ່ວນ, ສະອາດ, ບໍ່ຈືນເຄື່ອງຂອງທ່ານ.
ຈາກ transformers ນໍາເຂົ້າ AutoModelForSequenceClassification ... trainer.train() print(trainer.evaluate())
Pro tip: ເລີ່ມຕົ້ນດ້ວຍຕົວຢ່າງນ້ອຍໆ. ການດີບັກໃນ 1% ຂອງຂໍ້ມູນຈະຊ່ວຍປະຢັດຊົ່ວໂມງ.
ຂໍ້ມູນ: ພື້ນຖານທີ່ທ່ານບໍ່ສາມາດຂ້າມໄດ້ 📦
-
ຊຸດຂໍ້ມູນສາທາລະນະ: Kaggle, Hugging Face, repos ທາງວິຊາການ (ກວດເບິ່ງໃບອະນຸຍາດ).
-
ຈັນຍາບັນ: ຂັດຂໍ້ມູນສ່ວນຕົວ, ເຄົາລົບສິດ.
-
ແຍກ: ການຝຶກອົບຮົມ, ການກວດສອບ, ການທົດສອບ. ບໍ່ເຄີຍເບິ່ງ.
-
ປ້າຍກຳກັບ: ຄວາມສອດຄ່ອງສຳຄັນກວ່າຕົວແບບແຟນຊີ.
ລະເບີດຄວາມຈິງ: 60% ຂອງຜົນໄດ້ຮັບແມ່ນມາຈາກປ້າຍທີ່ສະອາດ, ບໍ່ແມ່ນຕົວຊ່ວຍສ້າງສະຖາປັດຕະຍະກໍາ.
Metrics ທີ່ເຮັດໃຫ້ເຈົ້າຊື່ສັດ 🎯
-
ການຈັດປະເພດ →ຄວາມຖືກຕ້ອງ, ຄວາມແມ່ນຍໍາ, ການເອີ້ນຄືນ, F1.
-
ຊຸດທີ່ບໍ່ສົມດຸນກັນ → ROC-AUC, PR-AUC ສຳຄັນກວ່າ.
-
Regression → MAE, RMSE, R².
-
ການກວດສອບຄວາມເປັນຈິງ → eyeball ຜົນໄດ້ຮັບຈໍານວນຫນ້ອຍ; ຕົວເລກສາມາດຕົວະ.
ອ້າງອີງທີ່ເປັນປະໂຫຍດ: ຄູ່ມືການວັດແທກ scikit-learn [1].
ເຄັດລັບການເລັ່ງຄວາມໄວ 🚀
-
NVIDIA → PyTorch CUDA ກໍ່ສ້າງ [2]
-
AMD → ROCm [2]
-
Apple → MPS backend [2]
-
TensorFlow → ປະຕິບັດຕາມການຕິດຕັ້ງ GPU ຢ່າງເປັນທາງການ + ຢືນຢັນ [3]
ແຕ່ຢ່າເພີ່ມປະສິດທິພາບກ່ອນທີ່ເສັ້ນພື້ນຖານຂອງເຈົ້າຈະເຮັດວຽກ. ນັ້ນຄືກັບການຂັດຂອບກ່ອນລົດມີລໍ້.
ຮູບແບບການຜະລິດໃນທ້ອງຖິ່ນ: ມັງກອນເດັກນ້ອຍ 🐉
-
ພາສາ → quantized LLMs ຜ່ານ
llama.cpp[5]. ດີສໍາລັບບັນທຶກຫຼືຄໍາແນະນໍາລະຫັດ, ບໍ່ແມ່ນການສົນທະນາເລິກ. -
ຮູບພາບ → ຕົວແປການແຜ່ກະຈາຍທີ່ຫມັ້ນຄົງມີຢູ່; ອ່ານໃບອະນຸຍາດຢ່າງລະມັດລະວັງ.
ບາງຄັ້ງ Transformer ທີ່ຖືກປັບລະອຽດສະເພາະໜ້າວຽກຈະຕີ LLM ທີ່ບວມໃສ່ຮາດແວຂະໜາດນ້ອຍ.
ການສາທິດການຫຸ້ມຫໍ່: ໃຫ້ຄົນຄລິກ 🖥️
-
Gradio → UI ທີ່ງ່າຍທີ່ສຸດ.
-
FastAPI → API ທີ່ສະອາດ.
-
Flask → scripts ໄວ.
import gradio as gr clf = pipeline("ການວິເຄາະຄວາມຮູ້ສຶກ") ... demo.launch()
ຮູ້ສຶກຄືກັບເວດມົນເມື່ອໂປຣແກຣມທ່ອງເວັບຂອງເຈົ້າສະແດງມັນ.
ນິໄສຮັກສາສຸຂະພາບ🧠
-
Git ສໍາລັບການຄວບຄຸມສະບັບ.
-
MLflow ຫຼືປື້ມບັນທຶກສໍາລັບການຕິດຕາມການທົດລອງ.
-
ສະບັບຂໍ້ມູນດ້ວຍ DVC ຫຼື hashes.
-
Docker ຖ້າຜູ້ອື່ນຕ້ອງການແລ່ນສິ່ງຕ່າງໆຂອງເຈົ້າ.
-
Pin dependencies (
requirement.txt).
ເຊື່ອຂ້ອຍ, ໃນອະນາຄົດ - ເຈົ້າຈະຮູ້ບຸນຄຸນ.
ການແກ້ໄຂບັນຫາ: ປັດຈຸບັນ "ugh" ທົ່ວໄປ 🧯
-
ຕິດຕັ້ງຜິດພາດບໍ? ພຽງແຕ່ເຊັດ env ແລະສ້າງໃຫມ່.
-
ກວດບໍ່ພົບ GPU ບໍ? ຄົນຂັບບໍ່ກົງກັນ, ໃຫ້ກວດເບິ່ງເວີຊັນ [2][3].
-
ຕົວແບບບໍ່ໄດ້ຮຽນ? ອັດຕາການຮຽນຮູ້ຕ່ໍາ, ເຮັດໃຫ້ງ່າຍ, ຫຼືປ້າຍຊື່ທີ່ສະອາດ.
-
Overfitting? ປົກກະຕິ, ອອກ, ຫຼືພຽງແຕ່ຂໍ້ມູນເພີ່ມເຕີມ.
-
metrics ດີເກີນໄປ? ທ່ານຮົ່ວຊຸດທົດສອບ (ມັນເກີດຂຶ້ນຫຼາຍກວ່າທີ່ເຈົ້າຄິດ).
ຄວາມປອດໄພ + ຄວາມຮັບຜິດຊອບ 🛡️
-
ແຖບ PII.
-
ເຄົາລົບໃບອະນຸຍາດ.
-
Local-first = ຄວາມເປັນສ່ວນຕົວ + ການຄວບຄຸມ, ແຕ່ມີຂອບເຂດຈໍາກັດຄອມພິວເຕີ້.
-
ຄວາມສ່ຽງດ້ານເອກະສານ (ຄວາມຍຸຕິທໍາ, ຄວາມປອດໄພ, ຄວາມຢືດຢຸ່ນ, ແລະອື່ນໆ) [4].
ຕາຕະລາງປຽບທຽບທີ່ມີປະໂຫຍດ 📊
| ເຄື່ອງມື | ດີທີ່ສຸດສຳລັບ | ເປັນຫຍັງຕ້ອງໃຊ້ມັນ |
|---|---|---|
| ຮຽນຮູ້ Scikit | ຂໍ້ມູນຕາຕະລາງ | ໄວຊະນະ, API ສະອາດ🙂 |
| PyTorch | nets ເລິກ custom | ມີຄວາມຍືດຫຍຸ່ນ, ຊຸມຊົນຂະຫນາດໃຫຍ່ |
| TensorFlow | ທໍ່ການຜະລິດ | ລະບົບນິເວດ + ທາງເລືອກການໃຫ້ບໍລິການ |
| ໝໍ້ແປງໄຟຟ້າ | ຂໍ້ຄວາມ | ຮູບແບບທີ່ຝຶກໄວ້ກ່ອນຈະຊ່ວຍປະຢັດຄອມພິວເຕີ |
| ສະປາຊີ | ທໍ່ NLP | ຄວາມເຂັ້ມແຂງດ້ານອຸດສາຫະກໍາ, pragmatic |
| Gradio | Demos/UIs | 1 ໄຟລ໌ → UI |
| FastAPI | API | ຄວາມໄວ + ເອກະສານອັດຕະໂນມັດ |
| ເວລາແລ່ນ ONNX | ການນໍາໃຊ້ຂ້າມກອບ | Portable + ປະສິດທິພາບ |
| llama.cpp | LLM ທ້ອງຖິ່ນນ້ອຍໆ | ປະລິມານທີ່ເປັນມິດກັບ CPU [5] |
| ນັກດັອກເກີ | ການແບ່ງປັນ envs | "ມັນເຮັດວຽກຢູ່ທົ່ວທຸກແຫ່ງ" |
ສາມ dive deeper (ເຈົ້າຈະໃຊ້ຕົວຈິງ) 🏊
-
ວິສະວະກໍາຄຸນສົມບັດສໍາລັບຕາຕະລາງ → normalize, one-hot, ລອງແບບຕົ້ນໄມ້, cross-validate [1].
-
ການຮຽນຮູ້ການໂອນຍ້າຍສໍາລັບຂໍ້ຄວາມ →ປັບປັບຂະຫນາດນ້ອຍ Transformers, ຮັກສາຄວາມຍາວ seq ເລັກນ້ອຍ, F1 ສໍາລັບການຮຽນທີ່ຫາຍາກ [1].
-
ການເພີ່ມປະສິດທິພາບສໍາລັບ inference ທ້ອງຖິ່ນ → quantize, ສົ່ງອອກ ONNX, cache tokenizers.
ຂຸມຄລາສສິກ🪤
-
ການກໍ່ສ້າງໃຫຍ່ເກີນໄປ, ໄວເກີນໄປ.
-
ບໍ່ສົນໃຈຄຸນນະພາບຂໍ້ມູນ.
-
ຂ້າມການແຍກການທົດສອບ.
-
ລະຫັດສຳເນົາ-ວາງແບບຕາບອດ.
-
ບໍ່ໄດ້ບັນທຶກຫຍັງ.
ເຖິງແມ່ນວ່າ README ຈະຊ່ວຍປະຢັດຊົ່ວໂມງຕໍ່ມາ.
ແຫຼ່ງການຮຽນຮູ້ທີ່ຄຸ້ມຄ່າກັບເວລາ 📚
-
ເອກະສານທີ່ເປັນທາງການ (PyTorch, TensorFlow, scikit-learn, Transformers).
-
Google ML Crash Course, DeepLearning.AI.
-
OpenCV docs ສໍາລັບພື້ນຖານວິໄສທັດ.
-
ຄູ່ມືການນໍາໃຊ້ spaCy ສໍາລັບທໍ່ NLP.
ການແຮັກຊີວິດນ້ອຍໆ: ຜູ້ຕິດຕັ້ງຢ່າງເປັນທາງການທີ່ສ້າງຄໍາສັ່ງຕິດຕັ້ງ GPU ຂອງທ່ານແມ່ນຕົວຊ່ວຍຊີວິດ [2][3].
ດຶງເຂົ້າກັນ 🧩
-
ເປົ້າໝາຍ → ຈັດປະເພດປີ້ສະໜັບສະໜູນອອກເປັນ 3 ປະເພດ.
-
ຂໍ້ມູນ → ການສົ່ງອອກ CSV, ບໍ່ເປີດເຜີຍຊື່, ແຍກ.
-
ພື້ນຖານ → scikit-learn TF-IDF + logistic regression.
-
ອັບເກຣດ → Transformer fine-tune ຖ້າມີບ່ອນວາງພື້ນຖານ.
-
Demo → Gradio textbox app.
-
ເຮືອ → Docker + README.
-
Iterate → ແກ້ໄຂຄວາມຜິດພາດ, relabel, ເຮັດເລື້ມຄືນ.
-
ປົກປ້ອງ → ຄວາມສ່ຽງດ້ານເອກະສານ [4].
ມັນມີປະສິດທິພາບທີ່ຫນ້າເບື່ອ.
TL;DR 🎂
ການຮຽນຮູ້ ວິທີການສ້າງ AI ໃນຄອມພິວເຕີຂອງທ່ານ = ເລືອກບັນຫານ້ອຍໆອັນໜຶ່ງ, ສ້າງພື້ນຖານ, ພຽງແຕ່ຂະຫຍາຍເວລາທີ່ມັນຊ່ວຍ, ແລະຮັກສາການຕັ້ງຄ່າຂອງເຈົ້າໃຫ້ສາມາດແຜ່ພັນໄດ້. ເຮັດມັນສອງຄັ້ງແລະເຈົ້າຈະຮູ້ສຶກວ່າມີຄວາມສາມາດ. ເຮັດຫ້າເທື່ອແລ້ວຄົນກໍຈະເລີ່ມຂໍຄວາມຊ່ວຍເຫຼືອຈາກເຈົ້າ, ເຊິ່ງເປັນສ່ວນທີ່ມ່ວນຢ່າງລັບໆ.
ແລະແມ່ນແລ້ວ, ບາງຄັ້ງມັນຮູ້ສຶກຄືກັບການສອນເຕົາອົບເພື່ອຂຽນບົດກະວີ. ບໍ່ເປັນຫຍັງ. ຮັກສາ tinkering. 🔌📝
ເອກະສານອ້າງອີງ
[1] scikit-learn — Metrics & model evaluation: link
[2] PyTorch — Local install selector (CUDA/ROCm/Mac MPS): link
[3] TensorFlow — Install + GPU verification: link
[4] NIST — AI Risk Management Framework: link
[5] llama.cpp — Local LLM repo: link