ຄຳຕອບສັ້ນໆ: ເທັກໂນໂລຢີຂະໜາດໃຫຍ່ມີຄວາມສຳຄັນໃນ AI ເພາະມັນຄວບຄຸມສິ່ງທີ່ບໍ່ໜ້າສົນໃຈ - ການປະມວນຜົນ, ແພລດຟອມຄລາວ, ອຸປະກອນ, ຮ້ານແອັບ, ແລະ ເຄື່ອງມືຂອງວິສາຫະກິດ. ການຄວບຄຸມນັ້ນຊ່ວຍໃຫ້ມັນສາມາດລະດົມທຶນໃຫ້ກັບຮູບແບບແຖວໜ້າ ແລະ ສົ່ງຄຸນສົມບັດຕ່າງໆໄປຫາຫຼາຍພັນລ້ານຄົນໄດ້ຢ່າງວ່ອງໄວ. ຖ້າການປົກຄອງ, ການຄວບຄຸມຄວາມເປັນສ່ວນຕົວ, ແລະ ການເຮັດວຽກຮ່ວມກັນອ່ອນແອ, ອິດທິພົນດຽວກັນນີ້ຈະເພີ່ມຂຶ້ນໃນການລັອກອິນ ແລະ ການສຸມອຳນາດ.
ບົດຮຽນຫຼັກ:
ພື້ນຖານໂຄງລ່າງ: ຖືວ່າການຄວບຄຸມຄລາວ, ຊິບ ແລະ MLOps ເປັນຈຸດຄວບຄຸມຫຼັກຂອງ AI.
ການແຈກຢາຍ: ຄາດຫວັງວ່າການອັບເດດແພລດຟອມຈະກຳນົດຄວາມໝາຍຂອງ "AI" ສຳລັບຜູ້ໃຊ້ສ່ວນໃຫຍ່.
ການຮັກສາປະຕູ: ກົດລະບຽບຂອງຮ້ານແອັບ ແລະ ເງື່ອນໄຂຂອງ API ຈະກຳນົດຢ່າງງຽບໆວ່າຄຸນສົມບັດ AI ໃດທີ່ສົ່ງໄປ.
ການຄວບຄຸມຂອງຜູ້ໃຊ້: ຮຽກຮ້ອງໃຫ້ມີການເລືອກອອກທີ່ຊັດເຈນ, ການຕັ້ງຄ່າທີ່ຍືນຍົງ, ແລະການຄວບຄຸມຂອງຜູ້ເບິ່ງແຍງລະບົບທີ່ເຮັດວຽກ.
ຄວາມຮັບຜິດຊອບ: ຮຽກຮ້ອງໃຫ້ມີບັນທຶກການກວດສອບ, ຄວາມໂປ່ງໃສ, ແລະ ເສັ້ນທາງການອຸທອນສຳລັບຜົນໄດ້ຮັບທີ່ເປັນອັນຕະລາຍ.

🔗 ອະນາຄົດຂອງ AI: ທ່າອ່ຽງ ແລະ ສິ່ງຕໍ່ໄປ
ນະວັດຕະກໍາທີ່ສໍາຄັນ, ຄວາມສ່ຽງ ແລະ ອຸດສາຫະກໍາຕ່າງໆ ໄດ້ຮັບການປັບປຸງຮູບແບບໃໝ່ໃນທົດສະວັດຕໍ່ໄປ.
🔗 ຮູບແບບພື້ນຖານໃນ AI ທີ່ສ້າງສັນ: ຄູ່ມືງ່າຍໆ
ເຂົ້າໃຈວິທີທີ່ຮູບແບບພື້ນຖານຂັບເຄື່ອນແອັບພລິເຄຊັນ AI ທີ່ສ້າງສັນທີ່ທັນສະໄໝ.
🔗 ບໍລິສັດ AI ແມ່ນຫຍັງ ແລະ ມັນເຮັດວຽກແນວໃດ
ຮຽນຮູ້ລັກສະນະ, ທີມງານ ແລະ ຜະລິດຕະພັນທີ່ກຳນົດທຸລະກິດທີ່ເນັ້ນ AI ເປັນຫຼັກ.
🔗 ລະຫັດ AI ມີລັກສະນະແນວໃດໃນໂຄງການຕົວຈິງ
ເບິ່ງຕົວຢ່າງຂອງຮູບແບບລະຫັດ, ເຄື່ອງມື ແລະ ຂັ້ນຕອນການເຮັດວຽກທີ່ຂັບເຄື່ອນດ້ວຍ AI.
ລອງມາເບິ່ງກັນກ່ອນ - “ການສົນທະນາກ່ຽວກັບ AI” ສ່ວນໃຫຍ່ຈະຜ່ານພາກສ່ວນທີ່ບໍ່ໜ້າສົນໃຈເຊັ່ນ: ການຄຳນວນ, ການແຈກຢາຍ, ການຈັດຊື້, ການປະຕິບັດຕາມ, ແລະຄວາມເປັນຈິງທີ່ໜ້າອາຍທີ່ບາງຄົນຕ້ອງຈ່າຍຄ່າ GPU ແລະໄຟຟ້າ. ເທັກໂນໂລຢີຂະໜາດໃຫຍ່ອາໄສຢູ່ໃນພາກສ່ວນທີ່ບໍ່ໜ້າສົນໃຈເຫຼົ່ານັ້ນ. ຊຶ່ງເປັນເຫດຜົນທີ່ມັນມີຄວາມສຳຄັນຫຼາຍ. 😅 ( IEA - ພະລັງງານ ແລະ AI , NVIDIA - ພາບລວມຂອງແພລດຟອມການອະນຸມານ AI )
ບົດບາດຂອງ AI ຂອງ Big Tech, ໃນພາສາທີ່ເຂົ້າໃຈງ່າຍ 🧩
ເມື່ອຄົນເວົ້າວ່າ "Big Tech," ເຂົາເຈົ້າມັກຈະໝາຍເຖິງບໍລິສັດແພລດຟອມຍັກໃຫຍ່ທີ່ຄວບຄຸມຊັ້ນຫຼັກຂອງການປະມວນຜົນທີ່ທັນສະໄໝ:
-
ໂຄງສ້າງພື້ນຖານຄລາວ (ບ່ອນທີ່ AI ດຳເນີນການ) ☁️ ( ເອກະສານ Amazon SageMaker AI , ເອກະສານ Azure Machine Learning , ເອກະສານ Vertex AI )
-
ອຸປະກອນ ແລະ ລະບົບປະຕິບັດການສຳລັບຜູ້ບໍລິໂພກ (ບ່ອນທີ່ AI ເຂົ້າມາ) 📱💻 ( Apple Core ML , Google ML Kit )
-
ລະບົບນິເວດ ແລະ ຕະຫຼາດແອັບ (ບ່ອນທີ່ AI ແຜ່ຂະຫຍາຍ) 🛒 ( ແນວທາງການທົບທວນແອັບ Apple , ຄວາມປອດໄພຂອງຂໍ້ມູນ Google Play )
-
ທໍ່ສົ່ງຂໍ້ມູນ ແລະ ການວິເຄາະຊ້ອນກັນ (ບ່ອນທີ່ AI ໄດ້ຮັບການປ້ອນຂໍ້ມູນ) 🍽️
-
ຊອບແວວິສາຫະກິດ (ບ່ອນທີ່ AI ສາມາດສ້າງລາຍໄດ້) 🧾
-
ການຮ່ວມມືດ້ານຊິບ ແລະ ຮາດແວ (ບ່ອນທີ່ AI ໄດ້ຮັບການເລັ່ງ) 🧠🔩 ( ພາບລວມຂອງ NVIDIA - ແພລດຟອມການອະນຸມານ AI )
ສະນັ້ນ, ບົດບາດບໍ່ພຽງແຕ່ "ພວກເຂົາສ້າງ AI". ມັນຄ້າຍຄືກັບວ່າພວກເຂົາສ້າງທາງຫຼວງ, ຂາຍລົດ, ດໍາເນີນການເກັບຄ່າທາງ, ແລະຍັງຕັດສິນໃຈວ່າທາງອອກຈະໄປໃສ. ເວົ້າເກີນຈິງເລັກນ້ອຍ... ແຕ່ບໍ່ຫຼາຍປານໃດ.
ບົດບາດຂອງເທັກໂນໂລຢີຂະໜາດໃຫຍ່ໃນ AI: ຫ້າວຽກໃຫຍ່ 🏗️
ຖ້າທ່ານຕ້ອງການຮູບແບບຈິດໃຈທີ່ສະອາດ, Big Tech ມັກຈະເຮັດວຽກທີ່ຊ້ອນກັນຫ້າຢ່າງໃນໂລກ AI:
-
ຜູ້ໃຫ້ບໍລິການພື້ນຖານໂຄງລ່າງ
ສູນຂໍ້ມູນ, ຄລາວ, ເຄືອຂ່າຍ, ຄວາມປອດໄພ, ເຄື່ອງມື MLOps. ສິ່ງທີ່ເຮັດໃຫ້ AI ເປັນໄປໄດ້ໃນຂອບເຂດກ້ວາງ. ( ເອກະສານ Amazon SageMaker AI , IEA - ພະລັງງານ ແລະ AI ) -
ຜູ້ສ້າງແບບຈຳລອງ ແລະ ເຄື່ອງຈັກຄົ້ນຄວ້າ
ບໍ່ແມ່ນສະເໝີໄປ, ແຕ່ມັກຈະເປັນ - ຫ້ອງທົດລອງ, ການຄົ້ນຄວ້າ ແລະ ພັດທະນາພາຍໃນ, ການຄົ້ນຄວ້າປະຍຸກ, ແລະ “ວິທະຍາສາດທີ່ຜະລິດໄດ້.” ( ກົດໝາຍວ່າດ້ວຍການຂະຫຍາຍຂະໜາດສຳລັບແບບຈຳລອງພາສາປະສາດ (arXiv) , ການຝຶກອົບຮົມແບບຈຳລອງພາສາຂະໜາດໃຫຍ່ທີ່ດີທີ່ສຸດສຳລັບການຄຳນວນ (Chinchilla) (arXiv) ) -
ຜູ້ຈຳໜ່າຍ
ພວກເຂົາສາມາດຍູ້ AI ເຂົ້າໄປໃນກ່ອງຄົ້ນຫາ, ໂທລະສັບ, ອີເມວລູກຄ້າ, ລະບົບໂຄສະນາ ແລະ ເຄື່ອງມືໃນບ່ອນເຮັດວຽກ. ການແຈກຢາຍແມ່ນມະຫາອຳນາດ. -
ນະໂຍບາຍ
ຮ້ານແອັບ, ກົດລະບຽບແພລດຟອມ, ເງື່ອນໄຂ API, ການກວດສອບເນື້ອຫາ, ປະຕູຄວາມປອດໄພ, ການຄວບຄຸມວິສາຫະກິດ. ( ແນວທາງການທົບທວນແອັບ Apple , ຄວາມປອດໄພຂອງຂໍ້ມູນ Google Play ) -
ຜູ້ຈັດສັນທຶນ
ພວກເຂົາສະໜອງທຶນ, ຊື້ກິດຈະການ, ຮ່ວມມື, ບົ່ມເພາະ. ພວກເຂົາສ້າງຮູບຮ່າງສິ່ງທີ່ຍັງເຫຼືອຢູ່.
ນັ້ນແມ່ນບົດບາດຂອງ Big Tech ໃນ AI ໃນແງ່ຂອງໜ້າທີ່: ພວກເຂົາສ້າງເງື່ອນໄຂໃຫ້ AI ມີຢູ່ - ແລະຫຼັງຈາກນັ້ນພວກເຂົາຕັດສິນໃຈວ່າມັນຈະໄປເຖິງທ່ານແນວໃດ.
ສິ່ງທີ່ເຮັດໃຫ້ບົດບາດ AI ຂອງ Big Tech ເປັນຮຸ່ນທີ່ດີ ✅😬
"ຮຸ່ນທີ່ດີ" ຂອງ Big Tech ໃນ AI ບໍ່ແມ່ນກ່ຽວກັບຄວາມສົມບູນແບບ. ມັນກ່ຽວກັບການແລກປ່ຽນທີ່ຈັດການຢ່າງມີຄວາມຮັບຜິດຊອບ, ໂດຍມີໂອກາດທີ່ຈະແປກໃຈໜ້ອຍລົງສຳລັບຄົນອື່ນ.
ນີ້ແມ່ນສິ່ງທີ່ມັກຈະແຍກຄວາມຮູ້ສຶກຂອງ "ຍັກໃຫຍ່ທີ່ເປັນປະໂຫຍດ" ອອກຈາກຄວາມຮູ້ສຶກຂອງ "ໂອ້ຍ ຜູກຂາດ":
-
ຄວາມໂປ່ງໃສໂດຍບໍ່ມີການຖິ້ມຄຳສັບສະເພາະ
ມີການຕິດສະຫຼາກທີ່ຊັດເຈນກ່ຽວກັບຄຸນສົມບັດຂອງ AI, ຂໍ້ຈຳກັດ ແລະ ຂໍ້ມູນທີ່ຖືກນຳໃຊ້. ບໍ່ແມ່ນການຫຼອກລວງນະໂຍບາຍທີ່ມີ 40 ໜ້າ. ( NIST AI RMF 1.0 , ISO/IEC 42001:2023 ) -
ການຄວບຄຸມຂອງຜູ້ໃຊ້ຕົວຈິງ
ການເລືອກອອກທີ່ເຮັດວຽກໄດ້, ການຕັ້ງຄ່າຄວາມເປັນສ່ວນຕົວທີ່ບໍ່ຖືກຕັ້ງຄ່າໃໝ່ຢ່າງລຶກລັບ, ແລະ ການຄວບຄຸມຜູ້ເບິ່ງແຍງລະບົບທີ່ບໍ່ແມ່ນການລ່າສົມບັດ. ( GDPR - ລະບຽບການ (EU) 2016/679 ) -
ການເຮັດວຽກຮ່ວມກັນ ແລະ ການເປີດເຜີຍ - ບາງຄັ້ງ
ບໍ່ແມ່ນທຸກຢ່າງຕ້ອງເປັນແຫຼ່ງເປີດ, ແຕ່ການລັອກທຸກຄົນໄວ້ໃນຜູ້ຂາຍດຽວຕະຫຼອດໄປແມ່ນ... ທາງເລືອກໜຶ່ງ. -
ຄວາມປອດໄພດ້ວຍແຂ້ວ
ການຕິດຕາມກວດກາການລ່ວງລະເມີດ, ການແບ່ງກຸ່ມ, ການຄວບຄຸມເນື້ອຫາ, ແລະ ຄວາມເຕັມໃຈທີ່ຈະບລັອກກໍລະນີການນຳໃຊ້ທີ່ມີຄວາມສ່ຽງຢ່າງຈະແຈ້ງ. ( NIST AI RMF 1.0 , ໂປຣໄຟລ໌ NIST GenAI (AI RMF companion) ) -
ນິເວດທີ່ມີສຸຂະພາບດີ
ສະໜັບສະໜູນບໍລິສັດ startup, ຄູ່ຮ່ວມງານ, ນັກຄົ້ນຄວ້າ ແລະ ມາດຕະຖານເປີດ ດັ່ງນັ້ນນະວັດຕະກໍາຈຶ່ງບໍ່ກາຍເປັນ "ເຊົ່າເວທີ ຫຼື ຫາຍໄປ." ( ຫຼັກການ AI ຂອງ OECD )
ຂ້ອຍຈະເວົ້າຢ່າງຈະແຈ້ງວ່າ: "ລຸ້ນທີ່ດີ" ຮູ້ສຶກຄືກັບສາທາລະນຸປະໂພກທີ່ແຂງແກ່ນພ້ອມກັບລົດຊາດຜະລິດຕະພັນທີ່ເຂັ້ມແຂງ. ລຸ້ນທີ່ບໍ່ດີຮູ້ສຶກຄືກັບຄາສິໂນບ່ອນທີ່ເຮືອນຍັງຂຽນກົດລະບຽບ. 🎰
ຕາຕະລາງປຽບທຽບ: ຊ່ອງທາງ AI ເທັກໂນໂລຢີຂະໜາດໃຫຍ່ອັນດັບຕົ້ນໆ ແລະ ເປັນຫຍັງພວກມັນຈຶ່ງເຮັດວຽກໄດ້ 📊
| ເຄື່ອງມື (ເລນ) | ຜູ້ຊົມ | ລາຄາ | ເປັນຫຍັງມັນຈຶ່ງໃຊ້ໄດ້ |
|---|---|---|---|
| ແພລດຟອມ AI ຄລາວດ໌ | ວິສາຫະກິດ, ບໍລິສັດເລີ່ມຕົ້ນ | ປະເພດຂອງການໃຊ້ງານ | ຂະຫຍາຍໄດ້ງ່າຍ, ໃບແຈ້ງໜີ້ດຽວ, ມີປຸ່ມຫຼາຍອັນ (ປຸ່ມຫຼາຍເກີນໄປ) |
| API ແບບຈຳລອງ Frontier | ນັກພັດທະນາ, ທີມງານຜະລິດຕະພັນ | ຈ່າຍຕໍ່ໂທເຄັນ / ແບ່ງຊັ້ນ | ເຊື່ອມໂຍງໄດ້ໄວ, ຄຸນນະພາບພື້ນຖານດີ, ຮູ້ສຶກຄືກັບການໂກງ 😅 |
| AI ທີ່ຝັງຢູ່ໃນອຸປະກອນ | ຜູ້ບໍລິໂພກ, ຜູ້ຊື້ຂາຍ | ຫໍ່ແລ້ວ | ຄວາມໜ່ວງເວລາຕ່ຳ, ບາງຄັ້ງເປັນມິດກັບຄວາມເປັນສ່ວນຕົວ, ເຮັດວຽກແບບອອບໄລນ໌ໄດ້ |
| ຊຸດຜະລິດຕະພາບ AI | ທີມງານຫ້ອງການ | ເພີ່ມເຕີມຕໍ່ບ່ອນນັ່ງ | ດຳລົງຊີວິດຢູ່ໃນຂະບວນການເຮັດວຽກປະຈຳວັນ - ເອກະສານ, ອີເມວ, ການປະຊຸມ, ວຽກງານທັງໝົດ |
| ໂຄສະນາ + AI ເປົ້າໝາຍ | ນັກກາລະຕະຫຼາດ | % ຂອງການໃຊ້ຈ່າຍ | ຂໍ້ມູນຂະໜາດໃຫຍ່ + ການແຈກຢາຍ = ມີປະສິດທິພາບ, ແລະຍັງໜ້າຢ້ານອີກ 👀 |
| ຄວາມປອດໄພ + ການປະຕິບັດຕາມ AI | ອຸດສາຫະກຳທີ່ມີການຄວບຄຸມ | ປະກັນໄພ | ຂາຍ “ຄວາມສະຫງົບສຸກທາງໃຈ” - ເຖິງແມ່ນວ່າມັນຈະເປັນພຽງແຕ່ການແຈ້ງເຕືອນໜ້ອຍລົງກໍຕາມ |
| ຊິບ AI + ຕົວເລັ່ງຄວາມໄວ | ທຸກໆຄົນຢູ່ທາງເທິງ | ຄ່າໃຊ້ຈ່າຍສູງ | ຖ້າເຈົ້າເປັນເຈົ້າຂອງຊ້ວນ, ເຈົ້າຈະໄດ້ຮັບໄຊຊະນະໃນການຜະຈົນໄພຄຳ (ຄຳປຽບທຽບທີ່ງຸ່ມງ່າມ, ຍັງເປັນຄວາມຈິງ) |
| ການຫຼິ້ນລະບົບນິເວດແບບເປີດກວ້າງ | ຜູ້ສ້າງ, ນັກຄົ້ນຄວ້າ | ຊັ້ນຟຣີ + ຊັ້ນຈ່າຍເງິນ | ແຮງກະຕຸ້ນຂອງຊຸມຊົນ, ການເຮັດຊ້ຳໄວຂຶ້ນ, ບາງຄັ້ງກໍ່ມ່ວນຊື່ນທີ່ບໍ່ເປັນລະບຽບ |
ຄຳສາລະພາບແບບໂຕະນ້ອຍໆ: "ອິດສະລະພາບ" ກຳລັງເຮັດວຽກຫຼາຍຢ່າງຢູ່ທີ່ນັ້ນ. ອິດສະລະຈົນກວ່າມັນຈະບໍ່ແມ່ນ... ເຈົ້າຮູ້ວ່າມັນເປັນແນວໃດ.
ຮູບໃກ້ໆ: ຈຸດທີ່ລະບົບໂຄງສ້າງພື້ນຖານອຸດຕັນ (ຄອມພິວເຕີ, ຄລາວ, ຊິບ) 🧱⚙️
ນີ້ແມ່ນສ່ວນທີ່ຄົນສ່ວນໃຫຍ່ບໍ່ຢາກເວົ້າເຖິງເພາະມັນບໍ່ແມ່ນເລື່ອງທີ່ໜ້າສົນໃຈ. ແຕ່ມັນແມ່ນກະດູກສັນຫຼັງຂອງ AI.
ເທັກໂນໂລຢີຂະໜາດໃຫຍ່ມີອິດທິພົນຕໍ່ AI ໂດຍການຄວບຄຸມ:
-
ການສະໜອງຄອມພິວເຕີ (ການເຂົ້າເຖິງ GPU, ກຸ່ມ, ການກຳນົດເວລາ) ( IEA - ຄວາມຕ້ອງການພະລັງງານຈາກ AI )
-
ເຄືອຂ່າຍ (ການເຊື່ອມຕໍ່ແບນວິດສູງ, ແພບຣິກທີ່ມີຄວາມໜ่วงເວລາຕ່ຳ)
-
ບ່ອນເກັບຂໍ້ມູນ (ທະເລສາບຂໍ້ມູນ, ລະບົບການດຶງຂໍ້ມູນຄືນ, ການສຳຮອງຂໍ້ມູນ)
-
ທໍ່ສົ່ງ MLOps (ການຝຶກອົບຮົມ, ການນຳໃຊ້, ການຕິດຕາມກວດກາ, ການຄຸ້ມຄອງ) ( MLOps ໃນ Vertex AI , ສະຖາປັດຕະຍະກຳ Azure MLOps )
-
ຄວາມປອດໄພ (ຕົວຕົນ, ບັນທຶກການກວດສອບ, ການເຂົ້າລະຫັດ, ການບັງຄັບໃຊ້ນະໂຍບາຍ) ( NIST AI RMF 1.0 , ISO/IEC 42001:2023 )
ຖ້າທ່ານເຄີຍພະຍາຍາມນຳໃຊ້ລະບົບ AI ໃນບໍລິສັດຕົວຈິງ, ທ່ານຮູ້ແລ້ວວ່າ "ຮູບແບບ" ແມ່ນສ່ວນທີ່ງ່າຍ. ສ່ວນທີ່ຍາກແມ່ນ: ການອະນຸຍາດ, ການບັນທຶກ, ການເຂົ້າເຖິງຂໍ້ມູນ, ການຄວບຄຸມຄ່າໃຊ້ຈ່າຍ, ເວລາເຮັດວຽກ, ການຕອບສະໜອງຕໍ່ເຫດການ... ເລື່ອງຂອງຜູ້ໃຫຍ່. 😵💫
ເນື່ອງຈາກວ່າ Big Tech ເປັນເຈົ້າຂອງສິ່ງນີ້ຫຼາຍຢ່າງ, ພວກເຂົາສາມາດຕັ້ງຮູບແບບເລີ່ມຕົ້ນໄດ້:
-
ເຄື່ອງມືໃດແດ່ທີ່ກາຍເປັນມາດຕະຖານ
-
ເຟຣມເວີກໃດແດ່ທີ່ໄດ້ຮັບການສະໜັບສະໜູນຊັ້ນໜຶ່ງ
-
ຮາດແວໃດທີ່ໄດ້ຮັບຄວາມສຳຄັນ
-
ຮູບແບບການກຳນົດລາຄາໃດທີ່ກາຍເປັນ "ປົກກະຕິ"
ນັ້ນບໍ່ແມ່ນຄວາມຊົ່ວຮ້າຍໂດຍອັດຕະໂນມັດ. ແຕ່ມັນແມ່ນອຳນາດ.
ຖ່າຍໃກ້ໆ: ການຄົ້ນຄວ້າແບບຈຳລອງ ທຽບກັບ ຄວາມເປັນຈິງຂອງຜະລິດຕະພັນ 🧪➡️🛠️
ນີ້ແມ່ນຄວາມເຄັ່ງຕຶງ: ບໍລິສັດເທັກໂນໂລຢີຂະໜາດໃຫຍ່ສາມາດສະໜອງທຶນໃຫ້ແກ່ການຄົ້ນຄວ້າຢ່າງເລິກເຊິ່ງ ແລະ ຍັງຕ້ອງການຄວາມສຳເລັດດ້ານຜະລິດຕະພັນປະຈຳໄຕມາດ. ການປະສົມປະສານນັ້ນສ້າງຄວາມກ້າວໜ້າທີ່ໜ້າອັດສະຈັນ ແລະ ຍັງສ້າງ... ການເປີດຕົວຄຸນສົມບັດທີ່ໜ້າສົງໄສ.
ໂດຍທົ່ວໄປແລ້ວ Big Tech ຂັບເຄື່ອນຄວາມກ້າວໜ້າຂອງ AI ຜ່ານ:
-
ການດຳເນີນການຝຶກອົບຮົມຂະໜາດໃຫຍ່ (ເລື່ອງຂະໜາດ) ( ກົດໝາຍວ່າດ້ວຍຂະໜາດສຳລັບຮູບແບບພາສາປະສາດ (arXiv) )
-
ທໍ່ສົ່ງການປະເມີນຜົນພາຍໃນ (ການປຽບທຽບ, ການທົດສອບຄວາມປອດໄພ, ການກວດສອບການຖົດຖອຍ) ( ໂປຣໄຟລ໌ NIST GenAI (AI RMF companion) )
-
ການຄົ້ນຄວ້າປະຍຸກ (ປ່ຽນເອກະສານໃຫ້ກາຍເປັນພຶດຕິກຳຜະລິດຕະພັນ)
-
ການປັບປຸງເຄື່ອງມື (ການກັ່ນ, ການບີບອັດ, ປະສິດທິພາບໃນການຮັບໃຊ້)
ແຕ່ຄວາມກົດດັນຂອງຜະລິດຕະພັນປ່ຽນແປງສິ່ງຕ່າງໆ:
-
ຄວາມໄວຊະນະຄວາມງາມ
-
ການຂົນສົ່ງເກີນກວ່າການອະທິບາຍ
-
“ດີພໍ” ແຕກຕ່າງຈາກ “ເຂົ້າໃຈຢ່າງເຕັມສ່ວນ”
ບາງຄັ້ງກໍ່ດີ. ຜູ້ໃຊ້ສ່ວນໃຫຍ່ບໍ່ຕ້ອງການຄວາມບໍລິສຸດທາງທິດສະດີ, ພວກເຂົາຕ້ອງການຜູ້ຊ່ວຍທີ່ເປັນປະໂຫຍດພາຍໃນຂະບວນການເຮັດວຽກຂອງພວກເຂົາ. ແຕ່ຄວາມສ່ຽງແມ່ນວ່າ "ດີພໍ" ຖືກນຳໃຊ້ໃນສະພາບການທີ່ລະອຽດອ່ອນ (ສຸຂະພາບ, ການຈ້າງງານ, ການເງິນ, ການສຶກສາ) ບ່ອນທີ່ "ດີພໍ" ແມ່ນ ... ບໍ່ດີພໍ. ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU - ລະບຽບການ (EU) 2024/1689 )
ນີ້ແມ່ນສ່ວນໜຶ່ງຂອງບົດບາດຂອງ Big Tech ໃນ AI - ການແປຄວາມສາມາດທີ່ທັນສະໄໝໄປສູ່ຄຸນສົມບັດຂອງຕະຫຼາດຂະໜາດໃຫຍ່, ເຖິງແມ່ນວ່າຂອບເຂດຍັງຄົມຢູ່ກໍຕາມ. 🔪
ຮູບໃກ້ໆ: ການແຈກຢາຍແມ່ນມະຫາອຳນາດທີ່ແທ້ຈິງ 🚀📣
ຖ້າທ່ານສາມາດວາງ AI ໄວ້ໃນສະຖານທີ່ທີ່ຜູ້ຄົນອາໄສຢູ່ໃນລະບົບດິຈິຕອນແລ້ວ, ທ່ານບໍ່ຈຳເປັນຕ້ອງ "ຊັກຊວນ" ຜູ້ໃຊ້. ທ່ານພຽງແຕ່ກາຍເປັນຜູ້ເລີ່ມຕົ້ນ.
ຊ່ອງທາງການຈຳໜ່າຍຂອງ Big Tech ປະກອບມີ:
-
ແຖບຄົ້ນຫາ ແລະ ໂປຣແກຣມທ່ອງເວັບ 🔎
-
ຜູ້ຊ່ວຍລະບົບປະຕິບັດການມືຖື 📱
-
ຊຸດເອກະສານສຳລັບບ່ອນເຮັດວຽກ (ເອກະສານ, ອີເມວ, ສົນທະນາ, ການປະຊຸມ) 🧑💼
-
ລະບົບຟີດສື່ສັງຄົມ ແລະ ລະບົບແນະນຳ 📺
-
ຮ້ານຄ້າແອັບ ແລະ ຕະຫຼາດແພລດຟອມ 🛍️ ( ແນວທາງການທົບທວນແອັບ Apple , ຄວາມປອດໄພຂອງຂໍ້ມູນ Google Play )
ນີ້ແມ່ນເຫດຜົນທີ່ບໍລິສັດ AI ຂະໜາດນ້ອຍມັກຈະຮ່ວມມືກັບບໍລິສັດເທັກໂນໂລຢີຂະໜາດໃຫຍ່ເຖິງແມ່ນວ່າພວກເຂົາຈະກັງວົນກ່ຽວກັບມັນກໍຕາມ. ການແຈກຢາຍແມ່ນອົກຊີເຈນ. ຖ້າບໍ່ມີມັນ, ເຈົ້າສາມາດມີຮູບແບບທີ່ດີທີ່ສຸດໃນໂລກ ແລະຍັງສາມາດຮ້ອງອອກມາໃນຄວາມຫວ່າງເປົ່າໄດ້.
ນອກຈາກນີ້ຍັງມີຜົນຂ້າງຄຽງທີ່ລະອຽດອ່ອນອີກຢ່າງໜຶ່ງຄື: ການແຈກຢາຍສ້າງຄວາມໝາຍຂອງ "AI" ຕໍ່ສາທາລະນະຊົນ. ຖ້າ AI ປະກົດຕົວເປັນຕົວຊ່ວຍໃນການຂຽນສ່ວນໃຫຍ່, ຜູ້ຄົນຄິດວ່າ AI ແມ່ນກ່ຽວກັບການຂຽນ. ຖ້າມັນປະກົດຕົວເປັນການແກ້ໄຂຮູບພາບ, ຜູ້ຄົນຄິດວ່າ AI ແມ່ນກ່ຽວກັບຮູບພາບ. ແພລດຟອມຈະຕັດສິນຄວາມຮູ້ສຶກ.
ຮູບໃກ້ໆ: ຂໍ້ມູນ, ຄວາມເປັນສ່ວນຕົວ, ແລະ ການຕໍ່ລອງຄວາມໄວ້ວາງໃຈ 🔐🧠
ລະບົບ AI ມັກຈະມີປະສິດທິພາບຫຼາຍຂຶ້ນເມື່ອພວກມັນຖືກປັບແຕ່ງໃຫ້ເປັນສ່ວນຕົວ. ການປັບແຕ່ງໃຫ້ເປັນສ່ວນຕົວມັກຈະຕ້ອງການຂໍ້ມູນ. ແລະຂໍ້ມູນສ້າງຄວາມສ່ຽງ. ສາມຫຼ່ຽມນັ້ນບໍ່ເຄີຍຫາຍໄປໃສ.
Big Tech ຕັ້ງຢູ່:
-
ຂໍ້ມູນພຶດຕິກຳຂອງຜູ້ບໍລິໂພກ (ການຄົ້ນຫາ, ການຄລິກ, ຄວາມມັກ)
-
ຂໍ້ມູນວິສາຫະກິດ (ອີເມວ, ເອກະສານ, ການສົນທະນາ, ປີ້, ຂັ້ນຕອນການເຮັດວຽກ)
-
ຂໍ້ມູນແພລດຟອມ (ແອັບ, ການຈ່າຍເງິນ, ສັນຍານລະບຸຕົວຕົນ)
-
ຂໍ້ມູນອຸປະກອນ (ສະຖານທີ່, ເຊັນເຊີ, ຮູບພາບ, ການປ້ອນຂໍ້ມູນດ້ວຍສຽງ)
ເຖິງແມ່ນວ່າ "ຂໍ້ມູນດິບ" ບໍ່ໄດ້ຖືກນຳໃຊ້ໂດຍກົງ, ລະບົບນິເວດອ້ອມຂ້າງກໍ່ສ້າງຮູບແບບການຝຶກອົບຮົມ, ການປັບແຕ່ງ, ການປະເມີນຜົນ ແລະ ທິດທາງຜະລິດຕະພັນ.
ການຕໍ່ລອງຄວາມໄວ້ວາງໃຈມັກຈະມີລັກສະນະແບບນີ້:
-
ຜູ້ໃຊ້ຍອມຮັບການເກັບກຳຂໍ້ມູນເພາະວ່າຜະລິດຕະພັນມີຄວາມສະດວກສະບາຍ 🧃
-
ຜູ້ຄວບຄຸມກົດລະບຽບຍູ້ກັບຄືນເມື່ອມັນກາຍເປັນເລື່ອງທີ່ໜ້າຢ້ານກົວ 👀 ( GDPR - ລະບຽບການ (EU) 2016/679 )
-
ບໍລິສັດຕ່າງໆຕອບສະໜອງດ້ວຍການຄວບຄຸມ, ນະໂຍບາຍ ແລະ ການສົ່ງຂໍ້ຄວາມ “ຄວາມເປັນສ່ວນຕົວກ່ອນ”
-
ທຸກຄົນໂຕ້ຖຽງກັນກ່ຽວກັບຄວາມໝາຍຂອງ “ຄວາມເປັນສ່ວນຕົວ”
ກົດລະບຽບທີ່ໃຊ້ໄດ້ຈິງທີ່ຂ້ອຍເຄີຍເຫັນມາໃຊ້ຄື: ຖ້າບໍລິສັດສາມາດອະທິບາຍການປະຕິບັດຂໍ້ມູນ AI ຂອງເຂົາເຈົ້າໃນການສົນທະນາດຽວໂດຍບໍ່ຕ້ອງປິດບັງຢູ່ເບື້ອງຫຼັງກົດໝາຍ, ໂດຍປົກກະຕິແລ້ວເຂົາເຈົ້າຈະເຮັດໄດ້ດີກ່ວາສະເລ່ຍ. ບໍ່ສົມບູນແບບ - ພຽງແຕ່ດີກວ່າ.
ໃກ້ຊິດ: ການປົກຄອງ, ຄວາມປອດໄພ, ແລະ ເກມອິດທິພົນທີ່ງຽບສະຫງົບ 🧯📜
ນີ້ແມ່ນບົດບາດທີ່ເຫັນໄດ້ໜ້ອຍກວ່າ: ບໍລິສັດເທັກໂນໂລຢີຂະໜາດໃຫຍ່ມັກຈະຊ່ວຍກຳນົດກົດລະບຽບທີ່ທຸກຄົນປະຕິບັດຕາມ.
ພວກເຂົາສ້າງຮູບແບບການປົກຄອງຜ່ານ:
-
ນະໂຍບາຍຄວາມປອດໄພພາຍໃນ (ສິ່ງທີ່ຕົວແບບຈະປະຕິເສດ) ( NIST AI RMF 1.0 )
-
ນະໂຍບາຍແພລດຟອມ (ສິ່ງທີ່ແອັບສາມາດເຮັດໄດ້) ( ແນວທາງການທົບທວນແອັບ Apple , ຄວາມປອດໄພຂອງຂໍ້ມູນ Google Play )
-
ລັກສະນະການປະຕິບັດຕາມມາດຕະຖານຂອງວິສາຫະກິດ (ຮ່ອງຮອຍການກວດສອບ, ການເກັບຮັກສາ, ຂອບເຂດຂໍ້ມູນ) ( ISO/IEC 42001:2023 , ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU - ລະບຽບການ (EU) 2024/1689 )
-
ການເຂົ້າຮ່ວມມາດຕະຖານອຸດສາຫະກໍາ (ຂອບດ້ານວິຊາການ, ການປະຕິບັດທີ່ດີທີ່ສຸດ) ( ຫຼັກການ AI ຂອງ OECD , ISO/IEC 42001:2023 )
-
ການ lobbying ແລະ ການມີສ່ວນຮ່ວມໃນນະໂຍບາຍ (ແມ່ນແລ້ວ, ສ່ວນນັ້ນກໍ່ຄືກັນ)
ບາງຄັ້ງສິ່ງນີ້ກໍ່ເປັນປະໂຫຍດແທ້ໆ. ບໍລິສັດເທັກໂນໂລຢີຂະໜາດໃຫຍ່ສາມາດລົງທຶນໃນທີມງານຄວາມປອດໄພ, ເຄື່ອງມືຄວາມໄວ້ວາງໃຈ, ການກວດຈັບການລ່ວງລະເມີດ, ແລະ ໂຄງສ້າງພື້ນຖານການປະຕິບັດຕາມກົດລະບຽບທີ່ຜູ້ຫຼິ້ນຂະໜາດນ້ອຍກວ່າບໍ່ສາມາດຈ່າຍໄດ້.
ບາງຄັ້ງມັນກໍ່ເປັນປະໂຫຍດຕໍ່ຕົນເອງ. ຄວາມປອດໄພສາມາດກາຍເປັນຄູນ້ຳ, ບ່ອນທີ່ມີພຽງແຕ່ຜູ້ຫຼິ້ນທີ່ໃຫຍ່ທີ່ສຸດເທົ່ານັ້ນທີ່ສາມາດ "ຈ່າຍ" ໄດ້ເພື່ອປະຕິບັດຕາມ. ນັ້ນແມ່ນຂໍ້ແກ້ຕົວທີ 22: ຄວາມປອດໄພແມ່ນສິ່ງຈຳເປັນ, ແຕ່ຄວາມປອດໄພທີ່ມີລາຄາແພງສາມາດເຮັດໃຫ້ການແຂ່ງຂັນຢຸດສະງັກໄດ້ໂດຍບັງເອີນ. ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU - ລະບຽບການ (EU) 2024/1689 )
ນີ້ແມ່ນບ່ອນທີ່ຄວາມແຕກຕ່າງເລັກນ້ອຍມີຄວາມສຳຄັນ. ຄວາມແຕກຕ່າງເລັກນ້ອຍກໍ່ບໍ່ແມ່ນເລື່ອງມ່ວນຄືກັນ - ແບບທີ່ໜ້າລຳຄານ. 😬
ຮູບໃກ້ໆ: ການແຂ່ງຂັນ, ລະບົບນິເວດເປີດ, ແລະ ແຮງໂນ້ມຖ່ວງຂອງສະຕາດອັບ 🧲🌱
ບົດບາດຂອງ Big Tech ໃນ AI ຍັງລວມເຖິງການສ້າງຮູບຮ່າງຂອງຕະຫຼາດ:
-
ການຊື້ກິດຈະການ (ພອນສະຫວັນ, ເຕັກໂນໂລຊີ, ການແຈກຢາຍ)
-
ການຮ່ວມມື (ຮູບແບບທີ່ໂຮດຢູ່ໃນຄລາວດ໌, ຂໍ້ຕົກລົງວິສາຫະກິດຮ່ວມກັນ)
-
ການສະໜອງທຶນໃຫ້ແກ່ລະບົບນິເວດ (ສິນເຊື່ອ, ສູນບົ່ມເພາະ, ຕະຫຼາດ)
-
ເຄື່ອງມືເປີດ (ເຟຣມເວີກ, ຫ້ອງສະໝຸດ, ລຸ້ນ "ເປີດກວ້າງ")
ມີຮູບແບບທີ່ຂ້ອຍໄດ້ເບິ່ງຊ້ຳໆ:
-
ບໍລິສັດ Startups ມີນະວັດຕະກໍາຢ່າງໄວວາ
-
ເທັກໂນໂລຢີຂະໜາດໃຫຍ່ປະສົມປະສານ ຫຼື ຄັດລອກຮູບແບບທີ່ປະສົບຜົນສຳເລັດ
-
ບໍລິສັດ Startup ຫັນໄປສູ່ niche ຫຼື ກາຍເປັນເປົ້າໝາຍການຊື້ກິດຈະການ
-
“ຊັ້ນແພລດຟອມ” ໜາຂຶ້ນ
ນັ້ນບໍ່ແມ່ນເລື່ອງທີ່ບໍ່ດີໂດຍອັດຕະໂນມັດ. ແພລດຟອມສາມາດຫຼຸດຜ່ອນຄວາມເສື່ອມໂຊມ ແລະ ເຮັດໃຫ້ AI ສາມາດເຂົ້າເຖິງໄດ້. ແຕ່ມັນກໍ່ສາມາດຫຼຸດຜ່ອນຄວາມຫຼາກຫຼາຍໄດ້ເຊັ່ນກັນ. ຖ້າທຸກໆຜະລິດຕະພັນກາຍເປັນ "ສິ່ງຫຸ້ມຫໍ່ອ້ອມ API ຈຳນວນໜຶ່ງດຽວກັນ," ນະວັດຕະກຳຈະເລີ່ມຮູ້ສຶກຄືກັບການຈັດລຽງເຟີນີເຈີຄືນໃໝ່ໃນອາພາດເມັນດຽວກັນ.
ການແຂ່ງຂັນທີ່ບໍ່ເປັນລະບຽບເລັກນ້ອຍກໍ່ດີຕໍ່ສຸຂະພາບ. ຄືກັບເຂົ້າໜົມປັງສົ້ມ. ຖ້າເຈົ້າຂ້າເຊື້ອທຸກຢ່າງ, ມັນຈະຢຸດຟູ. ຄຳປຽບທຽບນັ້ນຍັງບໍ່ສົມບູນແບບ, ແຕ່ຂ້ອຍຍັງຍຶດໝັ້ນກັບມັນຢູ່. 🍞
ດຳລົງຊີວິດດ້ວຍທັງຄວາມຕື່ນເຕັ້ນ ແລະ ຄວາມລະມັດລະວັງ 😄😟
ຄວາມຮູ້ສຶກທັງສອງຢ່າງເໝາະສົມກັນ. ຄວາມຕື່ນເຕັ້ນ ແລະ ຄວາມລະມັດລະວັງສາມາດຢູ່ໃນຫ້ອງດຽວກັນໄດ້.
ເຫດຜົນທີ່ຄວນຕື່ນເຕັ້ນ:
-
ການນຳໃຊ້ເຄື່ອງມືທີ່ເປັນປະໂຫຍດໄດ້ໄວຂຶ້ນ
-
ພື້ນຖານໂຄງລ່າງ ແລະ ຄວາມໜ້າເຊື່ອຖືທີ່ດີຂຶ້ນ
-
ອຸປະສັກຕ່ຳກວ່າສຳລັບທຸລະກິດໃນການຮັບຮອງເອົາ AI
-
ການລົງທຶນ ແລະ ມາດຕະຖານດ້ານຄວາມປອດໄພຫຼາຍຂຶ້ນ ( NIST AI RMF 1.0 , ຫຼັກການ OECD AI )
ເຫດຜົນທີ່ຄວນລະມັດລະວັງ:
-
ການລວມຕົວຂອງການຄຳນວນ ແລະ ການແຈກຢາຍ ( IEA - ຄວາມຕ້ອງການພະລັງງານຈາກ AI )
-
ລັອກອິນຜ່ານລາຄາ, APIs ແລະລະບົບນິເວດ
-
ຄວາມສ່ຽງດ້ານຄວາມເປັນສ່ວນຕົວ ແລະ ຜົນໄດ້ຮັບທີ່ກ່ຽວຂ້ອງກັບການເຝົ້າລະວັງ ( GDPR - ລະບຽບການ (EU) 2016/679 )
-
“ນະໂຍບາຍຂອງບໍລິສັດດຽວ” ກາຍເປັນຄວາມຈິງຂອງທຸກຄົນ
ຈຸດຢືນທີ່ເປັນຈິງຄື: ເທັກໂນໂລຢີຂະໜາດໃຫຍ່ສາມາດເລັ່ງ AI ສຳລັບໂລກໄດ້, ໃນຂະນະດຽວກັນກໍ່ຍັງສາມາດສຸມອຳນາດໄດ້. ສິ່ງເຫຼົ່ານັ້ນສາມາດເປັນຄວາມຈິງໃນເວລາດຽວກັນ. ຜູ້ຄົນບໍ່ມັກຄຳຕອບນັ້ນເພາະວ່າມັນຂາດຄວາມເຜັດ, ແຕ່ມັນເໝາະສົມກັບຫຼັກຖານ.
ບົດຮຽນທີ່ເປັນປະໂຫຍດສຳລັບຜູ້ອ່ານທີ່ແຕກຕ່າງກັນ🎯
ຖ້າທ່ານເປັນຜູ້ຊື້ທຸລະກິດ 🧾
-
ຖາມວ່າຂໍ້ມູນຂອງທ່ານໄປໃສ, ມັນຖືກແຍກອອກແນວໃດ, ແລະສິ່ງທີ່ຜູ້ເບິ່ງແຍງລະບົບສາມາດຄວບຄຸມໄດ້ ( GDPR - ລະບຽບການ (EU) 2016/679 , ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU - ລະບຽບການ (EU) 2024/1689 )
-
ໃຫ້ຄວາມສຳຄັນກັບບັນທຶກການກວດສອບ, ການຄວບຄຸມການເຂົ້າເຖິງ ແລະ ນະໂຍບາຍການເກັບຮັກສາທີ່ຊັດເຈນ ( ISO/IEC 42001:2023 )
-
ລະວັງເສັ້ນໂຄ້ງຄ່າໃຊ້ຈ່າຍທີ່ເຊື່ອງໄວ້ (ລາຄາການນຳໃຊ້ເພີ່ມຂຶ້ນໄວ)
ຖ້າທ່ານເປັນນັກພັດທະນາ 🧑💻
-
ສ້າງໂດຍຄຳນຶງເຖິງຄວາມສະດວກໃນການພົກພາ (ຊ່ວຍໃນການເລືອກຊັ້ນນາມທຳ)
-
ຢ່າວາງເດີມພັນທຸກຢ່າງໃສ່ຄຸນສົມບັດຂອງຜູ້ຂາຍຄົນດຽວທີ່ສາມາດຫາຍໄປໄດ້
-
ຕິດຕາມຂໍ້ຈຳກັດອັດຕາ, ການປ່ຽນແປງລາຄາ, ແລະ ການອັບເດດນະໂຍບາຍຄືກັບວ່າມັນເປັນສ່ວນໜຶ່ງຂອງວຽກຂອງທ່ານ (ເພາະມັນແມ່ນ) ( ແນວທາງການທົບທວນແອັບ Apple , ຄວາມປອດໄພຂອງຂໍ້ມູນ Google Play )
ຖ້າທ່ານເປັນຜູ້ວາງນະໂຍບາຍ ຫຼື ຜູ້ນຳດ້ານການປະຕິບັດຕາມກົດລະບຽບ 🏛️
-
ຊຸກຍູ້ໃຫ້ມີມາດຕະຖານທີ່ເຮັດວຽກຮ່ວມກັນໄດ້ ແລະ ມາດຕະຖານຄວາມໂປ່ງໃສ ( ຫຼັກການ AI ຂອງ OECD )
-
ຫຼີກລ່ຽງກົດລະບຽບທີ່ມີແຕ່ບໍລິສັດຍັກໃຫຍ່ເທົ່ານັ້ນທີ່ສາມາດປະຕິບັດຕາມໄດ້ ( ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU - ລະບຽບການ (EU) 2024/1689 )
-
ໃຫ້ຖືວ່າ “ການຄວບຄຸມການແຈກຢາຍ” ເປັນບັນຫາຫຼັກ, ບໍ່ແມ່ນຄວາມຄິດທີ່ຄິດພາຍຫຼັງ
ຖ້າທ່ານເປັນຜູ້ໃຊ້ປະຈຳ🙋🏻
-
ຮຽນຮູ້ບ່ອນທີ່ຄຸນສົມບັດ AI ມີຢູ່ໃນແອັບຂອງທ່ານ
-
ໃຊ້ການຄວບຄຸມຄວາມເປັນສ່ວນຕົວເຖິງແມ່ນວ່າມັນຈະໜ້າລຳຄານກໍຕາມ ( GDPR - ລະບຽບການ (EU) 2016/679 )
-
ຈົ່ງສົງໄສຜົນໄດ້ຮັບ “ມະຫັດສະຈັນ” - AI ມີຄວາມໝັ້ນໃຈ, ບໍ່ແມ່ນວ່າຈະຖືກຕ້ອງສະເໝີໄປ 😵
ສະຫຼຸບສະຫຼຸບ: ບົດບາດຂອງເທັກໂນໂລຢີຂະໜາດໃຫຍ່ໃນ AI 🧠✨
ບົດບາດຂອງ Big Tech ໃນ AI ບໍ່ແມ່ນສິ່ງດຽວ. ມັນເປັນການລວບລວມບົດບາດຕ່າງໆຄື: ເຈົ້າຂອງພື້ນຖານໂຄງລ່າງ, ຜູ້ກໍ່ສ້າງແບບຈຳລອງ, ຜູ້ຈຳໜ່າຍ, ຜູ້ຮັກສາປະຕູ ແລະ ຜູ້ກຳນົດຕະຫຼາດ. ພວກເຂົາບໍ່ພຽງແຕ່ມີສ່ວນຮ່ວມໃນ AI ເທົ່ານັ້ນ - ພວກເຂົາຍັງກຳນົດພື້ນທີ່ທີ່ AI ເຕີບໃຫຍ່ຂຶ້ນ.
ຖ້າທ່ານຈື່ໄດ້ພຽງແຖວດຽວ, ໃຫ້ເຮັດໃຫ້ມັນເປັນແບບນີ້:
ບົດບາດຂອງເທັກໂນໂລຢີຂະໜາດໃຫຍ່ໃນ AI
ມັນກຳລັງສ້າງທໍ່, ຕັ້ງຄ່າເລີ່ມຕົ້ນ, ແລະ ຄວບຄຸມວິທີທີ່ AI ເຂົ້າເຖິງມະນຸດ - ໃນຂອບເຂດກ້ວາງໃຫຍ່, ພ້ອມດ້ວຍຜົນສະທ້ອນອັນໃຫຍ່ຫຼວງ. ( NIST AI RMF 1.0 , ກົດໝາຍວ່າດ້ວຍ AI ຂອງ EU - ລະບຽບ (EU) 2024/1689 )
ແລະແມ່ນແລ້ວ, "ຜົນສະທ້ອນ" ຟັງແລ້ວຄືເປັນເລື່ອງທີ່ໜ້າຕື່ນເຕັ້ນ. ແຕ່ AI ແມ່ນໜຶ່ງໃນຫົວຂໍ້ເຫຼົ່ານັ້ນທີ່ບາງຄັ້ງເລື່ອງທີ່ໜ້າຕື່ນເຕັ້ນກໍ່... ຖືກຕ້ອງ. 😬🤖
ຄຳຖາມທີ່ຖືກຖາມເລື້ອຍໆ
ບົດບາດຂອງ Big Tech ໃນ AI ແມ່ນຫຍັງ, ໃນທາງປະຕິບັດ?
ບົດບາດຂອງເທັກໂນໂລຢີຂະໜາດໃຫຍ່ໃນ AI ແມ່ນໜ້ອຍກວ່າ “ພວກເຂົາສ້າງແບບຈຳລອງ” ແລະຫຼາຍກວ່ານັ້ນ “ພວກເຂົາດຳເນີນງານເຄື່ອງຈັກທີ່ເຮັດໃຫ້ AI ເຮັດວຽກໄດ້ໃນຂອບເຂດກ້ວາງຂວາງ.” ພວກເຂົາສະໜອງໂຄງສ້າງພື້ນຖານຄລາວ, ສົ່ງ AI ຜ່ານອຸປະກອນ ແລະ ແອັບ, ແລະ ກຳນົດກົດລະບຽບແພລດຟອມທີ່ກຳນົດສິ່ງທີ່ຖືກສ້າງຂຶ້ນ. ພວກເຂົາຍັງໃຫ້ທຶນແກ່ການຄົ້ນຄວ້າ, ການຮ່ວມມື, ແລະ ການຊື້ກິດຈະການທີ່ມີອິດທິພົນຕໍ່ວິທີການໃດທີ່ຈະຢູ່ລອດ. ໃນຫຼາຍໆຕະຫຼາດ, ພວກເຂົາກຳນົດປະສົບການ AI ຕາມຄ່າເລີ່ມຕົ້ນຢ່າງມີປະສິດທິພາບ.
ເປັນຫຍັງການເຂົ້າເຖິງດ້ວຍຄອມພິວເຕີຈຶ່ງມີຄວາມສຳຄັນຫຼາຍສຳລັບຜູ້ທີ່ສາມາດສ້າງ AI ໃນຂອບເຂດກ້ວາງ?
AI ທີ່ທັນສະໄໝແມ່ນຂຶ້ນກັບກຸ່ມ GPU ຂະໜາດໃຫຍ່, ເຄືອຂ່າຍທີ່ໄວ, ການເກັບຮັກສາ, ແລະທໍ່ສົ່ງ MLOps ທີ່ໜ້າເຊື່ອຖື - ບໍ່ພຽງແຕ່ອັລກໍຣິທຶມທີ່ສະຫຼາດເທົ່ານັ້ນ. ຖ້າທ່ານບໍ່ສາມາດໄດ້ຮັບຄວາມສາມາດທີ່ຄາດເດົາໄດ້, ການຝຶກອົບຮົມ, ການປະເມີນຜົນ, ແລະການນຳໃຊ້ຈະອ່ອນແອ ແລະ ມີລາຄາແພງ. ເທັກໂນໂລຢີຂະໜາດໃຫຍ່ມັກຈະຄວບຄຸມຊັ້ນ "ກະດູກສັນຫຼັງ" (ຄລາວ, ການຮ່ວມມືກັບຊິບ, ການກຳນົດເວລາ, ຄວາມປອດໄພ), ເຊິ່ງສາມາດກຳນົດສິ່ງທີ່ເປັນໄປໄດ້ສຳລັບທີມງານຂະໜາດນ້ອຍກວ່າ. ພະລັງນັ້ນສາມາດເປັນປະໂຫຍດ, ແຕ່ມັນຍັງຄົງເປັນພະລັງ.
ການແຈກຢາຍຂອງ Big Tech ມີຜົນກະທົບແນວໃດຕໍ່ຄວາມໝາຍຂອງ “AI” ຕໍ່ຜູ້ໃຊ້ປະຈຳວັນ?
ການແຈກຢາຍແມ່ນມະຫາອຳນາດເພາະມັນປ່ຽນ AI ໃຫ້ກາຍເປັນຄຸນສົມບັດເລີ່ມຕົ້ນແທນທີ່ຈະເປັນຜະລິດຕະພັນແຍກຕ່າງຫາກທີ່ທ່ານຕ້ອງເລືອກ. ເມື່ອ AI ປາກົດຢູ່ໃນແຖບຄົ້ນຫາ, ໂທລະສັບ, ອີເມວ, ເອກະສານ, ການປະຊຸມ ແລະ ຮ້ານແອັບ, ມັນຈະກາຍເປັນ "ສິ່ງທີ່ AI ເປັນ" ສຳລັບຄົນສ່ວນໃຫຍ່. ນັ້ນຍັງເຮັດໃຫ້ຄວາມຄາດຫວັງຂອງສາທາລະນະຫຼຸດລົງ: ຖ້າ AI ສ່ວນໃຫຍ່ແມ່ນເຄື່ອງມືການຂຽນໃນແອັບຂອງທ່ານ, ຜູ້ໃຊ້ສົມມຸດວ່າ AI ເທົ່າກັບການຂຽນ. ແພລດຟອມຕັດສິນໃຈຢ່າງງຽບໆ.
ວິທີການຫຼັກໆທີ່ກົດລະບຽບຂອງແພລດຟອມ ແລະ ຮ້ານຄ້າແອັບເຮັດໜ້າທີ່ເປັນຜູ້ຮັກສາປະຕູ AI ແມ່ນຫຍັງ?
ນະໂຍບາຍການທົບທວນແອັບ, ເງື່ອນໄຂຂອງຕະຫຼາດ, ກົດລະບຽບເນື້ອຫາ, ແລະ ຂໍ້ຈຳກັດຂອງ API ສາມາດກຳນົດວ່າຄຸນສົມບັດ AI ໃດທີ່ໄດ້ຮັບອະນຸຍາດ ແລະ ພວກມັນຕ້ອງປະຕິບັດແນວໃດ. ເຖິງແມ່ນວ່າກົດລະບຽບຈະຖືກວາງໄວ້ເປັນການປົກປ້ອງຄວາມປອດໄພ ຫຼື ຄວາມເປັນສ່ວນຕົວ, ແຕ່ພວກມັນຍັງສ້າງຮູບແບບການແຂ່ງຂັນໂດຍການເພີ່ມຄ່າໃຊ້ຈ່າຍໃນການປະຕິບັດຕາມ ແລະ ການຈັດຕັ້ງປະຕິບັດ. ສຳລັບນັກພັດທະນາ, ນີ້ໝາຍຄວາມວ່າການອັບເດດນະໂຍບາຍສາມາດມີຄວາມສຳຄັນເທົ່າກັບການອັບເດດຮູບແບບ. ໃນທາງປະຕິບັດ, “ສິ່ງທີ່ສົ່ງ” ມັກຈະເປັນ “ສິ່ງທີ່ຜ່ານປະຕູ.”
ແພລດຟອມ AI ຄລາວດ໌ ເຊັ່ນ SageMaker, Azure ML, ແລະ Vertex AI ເຂົ້າກັບບົດບາດຂອງ Big Tech ໃນ AI ແນວໃດ?
ແພລດຟອມ Cloud AI ລວມການຝຶກອົບຮົມ, ການນຳໃຊ້, ການຕິດຕາມກວດກາ, ການຄຸ້ມຄອງ ແລະ ຄວາມປອດໄພໄວ້ໃນບ່ອນດຽວ, ເຊິ່ງຊ່ວຍຫຼຸດຜ່ອນຄວາມຂັດແຍ້ງສຳລັບບໍລິສັດ Startup ແລະ ວິສາຫະກິດຕ່າງໆ. ເຄື່ອງມືຕ່າງໆເຊັ່ນ Amazon SageMaker, Azure Machine Learning, ແລະ Vertex AI ເຮັດໃຫ້ມັນງ່າຍຕໍ່ການຂະຫຍາຍ ແລະ ຈັດການຕົ້ນທຶນຜ່ານຄວາມສຳພັນຂອງຜູ້ຂາຍດຽວ. ການແລກປ່ຽນແມ່ນວ່າຄວາມສະດວກສະບາຍສາມາດເພີ່ມການລັອກອິນ, ເພາະວ່າຂັ້ນຕອນການເຮັດວຽກ, ການອະນຸຍາດ ແລະ ການຕິດຕາມກວດກາແມ່ນປະສົມປະສານຢ່າງເລິກເຊິ່ງເຂົ້າໃນລະບົບນິເວດນັ້ນ.
ຜູ້ຊື້ທຸລະກິດຄວນຖາມຫຍັງກ່ອນທີ່ຈະນຳໃຊ້ເຄື່ອງມື Big Tech AI?
ເລີ່ມຕົ້ນດ້ວຍຂໍ້ມູນ: ບ່ອນທີ່ມັນໄປ, ວິທີການທີ່ມັນຖືກແຍກອອກ, ແລະການຄວບຄຸມການເກັບຮັກສາ ແລະ ການກວດສອບອັນໃດແດ່ທີ່ມີຢູ່. ຖາມກ່ຽວກັບການຄວບຄຸມຂອງຜູ້ເບິ່ງແຍງລະບົບ, ການບັນທຶກ, ຂອບເຂດການເຂົ້າເຖິງ, ແລະວິທີການປະເມີນຜົນແບບຈຳລອງສຳລັບຄວາມສ່ຽງໃນໂດເມນຂອງທ່ານ. ນອກຈາກນີ້, ການກຳນົດລາຄາແບບທົດສອບຄວາມກົດດັນ, ເພາະວ່າຄ່າໃຊ້ຈ່າຍທີ່ອີງໃສ່ການນຳໃຊ້ສາມາດເພີ່ມຂຶ້ນເມື່ອການນຳໃຊ້ເພີ່ມຂຶ້ນ. ໃນການຕັ້ງຄ່າທີ່ມີການຄວບຄຸມ, ໃຫ້ຈັດຄວາມຄາດຫວັງໃຫ້ສອດຄ່ອງກັບຂອບການເຮັດວຽກ ແລະ ຂໍ້ກຳນົດການປະຕິບັດຕາມທີ່ອົງກອນຂອງທ່ານໃຊ້ແລ້ວ.
ນັກພັດທະນາສາມາດຫຼີກລ່ຽງການລັອກຜູ້ຂາຍໄດ້ແນວໃດເມື່ອສ້າງ APIs AI ຂອງ Big Tech?
ວິທີການທົ່ວໄປແມ່ນການອອກແບບເພື່ອຄວາມສະດວກໃນການພົກພາ: ຫໍ່ການເອີ້ນແບບຈຳລອງໄວ້ທາງຫຼັງຊັ້ນ abstraction ແລະຮັກສາ prompts, ນະໂຍບາຍ ແລະ ເຫດຜົນການປະເມີນຜົນໃຫ້ເປັນເວີຊັນ ແລະ ສາມາດທົດສອບໄດ້. ຫຼີກລ່ຽງການອີງໃສ່ຄຸນສົມບັດ "ພິເສດ" ຂອງຜູ້ຂາຍອັນດຽວທີ່ອາດຈະປ່ຽນແປງ ຫຼື ຫາຍໄປ. ຕິດຕາມຂໍ້ຈຳກັດອັດຕາ, ການອັບເດດລາຄາ ແລະ ການປ່ຽນແປງນະໂຍບາຍເປັນສ່ວນໜຶ່ງຂອງການບຳລຸງຮັກສາຢ່າງຕໍ່ເນື່ອງ. ຄວາມສະດວກໃນການພົກພາບໍ່ແມ່ນບໍ່ເສຍຄ່າ, ແຕ່ມັນມັກຈະມີລາຄາຖືກກວ່າການຍ້າຍຖິ່ນຖານແບບບັງຄັບ.
ຄວາມເປັນສ່ວນຕົວ ແລະ ການປັບແຕ່ງສ່ວນບຸກຄົນສ້າງ “ການຕໍ່ລອງຄວາມໄວ້ວາງໃຈ” ດ້ວຍຄຸນສົມບັດ AI ແນວໃດ?
ການປັບແຕ່ງສ່ວນບຸກຄົນມັກຈະຊ່ວຍປັບປຸງຜົນປະໂຫຍດຂອງ AI, ແຕ່ໂດຍທົ່ວໄປແລ້ວມັນເພີ່ມການເປີດເຜີຍຂໍ້ມູນ ແລະ ຄວາມໜ້າຢ້ານທີ່ຮັບຮູ້. ເທັກໂນໂລຢີຂະໜາດໃຫຍ່ຕັ້ງຢູ່ໃກ້ກັບຂໍ້ມູນດ້ານພຶດຕິກຳ, ວິສາຫະກິດ, ແພລດຟອມ ແລະ ອຸປະກອນ, ດັ່ງນັ້ນຜູ້ໃຊ້ ແລະ ຜູ້ຄວບຄຸມຈຶ່ງກວດສອບຢ່າງລະອຽດວ່າຂໍ້ມູນນັ້ນມີອິດທິພົນຕໍ່ການຝຶກອົບຮົມ, ການປັບແຕ່ງ ແລະ ການຕັດສິນໃຈກ່ຽວກັບຜະລິດຕະພັນແນວໃດ. ມາດຕະຖານທີ່ໃຊ້ໄດ້ຈິງແມ່ນວ່າບໍລິສັດສາມາດອະທິບາຍການປະຕິບັດຂໍ້ມູນ AI ຂອງຕົນຢ່າງຊັດເຈນໂດຍບໍ່ຕ້ອງປິດບັງຢູ່ເບື້ອງຫຼັງພາສາທາງກົດໝາຍຫຼືບໍ່. ການຄວບຄຸມທີ່ດີ ແລະ ການເລືອກອອກທີ່ແທ້ຈິງມີຄວາມສຳຄັນ.
ມາດຕະຖານ ແລະ ລະບຽບການໃດແດ່ທີ່ກ່ຽວຂ້ອງກັບການຄຸ້ມຄອງ ແລະ ຄວາມປອດໄພຂອງ Big Tech AI?
ໃນຫຼາຍໆທໍ່ສົ່ງ, ການຄຸ້ມຄອງປະສົມປະສານນະໂຍບາຍຄວາມປອດໄພພາຍໃນກັບຂອບການເຮັດວຽກພາຍນອກ ແລະ ກົດໝາຍ. ອົງກອນຕ່າງໆມັກຈະອ້າງອີງເຖິງຄຳແນະນຳການຄຸ້ມຄອງຄວາມສ່ຽງເຊັ່ນ: AI RMF ຂອງ NIST, ມາດຕະຖານການຄຸ້ມຄອງເຊັ່ນ ISO/IEC 42001, ແລະ ກົດລະບຽບພາກພື້ນເຊັ່ນ GDPR ແລະ EU AI Act ສຳລັບກໍລະນີການນຳໃຊ້ບາງຢ່າງ. ສິ່ງເຫຼົ່ານີ້ມີອິດທິພົນຕໍ່ການບັນທຶກ, ການກວດສອບ, ຂອບເຂດຂໍ້ມູນ, ແລະ ສິ່ງທີ່ຖືກບລັອກ ຫຼື ອະນຸຍາດ. ສິ່ງທ້າທາຍແມ່ນວ່າການປະຕິບັດຕາມກົດລະບຽບສາມາດມີລາຄາແພງ, ເຊິ່ງສາມາດເອື້ອອຳນວຍໃຫ້ຜູ້ຫຼິ້ນຂະໜາດໃຫຍ່.
ອິດທິພົນຂອງ Big Tech ຕໍ່ການແຂ່ງຂັນ ແລະ ລະບົບນິເວດແມ່ນສິ່ງທີ່ບໍ່ດີສະເໝີໄປບໍ?
ບໍ່ແມ່ນໂດຍອັດຕະໂນມັດ. ແພລດຟອມສາມາດຫຼຸດຜ່ອນອຸປະສັກ, ມາດຕະຖານເຄື່ອງມື, ແລະ ສະໜອງທຶນໃຫ້ແກ່ຄວາມປອດໄພ ແລະ ພື້ນຖານໂຄງລ່າງທີ່ທີມງານຂະໜາດນ້ອຍກວ່າບໍ່ສາມາດຈ່າຍໄດ້. ແຕ່ການເຄື່ອນໄຫວດຽວກັນນີ້ສາມາດຫຼຸດຜ່ອນຄວາມຫຼາກຫຼາຍໄດ້ ຖ້າທຸກຄົນກາຍເປັນຄົນທີ່ມີຄວາມຜູກພັນກັບ API, ຄລາວ ແລະ ຕະຫຼາດທີ່ໂດດເດັ່ນຈຳນວນໜຶ່ງ. ລະວັງຮູບແບບຕ່າງໆເຊັ່ນ: ການລວມຕົວຂອງການປະມວນຜົນ ແລະ ການແຈກຢາຍ, ບວກກັບການປ່ຽນແປງລາຄາ ແລະ ນະໂຍບາຍທີ່ຍາກທີ່ຈະຫຼີກລ່ຽງໄດ້. ລະບົບນິເວດທີ່ມີສຸຂະພາບດີທີ່ສຸດມັກຈະຮັກສາພື້ນທີ່ໄວ້ສຳລັບການເຮັດວຽກຮ່ວມກັນ ແລະ ຜູ້ເຂົ້າຮ່ວມໃໝ່.
ເອກະສານອ້າງອີງ
-
ອົງການພະລັງງານສາກົນ - ພະລັງງານ ແລະ ປັນຍາປະດິດ - iea.org
-
ອົງການພະລັງງານສາກົນ - ຄວາມຕ້ອງການພະລັງງານຈາກ AI - iea.org
-
NVIDIA - ພາບລວມຂອງແພລດຟອມການອະນຸມານ AI - nvidia.com
-
Amazon Web Services - ເອກະສານກ່ຽວກັບ Amazon SageMaker AI (SageMaker ແມ່ນຫຍັງ?) - aws.amazon.com
-
Microsoft - Azure - learn.microsoft.com
-
Google Cloud - ເອກະສານ Vertex AI - cloud.google.com
-
Google Cloud - MLOps ໃນ Vertex AI - cloud.google.com
-
Microsoft - ຄູ່ມືສະຖາປັດຕະຍະກຳການດຳເນີນງານການຮຽນຮູ້ຂອງເຄື່ອງຈັກ (MLOps) v2 - learn.microsoft.com
-
ນັກພັດທະນາ Apple - Core ML - developer.apple.com
-
ນັກພັດທະນາ Google - ຊຸດ ML - developers.google.com
-
ຄຳແນະນຳການທົບທວນແອັບ ສຳ ລັບນັກພັດທະນາ Apple - developer.apple.com
-
ຊ່ວຍເຫຼືອ Google Play Console - ຄວາມປອດໄພຂອງຂໍ້ມູນ - support.google.com
-
arXiv - ກົດໝາຍວ່າດ້ວຍການປັບຂະໜາດສຳລັບຮູບແບບພາສາປະສາດ - arxiv.org
-
arXiv - ການຝຶກອົບຮົມຮູບແບບພາສາຂະໜາດໃຫຍ່ທີ່ດີທີ່ສຸດສຳລັບການຄຳນວນ (Chinchilla) - arxiv.org
-
ສະຖາບັນມາດຕະຖານ ແລະ ເຕັກໂນໂລຊີແຫ່ງຊາດ - ຂອບການຄຸ້ມຄອງຄວາມສ່ຽງດ້ານ AI (AI RMF 1.0) - nist.gov
-
ສະຖາບັນມາດຕະຖານ ແລະ ເຕັກໂນໂລຊີແຫ່ງຊາດ - ໂປຣໄຟລ໌ AI ລຸ້ນໃໝ່ຂອງ NIST (ຄູ່ຮ່ວມ AI RMF) - nist.gov
-
ອົງການສາກົນເພື່ອມາດຕະຖານ - ISO/IEC 42001:2023 - iso.org
-
EUR-Lex - ລະບຽບການ (EU) 2016/679 (GDPR) - eur-lex.europa.eu
-
EUR-Lex - ກົດລະບຽບ (EU) 2024/1689 (EU AI Act) - eur-lex.europa.eu
-
OECD - ຫຼັກການຂອງ OECD AI - oecd.ai