Cloud flare ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ
ຂໍ້ມູນຈໍາເພາະ
- ຜະລິດຕະພັນ: GenAI Secure AI Practice Guide
- ຜູ້ຂຽນ: ອາລຸນ Parzych, ຜູ້ອໍານວຍການຕະຫຼາດຜະລິດຕະພັນ, Cloudflare
- ເນື້ອໃນ: ຍຸດທະສາດ AI ສໍາລັບການທົດລອງທາງປັນຍາປະດິດ (GenAI) ທີ່ປອດໄພ
ຂໍ້ມູນຜະລິດຕະພັນ
ຄູ່ມືການປະຕິບັດ AI ທີ່ປອດໄພຂອງ GenAI ສະຫນອງຄວາມເຂົ້າໃຈແລະຍຸດທະສາດສໍາລັບອົງການຈັດຕັ້ງທີ່ຊອກຫາການປະຕິບັດເຕັກໂນໂລຢີ AI ຢ່າງປອດໄພ. ຜູ້ຂຽນໂດຍ Dawn Parzych, ຄູ່ມືນີ້ແກ້ໄຂບັນຫາຄວາມທ້າທາຍດ້ານຄວາມປອດໄພທີ່ເປັນເອກະລັກທີ່ກ່ຽວຂ້ອງກັບການຮັບຮອງເອົາ GenAI, ສະເຫນີຄໍາແນະນໍາແລະການປະຕິບັດທີ່ດີທີ່ສຸດສໍາລັບການນໍາໃຊ້, ການກໍ່ສ້າງແລະການຮັບປະກັນການແກ້ໄຂ AI ໃນລະດັບ.
ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ
ຄູ່ມືຂອງ CISO ກ່ຽວກັບວິທີການສ້າງຍຸດທະສາດ AI ທີ່ສາມາດຂະຫຍາຍໄດ້
ສະຫຼຸບສັງລວມ
ຍິນດີຕ້ອນຮັບ, CISO!
AI ອາດຈະເປັນຄໍາສັບທີ່ buzziest ໃນມື້ນີ້, ແລະມັນຍັງເປັນຫນຶ່ງໃນບັນຫາທີ່ກົດດັນທີ່ສຸດສໍາລັບຊຸມຊົນຄວາມປອດໄພ. ອິດທິພົນຂອງມັນຮຽກຮ້ອງໃຫ້ມີຄວາມສົນໃຈຂອງພວກເຮົາ, ນັ້ນແມ່ນເຫດຜົນທີ່ພວກເຮົາຢູ່ Cloudflare ຂຽນຄູ່ມືນີ້ເພື່ອຊ່ວຍໃຫ້ທ່ານຄິດໂດຍຜ່ານການທົດລອງ Generative Artificial Intelligence (GenAI) ທີ່ປອດໄພໃນອົງການຂອງເຈົ້າ.
ເຄື່ອງມື AI ກໍາລັງກາຍມາເປັນກໍາລັງແຮງແລະເຂົ້າເຖິງຢ່າງໄວວາ, ປົດລ໋ອກໂອກາດສໍາລັບການປະດິດສ້າງໃນທົ່ວອຸດສາຫະກໍາ. ຢ່າງໃດກໍຕາມ, ເຊັ່ນດຽວກັນກັບການປ່ຽນແປງແບບເຄື່ອນໄຫວອື່ນໆ, GenAI ມາພ້ອມກັບຄວາມປອດໄພ, ຄວາມເປັນສ່ວນຕົວ, ແລະການທ້າທາຍການປະຕິບັດຕາມທີ່ເປັນເອກະລັກ. ການຮັບຮອງເອົາ GenAI ຢ່າງກວ້າງຂວາງສາມາດເຮັດໃຫ້ເກີດການເພີ່ມຂຶ້ນຂອງການນໍາໃຊ້ທີ່ບໍ່ໄດ້ຄາດຄິດ, ຕົວຢ່າງຂອງການລ່ວງລະເມີດຂອງຜູ້ໃຊ້, ພຶດຕິກໍາທີ່ເປັນອັນຕະລາຍ, ແລະການປະຕິບັດ IT shadow ອັນຕະລາຍ, ທັງຫມົດເພີ່ມຄວາມສ່ຽງຂອງການລະເມີດຂໍ້ມູນແລະການຮົ່ວໄຫລຂອງຂໍ້ມູນທີ່ລະອຽດອ່ອນ.
ໃນຂະນະທີ່ການຮັບຮອງເອົາຂະຫຍາຍຢູ່ໃນບ່ອນເຮັດວຽກຂອງທ່ານ, ທ່ານຈໍາເປັນຕ້ອງໄດ້ກະກຽມດ້ວຍແຜນຜັງ GenAI ທີ່ແຈ້ງໃຫ້ຮູ້ວິທີການນໍາໃຊ້, ການກໍ່ສ້າງແລະຄວາມປອດໄພໃນລະດັບ. ໃຫ້ປຶກສາຫາລືກ່ຽວກັບຄວາມສ່ຽງແລະ Review ຄໍາແນະນໍາທີ່ທີມງານຂອງທ່ານສາມາດນໍາໃຊ້ສໍາລັບການຮັບປະກັນ GenAI ໂດຍອີງໃສ່ລະດັບການໃຫຍ່ເຕັມຕົວແລະການນໍາໃຊ້. ດ້ວຍກົນລະຍຸດເຫຼົ່ານີ້, ອົງການຈັດຕັ້ງຂອງທ່ານສາມາດສ້າງຍຸດທະສາດ GenAI ທີ່ເຫມາະກັບຄວາມຕ້ອງການຂອງທຸລະກິດໃນຂະນະທີ່ປົກປ້ອງຂໍ້ມູນຂອງທ່ານແລະຮັບປະກັນການປະຕິບັດຕາມ.
- ອາລຸນ Parzych, ຜູ້ອໍານວຍການຕະຫຼາດຜະລິດຕະພັນ, Cloudflare
ຮັບປະກັນການທົດລອງ GenAI
ຂໍໂທດທີ່ບອກເຈົ້າ, ແຕ່ເລື່ອງຂອງຊາຣາຈົບລົງ. ໃນຂະນະທີ່ພວກເຮົາກໍາລັງບອກລາກັບຕົວລະຄອນທີ່ສົມມຸດຕິຖານຂອງພວກເຮົາ, ຍ້ອນວ່າການຄາດເດົາແລະ GenAI ຂະຫຍາຍອອກໄປ, ຈະມີ "Sarahs" ນັບບໍ່ຖ້ວນໃນຊີວິດຈິງ - ແຕ່ລະຄົນສະແດງເປັນ hero ໃນທີມ IT ແລະນັກພັດທະນາ, ເປັນນັກເທກໂນໂລຍີທຸລະກິດ, ແລະພະນັກງານສ່ວນບຸກຄົນ.
AI ໄດ້ດຶງດູດນັກເທກໂນໂລຍີແລະຜູ້ໃຊ້ປະຈໍາວັນຢ່າງດຽວກັນ, ເຮັດໃຫ້ເກີດຄວາມຢາກຮູ້ຢາກເຫັນແລະມີຄວາມແປກໃຈ. ການທົດລອງນີ້ແມ່ນມີຄວາມຈໍາເປັນຍ້ອນວ່າພວກເຮົາເຮັດວຽກເພື່ອປົດລັອກທ່າແຮງອັນເຕັມທີ່ຂອງ AI. ແຕ່ໂດຍບໍ່ມີການລະມັດລະວັງແລະ guardrails, ມັນອາດຈະນໍາໄປສູ່ການປະນີປະນອມຄວາມປອດໄພຫຼືຫຼຸດລົງຈາກການປະຕິບັດຕາມ.
ເພື່ອບັນລຸຄວາມດຸ່ນດ່ຽງ, ແລະເຂົ້າໃຈແລະຄຸ້ມຄອງຂໍ້ລິເລີ່ມ AI ໃຫ້ມີປະສິດຕິຜົນ, ອົງການຈັດຕັ້ງຕ້ອງພິຈາລະນາສາມດ້ານທີ່ສໍາຄັນ:
- ໃຊ້ AI
ການນໍາໃຊ້ເທກໂນໂລຍີ AI (ເຊັ່ນ: ChatGPT, Bard, ແລະ GitHub Copilot) ທີ່ສະເຫນີໂດຍຜູ້ຂາຍພາກສ່ວນທີສາມໃນຂະນະທີ່ປົກປ້ອງຊັບສິນ (ເຊັ່ນ: ຂໍ້ມູນລະອຽດອ່ອນ, ຊັບສິນທາງປັນຍາ, ລະຫັດແຫຼ່ງ, ແລະອື່ນໆ) ແລະຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ອາດເກີດຂື້ນໂດຍອີງໃສ່ກໍລະນີການນໍາໃຊ້. - ການສ້າງ AI
ການພັດທະນາການແກ້ໄຂ AI ແບບກຳນົດເອງທີ່ເໝາະສົມກັບຄວາມຕ້ອງການສະເພາະຂອງອົງກອນ (ເຊັ່ນ: ຂັ້ນຕອນການເປັນເຈົ້າຂອງສຳລັບການວິເຄາະການຄາດເດົາ, ຜູ້ຮ່ວມບິນທີ່ປະເຊີນໜ້າກັບລູກຄ້າ ຫຼື chatbots, ແລະລະບົບກວດຈັບໄພຂົ່ມຂູ່ທີ່ຂັບເຄື່ອນດ້ວຍ AI) - ຮັບປະກັນ AI
ປົກປ້ອງແອັບພລິເຄຊັນ AI ແລະລະບົບ AI ຈາກນັກສະແດງທີ່ບໍ່ດີທີ່ໝູນໃຊ້ມັນໃຫ້ປະພຶດຕົວແບບບໍ່ຄາດຄິດ
ຮັບປະກັນການທົດລອງ GenAI
ການຫັນປ່ຽນ GenAI: ໃນມື້ນີ້ແລະໃນອະນາຄົດ
ການອຸທອນຂອງ GenAI ກັບຜູ້ບໍລິໂພກແລະອົງການຈັດຕັ້ງໄດ້ກໍານົດມັນຢູ່ໃນເສັ້ນທາງການຮັບຮອງເອົາທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ຜູ້ໃຊ້ພະລັງງານກຸ່ມນ້ອຍເພີ່ມຂຶ້ນຢ່າງໄວວາຍ້ອນສ່ວນຫນຶ່ງຂອງຊຸມຊົນແຫຼ່ງເປີດທີ່ຫ້າວຫັນແລະການທົດລອງທີ່ຂັບເຄື່ອນໂດຍຜູ້ບໍລິໂພກຂອງແອັບພລິເຄຊັນເຊັ່ນ ChatGPT ແລະ Stable Diffusion.
ສິ່ງທີ່ຜູ້ໃຊ້ໄດ້ພົບເຫັນໂດຍຜ່ານມັນທັງຫມົດແມ່ນວ່າຫຸ່ນຍົນ, ໃນຄວາມເປັນຈິງ, "ແທນພວກເຮົາ."
GenAI ເຮັດໃຫ້ມະນຸດຢູ່ໃນຕໍາແຫນ່ງຂອງການຫລອມໂລຫະແລະການຂະຫຍາຍ, ແທນທີ່ຈະສ້າງທຸກສິ່ງທຸກຢ່າງຈາກຈຸດເລີ່ມຕົ້ນ, ແລະສາມາດຊ່ວຍທຸລະກິດ. ampປັບປຸງປະສິດທິພາບແຮງງານຂອງພວກເຂົາ. Predictive AI ໃຫ້ຜົນປະໂຫຍດທີ່ຄ້າຍຄືກັນໂດຍການເຮັດໃຫ້ມັນງ່າຍຂຶ້ນໃນການເຂົ້າໄປໃນຂໍ້ມູນເພື່ອປັບປຸງການຕັດສິນໃຈ, ສ້າງຜະລິດຕະພັນທີ່ສະຫລາດກວ່າ, ແລະປັບແຕ່ງປະສົບການຂອງລູກຄ້າ, ໃນບັນດາຂໍ້ລິເລີ່ມຕ່າງໆ.
ໃນມື້ນີ້, 59% ຂອງນັກພັດທະນາປະຈຸບັນກໍາລັງໃຊ້ AI ໃນຂະບວນການພັດທະນາຂອງພວກເຂົາ 1
ໃນປີ 2026, > 80% ຂອງວິສາຫະກິດຈະນຳໃຊ້ API, ຕົວແບບ, ແລະ/ຫຼື ແອັບທີ່ນຳໃຊ້ GenAI ທີ່ນຳໃຊ້ໃນສະພາບແວດລ້ອມການຜະລິດ (ເພີ່ມຂຶ້ນຈາກ 5% ໃນມື້ນີ້)2
ຮອດປີ 2030, GenAI ຈະເພີ່ມ 50% ຂອງວຽກງານຄວາມຮູ້ຂອງຜູ້ອອກແຮງງານເພື່ອຍົກສູງສະມັດຕະພາບຂອງວຽກງານຫຼືຍົກສູງຄຸນນະພາບສະເລ່ຍຂອງວຽກງານ (ເພີ່ມຈາກ <1% ໃນປະຈຸບັນ)3
- SlashData, "ວິທີການທີ່ນັກພັດທະນາພົວພັນກັບເຕັກໂນໂລຢີ AI," ເດືອນພຶດສະພາ 2024
- Gartner, “ຄູ່ມື CTO ກ່ຽວກັບພູມສັນຖານເຕັກໂນໂລຊີ AI ທົ່ວໄປ”, ກັນຍາ 2023
- Gartner, "Emerging Tech: ແນວທາງເທັກໂນໂລຍີຫຼັກທີ່ກໍານົດ AI ການຜະລິດ", ກັນຍາ 2023
ໃຊ້ GenAI ຢ່າງປອດໄພ
ການທົດລອງ AI ຂະຫຍາຍຂອບເຂດຈາກການໃຊ້ເຄື່ອງມື ແລະການບໍລິການ AI ທີ່ສ້າງມາກ່ອນ ໄປສູ່ການສ້າງການແກ້ໄຂ AI ແບບກຳນົດເອງຕັ້ງແຕ່ຕົ້ນ. ໃນຂະນະທີ່ບາງອົງການຈັດຕັ້ງອາດຈະກ້າວໄປສູ່ການສ້າງແບບຈໍາລອງ AI ແລະຄໍາຮ້ອງສະຫມັກຂອງຕົນເອງ, ຫຼາຍໆຄົນຈະຕິດກັບການບໍລິໂພກເຄື່ອງມື AI ຂອງພາກສ່ວນທີສາມ.
ໃນກໍລະນີດັ່ງກ່າວນີ້, ເຄື່ອງມື AI ພາກສ່ວນທີສາມສ້າງຄວາມສ່ຽງໃຫມ່ເນື່ອງຈາກວ່າອົງການຈັດຕັ້ງພຽງແຕ່ມີການຄວບຄຸມໂດຍກົງຈໍາກັດໃນການຕັ້ງຄ່າຄວາມປອດໄພແລະຄວາມເປັນສ່ວນຕົວຂອງເຂົາເຈົ້າ.
ພະນັກງານມີແນວໂນ້ມທີ່ຈະໃຊ້ເຄື່ອງມື AI off-shelf ສໍາລັບການເຮັດວຽກໃນປັດຈຸບັນຜ່ານຊຸດ SaaS ເຊັ່ນ Microsoft 365, chatbots ທີ່ສ້າງຂຶ້ນໃນເຄື່ອງຈັກຊອກຫາຫຼືແອັບຯສາທາລະນະ, ແລະແມ້ກະທັ້ງ APIs.
ອົງການຈັດຕັ້ງຕ້ອງມີຄວາມພາກພຽນອັນເນື່ອງມາຈາກເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງ, ລວມທັງ:
- ການປະເມີນຄວາມສ່ຽງດ້ານຄວາມປອດໄພຂອງເຄື່ອງມືພາກສ່ວນທີສາມ
- ແກ້ໄຂບັນຫາຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ
- ການຄຸ້ມຄອງການເອື່ອຍອີງ (ຫຼື overreliance) ໃນ APIs ພາຍນອກ
- ຕິດຕາມກວດກາຈຸດອ່ອນທີ່ອາດຈະເກີດຂຶ້ນ
ອະດີດampLe ຂອງນີ້ຈະເປັນເວລາທີ່ພະນັກງານໃຊ້ສາທາລະນະ web ແອັບຯເຊັ່ນ ChatGPT. ທຸກໆຂໍ້ມູນທີ່ປ້ອນເຂົ້າໃນການກະຕຸ້ນເຕືອນຈະກາຍເປັນສ່ວນໜຶ່ງຂອງຂໍ້ມູນທີ່ອອກຈາກການຄວບຄຸມຂອງອົງກອນ. ຜູ້ໃຊ້ອາດຈະແບ່ງປັນຂໍ້ມູນທີ່ລະອຽດອ່ອນ, ຄວາມລັບ, ຫຼືລະບຽບການເກີນໄປ — ເຊັ່ນ: ຂໍ້ມູນທີ່ລະບຸຕົວຕົນສ່ວນບຸກຄົນ (PII), ຂໍ້ມູນທາງດ້ານການເງິນ, ຊັບສິນທາງປັນຍາ, ແລະລະຫັດແຫຼ່ງຂໍ້ມູນ. ແລະເຖິງແມ່ນວ່າພວກເຂົາບໍ່ໄດ້ແບ່ງປັນຂໍ້ມູນທີ່ລະອຽດອ່ອນທີ່ຊັດເຈນ, ມັນກໍ່ເປັນໄປໄດ້ທີ່ຈະລວມເອົາບໍລິບົດຈາກວັດສະດຸປ້ອນໄປຫາຂໍ້ມູນທີ່ລະອຽດອ່ອນ.
ເພື່ອຮັກສາຄວາມປອດໄພ, ພະນັກງານສາມາດສະຫຼັບການຕັ້ງຄ່າເພື່ອປ້ອງກັນບໍ່ໃຫ້ວັດສະດຸປ້ອນຂອງເຂົາເຈົ້າຈາກການຝຶກອົບຮົມຕົວແບບຕື່ມອີກ, ແຕ່ເຂົາເຈົ້າຕ້ອງເຮັດດ້ວຍຕົນເອງ. ເພື່ອຮັບປະກັນຄວາມປອດໄພ, ອົງການຈັດຕັ້ງຕ້ອງການວິທີທີ່ຈະຮັກສາບໍ່ໃຫ້ຄົນເຂົ້າໄປໃນຂໍ້ມູນສ່ວນຕົວ.
ກະກຽມສໍາລັບຜົນກະທົບດ້ານຄວາມປອດໄພຂອງ AI
ການເປີດເຜີຍຂໍ້ມູນ
ຜູ້ໃຊ້ແບ່ງປັນຂໍ້ມູນທີ່ລະອຽດອ່ອນກັບບໍລິການ AI ພາຍນອກບໍ່ເໝາະສົມໃນຂອບເຂດໃດ? ເຕັກນິກການປິດບັງຊື່/ນາມສະກຸນພຽງພໍບໍ?
ຄວາມສ່ຽງ API
ທ່ານຈະແກ້ໄຂຊ່ອງໂຫວ່ພາຍໃນ APIs ພາກສ່ວນທີສາມທີ່ອາດຈະເປັນປະຕູສໍາລັບຜູ້ໂຈມຕີແນວໃດ?
ລະບົບ Black-Box
ຂະບວນການຕັດສິນໃຈຂອງຕົວແບບ AI ພາຍນອກສາມາດແນະນໍາຄວາມສ່ຽງທີ່ບໍ່ຄາດຄິດແມ່ນຫຍັງ?
ການຄຸ້ມຄອງຄວາມສ່ຽງຂອງຜູ້ຂາຍ
ເຈົ້າຮູ້ຫຍັງກ່ຽວກັບການປະຕິບັດຄວາມປອດໄພຂອງຜູ້ໃຫ້ບໍລິການ AI ພາກສ່ວນທີສາມຂອງເຈົ້າ? ສໍາຄັນກວ່ານັ້ນ, ເຈົ້າບໍ່ຮູ້ຫຍັງ?
ຂັ້ນຕອນປ້ອງກັນການບໍລິໂພກ AI
- ຄຸ້ມຄອງການປົກຄອງ ແລະຄວາມສ່ຽງ
- ພັດທະນານະໂຍບາຍກ່ຽວກັບວິທີການແລະເວລາທີ່ຈະໃຊ້ AI, ລວມທັງຂໍ້ມູນໃດທີ່ອົງການອະນຸຍາດໃຫ້ຜູ້ໃຊ້ສາມາດແບ່ງປັນກັບ GenAI, ຂໍ້ແນະນໍາການຄວບຄຸມການເຂົ້າເຖິງ, ຂໍ້ກໍານົດການປະຕິບັດຕາມ, ແລະວິທີການລາຍງານການລະເມີດ.
- ດໍາເນີນການປະເມີນຜົນກະທົບເພື່ອເກັບກໍາຂໍ້ມູນ, ກໍານົດ, ແລະປະລິມານຜົນປະໂຫຍດແລະຄວາມສ່ຽງຂອງການນໍາໃຊ້ AI
- ເພີ່ມການເບິ່ງເຫັນ ແລະການຄວບຄຸມເພື່ອຄວາມປອດໄພ ແລະຄວາມເປັນສ່ວນຕົວ
- ບັນທຶກການເຊື່ອມຕໍ່ທັງໝົດ, ລວມທັງແອັບ AI, ເພື່ອຕິດຕາມການເຄື່ອນໄຫວຂອງຜູ້ໃຊ້ຢ່າງຕໍ່ເນື່ອງ, ການນຳໃຊ້ເຄື່ອງມື AI, ແລະຮູບແບບການເຂົ້າເຖິງຂໍ້ມູນເພື່ອກວດຫາຄວາມຜິດປົກກະຕິ.
- ຄົ້ນພົບວ່າເງົາ IT ມີຫຍັງແດ່ (ລວມທັງເຄື່ອງມື AI) — ແລະເຮັດໃຫ້ການຕັດສິນໃຈທີ່ຈະອະນຸມັດ, ຕັນ, ຫຼືຊັ້ນການຄວບຄຸມເພີ່ມເຕີມ
- ສະແກນການຕັ້ງຄ່າແອັບ SaaS ສໍາລັບຄວາມສ່ຽງດ້ານຄວາມປອດໄພ (ເຊັ່ນ: ການອະນຸຍາດ OAuth ທີ່ໄດ້ຮັບຈາກແອັບທີ່ອະນຸມັດໃຫ້ກັບແອັບທີ່ເປີດໃຊ້ AI ທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ, ມີຄວາມສ່ຽງຕໍ່ການເປີດເຜີຍຂໍ້ມູນ)
- ກວດເບິ່ງວ່າຂໍ້ມູນໃດ ເຂົ້າໄປໃນແລະອອກຈາກເຄື່ອງມື AI ແລະການກັ່ນຕອງອອກສິ່ງທີ່ສາມາດປະນີປະນອມ IP, ຜົນກະທົບຕໍ່ຄວາມລັບ, ຫຼືລະເມີດຂໍ້ຈໍາກັດລິຂະສິດ.
- ນຳໃຊ້ການຄວບຄຸມຄວາມປອດໄພສຳລັບວິທີທີ່ຜູ້ໃຊ້ສາມາດໂຕ້ຕອບກັບເຄື່ອງມື AI (ເຊັ່ນ: ຢຸດການອັບໂຫລດ, ປ້ອງກັນການສຳເນົາ/ວາງ, ແລະສະແກນຫາ ແລະບລັອກການປ້ອນຂໍ້ມູນທີ່ລະອຽດອ່ອນ/ເປັນເຈົ້າຂອງ)
- ວາງການປ້ອງກັນເພື່ອສະກັດ AI bots ຈາກການຂູດຂອງທ່ານ webເວັບໄຊ
- ຂັດຂວາງເຄື່ອງມື AI ທັນທີຖ້າບໍ່ມີການຄວບຄຸມອື່ນໆທີ່ເປັນໄປໄດ້. ດັ່ງທີ່ພວກເຮົາຮູ້, ຜູ້ໃຊ້ຈະຊອກຫາວິທີແກ້ໄຂບັນຫາ, ເຊິ່ງເຮັດໃຫ້ຄວາມປອດໄພອອກຈາກການຄວບຄຸມຂອງທ່ານ
- ຄວບຄຸມການເຂົ້າເຖິງແອັບ AI ແລະໂຄງສ້າງພື້ນຖານ
- ຮັບປະກັນວ່າທຸກຜູ້ໃຊ້ ແລະອຸປະກອນທີ່ເຂົ້າເຖິງເຄື່ອງມື AI ຜ່ານການຢັ້ງຢືນຕົວຕົນຢ່າງເຂັ້ມງວດເພື່ອກໍານົດຂອບເຂດຜູ້ທີ່ໃຊ້ເຄື່ອງມື AI
- ປະຕິບັດການຄວບຄຸມການເຂົ້າເຖິງ Zero Trust ທີ່ອີງໃສ່ຕົວຕົນ. ນຳໃຊ້ສິດທິພິເສດຢ່າງໜ້ອຍສຸດເພື່ອຈຳກັດຄວາມເສຍຫາຍທີ່ອາດເກີດຂຶ້ນຈາກບັນຊີທີ່ຖືກລະເມີດ ຫຼືໄພຂົ່ມຂູ່ຈາກພາຍໃນ
- ປັບປຸງຄ່າໃຊ້ຈ່າຍແລະປະສິດທິພາບການດໍາເນີນງານ
- ເຂົ້າໃຈວິທີທີ່ຄົນເຮົາໃຊ້ແອັບພລິເຄຊັນ AI ດ້ວຍການວິເຄາະ ແລະການບັນທຶກເພື່ອໃຫ້ເຈົ້າສາມາດຄວບຄຸມການຈຳກັດອັດຕາ, ການເກັບຂໍ້ມູນ, ພ້ອມກັບການຮ້ອງຂໍການລອງຄືນໃໝ່, ແລະສ້າງແບບຈໍາລອງການຖອຍຫຼັງເປັນຂະໜາດການນຳໃຊ້.
ຮັບປະກັນສິ່ງທີ່ທ່ານສ້າງ
ຝຶກອົບຮົມຮູບແບບ AI ຂອງທ່ານ
ທໍ່ AI ກໍາລັງຂະຫຍາຍຂອບເຂດຄວາມອ່ອນແອ. ແຕ່ດ້ວຍປະສົບການທີ່ຮັບປະກັນໃນຕອນເລີ່ມຕົ້ນແລະຕະຫຼອດຂະບວນການພັດທະນາ, ພວກເຮົາມີຄວາມເຂົ້າໃຈກ່ຽວກັບສິ່ງທີ່ນໍາໄປສູ່ຄວາມສໍາເລັດ. ສໍາລັບຄວາມປອດໄພ AI, ສະຖານທີ່ທໍາມະຊາດທີ່ຈະເລີ່ມຕົ້ນແມ່ນຢູ່ໃນຕົວແບບຂອງທ່ານ.
ໃນຖານະເປັນພື້ນຖານຂອງຄໍາຮ້ອງສະຫມັກ AI, ທຸກສິ່ງທຸກຢ່າງທີ່ໃຊ້ໃນການຝຶກອົບຮົມແບບຈໍາລອງ AI ຂອງທ່ານຈະໄຫລໄປສູ່ຜົນໄດ້ຮັບຂອງມັນ. ພິຈາລະນາວິທີທີ່ທ່ານຈະຮັບປະກັນຂໍ້ມູນນັ້ນໃນເບື້ອງຕົ້ນເພື່ອຫຼີກເວັ້ນການຜົນກະທົບທາງລົບຕໍ່ມາ. ຖ້າປະໄວ້ໂດຍບໍ່ໄດ້ປ້ອງກັນ, ທ່ານມີຄວາມສ່ຽງຕໍ່ການຂະຫຍາຍພື້ນທີ່ການໂຈມຕີຂອງທ່ານແລະສ້າງບັນຫາຂອງແອັບພລິເຄຊັນ.
ຄວາມປອດໄພທີ່ຮັບປະກັນຄວາມສົມບູນຂອງຂໍ້ມູນແມ່ນສໍາຄັນໃນການຫຼຸດຜ່ອນການປະນີປະນອມຂໍ້ມູນໂດຍເຈດຕະນາແລະອຸບັດຕິເຫດ. ຄວາມສ່ຽງດ້ານຄວາມປອດໄພໃນທໍ່ AI ສາມາດປະກອບມີ:
- ການເປັນພິດຂອງຂໍ້ມູນ: ຊຸດຂໍ້ມູນທີ່ເປັນອັນຕະລາຍມີອິດທິພົນຕໍ່ຜົນໄດ້ຮັບ ແລະສ້າງຄວາມລຳອຽງ
- ການລ່ວງລະເມີດ Hallucination: ນັກສະແດງໄພຂົ່ມຂູ່ເຮັດໃຫ້ຄວາມແປກໃຈຂອງ AI ຖືກຕ້ອງ - ການປະດິດຂໍ້ມູນເພື່ອສ້າງການຕອບໂຕ້ - ເພື່ອໃຫ້ຊຸດຂໍ້ມູນທີ່ເປັນອັນຕະລາຍແລະຜິດກົດຫມາຍແຈ້ງໃຫ້ຜົນໄດ້ຮັບ.
ອີກທາງເລືອກ, ຖ້າທ່ານບໍ່ໄດ້ຝຶກອົບຮົມແບບຈໍາລອງ, AI ພາຍໃນເຮືອນຂອງທ່ານຈະເລີ່ມຕົ້ນດ້ວຍການເລືອກຕົວແບບເພື່ອປະຕິບັດວຽກງານ. ໃນກໍລະນີເຫຼົ່ານີ້, ທ່ານຕ້ອງການສຳຫຼວດເບິ່ງວ່າຜູ້ສ້າງສ້າງ ແລະຮັບປະກັນຕົວແບບແນວໃດ ເພາະມັນມີບົດບາດໃນການສະຫຼຸບ.
Inference ແມ່ນຂະບວນການທີ່ປະຕິບັດຕາມການຝຶກອົບຮົມ AI. ຮູບແບບທີ່ໄດ້ຮັບການຝຶກອົບຮົມທີ່ດີກວ່າແມ່ນ, ແລະຍິ່ງປັບລະອຽດຫຼາຍ, ການສະຫຼຸບທີ່ດີກວ່າຈະ - ເຖິງແມ່ນວ່າພວກມັນບໍ່ເຄີຍຮັບປະກັນວ່າສົມບູນແບບ. ເຖິງແມ່ນວ່າຕົວແບບທີ່ໄດ້ຮັບການຝຶກອົບຮົມສູງກໍ່ສາມາດເຮັດໃຫ້ຕາຕົກໃຈ.
ຄວາມປອດໄພຫຼັງການປະຕິບັດ
ເມື່ອທ່ານສ້າງ ແລະນຳໃຊ້ AI ພາຍໃນເຮືອນຂອງທ່ານ, ທ່ານຈະຕ້ອງປົກປ້ອງຂໍ້ມູນສ່ວນຕົວຂອງມັນ ແລະຮັບປະກັນການເຂົ້າເຖິງມັນ. ຄຽງຄູ່ກັບຂໍ້ສະເຫນີແນະທີ່ພວກເຮົາໄດ້ເຮັດແລ້ວໃນເອກະສານສະບັບນີ້, ລວມທັງການບັງຄັບໃຊ້ tokens ສໍາລັບແຕ່ລະຜູ້ໃຊ້ແລະການຈໍາກັດອັດຕາ, ທ່ານຄວນພິຈາລະນາ:
- ການຄຸ້ມຄອງໂຄຕ້າ: ໃຊ້ຂອບເຂດຈໍາກັດເພື່ອປ້ອງກັນລະຫັດ API ຂອງຜູ້ໃຊ້ຈາກການຖືກທໍາລາຍ ແລະແບ່ງປັນ
- ການຂັດຂວາງຕົວເລກລະບົບອັດຕະໂນມັດສະເພາະ (ASNs): ປ້ອງກັນຜູ້ໂຈມຕີຈາກການສົ່ງການຈະລາຈອນຈໍານວນຫລາຍໄປຫາແອັບພລິເຄຊັນ.
- ການເປີດໃຊ້ຫ້ອງລໍຖ້າ ຫຼືຜູ້ໃຊ້ທີ່ທ້າທາຍ: ເຮັດໃຫ້ການຮ້ອງຂໍມີຄວາມຫຍຸ້ງຍາກ ຫຼືໃຊ້ເວລາຫຼາຍ, ທໍາລາຍເສດຖະກິດຂອງຜູ້ໂຈມຕີ.
- ການກໍ່ສ້າງແລະການກວດສອບ API schema: ອະທິບາຍສິ່ງທີ່ມີຈຸດປະສົງໃນການໃຊ້ໂດຍການກໍານົດແລະຈັດລາຍການ API endpoints ທັງຫມົດ, ຫຼັງຈາກນັ້ນລາຍຊື່ຕົວກໍານົດການສະເພາະແລະຂອບເຂດຈໍາກັດປະເພດ.
- ການວິເຄາະຄວາມເລິກແລະຄວາມຊັບຊ້ອນຂອງການສອບຖາມ: ຊ່ວຍປ້ອງກັນການໂຈມຕີ DoS ທັນທີແລະຄວາມຜິດພາດຂອງຜູ້ພັດທະນາ, ການຮັກສາຕົ້ນກໍາເນີດຂອງທ່ານໃຫ້ມີສຸຂະພາບດີແລະໃຫ້ບໍລິການຄໍາຮ້ອງຂໍໃຫ້ກັບຜູ້ໃຊ້ຂອງທ່ານຕາມທີ່ຄາດໄວ້.
- ການສ້າງລະບຽບວິໄນກ່ຽວກັບການເຂົ້າເຖິງທີ່ອີງໃສ່ token: ປົກປ້ອງຈາກການເຂົ້າເຖິງທີ່ຖືກທໍາລາຍເມື່ອ tokens validate ໃນຊັ້ນກາງຫຼື API Gateway
ການປົກປ້ອງໄພຂົ່ມຂູ່ທີ່ເຂັ້ມແຂງໃນທົ່ວການທົດລອງ GenAI ຂອງທ່ານ
ຈາກການຮັບຮອງເອົາໄປສູ່ການປະຕິບັດ, ທຸກໆ stage ຂອງຂອບເຂດການທົດລອງ GenAI ຄວນກ້າວຫນ້າດ້ວຍຄວາມສ່ຽງຫນ້ອຍຫຼືທົນທານຕໍ່. ດ້ວຍຄວາມຮູ້ທີ່ໄດ້ຮັບຈາກເອກະສານນີ້, ບໍ່ວ່າອົງການຂອງເຈົ້າກໍາລັງໃຊ້, ກໍ່ສ້າງ, ຫຼືການວາງແຜນກ່ຽວກັບ AI ໃນບາງຮູບແບບໃນອະນາຄົດ, ເຈົ້າມີອໍານາດທີ່ຈະຄວບຄຸມສະພາບແວດລ້ອມດິຈິຕອນຂອງເຈົ້າ.
ໃນຂະນະທີ່ມັນເປັນທໍາມະຊາດທີ່ຈະຮູ້ສຶກລັງເລໃນເວລາທີ່ນໍາໃຊ້ຄວາມສາມາດໃຫມ່, ຊັບພະຍາກອນທີ່ມີຢູ່ເພື່ອໃຫ້ທ່ານມີຄວາມຫມັ້ນໃຈໃນການທົດລອງກັບ AI ໄດ້ຢ່າງປອດໄພ. ຂອງຊັບພະຍາກອນເຫຼົ່ານັ້ນ, ສິ່ງທີ່ອົງການຈັດຕັ້ງຕ້ອງການຫຼາຍທີ່ສຸດໃນມື້ນີ້ແມ່ນຈຸລັງເຊື່ອມຕໍ່ສໍາລັບທຸກສິ່ງທຸກຢ່າງ IT ແລະຄວາມປອດໄພ. ຫນຶ່ງທີ່ເຮັດຫນ້າທີ່ເປັນກະທູ້ທົ່ວໄປທີ່ຫຼຸດຜ່ອນຄວາມສັບສົນໂດຍການເຮັດວຽກກັບທຸກສິ່ງທຸກຢ່າງໃນສະພາບແວດລ້ອມ, ມີຢູ່ທົ່ວທຸກແຫ່ງ, ແລະປະຕິບັດຫນ້າທີ່ຄວາມປອດໄພ, ເຄືອຂ່າຍແລະການພັດທະນາທີ່ຈໍາເປັນ.
ດ້ວຍເນື້ອເຍື່ອເຊື່ອມຕໍ່, ທ່ານຈະມີຄວາມຫມັ້ນໃຈໃນຫຼາຍໆກໍລະນີທີ່ໃຊ້, ລວມທັງ:
- ປະຕິບັດຕາມກົດລະບຽບທີ່ມີຄວາມສາມາດໃນການກວດສອບແລະຄວບຄຸມການເຄື່ອນໄຫວຂອງຂໍ້ມູນທີ່ມີການຄວບຄຸມ
- ຟື້ນຟູການເບິ່ງເຫັນ ແລະການຄວບຄຸມສຳລັບຂໍ້ມູນທີ່ລະອຽດອ່ອນໃນທົ່ວແອັບພລິເຄຊັນ SaaS, shadow IT, ແລະເຄື່ອງມື AI ທີ່ພົ້ນເດັ່ນຂື້ນ.
- ການຮັກສາລະຫັດນັກພັດທະນາໂດຍການກວດສອບແລະສະກັດລະຫັດແຫຼ່ງໃນການອັບໂຫລດແລະດາວໂຫລດ. ນອກຈາກນັ້ນ, ການປ້ອງກັນ, ຊອກຫາ, ແລະແກ້ໄຂການຕັ້ງຄ່າທີ່ບໍ່ຖືກຕ້ອງໃນແອັບພລິເຄຊັນ SaaS ແລະການບໍລິການຄລາວ, ລວມທັງບ່ອນເກັບລະຫັດ
ໃນຂະນະທີ່ AI ສືບຕໍ່ພັດທະນາ, ຄວາມບໍ່ແນ່ນອນແມ່ນແນ່ນອນ. ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າມີກໍາລັງຄົງທີ່ເຊັ່ນ Cloudflare ມີປະໂຫຍດຫຼາຍ.
ປົກປ້ອງຈາກຄວາມສ່ຽງ AI ໃນທົ່ວສາມປະເພດຂອງ LLMs
ອີງຕາມການນໍາໃຊ້, ລະດັບຄວາມສ່ຽງທີ່ AI ສ້າງສໍາລັບອົງການຈັດຕັ້ງຈະແຕກຕ່າງກັນ. ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ຈະເຂົ້າໃຈຄວາມສ່ຽງຕ່າງໆທີ່ກ່ຽວຂ້ອງກັບການ ນຳ ໃຊ້ແລະການພັດທະນາແບບຈໍາລອງພາສາໃຫຍ່ (LLM), ແລະຫຼັງຈາກນັ້ນມີສ່ວນຮ່ວມຢ່າງຈິງຈັງໃນການປະຕິບັດ LLM ໃດໆ.
ປະເພດຂອງຄວາມສ່ຽງທີ່ສໍາຄັນ LLM
- ການເຂົ້າເຖິງພາຍໃນກັບຂໍ້ມູນລະອຽດອ່ອນ ແລະຊັບສິນທາງປັນຍາ
- ຄວາມສ່ຽງຕໍ່ຊື່ສຽງຂອງຜະລິດຕະພັນ
- ການຮົ່ວໄຫຼຂອງຂໍ້ມູນທີ່ລະອຽດອ່ອນສາທາລະນະ
ຂະຫນາດ, ຄວາມງ່າຍຂອງການນໍາໃຊ້, ແລະການເຊື່ອມໂຍງ seamless
ຄລາວການເຊື່ອມຕໍ່ຂອງ Cloudflare ເຮັດໃຫ້ການຄວບຄຸມຢູ່ໃນມືຂອງທ່ານ ແລະປັບປຸງການເບິ່ງເຫັນ ແລະຄວາມປອດໄພ — ເຮັດໃຫ້ການທົດລອງ AI ປອດໄພ ແລະສາມາດຂະຫຍາຍໄດ້. ດີກວ່າ, ການບໍລິການຂອງພວກເຮົາເສີມສ້າງທຸກຢ່າງ, ຮັບປະກັນວ່າບໍ່ມີການຄ້າຂາຍ
ລະຫວ່າງປະສົບການຂອງຜູ້ໃຊ້ແລະຄວາມປອດໄພ.
ເນື່ອງຈາກອົງການຈັດຕັ້ງສ່ວນໃຫຍ່ຈະໃຊ້ພຽງແຕ່ AI ຫຼືຈະໃຊ້ແລະສ້າງ, ການນໍາໃຊ້ Cloudflare ຫມາຍຄວາມວ່າບໍ່ເຄີຍຢຸດໂຄງການ AI.
- ເຄືອຂ່າຍທົ່ວໂລກຂອງພວກເຮົາເຮັດໃຫ້ທ່ານສາມາດຂະຫນາດແລະການບັງຄັບໃຊ້ການຄວບຄຸມດ້ວຍຄວາມໄວໃນທຸກບ່ອນທີ່ທ່ານຕ້ອງການມັນ
- ຄວາມງ່າຍຂອງການນໍາໃຊ້ຂອງພວກເຮົາເຮັດໃຫ້ມັນງ່າຍດາຍທີ່ຈະນໍາໃຊ້ແລະຈັດການນະໂຍບາຍສໍາລັບວິທີທີ່ຜູ້ໃຊ້ຂອງທ່ານບໍລິໂພກ AI
- ສະຖາປັດຕະຍະກໍາທີ່ສາມາດຂຽນໄດ້ອັນດຽວຊ່ວຍໃຫ້ທ່ານສາມາດຈັດວາງຄວາມປອດໄພໃສ່ແອັບພລິເຄຊັນທີ່ທ່ານກໍາລັງສ້າງ, ໂດຍບໍ່ມີການລົບກວນວິທີການທີ່ຜູ້ໃຊ້ຂອງທ່ານບໍລິໂພກ AI.
ຄລາວການເຊື່ອມຕໍ່ຂອງ Cloudflare ປົກປ້ອງທຸກໆດ້ານຂອງການທົດລອງ AI ຂອງທ່ານ, ໂດຍສະເພາະ:
- ບໍລິການ Zero Trust & Secure Access Service Edge (SASE) ຂອງພວກເຮົາຊ່ວຍຫຼຸດຜ່ອນຄວາມສ່ຽງໃນວິທີທີ່ພະນັກງານຂອງທ່ານໃຊ້ເຄື່ອງມື AI ພາກສ່ວນທີສາມ
- ແພລະຕະຟອມຜູ້ພັດທະນາຂອງພວກເຮົາຊ່ວຍໃຫ້ອົງການຂອງເຈົ້າສ້າງເຄື່ອງມື AI ແລະຕົວແບບຂອງທ່ານເອງຢ່າງປອດໄພແລະມີປະສິດທິພາບ
- ເພື່ອຄວາມປອດໄພດ້ວຍ AI, ແພລດຟອມຂອງພວກເຮົາໄດ້ນຳໃຊ້ AI ແລະເຕັກນິກການຮຽນຮູ້ເຄື່ອງຈັກເພື່ອສ້າງຄວາມສະຫຼາດດ້ານໄພຂົ່ມຂູ່ທີ່ຫຼັງຈາກນັ້ນຖືກນໍາໃຊ້ເພື່ອປົກປ້ອງອົງການຈັດຕັ້ງໃນທົ່ວການທົດລອງ AI ຂອງພວກເຂົາ.
ຂັ້ນຕອນຕໍ່ໄປ
ຈາກການປົກປ້ອງວິທີການທີ່ອົງການຂອງເຈົ້າໃຊ້ AI ປ້ອງກັນແອັບພລິເຄຊັນ AI ທີ່ທ່ານສ້າງ, Cloudflare ສໍາລັບ AI ໄດ້ກວມເອົາເຈົ້າ. ດ້ວຍການບໍລິການຂອງພວກເຮົາ, ທ່ານສາມາດຮັບຮອງເອົາຄວາມສາມາດໃຫມ່ໃນຄໍາສັ່ງໃດໆທີ່ມີການໂຕ້ຕອບທີ່ບໍ່ມີຂອບເຂດຈໍາກັດແລະການເຊື່ອມໂຍງແບບຍືດຫຍຸ່ນ.
ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມ, ໄປຢ້ຽມຢາມ cloudflare.com
ເອກະສານນີ້ແມ່ນສໍາລັບຈຸດປະສົງຂໍ້ມູນເທົ່ານັ້ນແລະເປັນຊັບສິນຂອງ Cloudflare. ເອກະສານນີ້ບໍ່ໄດ້ສ້າງຄໍາຫມັ້ນສັນຍາຫຼືການຮັບປະກັນໃດໆຈາກ Cloudflare ຫຼືສາຂາຂອງມັນຕໍ່ກັບທ່ານ. ທ່ານມີຄວາມຮັບຜິດຊອບເພື່ອເຮັດໃຫ້ການປະເມີນເອກະລາດຂອງທ່ານເອງຂອງຂໍ້ມູນໃນເອກະສານນີ້. ຂໍ້ມູນໃນເອກະສານນີ້ແມ່ນມີການປ່ຽນແປງ ແລະບໍ່ໄດ້ລະບຸວ່າເປັນຂໍ້ມູນລວມທັງໝົດ ຫຼືມີຂໍ້ມູນທັງໝົດທີ່ເຈົ້າອາດຈະຕ້ອງການ. ຄວາມຮັບຜິດຊອບແລະຄວາມຮັບຜິດຊອບຂອງ Cloudflare ກັບລູກຄ້າຂອງມັນຖືກຄວບຄຸມໂດຍຂໍ້ຕົກລົງແຍກຕ່າງຫາກ, ແລະເອກະສານນີ້ບໍ່ໄດ້ເປັນສ່ວນຫນຶ່ງຂອງ, ຫຼືບໍ່ໄດ້ດັດແປງ, ຂໍ້ຕົກລົງໃດໆລະຫວ່າງ Cloudflare ແລະລູກຄ້າຂອງຕົນ. ການບໍລິການ Cloudflare ແມ່ນສະຫນອງໃຫ້ "ຕາມທີ່ເປັນ" ໂດຍບໍ່ມີການຮັບປະກັນ, ການເປັນຕົວແທນ, ຫຼືເງື່ອນໄຂໃດໆ, ບໍ່ວ່າຈະເປັນການສະແດງອອກຫຼືໂດຍຄວາມຫມາຍ.
© 2024 Cloudflare, Inc. ສະຫງວນລິຂະສິດທັງໝົດ. CLOUDFLARE® ແລະ ໂລໂກ້ Cloudflare ແມ່ນເຄື່ອງໝາຍການຄ້າຂອງ Cloudflare. ຊື່ບໍລິສັດ ແລະຜະລິດຕະພັນອື່ນໆທັງໝົດ ແລະໂລໂກ້ອາດຈະເປັນເຄື່ອງໝາຍການຄ້າຂອງບໍລິສັດທີ່ເຂົາເຈົ້າກ່ຽວຂ້ອງ.
Cloudflare | ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ1 888 99 FLARE | enterprise@cloudflare.com | Cloudflare.com
REV:BDES-6307.2024AUG1129
ຄໍາຖາມທີ່ຖາມເລື້ອຍໆ
- ຖາມ: ເປັນຫຍັງການຮັບປະກັນການທົດລອງ GenAI ຈຶ່ງສໍາຄັນ?
A: ການຮັບປະກັນການທົດລອງ GenAI ແມ່ນສໍາຄັນເພື່ອປ້ອງກັນການລະເມີດຂໍ້ມູນ, ການລ່ວງລະເມີດຂອງຜູ້ໃຊ້, ແລະພຶດຕິກໍາທີ່ເປັນອັນຕະລາຍທີ່ສາມາດທໍາລາຍຂໍ້ມູນທີ່ລະອຽດອ່ອນແລະຂັດຂວາງການດໍາເນີນງານຂອງອົງການຈັດຕັ້ງ. - ຖາມ: ອົງການຈັດຕັ້ງສາມາດປັບປຸງຄວາມປອດໄພ AI ໄດ້ແນວໃດ?
A: ອົງການຈັດຕັ້ງສາມາດເສີມຂະຫຍາຍຄວາມປອດໄພ AI ໂດຍການເຂົ້າໃຈຄວາມສ່ຽງ, ການນໍາໃຊ້ເຄື່ອງມື AI ທີ່ມີຊື່ສຽງ, ການສ້າງການແກ້ໄຂທີ່ກໍາຫນົດເອງດ້ວຍຄວາມປອດໄພຢູ່ໃນໃຈ, ແລະປະຕິບັດມາດຕະການຄວາມປອດໄພທີ່ເຂັ້ມແຂງເພື່ອປົກປ້ອງຄໍາຮ້ອງສະຫມັກ AI.
ເອກະສານ / ຊັບພະຍາກອນ
![]() |
Cloud flare ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ [pdf] ຄູ່ມືຜູ້ໃຊ້ ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ, ຮັບປະກັນ, ການປະຕິບັດ AI ທີ່ປອດໄພ, ການປະຕິບັດ |