ໂລໂກ້ຄລາວ

Cloud flare ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ

Cloud-flare-Essuring-Safe-AI-Practices-product

ຂໍ້ມູນຈໍາເພາະ

  • ຜະລິດຕະພັນ: GenAI Secure AI Practice Guide
  • ຜູ້ຂຽນ: ອາລຸນ Parzych, ຜູ້ອໍານວຍການຕະຫຼາດຜະລິດຕະພັນ, Cloudflare
  • ເນື້ອໃນ: ຍຸດທະສາດ AI ສໍາລັບການທົດລອງທາງປັນຍາປະດິດ (GenAI) ທີ່ປອດໄພ

ຂໍ້ມູນຜະລິດຕະພັນ

ຄູ່ມືການປະຕິບັດ AI ທີ່ປອດໄພຂອງ GenAI ສະຫນອງຄວາມເຂົ້າໃຈແລະຍຸດທະສາດສໍາລັບອົງການຈັດຕັ້ງທີ່ຊອກຫາການປະຕິບັດເຕັກໂນໂລຢີ AI ຢ່າງປອດໄພ. ຜູ້ຂຽນໂດຍ Dawn Parzych, ຄູ່ມືນີ້ແກ້ໄຂບັນຫາຄວາມທ້າທາຍດ້ານຄວາມປອດໄພທີ່ເປັນເອກະລັກທີ່ກ່ຽວຂ້ອງກັບການຮັບຮອງເອົາ GenAI, ສະເຫນີຄໍາແນະນໍາແລະການປະຕິບັດທີ່ດີທີ່ສຸດສໍາລັບການນໍາໃຊ້, ການກໍ່ສ້າງແລະການຮັບປະກັນການແກ້ໄຂ AI ໃນລະດັບ.

ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ
ຄູ່ມືຂອງ CISO ກ່ຽວກັບວິທີການສ້າງຍຸດທະສາດ AI ທີ່ສາມາດຂະຫຍາຍໄດ້

ສະຫຼຸບສັງລວມ

ຍິນດີຕ້ອນຮັບ, CISO!
AI ອາດຈະເປັນຄໍາສັບທີ່ buzziest ໃນມື້ນີ້, ແລະມັນຍັງເປັນຫນຶ່ງໃນບັນຫາທີ່ກົດດັນທີ່ສຸດສໍາລັບຊຸມຊົນຄວາມປອດໄພ. ອິດທິພົນຂອງມັນຮຽກຮ້ອງໃຫ້ມີຄວາມສົນໃຈຂອງພວກເຮົາ, ນັ້ນແມ່ນເຫດຜົນທີ່ພວກເຮົາຢູ່ Cloudflare ຂຽນຄູ່ມືນີ້ເພື່ອຊ່ວຍໃຫ້ທ່ານຄິດໂດຍຜ່ານການທົດລອງ Generative Artificial Intelligence (GenAI) ທີ່ປອດໄພໃນອົງການຂອງເຈົ້າ.
ເຄື່ອງມື AI ກໍາລັງກາຍມາເປັນກໍາລັງແຮງແລະເຂົ້າເຖິງຢ່າງໄວວາ, ປົດລ໋ອກໂອກາດສໍາລັບການປະດິດສ້າງໃນທົ່ວອຸດສາຫະກໍາ. ຢ່າງໃດກໍຕາມ, ເຊັ່ນດຽວກັນກັບການປ່ຽນແປງແບບເຄື່ອນໄຫວອື່ນໆ, GenAI ມາພ້ອມກັບຄວາມປອດໄພ, ຄວາມເປັນສ່ວນຕົວ, ແລະການທ້າທາຍການປະຕິບັດຕາມທີ່ເປັນເອກະລັກ. ການຮັບຮອງເອົາ GenAI ຢ່າງກວ້າງຂວາງສາມາດເຮັດໃຫ້ເກີດການເພີ່ມຂຶ້ນຂອງການນໍາໃຊ້ທີ່ບໍ່ໄດ້ຄາດຄິດ, ຕົວຢ່າງຂອງການລ່ວງລະເມີດຂອງຜູ້ໃຊ້, ພຶດຕິກໍາທີ່ເປັນອັນຕະລາຍ, ແລະການປະຕິບັດ IT shadow ອັນຕະລາຍ, ທັງຫມົດເພີ່ມຄວາມສ່ຽງຂອງການລະເມີດຂໍ້ມູນແລະການຮົ່ວໄຫລຂອງຂໍ້ມູນທີ່ລະອຽດອ່ອນ.
ໃນຂະນະທີ່ການຮັບຮອງເອົາຂະຫຍາຍຢູ່ໃນບ່ອນເຮັດວຽກຂອງທ່ານ, ທ່ານຈໍາເປັນຕ້ອງໄດ້ກະກຽມດ້ວຍແຜນຜັງ GenAI ທີ່ແຈ້ງໃຫ້ຮູ້ວິທີການນໍາໃຊ້, ການກໍ່ສ້າງແລະຄວາມປອດໄພໃນລະດັບ. ໃຫ້ປຶກສາຫາລືກ່ຽວກັບຄວາມສ່ຽງແລະ Review ຄໍາແນະນໍາທີ່ທີມງານຂອງທ່ານສາມາດນໍາໃຊ້ສໍາລັບການຮັບປະກັນ GenAI ໂດຍອີງໃສ່ລະດັບການໃຫຍ່ເຕັມຕົວແລະການນໍາໃຊ້. ດ້ວຍກົນລະຍຸດເຫຼົ່ານີ້, ອົງການຈັດຕັ້ງຂອງທ່ານສາມາດສ້າງຍຸດທະສາດ GenAI ທີ່ເຫມາະກັບຄວາມຕ້ອງການຂອງທຸລະກິດໃນຂະນະທີ່ປົກປ້ອງຂໍ້ມູນຂອງທ່ານແລະຮັບປະກັນການປະຕິບັດຕາມ.

  • ອາລຸນ Parzych, ຜູ້ອໍານວຍການຕະຫຼາດຜະລິດຕະພັນ, Cloudflare

 

Cloud-flare-Essuring-Safe-AI-Practices- (1)

ຮັບປະກັນການທົດລອງ GenAI

Cloud-flare-Essuring-Safe-AI-Practices- (2)

ຂໍໂທດທີ່ບອກເຈົ້າ, ແຕ່ເລື່ອງຂອງຊາຣາຈົບລົງ. ໃນຂະນະທີ່ພວກເຮົາກໍາລັງບອກລາກັບຕົວລະຄອນທີ່ສົມມຸດຕິຖານຂອງພວກເຮົາ, ຍ້ອນວ່າການຄາດເດົາແລະ GenAI ຂະຫຍາຍອອກໄປ, ຈະມີ "Sarahs" ນັບບໍ່ຖ້ວນໃນຊີວິດຈິງ - ແຕ່ລະຄົນສະແດງເປັນ hero ໃນທີມ IT ແລະນັກພັດທະນາ, ເປັນນັກເທກໂນໂລຍີທຸລະກິດ, ແລະພະນັກງານສ່ວນບຸກຄົນ.
AI ໄດ້ດຶງດູດນັກເທກໂນໂລຍີແລະຜູ້ໃຊ້ປະຈໍາວັນຢ່າງດຽວກັນ, ເຮັດໃຫ້ເກີດຄວາມຢາກຮູ້ຢາກເຫັນແລະມີຄວາມແປກໃຈ. ການທົດລອງນີ້ແມ່ນມີຄວາມຈໍາເປັນຍ້ອນວ່າພວກເຮົາເຮັດວຽກເພື່ອປົດລັອກທ່າແຮງອັນເຕັມທີ່ຂອງ AI. ແຕ່ໂດຍບໍ່ມີການລະມັດລະວັງແລະ guardrails, ມັນອາດຈະນໍາໄປສູ່ການປະນີປະນອມຄວາມປອດໄພຫຼືຫຼຸດລົງຈາກການປະຕິບັດຕາມ.

ເພື່ອບັນລຸຄວາມດຸ່ນດ່ຽງ, ແລະເຂົ້າໃຈແລະຄຸ້ມຄອງຂໍ້ລິເລີ່ມ AI ໃຫ້ມີປະສິດຕິຜົນ, ອົງການຈັດຕັ້ງຕ້ອງພິຈາລະນາສາມດ້ານທີ່ສໍາຄັນ:

  1. ໃຊ້ AI
    ການນໍາໃຊ້ເທກໂນໂລຍີ AI (ເຊັ່ນ: ChatGPT, Bard, ແລະ GitHub Copilot) ທີ່ສະເຫນີໂດຍຜູ້ຂາຍພາກສ່ວນທີສາມໃນຂະນະທີ່ປົກປ້ອງຊັບສິນ (ເຊັ່ນ: ຂໍ້ມູນລະອຽດອ່ອນ, ຊັບສິນທາງປັນຍາ, ລະຫັດແຫຼ່ງ, ແລະອື່ນໆ) ແລະຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ອາດເກີດຂື້ນໂດຍອີງໃສ່ກໍລະນີການນໍາໃຊ້.
  2. ການສ້າງ AI
    ການພັດທະນາການແກ້ໄຂ AI ແບບກຳນົດເອງທີ່ເໝາະສົມກັບຄວາມຕ້ອງການສະເພາະຂອງອົງກອນ (ເຊັ່ນ: ຂັ້ນຕອນການເປັນເຈົ້າຂອງສຳລັບການວິເຄາະການຄາດເດົາ, ຜູ້ຮ່ວມບິນທີ່ປະເຊີນໜ້າກັບລູກຄ້າ ຫຼື chatbots, ແລະລະບົບກວດຈັບໄພຂົ່ມຂູ່ທີ່ຂັບເຄື່ອນດ້ວຍ AI)
  3. ຮັບປະກັນ AI
    ປົກປ້ອງແອັບພລິເຄຊັນ AI ແລະລະບົບ AI ຈາກນັກສະແດງທີ່ບໍ່ດີທີ່ໝູນໃຊ້ມັນໃຫ້ປະພຶດຕົວແບບບໍ່ຄາດຄິດ

Cloud-flare-Essuring-Safe-AI-Practices- (4)

 

ຮັບປະກັນການທົດລອງ GenAI

ການ​ຫັນ​ປ່ຽນ GenAI​: ໃນ​ມື້​ນີ້​ແລະ​ໃນ​ອະ​ນາ​ຄົດ​
ການອຸທອນຂອງ GenAI ກັບຜູ້ບໍລິໂພກແລະອົງການຈັດຕັ້ງໄດ້ກໍານົດມັນຢູ່ໃນເສັ້ນທາງການຮັບຮອງເອົາທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ຜູ້ໃຊ້ພະລັງງານກຸ່ມນ້ອຍເພີ່ມຂຶ້ນຢ່າງໄວວາຍ້ອນສ່ວນຫນຶ່ງຂອງຊຸມຊົນແຫຼ່ງເປີດທີ່ຫ້າວຫັນແລະການທົດລອງທີ່ຂັບເຄື່ອນໂດຍຜູ້ບໍລິໂພກຂອງແອັບພລິເຄຊັນເຊັ່ນ ChatGPT ແລະ Stable Diffusion.
ສິ່ງທີ່ຜູ້ໃຊ້ໄດ້ພົບເຫັນໂດຍຜ່ານມັນທັງຫມົດແມ່ນວ່າຫຸ່ນຍົນ, ໃນຄວາມເປັນຈິງ, "ແທນພວກເຮົາ."

GenAI ເຮັດໃຫ້ມະນຸດຢູ່ໃນຕໍາແຫນ່ງຂອງການຫລອມໂລຫະແລະການຂະຫຍາຍ, ແທນທີ່ຈະສ້າງທຸກສິ່ງທຸກຢ່າງຈາກຈຸດເລີ່ມຕົ້ນ, ແລະສາມາດຊ່ວຍທຸລະກິດ. ampປັບປຸງປະສິດທິພາບແຮງງານຂອງພວກເຂົາ. Predictive AI ໃຫ້ຜົນປະໂຫຍດທີ່ຄ້າຍຄືກັນໂດຍການເຮັດໃຫ້ມັນງ່າຍຂຶ້ນໃນການເຂົ້າໄປໃນຂໍ້ມູນເພື່ອປັບປຸງການຕັດສິນໃຈ, ສ້າງຜະລິດຕະພັນທີ່ສະຫລາດກວ່າ, ແລະປັບແຕ່ງປະສົບການຂອງລູກຄ້າ, ໃນບັນດາຂໍ້ລິເລີ່ມຕ່າງໆ.

Cloud-flare-Essuring-Safe-AI-Practices- (3)ໃນມື້ນີ້, 59% ຂອງນັກພັດທະນາປະຈຸບັນກໍາລັງໃຊ້ AI ໃນຂະບວນການພັດທະນາຂອງພວກເຂົາ 1

Cloud-flare-Essuring-Safe-AI-Practices- (5)ໃນປີ 2026, > 80% ຂອງວິສາຫະກິດຈະນຳໃຊ້ API, ຕົວແບບ, ແລະ/ຫຼື ແອັບທີ່ນຳໃຊ້ GenAI ທີ່ນຳໃຊ້ໃນສະພາບແວດລ້ອມການຜະລິດ (ເພີ່ມຂຶ້ນຈາກ 5% ໃນມື້ນີ້)2

Cloud-flare-Essuring-Safe-AI-Practices- (6)ຮອດ​ປີ 2030, GenAI ຈະ​ເພີ່ມ 50% ຂອງ​ວຽກ​ງານ​ຄວາມ​ຮູ້​ຂອງ​ຜູ້​ອອກ​ແຮງ​ງານ​ເພື່ອ​ຍົກ​ສູງ​ສະມັດ​ຕະພາບ​ຂອງ​ວຽກ​ງານ​ຫຼື​ຍົກ​ສູງ​ຄຸນ​ນະພາ​ບສະ​ເລ່ຍຂອງ​ວຽກ​ງານ (​ເພີ່ມ​ຈາກ <1% ​ໃນ​ປະຈຸ​ບັນ)3

  1. SlashData, "ວິທີການທີ່ນັກພັດທະນາພົວພັນກັບເຕັກໂນໂລຢີ AI," ເດືອນພຶດສະພາ 2024
  2. Gartner, “ຄູ່ມື CTO ກ່ຽວກັບພູມສັນຖານເຕັກໂນໂລຊີ AI ທົ່ວໄປ”, ກັນຍາ 2023
  3. Gartner, "Emerging Tech: ແນວທາງເທັກໂນໂລຍີຫຼັກທີ່ກໍານົດ AI ການຜະລິດ", ກັນຍາ 2023

Cloud-flare-Essuring-Safe-AI-Practices- (6)

ໃຊ້ GenAI ຢ່າງປອດໄພ

ການທົດລອງ AI ຂະຫຍາຍຂອບເຂດຈາກການໃຊ້ເຄື່ອງມື ແລະການບໍລິການ AI ທີ່ສ້າງມາກ່ອນ ໄປສູ່ການສ້າງການແກ້ໄຂ AI ແບບກຳນົດເອງຕັ້ງແຕ່ຕົ້ນ. ໃນຂະນະທີ່ບາງອົງການຈັດຕັ້ງອາດຈະກ້າວໄປສູ່ການສ້າງແບບຈໍາລອງ AI ແລະຄໍາຮ້ອງສະຫມັກຂອງຕົນເອງ, ຫຼາຍໆຄົນຈະຕິດກັບການບໍລິໂພກເຄື່ອງມື AI ຂອງພາກສ່ວນທີສາມ.
ໃນກໍລະນີດັ່ງກ່າວນີ້, ເຄື່ອງມື AI ພາກສ່ວນທີສາມສ້າງຄວາມສ່ຽງໃຫມ່ເນື່ອງຈາກວ່າອົງການຈັດຕັ້ງພຽງແຕ່ມີການຄວບຄຸມໂດຍກົງຈໍາກັດໃນການຕັ້ງຄ່າຄວາມປອດໄພແລະຄວາມເປັນສ່ວນຕົວຂອງເຂົາເຈົ້າ. Cloud-flare-Essuring-Safe-AI-Practices- (8)

ພະນັກງານມີແນວໂນ້ມທີ່ຈະໃຊ້ເຄື່ອງມື AI off-shelf ສໍາລັບການເຮັດວຽກໃນປັດຈຸບັນຜ່ານຊຸດ SaaS ເຊັ່ນ Microsoft 365, chatbots ທີ່ສ້າງຂຶ້ນໃນເຄື່ອງຈັກຊອກຫາຫຼືແອັບຯສາທາລະນະ, ແລະແມ້ກະທັ້ງ APIs.

ອົງການຈັດຕັ້ງຕ້ອງມີຄວາມພາກພຽນອັນເນື່ອງມາຈາກເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງ, ລວມທັງ:

  • ການປະເມີນຄວາມສ່ຽງດ້ານຄວາມປອດໄພຂອງເຄື່ອງມືພາກສ່ວນທີສາມ
  • ແກ້ໄຂບັນຫາຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ
  • ການຄຸ້ມຄອງການເອື່ອຍອີງ (ຫຼື overreliance) ໃນ APIs ພາຍນອກ
  • ຕິດຕາມກວດກາຈຸດອ່ອນທີ່ອາດຈະເກີດຂຶ້ນ

ອະດີດampLe ຂອງນີ້ຈະເປັນເວລາທີ່ພະນັກງານໃຊ້ສາທາລະນະ web ແອັບຯເຊັ່ນ ChatGPT. ທຸກໆຂໍ້ມູນທີ່ປ້ອນເຂົ້າໃນການກະຕຸ້ນເຕືອນຈະກາຍເປັນສ່ວນໜຶ່ງຂອງຂໍ້ມູນທີ່ອອກຈາກການຄວບຄຸມຂອງອົງກອນ. ຜູ້​ໃຊ້​ອາດ​ຈະ​ແບ່ງ​ປັນ​ຂໍ້​ມູນ​ທີ່​ລະ​ອຽດ​ອ່ອນ, ຄວາມ​ລັບ, ຫຼື​ລະ​ບຽບ​ການ​ເກີນ​ໄປ — ເຊັ່ນ​: ຂໍ້​ມູນ​ທີ່​ລະ​ບຸ​ຕົວ​ຕົນ​ສ່ວນ​ບຸກ​ຄົນ (PII), ຂໍ້​ມູນ​ທາງ​ດ້ານ​ການ​ເງິນ, ຊັບ​ສິນ​ທາງ​ປັນ​ຍາ, ແລະ​ລະ​ຫັດ​ແຫຼ່ງ​ຂໍ້​ມູນ. ແລະເຖິງແມ່ນວ່າພວກເຂົາບໍ່ໄດ້ແບ່ງປັນຂໍ້ມູນທີ່ລະອຽດອ່ອນທີ່ຊັດເຈນ, ມັນກໍ່ເປັນໄປໄດ້ທີ່ຈະລວມເອົາບໍລິບົດຈາກວັດສະດຸປ້ອນໄປຫາຂໍ້ມູນທີ່ລະອຽດອ່ອນ.
ເພື່ອຮັກສາຄວາມປອດໄພ, ພະນັກງານສາມາດສະຫຼັບການຕັ້ງຄ່າເພື່ອປ້ອງກັນບໍ່ໃຫ້ວັດສະດຸປ້ອນຂອງເຂົາເຈົ້າຈາກການຝຶກອົບຮົມຕົວແບບຕື່ມອີກ, ແຕ່ເຂົາເຈົ້າຕ້ອງເຮັດດ້ວຍຕົນເອງ. ເພື່ອຮັບປະກັນຄວາມປອດໄພ, ອົງການຈັດຕັ້ງຕ້ອງການວິທີທີ່ຈະຮັກສາບໍ່ໃຫ້ຄົນເຂົ້າໄປໃນຂໍ້ມູນສ່ວນຕົວ.

ກະກຽມສໍາລັບຜົນກະທົບດ້ານຄວາມປອດໄພຂອງ AI

Cloud-flare-Essuring-Safe-AI-Practices- (9)ການເປີດເຜີຍຂໍ້ມູນ
ຜູ້ໃຊ້ແບ່ງປັນຂໍ້ມູນທີ່ລະອຽດອ່ອນກັບບໍລິການ AI ພາຍນອກບໍ່ເໝາະສົມໃນຂອບເຂດໃດ? ເຕັກນິກການປິດບັງຊື່/ນາມສະກຸນພຽງພໍບໍ?

Cloud-flare-Essuring-Safe-AI-Practices- (13)ຄວາມສ່ຽງ API
ທ່ານຈະແກ້ໄຂຊ່ອງໂຫວ່ພາຍໃນ APIs ພາກສ່ວນທີສາມທີ່ອາດຈະເປັນປະຕູສໍາລັບຜູ້ໂຈມຕີແນວໃດ?

Cloud-flare-Essuring-Safe-AI-Practices- (14)ລະບົບ Black-Box
ຂະບວນການຕັດສິນໃຈຂອງຕົວແບບ AI ພາຍນອກສາມາດແນະນໍາຄວາມສ່ຽງທີ່ບໍ່ຄາດຄິດແມ່ນຫຍັງ?

Cloud-flare-Essuring-Safe-AI-Practices- (15)ການຄຸ້ມຄອງຄວາມສ່ຽງຂອງຜູ້ຂາຍ
ເຈົ້າຮູ້ຫຍັງກ່ຽວກັບການປະຕິບັດຄວາມປອດໄພຂອງຜູ້ໃຫ້ບໍລິການ AI ພາກສ່ວນທີສາມຂອງເຈົ້າ? ສໍາຄັນກວ່ານັ້ນ, ເຈົ້າບໍ່ຮູ້ຫຍັງ?

ຂັ້ນຕອນປ້ອງກັນການບໍລິໂພກ AI

  1. ຄຸ້ມຄອງການປົກຄອງ ແລະຄວາມສ່ຽງ
    • ພັດທະນານະໂຍບາຍກ່ຽວກັບວິທີການແລະເວລາທີ່ຈະໃຊ້ AI, ລວມທັງຂໍ້ມູນໃດທີ່ອົງການອະນຸຍາດໃຫ້ຜູ້ໃຊ້ສາມາດແບ່ງປັນກັບ GenAI, ຂໍ້ແນະນໍາການຄວບຄຸມການເຂົ້າເຖິງ, ຂໍ້ກໍານົດການປະຕິບັດຕາມ, ແລະວິທີການລາຍງານການລະເມີດ.
    • ດໍາເນີນການປະເມີນຜົນກະທົບເພື່ອເກັບກໍາຂໍ້ມູນ, ກໍານົດ, ແລະປະລິມານຜົນປະໂຫຍດແລະຄວາມສ່ຽງຂອງການນໍາໃຊ້ AI
  2. ເພີ່ມການເບິ່ງເຫັນ ແລະການຄວບຄຸມເພື່ອຄວາມປອດໄພ ແລະຄວາມເປັນສ່ວນຕົວ
    • ບັນທຶກການເຊື່ອມຕໍ່ທັງໝົດ, ລວມທັງແອັບ AI, ເພື່ອຕິດຕາມການເຄື່ອນໄຫວຂອງຜູ້ໃຊ້ຢ່າງຕໍ່ເນື່ອງ, ການນຳໃຊ້ເຄື່ອງມື AI, ແລະຮູບແບບການເຂົ້າເຖິງຂໍ້ມູນເພື່ອກວດຫາຄວາມຜິດປົກກະຕິ.
    • ຄົ້ນ​ພົບ​ວ່າ​ເງົາ IT ມີ​ຫຍັງ​ແດ່ (ລວມ​ທັງ​ເຄື່ອງ​ມື AI) — ແລະ​ເຮັດ​ໃຫ້​ການ​ຕັດ​ສິນ​ໃຈ​ທີ່​ຈະ​ອະ​ນຸ​ມັດ​, ຕັນ​, ຫຼື​ຊັ້ນ​ການ​ຄວບ​ຄຸມ​ເພີ່ມ​ເຕີມ
    • ສະແກນການຕັ້ງຄ່າແອັບ SaaS ສໍາລັບຄວາມສ່ຽງດ້ານຄວາມປອດໄພ (ເຊັ່ນ: ການອະນຸຍາດ OAuth ທີ່ໄດ້ຮັບຈາກແອັບທີ່ອະນຸມັດໃຫ້ກັບແອັບທີ່ເປີດໃຊ້ AI ທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ, ມີຄວາມສ່ຽງຕໍ່ການເປີດເຜີຍຂໍ້ມູນ)
  3. ກວດເບິ່ງວ່າຂໍ້ມູນໃດ ເຂົ້າໄປໃນແລະອອກຈາກເຄື່ອງມື AI ແລະການກັ່ນຕອງອອກສິ່ງທີ່ສາມາດປະນີປະນອມ IP, ຜົນກະທົບຕໍ່ຄວາມລັບ, ຫຼືລະເມີດຂໍ້ຈໍາກັດລິຂະສິດ.
    • ນຳໃຊ້ການຄວບຄຸມຄວາມປອດໄພສຳລັບວິທີທີ່ຜູ້ໃຊ້ສາມາດໂຕ້ຕອບກັບເຄື່ອງມື AI (ເຊັ່ນ: ຢຸດການອັບໂຫລດ, ປ້ອງກັນການສຳເນົາ/ວາງ, ແລະສະແກນຫາ ແລະບລັອກການປ້ອນຂໍ້ມູນທີ່ລະອຽດອ່ອນ/ເປັນເຈົ້າຂອງ)
    • ວາງການປ້ອງກັນເພື່ອສະກັດ AI bots ຈາກການຂູດຂອງທ່ານ webເວັບໄຊ
    • ຂັດຂວາງເຄື່ອງມື AI ທັນທີຖ້າບໍ່ມີການຄວບຄຸມອື່ນໆທີ່ເປັນໄປໄດ້. ດັ່ງທີ່ພວກເຮົາຮູ້, ຜູ້ໃຊ້ຈະຊອກຫາວິທີແກ້ໄຂບັນຫາ, ເຊິ່ງເຮັດໃຫ້ຄວາມປອດໄພອອກຈາກການຄວບຄຸມຂອງທ່ານ
  4. ຄວບຄຸມການເຂົ້າເຖິງແອັບ AI ແລະໂຄງສ້າງພື້ນຖານ
    • ຮັບປະກັນວ່າທຸກຜູ້ໃຊ້ ແລະອຸປະກອນທີ່ເຂົ້າເຖິງເຄື່ອງມື AI ຜ່ານການຢັ້ງຢືນຕົວຕົນຢ່າງເຂັ້ມງວດເພື່ອກໍານົດຂອບເຂດຜູ້ທີ່ໃຊ້ເຄື່ອງມື AI
    • ປະຕິບັດການຄວບຄຸມການເຂົ້າເຖິງ Zero Trust ທີ່ອີງໃສ່ຕົວຕົນ. ນຳໃຊ້ສິດທິພິເສດຢ່າງໜ້ອຍສຸດເພື່ອຈຳກັດຄວາມເສຍຫາຍທີ່ອາດເກີດຂຶ້ນຈາກບັນຊີທີ່ຖືກລະເມີດ ຫຼືໄພຂົ່ມຂູ່ຈາກພາຍໃນ
  5. ປັບປຸງຄ່າໃຊ້ຈ່າຍແລະປະສິດທິພາບການດໍາເນີນງານ
    • ເຂົ້າໃຈວິທີທີ່ຄົນເຮົາໃຊ້ແອັບພລິເຄຊັນ AI ດ້ວຍການວິເຄາະ ແລະການບັນທຶກເພື່ອໃຫ້ເຈົ້າສາມາດຄວບຄຸມການຈຳກັດອັດຕາ, ການເກັບຂໍ້ມູນ, ພ້ອມກັບການຮ້ອງຂໍການລອງຄືນໃໝ່, ແລະສ້າງແບບຈໍາລອງການຖອຍຫຼັງເປັນຂະໜາດການນຳໃຊ້.

Cloud-flare-Essuring-Safe-AI-Practices- (10)

ຮັບປະກັນສິ່ງທີ່ທ່ານສ້າງ

ຝຶກ​ອົບ​ຮົມ​ຮູບ​ແບບ AI ຂອງ​ທ່ານ​
ທໍ່ AI ກໍາລັງຂະຫຍາຍຂອບເຂດຄວາມອ່ອນແອ. ແຕ່ດ້ວຍປະສົບການທີ່ຮັບປະກັນໃນຕອນເລີ່ມຕົ້ນແລະຕະຫຼອດຂະບວນການພັດທະນາ, ພວກເຮົາມີຄວາມເຂົ້າໃຈກ່ຽວກັບສິ່ງທີ່ນໍາໄປສູ່ຄວາມສໍາເລັດ. ສໍາລັບຄວາມປອດໄພ AI, ສະຖານທີ່ທໍາມະຊາດທີ່ຈະເລີ່ມຕົ້ນແມ່ນຢູ່ໃນຕົວແບບຂອງທ່ານ.
ໃນຖານະເປັນພື້ນຖານຂອງຄໍາຮ້ອງສະຫມັກ AI, ທຸກສິ່ງທຸກຢ່າງທີ່ໃຊ້ໃນການຝຶກອົບຮົມແບບຈໍາລອງ AI ຂອງທ່ານຈະໄຫລໄປສູ່ຜົນໄດ້ຮັບຂອງມັນ. ພິຈາລະນາວິທີທີ່ທ່ານຈະຮັບປະກັນຂໍ້ມູນນັ້ນໃນເບື້ອງຕົ້ນເພື່ອຫຼີກເວັ້ນການຜົນກະທົບທາງລົບຕໍ່ມາ. ຖ້າປະໄວ້ໂດຍບໍ່ໄດ້ປ້ອງກັນ, ທ່ານມີຄວາມສ່ຽງຕໍ່ການຂະຫຍາຍພື້ນທີ່ການໂຈມຕີຂອງທ່ານແລະສ້າງບັນຫາຂອງແອັບພລິເຄຊັນ.
ຄວາມປອດໄພທີ່ຮັບປະກັນຄວາມສົມບູນຂອງຂໍ້ມູນແມ່ນສໍາຄັນໃນການຫຼຸດຜ່ອນການປະນີປະນອມຂໍ້ມູນໂດຍເຈດຕະນາແລະອຸບັດຕິເຫດ. ຄວາມສ່ຽງດ້ານຄວາມປອດໄພໃນທໍ່ AI ສາມາດປະກອບມີ:

  • ການເປັນພິດຂອງຂໍ້ມູນ: ຊຸດຂໍ້ມູນທີ່ເປັນອັນຕະລາຍມີອິດທິພົນຕໍ່ຜົນໄດ້ຮັບ ແລະສ້າງຄວາມລຳອຽງ
  • ການລ່ວງລະເມີດ Hallucination: ນັກສະແດງໄພຂົ່ມຂູ່ເຮັດໃຫ້ຄວາມແປກໃຈຂອງ AI ຖືກຕ້ອງ - ການປະດິດຂໍ້ມູນເພື່ອສ້າງການຕອບໂຕ້ - ເພື່ອໃຫ້ຊຸດຂໍ້ມູນທີ່ເປັນອັນຕະລາຍແລະຜິດກົດຫມາຍແຈ້ງໃຫ້ຜົນໄດ້ຮັບ.

ອີກທາງເລືອກ, ຖ້າທ່ານບໍ່ໄດ້ຝຶກອົບຮົມແບບຈໍາລອງ, AI ພາຍໃນເຮືອນຂອງທ່ານຈະເລີ່ມຕົ້ນດ້ວຍການເລືອກຕົວແບບເພື່ອປະຕິບັດວຽກງານ. ໃນກໍລະນີເຫຼົ່ານີ້, ທ່ານຕ້ອງການສຳຫຼວດເບິ່ງວ່າຜູ້ສ້າງສ້າງ ແລະຮັບປະກັນຕົວແບບແນວໃດ ເພາະມັນມີບົດບາດໃນການສະຫຼຸບ.

Inference ແມ່ນຂະບວນການທີ່ປະຕິບັດຕາມການຝຶກອົບຮົມ AI. ຮູບແບບທີ່ໄດ້ຮັບການຝຶກອົບຮົມທີ່ດີກວ່າແມ່ນ, ແລະຍິ່ງປັບລະອຽດຫຼາຍ, ການສະຫຼຸບທີ່ດີກວ່າຈະ - ເຖິງແມ່ນວ່າພວກມັນບໍ່ເຄີຍຮັບປະກັນວ່າສົມບູນແບບ. ເຖິງແມ່ນວ່າຕົວແບບທີ່ໄດ້ຮັບການຝຶກອົບຮົມສູງກໍ່ສາມາດເຮັດໃຫ້ຕາຕົກໃຈ.

ຄວາມ​ປອດ​ໄພ​ຫຼັງ​ການ​ປະ​ຕິ​ບັດ​
ເມື່ອທ່ານສ້າງ ແລະນຳໃຊ້ AI ພາຍໃນເຮືອນຂອງທ່ານ, ທ່ານຈະຕ້ອງປົກປ້ອງຂໍ້ມູນສ່ວນຕົວຂອງມັນ ແລະຮັບປະກັນການເຂົ້າເຖິງມັນ. ຄຽງຄູ່ກັບຂໍ້ສະເຫນີແນະທີ່ພວກເຮົາໄດ້ເຮັດແລ້ວໃນເອກະສານສະບັບນີ້, ລວມທັງການບັງຄັບໃຊ້ tokens ສໍາລັບແຕ່ລະຜູ້ໃຊ້ແລະການຈໍາກັດອັດຕາ, ທ່ານຄວນພິຈາລະນາ:

  • ການຄຸ້ມຄອງໂຄຕ້າ: ໃຊ້ຂອບເຂດຈໍາກັດເພື່ອປ້ອງກັນລະຫັດ API ຂອງຜູ້ໃຊ້ຈາກການຖືກທໍາລາຍ ແລະແບ່ງປັນ
  • ການຂັດຂວາງຕົວເລກລະບົບອັດຕະໂນມັດສະເພາະ (ASNs): ປ້ອງກັນຜູ້ໂຈມຕີຈາກການສົ່ງການຈະລາຈອນຈໍານວນຫລາຍໄປຫາແອັບພລິເຄຊັນ.
  • ການເປີດໃຊ້ຫ້ອງລໍຖ້າ ຫຼືຜູ້ໃຊ້ທີ່ທ້າທາຍ: ເຮັດໃຫ້ການຮ້ອງຂໍມີຄວາມຫຍຸ້ງຍາກ ຫຼືໃຊ້ເວລາຫຼາຍ, ທໍາລາຍເສດຖະກິດຂອງຜູ້ໂຈມຕີ.
  • ການກໍ່ສ້າງແລະການກວດສອບ API schema: ອະທິບາຍສິ່ງທີ່ມີຈຸດປະສົງໃນການໃຊ້ໂດຍການກໍານົດແລະຈັດລາຍການ API endpoints ທັງຫມົດ, ຫຼັງຈາກນັ້ນລາຍຊື່ຕົວກໍານົດການສະເພາະແລະຂອບເຂດຈໍາກັດປະເພດ.
  • ການວິເຄາະຄວາມເລິກແລະຄວາມຊັບຊ້ອນຂອງການສອບຖາມ: ຊ່ວຍປ້ອງກັນການໂຈມຕີ DoS ທັນທີແລະຄວາມຜິດພາດຂອງຜູ້ພັດທະນາ, ການຮັກສາຕົ້ນກໍາເນີດຂອງທ່ານໃຫ້ມີສຸຂະພາບດີແລະໃຫ້ບໍລິການຄໍາຮ້ອງຂໍໃຫ້ກັບຜູ້ໃຊ້ຂອງທ່ານຕາມທີ່ຄາດໄວ້.
  • ການສ້າງລະບຽບວິໄນກ່ຽວກັບການເຂົ້າເຖິງທີ່ອີງໃສ່ token: ປົກປ້ອງຈາກການເຂົ້າເຖິງທີ່ຖືກທໍາລາຍເມື່ອ tokens validate ໃນຊັ້ນກາງຫຼື API Gateway

Cloud-flare-Essuring-Safe-AI-Practices- (16)

ການປົກປ້ອງໄພຂົ່ມຂູ່ທີ່ເຂັ້ມແຂງໃນທົ່ວການທົດລອງ GenAI ຂອງທ່ານ
ຈາກການຮັບຮອງເອົາໄປສູ່ການປະຕິບັດ, ທຸກໆ stage ຂອງຂອບເຂດການທົດລອງ GenAI ຄວນກ້າວຫນ້າດ້ວຍຄວາມສ່ຽງຫນ້ອຍຫຼືທົນທານຕໍ່. ດ້ວຍຄວາມຮູ້ທີ່ໄດ້ຮັບຈາກເອກະສານນີ້, ບໍ່ວ່າອົງການຂອງເຈົ້າກໍາລັງໃຊ້, ກໍ່ສ້າງ, ຫຼືການວາງແຜນກ່ຽວກັບ AI ໃນບາງຮູບແບບໃນອະນາຄົດ, ເຈົ້າມີອໍານາດທີ່ຈະຄວບຄຸມສະພາບແວດລ້ອມດິຈິຕອນຂອງເຈົ້າ.
ໃນຂະນະທີ່ມັນເປັນທໍາມະຊາດທີ່ຈະຮູ້ສຶກລັງເລໃນເວລາທີ່ນໍາໃຊ້ຄວາມສາມາດໃຫມ່, ຊັບພະຍາກອນທີ່ມີຢູ່ເພື່ອໃຫ້ທ່ານມີຄວາມຫມັ້ນໃຈໃນການທົດລອງກັບ AI ໄດ້ຢ່າງປອດໄພ. ຂອງຊັບພະຍາກອນເຫຼົ່ານັ້ນ, ສິ່ງທີ່ອົງການຈັດຕັ້ງຕ້ອງການຫຼາຍທີ່ສຸດໃນມື້ນີ້ແມ່ນຈຸລັງເຊື່ອມຕໍ່ສໍາລັບທຸກສິ່ງທຸກຢ່າງ IT ແລະຄວາມປອດໄພ. ຫນຶ່ງທີ່ເຮັດຫນ້າທີ່ເປັນກະທູ້ທົ່ວໄປທີ່ຫຼຸດຜ່ອນຄວາມສັບສົນໂດຍການເຮັດວຽກກັບທຸກສິ່ງທຸກຢ່າງໃນສະພາບແວດລ້ອມ, ມີຢູ່ທົ່ວທຸກແຫ່ງ, ແລະປະຕິບັດຫນ້າທີ່ຄວາມປອດໄພ, ເຄືອຂ່າຍແລະການພັດທະນາທີ່ຈໍາເປັນ.

ດ້ວຍເນື້ອເຍື່ອເຊື່ອມຕໍ່, ທ່ານຈະມີຄວາມຫມັ້ນໃຈໃນຫຼາຍໆກໍລະນີທີ່ໃຊ້, ລວມທັງ:

  • ປະຕິບັດຕາມກົດລະບຽບທີ່ມີຄວາມສາມາດໃນການກວດສອບແລະຄວບຄຸມການເຄື່ອນໄຫວຂອງຂໍ້ມູນທີ່ມີການຄວບຄຸມ
  • ຟື້ນຟູການເບິ່ງເຫັນ ແລະການຄວບຄຸມສຳລັບຂໍ້ມູນທີ່ລະອຽດອ່ອນໃນທົ່ວແອັບພລິເຄຊັນ SaaS, shadow IT, ແລະເຄື່ອງມື AI ທີ່ພົ້ນເດັ່ນຂື້ນ.
  • ການຮັກສາລະຫັດນັກພັດທະນາໂດຍການກວດສອບແລະສະກັດລະຫັດແຫຼ່ງໃນການອັບໂຫລດແລະດາວໂຫລດ. ນອກຈາກນັ້ນ, ການປ້ອງກັນ, ຊອກຫາ, ແລະແກ້ໄຂການຕັ້ງຄ່າທີ່ບໍ່ຖືກຕ້ອງໃນແອັບພລິເຄຊັນ SaaS ແລະການບໍລິການຄລາວ, ລວມທັງບ່ອນເກັບລະຫັດ

ໃນຂະນະທີ່ AI ສືບຕໍ່ພັດທະນາ, ຄວາມບໍ່ແນ່ນອນແມ່ນແນ່ນອນ. ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າມີກໍາລັງຄົງທີ່ເຊັ່ນ Cloudflare ມີປະໂຫຍດຫຼາຍ.

ປົກປ້ອງຈາກຄວາມສ່ຽງ AI ໃນທົ່ວສາມປະເພດຂອງ LLMs
ອີງຕາມການນໍາໃຊ້, ລະດັບຄວາມສ່ຽງທີ່ AI ສ້າງສໍາລັບອົງການຈັດຕັ້ງຈະແຕກຕ່າງກັນ. ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ຈະເຂົ້າໃຈຄວາມສ່ຽງຕ່າງໆທີ່ກ່ຽວຂ້ອງກັບການ ນຳ ໃຊ້ແລະການພັດທະນາແບບຈໍາລອງພາສາໃຫຍ່ (LLM), ແລະຫຼັງຈາກນັ້ນມີສ່ວນຮ່ວມຢ່າງຈິງຈັງໃນການປະຕິບັດ LLM ໃດໆ.

ປະເພດຂອງຄວາມສ່ຽງທີ່ສໍາຄັນ LLM

  • ການເຂົ້າເຖິງພາຍໃນກັບຂໍ້ມູນລະອຽດອ່ອນ ແລະຊັບສິນທາງປັນຍາ
  • ຄວາມສ່ຽງຕໍ່ຊື່ສຽງຂອງຜະລິດຕະພັນ
  • ການຮົ່ວໄຫຼຂອງຂໍ້ມູນທີ່ລະອຽດອ່ອນສາທາລະນະ

Cloud-flare-Essuring-Safe-AI-Practices- (17)ຂະຫນາດ, ຄວາມງ່າຍຂອງການນໍາໃຊ້, ແລະການເຊື່ອມໂຍງ seamless
ຄລາວການເຊື່ອມຕໍ່ຂອງ Cloudflare ເຮັດໃຫ້ການຄວບຄຸມຢູ່ໃນມືຂອງທ່ານ ແລະປັບປຸງການເບິ່ງເຫັນ ແລະຄວາມປອດໄພ — ເຮັດໃຫ້ການທົດລອງ AI ປອດໄພ ແລະສາມາດຂະຫຍາຍໄດ້. ດີກວ່າ, ການບໍລິການຂອງພວກເຮົາເສີມສ້າງທຸກຢ່າງ, ຮັບປະກັນວ່າບໍ່ມີການຄ້າຂາຍ
ລະຫວ່າງປະສົບການຂອງຜູ້ໃຊ້ແລະຄວາມປອດໄພ.
ເນື່ອງຈາກອົງການຈັດຕັ້ງສ່ວນໃຫຍ່ຈະໃຊ້ພຽງແຕ່ AI ຫຼືຈະໃຊ້ແລະສ້າງ, ການນໍາໃຊ້ Cloudflare ຫມາຍຄວາມວ່າບໍ່ເຄີຍຢຸດໂຄງການ AI.

  • ເຄືອ​ຂ່າຍ​ທົ່ວ​ໂລກ​ຂອງ​ພວກ​ເຮົາ​ເຮັດ​ໃຫ້​ທ່ານ​ສາ​ມາດ​ຂະ​ຫນາດ​ແລະ​ການ​ບັງ​ຄັບ​ໃຊ້​ການ​ຄວບ​ຄຸມ​ດ້ວຍ​ຄວາມ​ໄວ​ໃນ​ທຸກ​ບ່ອນ​ທີ່​ທ່ານ​ຕ້ອງ​ການ​ມັນ​
  • ຄວາມງ່າຍຂອງການນໍາໃຊ້ຂອງພວກເຮົາເຮັດໃຫ້ມັນງ່າຍດາຍທີ່ຈະນໍາໃຊ້ແລະຈັດການນະໂຍບາຍສໍາລັບວິທີທີ່ຜູ້ໃຊ້ຂອງທ່ານບໍລິໂພກ AI
  • ສະຖາປັດຕະຍະກໍາທີ່ສາມາດຂຽນໄດ້ອັນດຽວຊ່ວຍໃຫ້ທ່ານສາມາດຈັດວາງຄວາມປອດໄພໃສ່ແອັບພລິເຄຊັນທີ່ທ່ານກໍາລັງສ້າງ, ໂດຍບໍ່ມີການລົບກວນວິທີການທີ່ຜູ້ໃຊ້ຂອງທ່ານບໍລິໂພກ AI.

ຄລາວການເຊື່ອມຕໍ່ຂອງ Cloudflare ປົກປ້ອງທຸກໆດ້ານຂອງການທົດລອງ AI ຂອງທ່ານ, ໂດຍສະເພາະ:

  • ບໍລິການ Zero Trust & Secure Access Service Edge (SASE) ຂອງພວກເຮົາຊ່ວຍຫຼຸດຜ່ອນຄວາມສ່ຽງໃນວິທີທີ່ພະນັກງານຂອງທ່ານໃຊ້ເຄື່ອງມື AI ພາກສ່ວນທີສາມ
  • ແພລະຕະຟອມຜູ້ພັດທະນາຂອງພວກເຮົາຊ່ວຍໃຫ້ອົງການຂອງເຈົ້າສ້າງເຄື່ອງມື AI ແລະຕົວແບບຂອງທ່ານເອງຢ່າງປອດໄພແລະມີປະສິດທິພາບ
  • ເພື່ອຄວາມປອດໄພດ້ວຍ AI, ແພລດຟອມຂອງພວກເຮົາໄດ້ນຳໃຊ້ AI ແລະເຕັກນິກການຮຽນຮູ້ເຄື່ອງຈັກເພື່ອສ້າງຄວາມສະຫຼາດດ້ານໄພຂົ່ມຂູ່ທີ່ຫຼັງຈາກນັ້ນຖືກນໍາໃຊ້ເພື່ອປົກປ້ອງອົງການຈັດຕັ້ງໃນທົ່ວການທົດລອງ AI ຂອງພວກເຂົາ.

Cloud-flare-Essuring-Safe-AI-Practices- (18)

ຂັ້ນຕອນຕໍ່ໄປ
ຈາກການປົກປ້ອງວິທີການທີ່ອົງການຂອງເຈົ້າໃຊ້ AI ປ້ອງກັນແອັບພລິເຄຊັນ AI ທີ່ທ່ານສ້າງ, Cloudflare ສໍາລັບ AI ໄດ້ກວມເອົາເຈົ້າ. ດ້ວຍການບໍລິການຂອງພວກເຮົາ, ທ່ານສາມາດຮັບຮອງເອົາຄວາມສາມາດໃຫມ່ໃນຄໍາສັ່ງໃດໆທີ່ມີການໂຕ້ຕອບທີ່ບໍ່ມີຂອບເຂດຈໍາກັດແລະການເຊື່ອມໂຍງແບບຍືດຫຍຸ່ນ.Cloud-flare-Essuring-Safe-AI-Practices- (12)

ສໍາລັບຂໍ້ມູນເພີ່ມເຕີມ, ໄປຢ້ຽມຢາມ cloudflare.com

Cloud-flare-Essuring-Safe-AI-Practices- (11)

ເອກະສານນີ້ແມ່ນສໍາລັບຈຸດປະສົງຂໍ້ມູນເທົ່ານັ້ນແລະເປັນຊັບສິນຂອງ Cloudflare. ເອກະສານນີ້ບໍ່ໄດ້ສ້າງຄໍາຫມັ້ນສັນຍາຫຼືການຮັບປະກັນໃດໆຈາກ Cloudflare ຫຼືສາຂາຂອງມັນຕໍ່ກັບທ່ານ. ທ່ານມີຄວາມຮັບຜິດຊອບເພື່ອເຮັດໃຫ້ການປະເມີນເອກະລາດຂອງທ່ານເອງຂອງຂໍ້ມູນໃນເອກະສານນີ້. ຂໍ້ມູນໃນເອກະສານນີ້ແມ່ນມີການປ່ຽນແປງ ແລະບໍ່ໄດ້ລະບຸວ່າເປັນຂໍ້ມູນລວມທັງໝົດ ຫຼືມີຂໍ້ມູນທັງໝົດທີ່ເຈົ້າອາດຈະຕ້ອງການ. ຄວາມຮັບຜິດຊອບແລະຄວາມຮັບຜິດຊອບຂອງ Cloudflare ກັບລູກຄ້າຂອງມັນຖືກຄວບຄຸມໂດຍຂໍ້ຕົກລົງແຍກຕ່າງຫາກ, ແລະເອກະສານນີ້ບໍ່ໄດ້ເປັນສ່ວນຫນຶ່ງຂອງ, ຫຼືບໍ່ໄດ້ດັດແປງ, ຂໍ້ຕົກລົງໃດໆລະຫວ່າງ Cloudflare ແລະລູກຄ້າຂອງຕົນ. ການບໍລິການ Cloudflare ແມ່ນສະຫນອງໃຫ້ "ຕາມທີ່ເປັນ" ໂດຍບໍ່ມີການຮັບປະກັນ, ການເປັນຕົວແທນ, ຫຼືເງື່ອນໄຂໃດໆ, ບໍ່ວ່າຈະເປັນການສະແດງອອກຫຼືໂດຍຄວາມຫມາຍ.
© 2024 Cloudflare, Inc. ສະຫງວນລິຂະສິດທັງໝົດ. CLOUDFLARE® ແລະ ໂລໂກ້ Cloudflare ແມ່ນເຄື່ອງໝາຍການຄ້າຂອງ Cloudflare. ຊື່ບໍລິສັດ ແລະຜະລິດຕະພັນອື່ນໆທັງໝົດ ແລະໂລໂກ້ອາດຈະເປັນເຄື່ອງໝາຍການຄ້າຂອງບໍລິສັດທີ່ເຂົາເຈົ້າກ່ຽວຂ້ອງ.

Cloudflare | ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ1 888 99 FLARE | enterprise@cloudflare.com | Cloudflare.com
REV:BDES-6307.2024AUG1129

ຄໍາຖາມທີ່ຖາມເລື້ອຍໆ

  • ຖາມ: ເປັນຫຍັງການຮັບປະກັນການທົດລອງ GenAI ຈຶ່ງສໍາຄັນ?
    A: ການຮັບປະກັນການທົດລອງ GenAI ແມ່ນສໍາຄັນເພື່ອປ້ອງກັນການລະເມີດຂໍ້ມູນ, ການລ່ວງລະເມີດຂອງຜູ້ໃຊ້, ແລະພຶດຕິກໍາທີ່ເປັນອັນຕະລາຍທີ່ສາມາດທໍາລາຍຂໍ້ມູນທີ່ລະອຽດອ່ອນແລະຂັດຂວາງການດໍາເນີນງານຂອງອົງການຈັດຕັ້ງ.
  • ຖາມ: ອົງການຈັດຕັ້ງສາມາດປັບປຸງຄວາມປອດໄພ AI ໄດ້ແນວໃດ?
    A: ອົງການຈັດຕັ້ງສາມາດເສີມຂະຫຍາຍຄວາມປອດໄພ AI ໂດຍການເຂົ້າໃຈຄວາມສ່ຽງ, ການນໍາໃຊ້ເຄື່ອງມື AI ທີ່ມີຊື່ສຽງ, ການສ້າງການແກ້ໄຂທີ່ກໍາຫນົດເອງດ້ວຍຄວາມປອດໄພຢູ່ໃນໃຈ, ແລະປະຕິບັດມາດຕະການຄວາມປອດໄພທີ່ເຂັ້ມແຂງເພື່ອປົກປ້ອງຄໍາຮ້ອງສະຫມັກ AI.

ເອກະສານ / ຊັບພະຍາກອນ

Cloud flare ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ [pdf] ຄູ່ມືຜູ້ໃຊ້
ຮັບປະກັນການປະຕິບັດ AI ທີ່ປອດໄພ, ຮັບປະກັນ, ການປະຕິບັດ AI ທີ່ປອດໄພ, ການປະຕິບັດ

ເອກະສານອ້າງອີງ

ອອກຄໍາເຫັນ

ທີ່ຢູ່ອີເມວຂອງເຈົ້າຈະບໍ່ຖືກເຜີຍແຜ່. ຊ່ອງຂໍ້ມູນທີ່ຕ້ອງການຖືກໝາຍໄວ້ *