Cloud-logo

Cloud flare Pagsiguro sa Luwas nga Mga Praktis sa AI

Cloud-flare-Pagsiguro-Safe-AI-Practices-produkto

Mga detalye

  • Produkto: GenAI Secure AI Practices Guide
  • Awtor: Dawn Parzych, Direktor sa Product Marketing, Cloudflare
  • Kontento: Istratehiya sa AI alang sa luwas nga eksperimento sa Generative Artificial Intelligence (GenAI).

Impormasyon sa Produkto

Ang GenAI Secure AI Practices Guide naghatag og mga insight ug mga estratehiya para sa mga organisasyon nga nagtinguha sa pagpatuman sa AI nga mga teknolohiya nga luwas. Gisulat ni Dawn Parzych, kini nga giya nagtubag sa talagsaon nga mga hagit sa seguridad nga may kalabutan sa pagsagop sa GenAI, nga nagtanyag mga tip ug labing maayo nga mga gawi sa paggamit, pagtukod, ug pagsiguro sa mga solusyon sa AI sa sukod.

Pagsiguro sa luwas nga mga gawi sa AI
Usa ka giya sa CISO kung giunsa paghimo ang usa ka scalable nga estratehiya sa AI

Executive summary

Welcome, CISO!
Ang AI mao ang posible nga labing katingad-an nga pulong karong mga adlawa, ug usa usab kini sa labing dinalian nga mga isyu alang sa komunidad sa seguridad. Ang impluwensya niini nanginahanglan sa among atensyon, mao nga kami sa Cloudflare nagsulat niini nga giya aron matabangan ka nga makahunahuna pinaagi sa luwas nga eksperimento sa Generative Artificial Intelligence (GenAI) sa imong organisasyon.
Ang mga galamiton sa AI paspas nga nahimong mas gamhanan ug ma-access, nga nagbukas sa mga oportunidad alang sa mga inobasyon sa tibuok industriya. Bisan pa, sama sa ubang mga pagbag-o sa paradigm, ang GenAI adunay talagsaon nga seguridad, pagkapribado, ug mga hagit sa pagsunod. Ang kaylap nga pagsagop sa GenAI mahimong mag-aghat sa wala damha nga mga spike sa paggamit, mga higayon sa pag-abuso sa tiggamit, malisyosong pamatasan, ug peligroso nga mga gawi sa IT, ang tanan nagdugang sa peligro sa mga paglapas sa datos ug sensitibo nga mga pagtulo sa kasayuran.
Samtang ang pagsagop molapad sa imong trabahoan, kinahanglan kang mangandam gamit ang GenAI blueprint nga nagpahibalo kon unsaon paggamit, pagtukod, ug pagsiguro sa sukod. Atong hisgotan ang mga risgo ug review mga tip nga magamit sa imong team alang sa pagsiguro sa GenAI base sa lebel sa pagkahamtong ug paggamit. Uban niini nga mga estratehiya, ang imong organisasyon makahimo og usa ka GenAI nga estratehiya nga mohaum sa mga panginahanglan sa negosyo samtang gipanalipdan ang imong datos ug gisiguro ang pagsunod.

  • Dawn Parzych, Direktor sa Product Marketing, Cloudflare

 

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (1)

Pagsiguro sa eksperimento sa GenAI

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (2)

Sorry to tell you, pero didto natapos ang story ni Sarah. Samtang nanamilit kami sa among fictional nga karakter, samtang ang matagnaon ug ang GenAI nagkalapad, adunay dili maihap nga mga "Sarah" sa tinuud nga kinabuhi - matag usa naglihok ingon usa ka bayani sa IT ug mga tim sa developer, ingon mga teknologo sa negosyo, ug indibidwal nga mga empleyado.
Ang AI nakadani sa mga technologist ug matag adlaw nga tiggamit, nga nagpukaw sa pagkamausisaon ug pag-utingkay. Kinahanglan kini nga eksperimento samtang nagtrabaho kami aron maablihan ang tibuuk nga potensyal sa AI. Apan sa walay pag-amping ug mga guardrail, mahimo usab nga mosangpot sa pagkompromiso sa seguridad o pagkapakyas sa pagsunod.

Aron makab-ot ang balanse, ug masabtan ug madumala ang mga inisyatibo sa AI nga mas epektibo, ang mga organisasyon kinahanglang magkonsiderar sa tulo ka importanteng bahin:

  1. Paggamit sa AI
    Paggamit sa mga teknolohiya sa AI (eg ChatGPT, Bard, ug GitHub Copilot) nga gitanyag sa mga third-party nga vendor samtang gipanalipdan ang mga kabtangan (eg sensitibo nga datos, intellectual property, source code, ug uban pa) ug pagpagaan sa mga potensyal nga risgo base sa kaso sa paggamit
  2. Pagtukod sa AI
    Pag-ugmad ug kostumbre nga mga solusyon sa AI nga gipahaom sa piho nga panginahanglan sa usa ka organisasyon (eg proprietary algorithms para sa predictive analytics, mga co-pilot o chatbots nga nag-atubang sa customer, ug AI-driven threat detection system)
  3. Pagsiguro sa AI
    Pagpanalipod sa mga aplikasyon sa AI ug mga sistema sa AI gikan sa dili maayo nga mga aktor nga nagmaniobra niini aron molihok nga dili matag-an

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (4)

 

Pagsiguro sa eksperimento sa GenAI

Ang pagbag-o sa GenAI: karon ug sa umaabot
Ang pag-apelar sa GenAI sa mga konsumedor ug organisasyon nagbutang niini sa usa ka wala pa nakit-an nga agianan sa pagsagop. Ang usa ka gamay nga grupo sa mga tiggamit sa gahum dali nga mitubo salamat sa bahin sa usa ka aktibo nga open source nga komunidad ug ang eksperimento nga gimaneho sa mga konsumedor sa mga aplikasyon sama sa ChatGPT ug Stable Diffusion.
Ang nakit-an sa mga tiggamit pinaagi niining tanan mao nga ang mga robot dili, sa tinuud, "mopuli kanamo."

Gibutang sa GenAI ang mga tawo sa posisyon sa pagdalisay ug pagdugang, imbes nga paghimo sa tanan gikan sa wala, ug makatabang sa mga negosyo amppauswagon ang ilang pagkaepisyente sa mga trabahante. Nagtanyag ang Predictive AI og parehas nga mga benepisyo pinaagi sa pagpadali sa pag-tap sa mga datos aron mapaayo ang paghimo og desisyon, paghimo og mas maalamon nga mga produkto, ug pag-personalize sa mga kasinatian sa kustomer, taliwala sa lainlaing mga inisyatibo.

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (3)Karon, 59% sa mga developer ang naggamit karon sa AI sa ilang mga development workflow1

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (5)Sa 2026,> 80% sa mga negosyo ang mogamit sa GenAI-enabled nga API, mga modelo, ug/o mga app nga gi-deploy sa mga palibot sa produksiyon (gikan sa 5% karon)2

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (6)Sa 2030, ang GenAI magdugang sa 50% sa mga buluhaton sa mga trabahante sa kahibalo aron mapalambo ang produktibo o mapataas ang kasagaran nga kalidad sa trabaho (gikan sa <1% karon)3

  1. SlashData, "Giunsa ang mga developers nga nakig-uban sa mga teknolohiya sa AI," Mayo 2024
  2. Gartner, "Usa ka Giya sa CTO sa Generative AI Technology Landscape", Sept 2023
  3. Gartner, "Emerging Tech: Ang Panguna nga Mga Pamaagi sa Teknolohiya nga Naghubit sa Generative AI", Sept 2023

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (6)

Paggamit sa GenAI nga luwas

Ang eksperimento sa AI nagsangkap sa usa ka spectrum gikan sa paggamit sa pre-built AI nga mga himan ug serbisyo hangtod sa paghimo sa naandan nga mga solusyon sa AI gikan sa wala. Samtang ang pipila nga mga organisasyon mahimo’g mag-uswag sa paghimo sa ilang kaugalingon nga mga modelo ug aplikasyon sa AI, daghan ang magpabilin sa paggamit sa mga himan sa ikatulo nga partido sa AI.
Sa kini nga mga higayon, ang mga himan sa ikatulo nga partido sa AI nagmugna og bag-ong mga peligro tungod kay ang mga organisasyon adunay limitado nga direktang kontrol sa ilang mga pagsiguro sa seguridad ug pagkapribado. Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (8)

Ang mga empleyado lagmit nga naggamit sa off-the-shelf nga mga gamit sa AI alang sa trabaho karon pinaagi sa mga suite sa SaaS sama sa Microsoft 365, mga chatbot nga gitukod sa mga search engine o mga pampublikong app, ug bisan mga API.

Kinahanglang buhaton sa mga organisasyon ang ilang angay nga kakugi aron maminusan ang mga peligro, lakip ang:

  • Pagtimbang-timbang sa risgo sa seguridad sa mga himan sa ikatulo nga partido
  • Pagsulbad sa mga kabalaka sa pagkapribado sa datos
  • Pagdumala sa pagsalig (o sobra nga pagsalig) sa mga eksternal nga API
  • Pag-monitor sa mga potensyal nga kahuyangan

Usa ka exampKini mahitabo kung ang mga empleyado mogamit sa publiko web apps sama sa ChatGPT. Ang matag input nga gipakaon sa usa ka prompt mahimong usa ka piraso sa datos nga nagbilin sa kontrol sa usa ka organisasyon. Ang mga tiggamit mahimong mag-overshare sa sensitibo, kompidensyal, o regulated nga impormasyon — sama sa Personally Identifiable Information (PII), pinansyal nga datos, intellectual property, ug source code. Ug bisan kung wala sila magpaambit sa tin-aw nga sensitibo nga kasayuran, posible nga maghiusa sa konteksto gikan sa mga input aron mahibal-an ang sensitibo nga datos.
Aron mapanalipdan, ang mga empleyado mahimong mag-toggle sa usa ka setting aron mapugngan ang ilang mga input gikan sa pagbansay sa modelo, apan kinahanglan nila nga buhaton kini nga mano-mano. Aron masiguro ang seguridad, ang mga organisasyon nanginahanglan mga paagi aron mapugngan ang mga tawo sa pagsulod sa pribado nga datos.

Pag-andam alang sa mga implikasyon sa seguridad sa AI

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (9)Data Exposure
Hangtod kanus-a ang mga tiggamit dili husto nga nagpaambit sa sensitibo nga datos sa gawas nga mga serbisyo sa AI? Igo na ba ang mga teknik sa anonymization/pseudonymization?

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (13)Mga Risgo sa API
Giunsa nimo pagtubag ang mga kahuyangan sa sulod sa mga third-party nga API nga mahimo’g potensyal nga mga agianan sa mga tig-atake?

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (14)Mga Sistema sa Black-Box
Unsa ang mga proseso sa paghimog desisyon sa gawas nga mga modelo sa AI nga mahimong magpaila sa wala damha nga mga peligro?

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (15)Pagdumala sa Risk sa Vendor
Unsa ang imong nahibal-an bahin sa mga gawi sa seguridad sa imong mga third-party nga AI provider? Labaw sa tanan, unsa ang wala nimo mahibal-an?

Mga lakang aron mapanalipdan ang pagkonsumo sa AI

  1. Pagdumala sa pagdumala ug risgo
    • Paghimo og mga polisiya kon unsaon ug kanus-a gamiton ang AI, lakip ang unsa nga impormasyon ang gitugotan sa organisasyon nga ipaambit sa mga tiggamit sa GenAI, mga giya sa pagkontrol sa pag-access, mga kinahanglanon sa pagsunod, ug unsaon pag-report sa mga paglapas
    • Paghimo usa ka pagtimbang-timbang sa epekto aron makolekta ang kasayuran, mahibal-an, ug maihap ang mga benepisyo ug peligro sa paggamit sa AI
  2. Dugangi ang visibility ug kontrol alang sa seguridad ug pribasiya
    • I-log ang tanang koneksyon, lakip ang AI apps, aron padayon nga mamonitor ang mga kalihokan sa user, AI tool sa paggamit, ug data access patterns aron makamatikod sa mga anomaliya
    • Hibal-i kung unsa ang anino nga anaa sa IT (lakip ang mga gamit sa AI)—ug paghimog mga desisyon sa pag-apruba, pag-block, o pag-layer sa dugang nga mga kontrol
    • I-scan ang mga configuration sa SaaS app alang sa posibleng mga risgo sa seguridad (eg OAuth permiso nga gihatag gikan sa gi-aprobahan nga mga app ngadto sa dili awtorisado nga AI-enabled nga mga app, nameligro nga maladlad sa datos)
  3. Susiha unsa nga datos mosulod ug mogawas sa mga himan sa AI ug magsala sa bisan unsa nga makakompromiso sa IP, makaapekto sa pagkakompidensyal, o makalapas sa mga pagdili sa copyright
    • I-apply ang mga kontrol sa seguridad kung giunsa ang mga tiggamit makig-uban sa mga gamit sa AI (pananglitan, paghunong sa pag-upload, pagpugong sa pagkopya / pagdikit, ug pag-scan ug pag-block sa mga input sa sensitibo / proprietary nga datos)
    • Ibutang ang mga panalipod aron mapugngan ang mga AI bot sa pag-scrap sa imong website
    • I-block lang ang mga tool sa AI kung wala’y mahimo ang ubang mga kontrol. Sama sa among nahibal-an, ang mga tiggamit makakita og mga workaround, nga magbutang sa seguridad nga dili nimo makontrol
  4. Kontrola ang pag-access sa AI apps ug imprastraktura
    • Siguruha nga ang matag tiggamit ug aparato nga nag-access sa mga himan sa AI moagi sa higpit nga pag-verify sa pagkilala sa sakup kung kinsa ang mogamit sa mga himan sa AI
    • Ipatuman ang mga kontrol sa pag-access nga Zero Trust nga nakabase sa identidad. I-apply ang labing gamay nga pribilehiyo aron limitahan ang potensyal nga kadaot gikan sa nakompromiso nga mga account o mga hulga sa insider
  5. I-streamline ang mga gasto ug kaepektibo sa operasyon
    • Sabta kung giunsa paggamit sa mga tawo ang mga aplikasyon sa AI nga adunay analytics ug pag-log aron makontrol nimo ang paglimite sa rate, pag-cache, ingon man paghangyo pag-usab, ug pag-fallback sa modelo ingon mga timbangan sa paggamit

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (10)

Siguroha ang imong gitukod

Bansaya ang imong modelo sa AI
Ang AI pipelines nagpalapad sa vulnerability spectrum. Apan uban sa kasinatian sa pagsiguro sa pagsugod ug sa tibuok proseso sa pag-uswag, kita adunay mga panabut sa unsa ang mosangpot sa kalampusan. Alang sa seguridad sa AI, ang natural nga lugar nga magsugod naa sa imong modelo.
Ingon nga sukaranan sa mga aplikasyon sa AI, ang tanan nga gigamit sa pagbansay sa imong modelo sa AI modagayday sa mga output niini. Hunahunaa kung giunsa nimo pag-secure kana nga datos sa una aron malikayan ang mga negatibo nga epekto sa ulahi. Kung dili mapanalipdan, peligro nimo nga mapadako ang imong pag-atake sa nawong ug maghimo mga isyu sa aplikasyon sa karsada.
Ang seguridad nga nagsiguro sa integridad sa datos hinungdanon sa pagpagaan sa tinuyo ug aksidente nga pagkompromiso sa datos. Ang mga risgo sa seguridad sa AI pipeline mahimong maglakip sa:

  • Pagkahilo sa datos: Ang malisyosong mga dataset nag-impluwensya sa mga resulta ug nagmugna og mga bias
  • Pag-abuso sa hallucination: Ang mga aktor sa hulga nag-lehitimo sa AI hallucinations - ang pag-imbento sa impormasyon aron makamugna og mga tubag - aron ang malisyoso ug dili lehitimo nga mga dataset nagpahibalo sa mga output

Sa laing paagi, kung dili ka mga modelo sa pagbansay, ang imong in-house nga AI magsugod sa pagpili sa usa ka modelo aron mahimo ang mga buluhaton. Sa kini nga mga kaso, gusto nimo nga susihon kung giunsa paghimo ug pagsiguro sa mga tiglalang ang modelo tungod kay adunay kini papel sa pag-inference.

Imperensya mao ang proseso nga nagsunod sa pagbansay sa AI. Ang mas maayo nga nabansay sa usa ka modelo mao, ug ang mas maayo nga pag-ayo niini, ang mas maayo nga mga inferences - bisan tuod sila dili gayud garantiya nga mahimong perpekto. Bisan ang nabansay kaayo nga mga modelo mahimong mag-hallucinate.

Seguridad sa post-deployment
Kung magtukod ka ug mag-deploy sa imong in-house nga AI, kinahanglan nimo nga panalipdan ang pribado nga datos niini ug luwas ang pag-access niini. Uban sa mga rekomendasyon nga nahimo na namo niini nga papel, lakip ang pagpatuman sa mga token alang sa matag user ug paglimite sa rate, kinahanglan usab nimong tagdon:

  • Pagdumala sa mga quota: Gigamit ang mga limitasyon aron mapanalipdan batok sa mga yawe sa API sa mga tiggamit gikan sa pagkakompromiso ug pagpaambit
  • Pag-block sa pipila ka mga autonomous system number (ASNs): Nagpugong sa mga tig-atake sa pagpadala sa daghang trapiko sa mga aplikasyon
  • Pag-enable sa mga lawak sa paghulat o paghagit sa mga tiggamit: Naghimo sa mga hangyo nga mas lisud o makahurot sa panahon, makadaut sa ekonomiya sa mga tig-atake
  • Pagtukod ug pag-validate sa API schema: Naglatid kung unsa ang gituyo nga paggamit pinaagi sa pag-ila ug pag-catalog sa tanan nga mga endpoint sa API, dayon gilista ang tanan nga piho nga mga parameter ug mga limitasyon sa tipo.
  • Pag-analisar sa giladmon ug kakomplikado sa mga pangutana: Nagtabang sa pagbantay batok sa direkta nga mga pag-atake sa DoS ug mga sayup sa developer, pagpabilin nga himsog ang imong gigikanan ug pagserbisyo sa mga hangyo sa imong mga tiggamit sama sa gipaabut.
  • Pagtukod og disiplina palibot sa token-based nga pag-access: Nanalipod gikan sa nakompromiso nga pag-access kung ang mga token nag-validate sa middleware layer o API Gateway

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (16)

Lig-on nga proteksyon sa hulga sa imong eksperimento sa GenAI
Gikan sa pagsagop hangtod sa pagpatuman, matag stage sa GenAI experimentation spectrum kinahanglan nga mouswag nga adunay gamay o gitugotan nga peligro. Uban sa kahibalo nga nakuha gikan niini nga papel, kung ang imong organisasyon naggamit, nagtukod, o nagplano sa AI sa pila ka porma sa umaabot, ikaw adunay gahum sa pagkontrol sa imong digital nga palibot.
Bisan kung natural nga mobati nga nagduha-duha kung nagsagop sa mga bag-ong kapabilidad, adunay mga kapanguhaan aron mahatagan ka pagsalig nga mag-eksperimento sa AI nga luwas. Sa mga kahinguhaan, ang labing kinahanglan sa mga organisasyon karon mao ang usa ka connective tissue alang sa tanan nga IT ug seguridad. Usa nga naglihok isip komon nga hilo nga nagpamenos sa pagkakomplikado pinaagi sa pagtrabaho sa tanang butang sa palibot, anaa bisan asa, ug naghimo sa gikinahanglan nga seguridad, networking, ug mga gimbuhaton sa pagpalambo.

Uban sa connective tissue, makasalig ka sa lainlaing mga kaso sa paggamit, lakip ang:

  • Pagsunod sa mga regulasyon nga adunay katakus nga makit-an ug makontrol ang paglihok sa mga regulated data
  • Pag-angkon pag-usab sa visibility ug pagkontrol alang sa sensitibo nga datos sa mga aplikasyon sa SaaS, shadow IT, ug mga nag-uswag nga AI nga mga himan
  • Pagsiguro sa developer code pinaagi sa pag-ila ug pagbabag sa source code sa mga pag-upload ug pag-download. Dugang pa, pagpugong, pagpangita, ug pag-ayo sa mga sayop nga pag-configure sa mga aplikasyon sa SaaS ug serbisyo sa panganod, lakip ang mga repositoryo sa code

Samtang ang AI nagpadayon sa pag-uswag, ang kawalay kasiguruhan sigurado. Mao nga ang pagbaton sa usa ka makanunayon nga pwersa sama sa Cloudflare mapuslanon kaayo.

Panalipdi gikan sa mga risgo sa AI sa tulo ka matang sa LLMs
Depende sa paggamit, ang lebel sa pagkaladlad sa peligro nga gihimo sa AI alang sa usa ka organisasyon magkalainlain. Importante nga masabtan ang lain-laing mga risgo nga nalangkit sa paggamit ug pag-uswag sa Large Language Models (LLM), ug dayon aktibong moapil sa bisan unsang LLM deployment.

Matang sa LLM Key nga risgo

  • Internal nga Pag-access sa sensitibo nga datos ug intellectual property
  • Risgo sa Reputasyon sa Produkto
  • Public Sensitive nga pag-leakage sa datos

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (17)Scale, kasayon ​​sa paggamit, ug seamless integration
Ang cloudflare's connectivity cloud nagbutang sa kontrol sa imong mga kamot ug nagpalambo sa visibility ug seguridad — naghimo sa AI nga eksperimento nga luwas ug scalable. Mas maayo pa, ang among mga serbisyo nagpalig-on sa tanan, nagsiguro nga wala’y palitan
tali sa kasinatian sa user ug seguridad.
Gihatag nga kadaghanan sa mga organisasyon mogamit lang sa AI o mogamit ug magtukod, ang paggamit sa Cloudflare nagpasabut nga dili gyud mohunong sa mga proyekto sa AI.

  • Ang among global nga network makapahimo kanimo sa pagsukod ug pagpatuman sa mga kontrol sa katulin bisan asa nimo kini kinahanglan
  • Ang among kasayon ​​​​sa paggamit nagpasayon ​​sa pag-deploy ug pagdumala sa mga palisiya kung giunsa paggamit sa imong mga tiggamit ang AI
  • Usa ka programmable nga arkitektura makapahimo kanimo sa pag-layer sa seguridad sa mga aplikasyon nga imong gitukod, nga dili makabalda kung giunsa paggamit sa imong mga tiggamit ang AI

Ang cloudflare's connectivity cloud nanalipod sa matag bahin sa imong AI nga eksperimento, ilabina:

  • Ang among Zero Trust & Secure Access Service Edge (SASE) nga mga serbisyo makatabang sa pagpamenos sa risgo kung giunsa paggamit sa imong trabahante ang mga tool sa AI sa ikatulo nga partido
  • Ang among platform sa developer nagtabang sa imong organisasyon sa paghimo sa imong kaugalingon nga mga gamit ug modelo sa AI nga luwas ug episyente
  • Alang sa pag-secure sa AI, gigamit sa among plataporma ang AI ug mga teknik sa pagkat-on sa makina aron makahimo og paniktik sa hulga nga gigamit dayon aron mapanalipdan ang mga organisasyon sa ilang eksperimento sa AI

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (18)

Sunod nga mga lakang
Gikan sa pagpanalipod kung giunsa paggamit sa imong organisasyon ang AI hangtod sa pagdepensa sa mga aplikasyon sa AI nga imong gitukod, ang Cloudflare para sa AI ang imong gisakup. Uban sa among mga serbisyo, mahimo nimong gamiton ang mga bag-ong kapabilidad sa bisan unsang han-ay nga adunay walay kinutuban nga interoperability ug flexible nga mga panagsama.Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (12)

Alang sa dugang impormasyon, bisitaha cloudflare.com

Cloud-flare-Pagsiguro-Luwas-AI-Mga Praktis- (11)

Kini nga dokumento alang lamang sa mga katuyoan sa impormasyon ug kini gipanag-iya sa Cloudflare. Kini nga dokumento wala maghimo bisan unsang mga pasalig o kasiguruhan gikan sa Cloudflare o mga kaubanan niini kanimo. Ikaw ang responsable sa paghimo sa imong kaugalingon nga independente nga pagsusi sa kasayuran sa kini nga dokumento. Ang impormasyon sa kini nga dokumento mahimong mabag-o ug wala magtuo nga mahimong tanan o maglangkob sa tanan nga kasayuran nga kinahanglan nimo. Ang mga responsibilidad ug mga obligasyon sa Cloudflare ngadto sa mga kustomer niini kontrolado sa managlahing mga kasabutan, ug kini nga dokumento dili bahin sa, ni kini nag-usab, sa bisan unsa nga kasabutan tali sa Cloudflare ug sa mga kustomer niini. Ang mga serbisyo sa Cloudflare gihatag "sa ingon" nga wala’y mga garantiya, representasyon, o kondisyon sa bisan unsang klase, gipahayag man o gipasabut.
© 2024 Cloudflare, Inc. Tanang katungod gigahin. Ang CLOUDFLARE® ug ang logo sa Cloudflare mga tatak sa Cloudflare. Ang tanan nga uban pang kompanya ug mga ngalan sa produkto ug mga logo mahimong mga marka sa pamatigayon sa tagsa-tagsa nga mga kompanya diin sila nakig-uban.

Cloudflare | Pagsiguro sa luwas nga mga gawi sa AI1 888 99 FLARE | enterprise@cloudflare.com | Cloudflare.com
REV:BDES-6307.2024AUG1129

Kanunay nga Gipangutana nga mga Pangutana

  • P: Ngano nga hinungdanon ang pagsiguro sa eksperimento sa GenAI?
    A: Ang pagsiguro sa pag-eksperimento sa GenAI hinungdanon aron malikayan ang mga paglapas sa datos, pag-abuso sa tiggamit, ug malisyosong pamatasan nga makakompromiso sa sensitibo nga impormasyon ug makabalda sa mga operasyon sa organisasyon.
  • P: Sa unsang paagi mapauswag sa mga organisasyon ang seguridad sa AI?
    A: Mahimong mapausbaw sa mga organisasyon ang seguridad sa AI pinaagi sa pagsabot sa mga risgo, paggamit sa mga inila nga gamit sa AI, paghimo og mga custom nga solusyon nga adunay seguridad sa hunahuna, ug pagpatuman sa lig-on nga mga lakang sa seguridad aron mapanalipdan ang mga aplikasyon sa AI.

Mga Dokumento / Mga Kapanguhaan

Cloud flare Pagsiguro sa Luwas nga Mga Praktis sa AI [pdf] Giya sa Gumagamit
Pagsiguro sa Luwas nga Mga Praktis sa AI, Pagsiguro, Luwas nga Mga Praktis sa AI, Mga Praktis

Mga pakisayran

Pagbilin ug komento

Ang imong email address dili mamantala. Ang gikinahanglan nga mga natad gimarkahan *