Cloud-logo

Nuvola di fiammata chì garantisce pratiche di IA sicure

Cloud-flare-Assicurà-Pratiche-di-IA-Sicure-produttu

Specificazioni

  • Pruduttu: Guida di Pratiche di IA Sicura GenAI
  • Autore: Dawn Parzych, Direttrice di Marketing di Prodotti, Cloudflare
  • Cuntenutu: Strategia di l'IA per a sperimentazione sicura di l'Intelligenza Artificiale Generativa (GenAI)

Informazione di u produttu

A Guida di Pratiche di IA Sicura di GenAI furnisce insights è strategie per l'urganisazioni chì cercanu di implementà tecnulugie di IA in modu sicuru. Scritta da Dawn Parzych, sta guida affronta e sfide di sicurezza uniche assuciate à l'adozione di GenAI, offrendu cunsiglii è migliori pratiche per aduprà, custruisce è assicurà suluzioni di IA à grande scala.

Assicurà pratiche sicure di IA
Una guida di CISO nantu à cumu creà una strategia di IA scalabile

Riassuntu esecutivu

Benvenutu, CISO!
L'IA hè forse a parolla più in voga oghje ghjornu, è hè ancu unu di i prublemi più urgenti per a cumunità di sicurezza. A so influenza richiede a nostra attenzione, hè per quessa chì noi di Cloudflare avemu scrittu sta guida per aiutà vi à pensà à a sperimentazione sicura di l'Intelligenza Artificiale Generativa (GenAI) in a vostra urganizazione.
L'arnesi di l'IA stanu diventendu rapidamente più putenti è accessibili, aprendu opportunità per l'innuvazioni in tutti i settori. Tuttavia, cum'è cù altri cambiamenti di paradigma, GenAI vene cun sfide uniche in termini di sicurezza, privacy è cunfurmità. L'adozione diffusa di GenAI pò pruvucà picchi d'usu imprevisti, casi d'abusu di l'utilizatori, cumpurtamenti maliziosi è pratiche IT ombra periculose, chì aumentanu u risicu di violazioni di dati è fughe d'infurmazioni sensibili.
Mentre l'adopzione si espande in u vostru locu di travagliu, avete bisognu di preparassi cù un pianu GenAI chì vi dice cumu aduprà, custruisce è assicurà à grande scala. Discuteremu i risichi è e ricunsiderazioni.view Cunsiglii chì a vostra squadra pò aduprà per assicurà GenAI basatu annantu à i livelli di maturità è l'usu. Cù ste strategie, a vostra urganizazione pò creà una strategia GenAI chì currisponde à i bisogni di l'impresa mentre prutegge i vostri dati è assicurendu a conformità.

  • Dawn Parzych, Direttrice di Marketing di Prodotti, Cloudflare

 

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (1)

Assicurà a sperimentazione GenAI

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (2)

Scusate à dì vi lu, ma a storia di Sarah finisce quì. Mentre dicemu addiu à u nostru persunagiu fittiziu, cù a espansione di a predizione è di a GenAI, ci saranu innumerevuli "Sarah" in a vita vera - ognuna agisce cum'è un'eroina in e squadre IT è di sviluppatori, cum'è tecnulugisti cummerciali, è impiegati individuali.
L'IA hà incantatu i tecnulugisti è l'utilizatori di tutti i ghjorni, suscitendu a curiosità è u bricolage. Questa sperimentazione hè necessaria mentre travagliemu per liberà tuttu u putenziale di l'IA. Ma senza prudenza è barriere di sicurezza, pò ancu purtà à compromettere a sicurezza o à ùn esse più cunforme.

Per ottene l'equilibriu, è capisce è gestisce l'iniziative di l'IA in modu più efficace, l'urganisazioni devenu cunsiderà trè aree chjave:

  1. Usendu l'IA
    Utilizendu e tecnulugie di l'IA (per esempiu ChatGPT, Bard, è GitHub Copilot) offerte da venditori di terze parti mentre si pruteggenu l'assi (per esempiu dati sensibili, pruprietà intellettuale, codice surghjente, ecc.) è si mitiganu i rischi potenziali basati annantu à u casu d'usu.
  2. Custruisce l'IA
    Sviluppà suluzioni d'IA persunalizate adattate à i bisogni specifichi di una urganizazione (per esempiu, algoritmi pruprietarii per l'analisi predittiva, copiloti o chatbot rivolti à i clienti, è sistemi di rilevazione di minacce basati nantu à l'IA)
  3. Sicurezza di l'IA
    Prutegge l'applicazioni di IA è i sistemi di IA da i malfattori chì li manipulanu per cumportassi in modu imprevedibile

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (4)

 

Assicurà a sperimentazione GenAI

Trasfurmazione GenAI: oghje è in u futuru
L'attrazione di GenAI per i cunsumatori è l'urganisazioni l'hà posta nantu à una traiettoria d'adozione senza precedenti. Un picculu gruppu d'utilizatori putenti hè cresciutu rapidamente grazia in parte à una cumunità open source attiva è à a sperimentazione guidata da i cunsumatori di applicazioni cum'è ChatGPT è Stable Diffusion.
Ciò chì l'utilizatori anu scupertu in tuttu què hè chì i robot ùn ci "rimpiazzeranu" in realtà.

GenAI mette l'umani in a pusizione di raffinà è aumentà, invece di creà tuttu da zero, è pò aiutà l'imprese. ampaumentà l'efficienza di a so forza di travagliu. L'IA predittiva offre vantaghji simili rendendu più faciule l'accessu à i dati per migliurà a presa di decisioni, custruisce prudutti più intelligenti è persunalizà l'esperienze di i clienti, frà una varietà d'iniziative.

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (3)Oghje, 59% di i sviluppatori utilizanu attualmente l'IA in i so flussi di travagliu di sviluppu.

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (5)Da u 2026, più di l'80% di l'imprese adupreranu API, mudelli è/o app abilitati per GenAI implementati in ambienti di pruduzzione (in crescita da u 5% oghje)2

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (6)Da u 2030, GenAI aumenterà u 50% di i travaglii di i travagliadori di a cunniscenza per aumentà a produttività o elevà a qualità media di u travagliu (da menu di l'1% oghje)3

  1. SlashData, "Cumu i sviluppatori interagiscenu cù e tecnulugie di l'IA", maghju 2024
  2. Gartner, "Guida di un CTO à u paisaghju tecnologicu di l'IA generativa", settembre 2023
  3. Gartner, "Tecnulugia emergente: L'approcci tecnologichi chjave chì definiscenu l'IA generativa", settembre 2023

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (6)

Aduprà GenAI in modu sicuru

A sperimentazione di l'IA abbraccia un spettru chì va da l'usu di strumenti è servizii di IA predefiniti à a custruzzione di suluzioni di IA persunalizate da zero. Mentre alcune urganisazioni ponu avanzà versu a creazione di i so propri mudelli è applicazioni di IA, parechje si limiteranu à cunsumà strumenti di IA di terze parti.
In questi casi, i strumenti di IA di terze parti creanu novi risichi perchè l'urganisazioni anu solu cuntrolli diretti limitati nantu à e so cunfigurazioni di sicurezza è privacy. Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (8)

L'impiegati utilizanu probabilmente strumenti di IA standard per u travagliu in questu momentu via suite SaaS cum'è Microsoft 365, chatbot integrati in i motori di ricerca o app pubbliche, è ancu API.

L'urganisazioni devenu fà a so diligenza dovuta per minimizà i risichi, cumpresi:

  • Valutazione di u risicu di sicurezza di strumenti di terze parti
  • Affruntà e preoccupazioni di privacy di i dati
  • Gestione di a dipendenza (o di a dipendenza eccessiva) da l'API esterne
  • Monitoraghju di e vulnerabilità potenziali

Un esampquestu seria quandu l'impiegati utilizanu u publicu web applicazioni cum'è ChatGPT. Ogni input inseritu in un prompt diventa un pezzu di dati chì abbanduneghja u cuntrollu di una urganizazione. L'utilizatori ponu sparte troppu informazioni sensibili, cunfidenziali o regulate - cum'è l'infurmazioni persunali identificabili (PII), i dati finanziarii, a pruprietà intellettuale è u codice surghjente. È ancu s'elli ùn spartenu micca informazioni sensibili esplicite, hè pussibule di ricustruisce u cuntestu da l'input per deduce dati sensibili.
Per prutege si, l'impiegati ponu attivà un paràmetru per impedisce chì i so input furminu ulteriormente u mudellu, ma devenu fà lu manualmente. Per assicurà a sicurezza, l'urganisazioni anu bisognu di modi per impedisce à e persone di inserisce dati privati.

Preparatevi per l'implicazioni di sicurezza di l'IA

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (9)Esposizione di dati
In chì misura l'utilizatori spartenu impropriamente dati sensibili cù servizii d'IA esterni? Sò sufficienti e tecniche d'anonimizazione/pseudonimizazione?

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (13)Rischi API
Cumu affronterete e vulnerabilità in l'API di terze parti chì puderanu esse potenziali porte d'accessu per l'attaccanti?

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (14)Sistemi di Scatola Nera
Quali sò i prucessi decisionali di i mudelli di IA esterni chì puderanu introduce risichi imprevisti ?

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (15)Gestione di Rischi di u Venditore
Chì sapete di e pratiche di sicurezza di i vostri fornitori di IA di terze parti ? Ancu più impurtante, chì ùn sapete micca ?

Passi per difende u cunsumu di l'IA

  1. Gestisce a guvernanza è u risicu
    • Sviluppà pulitiche nantu à cumu è quandu aduprà l'IA, cumprese l'infurmazioni chì l'urganizazione permette à l'utilizatori di sparte cù GenAI, linee guida per u cuntrollu d'accessu, requisiti di cunfurmità è cumu signalà e violazioni.
    • Realizà una valutazione d'impattu per raccoglie informazioni, identificà è quantificà i benefici è i rischi di l'usu di l'IA
  2. Aumentà a visibilità è i cuntrolli per a sicurità è a privacy
    • Registrà tutte e cunnessione, cumprese à l'applicazioni IA, per monitorà continuamente l'attività di l'utilizatori, l'usu di strumenti IA è i mudelli d'accessu à i dati per rilevà anomalie
    • Scuprite ciò chì esiste in l'ombra IT (cumpresi i strumenti di IA) è pigliate decisioni per appruvà, bluccà o stratificà cuntrolli supplementari
    • Scansione di e cunfigurazioni di l'applicazioni SaaS per i potenziali risichi di sicurezza (per esempiu, permessi OAuth cuncessi da app appruvate à app micca autorizate abilitate per l'IA, cù u risicu di l'esposizione di dati)
  3. Esaminate quali dati entra è esce da strumenti di IA è filtra tuttu ciò chì puderia compromettere a pruprietà intellettuale, influenzà a riservatezza o viulà e restrizioni di copyright
    • Applicà cuntrolli di sicurezza per cumu l'utilizatori ponu interagisce cù l'arnesi di l'IA (per esempiu, fermà i caricamenti, impedisce a copia / incolla, è scansà è bluccà l'input di dati sensibili / pruprietarii)
    • Mettite in opera misure di sicurezza per impedisce à i bot di l'IA di scraping u vostru websitu
    • Bluccà cumpletamente l'arnesi di l'IA solu s'ellu ùn ci sò altri cuntrolli pussibuli. Cum'è sapemu, l'utilizatori truveranu suluzioni alternative, chì mettenu a sicurità fora di u vostru cuntrollu.
  4. Cuntrullà l'accessu à l'applicazioni è l'infrastruttura di l'IA
    • Assicuratevi chì ogni utilizatore è dispusitivu chì accede à l'arnesi di l'IA sia sottumessu à una verificazione stretta di l'identità per determinà quale pò aduprà l'arnesi di l'IA.
    • Implementà cuntrolli d'accessu Zero Trust basati nantu à l'identità. Applicà u privilegiu minimu per limità i danni potenziali da conti compromessi o minacce interne.
  5. Razionalizà i costi è l'efficienza operativa
    • Capite cumu a ghjente usa l'applicazioni IA cù analisi è logging in modu da avè u cuntrollu di a limitazione di a velocità, di a memorizazione in cache, è ancu di i tentativi di richiesta è di u mudellu di fallback cum'è scale d'usu.

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (10)

Assicurà ciò chì custruite

Furmate u vostru mudellu IA
I pipelines di l'IA stanu allargendu u spettru di vulnerabilità. Ma cù l'esperienza in a sicurezza à l'iniziu è in tuttu u prucessu di sviluppu, avemu una visione di ciò chì porta à u successu. Per a sicurezza di l'IA, u locu naturale per cumincià hè in u vostru mudellu.
Cum'è a basa di l'applicazioni di l'IA, tuttu ciò chì hè adupratu per furmà u vostru mudellu di IA scorrerà finu à e so uscite. Cunsiderate cumu prutegerete questi dati inizialmente per evità ripercussioni negative dopu. Se lasciati senza prutezzione, rischiate di allargà a vostra superficia d'attaccu è di creà prublemi d'applicazione in u futuru.
A sicurità chì assicura l'integrità di i dati hè cruciale per mitigà a compromissione deliberata è accidentale di i dati. I risichi di sicurità in u pipeline di l'IA ponu include:

  • Avvelenamentu di dati: I datasets maliziosi influenzanu i risultati è creanu pregiudizii
  • Abusu di allucinazioni: L'attori di minacce legitimizanu l'allucinazioni di l'IA - l'invenzione di l'infurmazioni per generà risposte - in modu chì i datasets maliziosi è illegittimi informanu l'output.

Altrimenti, sè ùn furmate micca mudelli, a vostra IA interna cumincerebbe cù a selezzione di un mudellu per eseguisce i travaglii. In questi casi, vulereste esplorà cumu i creatori anu fattu è assicuratu u mudellu postu chì ghjoca un rolu in l'inferenza.

Inferenza hè u prucessu chì seguita a furmazione di l'IA. Più un mudellu hè furmatu, è più hè affinatu, megliu saranu l'inferenze - ancu s'ellu ùn hè mai garantitu ch'elle sianu perfette. Ancu i mudelli altamente furmati ponu avè allucinazioni.

Sicurezza dopu à u spiegamentu
Una volta chì avete custruitu è ​​implementatu a vostra IA interna, duverete prutege i so dati privati ​​è assicurà l'accessu à elli. In più di e raccomandazioni chì avemu digià fattu in questu documentu, cumprese l'applicazione di gettoni per ogni utilizatore è a limitazione di a velocità, duvete ancu cunsiderà:

  • Gestione di e quote: Utilizza limiti per prutege e chjave API di l'utilizatori da esse compromesse è spartute
  • Bloccà certi numeri di sistema autonomu (ASN): Impedisce à l'attaccanti di mandà quantità eccessive di trafficu à l'applicazioni
  • Attivà sale d'attesa o mette in discussione l'utilizatori: Rende e richieste più difficili o più longhe, ruinendu l'ecunumia per l'attaccanti.
  • Custruisce è validà un schema API: Descrive l'usu previstu identificendu è catalogendu tutti i punti finali di l'API, poi elenca tutti i parametri specifici è i limiti di tipu.
  • Analizà a prufundità è a cumplessità di e dumande: Aiuta à prutege si da l'attacchi DoS diretti è l'errori di i sviluppatori, mantenendu a vostra origine sana è servendu e dumande à i vostri utilizatori cum'è previstu.
  • Custruisce una disciplina intornu à l'accessu basatu annantu à i token: Prutege da l'accessu cumprumessu quandu i token sò validati in u stratu middleware o in u Gateway API.

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (16)

Prutezzione robusta contr'à e minacce in tutta a vostra sperimentazione GenAI
Da l'adozione à l'implementazione, ogni stagA parte di u spettru di sperimentazione GenAI duveria prugressà cù un risicu minimu o tolleratu. Cù a cunniscenza acquistata da questu documentu, sì a vostra urganizazione usa, custruisce o prevede l'IA in qualchì forma in u futuru, avete u putere di cuntrullà u vostru ambiente digitale.
Mentre hè naturale di sente esitazione quandu si aduttano nuove capacità, esistenu risorse per dà a fiducia di sperimentà cù l'IA in modu sicuru. Di queste risorse, ciò chì l'urganisazioni anu più bisognu oghje hè un tessulu cunnettivu per tuttu ciò chì riguarda l'IT è a sicurezza. Unu chì agisce cum'è un filu cumunu chì riduce a cumplessità travagliendu cù tuttu ciò chì si trova in l'ambiente, hè dispunibule in ogni locu è svolge e funzioni necessarie di sicurezza, rete è sviluppu.

Cù u tessulu cunghjuntivu, averete fiducia in una varietà di casi d'usu, cumpresi:

  • Rispettà e regulazioni cù a capacità di rilevà è cuntrullà u muvimentu di dati regulati
  • Ritruvà a visibilità è u cuntrollu di i dati sensibili in l'applicazioni SaaS, l'IT ombra è i strumenti di IA emergenti
  • Prutege u codice di u sviluppatore rilevendu è bluccendu u codice surghjente in i caricamenti è i scaricamenti. Inoltre, impedisce, truvà è curregge i prublemi di cunfigurazione in l'applicazioni SaaS è i servizii cloud, cumpresi i repositori di codice.

Mentre l'IA cuntinueghja à evoluzione, l'incertezza hè certa. Hè per quessa chì avè una forza stabilizante cum'è Cloudflare hè cusì benefica.

Prutegge da i risichi di l'IA in trè tippi di LLM
Sicondu l'usu, u livellu d'esposizione à u risicu chì l'IA crea per una urganizazione varierà. Hè cruciale di capisce i vari risichi assuciati à l'usu è u sviluppu di i Large Language Models (LLM), è dopu esse attivamente implicatu in qualsiasi implementazione LLM.

Tipu di LLM Risicu chjave

  • Accessu internu à i dati sensibili è à a pruprietà intellettuale
  • Risicu di reputazione di u produttu
  • Fuga di dati sensibili publichi

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (17)Scalabilità, facilità d'usu è integrazione senza soluzione di continuità
A nuvola di cunnessione di Cloudflare mette u cuntrollu in e vostre mani è migliora a visibilità è a sicurezza, rendendu a sperimentazione di l'IA sicura è scalabile. Ancu megliu, i nostri servizii rinfurzanu tuttu, assicurendu chì ùn ci sia micca compromessi.
trà l'esperienza di l'utente è a sicurità.
Datu chì a maiò parte di l'urganisazioni utilizanu solu l'IA o utilizanu è custruiscenu, aduprà Cloudflare significa ùn stallà mai i prughjetti di IA.

  • A nostra rete glubale vi permette di scalà è applicà i cuntrolli cun rapidità induve ne avete bisognu.
  • A nostra facilità d'usu facilita l'implementazione è a gestione di e pulitiche per cumu i vostri utilizatori cunsumanu l'IA.
  • Un'architettura programmabile vi permette di aghjunghje strati di sicurezza à l'applicazioni chì state custruendu, senza interrompe u modu in cui i vostri utilizatori cunsumanu l'IA.

A nuvola di cunnessione di Cloudflare prutege ogni aspettu di a vostra sperimentazione di l'IA, in particulare:

  • I nostri servizii Zero Trust & Secure Access Service Edge (SASE) aiutanu à mitigà u risicu in u modu in cui a vostra forza di travagliu usa strumenti di IA di terze parti.
  • A nostra piattaforma di sviluppatori aiuta a vostra urganizazione à custruisce i vostri propri strumenti è mudelli di IA in modu sicuru è efficiente
  • Per a sicurezza cù l'IA, a nostra piattaforma sfrutta l'IA è e tecniche di apprendimentu automaticu per custruisce intelligenza di minacce chì hè poi aduprata per prutege l'urganisazioni in tutta a so sperimentazione di IA.

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (18)

I prossimi passi
Da a prutezzione di u modu in cui a vostra urganizazione usa l'IA à a difesa di l'applicazioni IA chì custruite, Cloudflare per l'IA vi copre. Cù i nostri servizii, pudete aduttà nuove capacità in ogni ordine cù interoperabilità illimitata è integrazioni flessibili.Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (12)

Per più infurmazione, visitate cloudflare.com

Cloud-flare-Garantisce-Pratiche-di-IA-Sicure- (11)

Stu documentu hè solu à scopu informativu è hè a pruprietà di Cloudflare. Stu documentu ùn crea micca impegni o garanzie da Cloudflare o da i so affiliati versu voi. Site rispunsevule di fà a vostra propria valutazione indipendente di l'infurmazioni in stu documentu. L'infurmazioni in stu documentu sò sottumesse à cambiamenti è ùn pretendenu micca esse cumplete o di cuntene tutte l'infurmazioni chì pudete avè bisognu. E responsabilità è l'obbligazioni di Cloudflare versu i so clienti sò cuntrullate da accordi separati, è stu documentu ùn face parte di, nè mudifica, alcun accordu trà Cloudflare è i so clienti. I servizii Cloudflare sò furniti "cum'è sò" senza garanzie, dichjarazioni o cundizioni di alcun tipu, espresse o implicite.
© 2024 Cloudflare, Inc. Tutti i diritti riservati. CLOUDFLARE® è u logu Cloudflare sò marchi cummerciali di Cloudflare. Tutti l'altri nomi di cumpagnie è di prudutti è loghi ponu esse marchi cummerciali di e rispettive cumpagnie cù e quali sò assuciati.

Cloudflare | Garanzia di pratiche di IA sicure1 888 99 FLARE | enterprise@cloudflare.com | Cloudflare.com
REV:BDES-6307.2024AGO1129

Domande Frequenti

  • D: Perchè hè impurtante assicurà a sperimentazione GenAI?
    A: A sicurità di a sperimentazione GenAI hè cruciale per prevene e violazioni di dati, l'abusu di l'utilizatori è i cumpurtamenti maliziosi chì ponu compromettere l'infurmazioni sensibili è interrompe l'operazioni urganizative.
  • D: Cumu ponu l'urganisazioni migliurà a sicurità di l'IA?
    A: L'urganisazioni ponu migliurà a sicurità di l'IA capiscendu i risichi, aduprendu strumenti di IA reputati, custruendu suluzioni persunalizate cù a sicurità in mente è implementendu misure di sicurità robuste per prutege l'applicazioni di IA.

Documenti / Risorse

Nuvola di fiammata chì garantisce pratiche di IA sicure [pdfGuida di l'utente
Garanzia di pratiche di IA sicure, Garanzia, Pratiche di IA sicure, Pratiche

Referenze

Lascia un cumentu

U vostru indirizzu email ùn serà micca publicatu. I campi obbligatori sò marcati *