Vzplanutí mraků Zajištění bezpečných postupů umělé inteligence
Specifikace
- Produkt: GenAI Secure AI Practices Guide
- Autor: Dawn Parzych, ředitel produktového marketingu, Cloudflare
- Obsah: Strategie umělé inteligence pro bezpečné experimentování s generativní umělou inteligencí (GenAI).
Informace o produktu
Příručka GenAI Secure AI Practices Guide poskytuje informace a strategie pro organizace, které chtějí bezpečně implementovat technologie AI. Tento průvodce, jehož autorem je Dawn Parzych, se zabývá jedinečnými bezpečnostními výzvami spojenými s přijetím GenAI a nabízí tipy a osvědčené postupy pro používání, vytváření a zabezpečení řešení AI ve velkém měřítku.
Zajištění bezpečných praktik AI
Průvodce CISO o tom, jak vytvořit škálovatelnou strategii umělé inteligence
Shrnutí
Vítejte, CISO!
Umělá inteligence je možná nejfrekventovanější slovo současnosti a je to také jeden z nejnaléhavějších problémů bezpečnostní komunity. Jeho vliv vyžaduje naši pozornost, a proto jsme ve společnosti Cloudflare napsali tohoto průvodce, který vám pomůže promyslet bezpečné experimentování s generativní umělou inteligencí (GenAI) ve vaší organizaci.
Nástroje umělé inteligence se rychle stávají výkonnějšími a dostupnějšími a otevírají příležitosti pro inovace napříč odvětvími. Stejně jako u jiných změn paradigmatu však GenAI přichází s jedinečnými výzvami v oblasti zabezpečení, soukromí a souladu. Široké přijetí GenAI může vyvolat nepředvídatelné nárůsty využití, případy zneužívání uživatelů, škodlivé chování a nebezpečné stínové IT praktiky, což vše zvyšuje riziko narušení dat a úniků citlivých informací.
Jak se rozšíření na vašem pracovišti rozšiřuje, musíte se připravit pomocí návrhu GenAI, který informuje o tom, jak používat, budovat a zabezpečit ve velkém měřítku. Pojďme diskutovat o rizicích a review tipy, které může váš tým použít k zabezpečení GenAI na základě úrovně vyspělosti a využití. Pomocí těchto strategií může vaše organizace vytvořit strategii GenAI, která vyhovuje potřebám podniku a zároveň chrání vaše data a zajišťuje dodržování předpisů.
- Dawn Parzych, ředitel produktového marketingu, Cloudflare
Zabezpečení experimentů GenAI
Promiň, že ti to říkám, ale Sarahin příběh tam končí. Zatímco se loučíme s naší fiktivní postavou, jak se prediktivní a GenAI rozšiřují, v reálném životě bude nespočet „Sár“ – z nichž každá bude působit jako hrdina v IT a vývojářských týmech, jako obchodní technologové a jednotliví zaměstnanci.
Umělá inteligence okouzlila technology i běžné uživatele, podnítila zvědavost a šťouralství. Toto experimentování je nezbytné, protože pracujeme na odhalení plného potenciálu umělé inteligence. Ale bez opatrnosti a zábradlí to může také vést k ohrožení bezpečnosti nebo porušení předpisů.
Aby organizace dosáhla rovnováhy a lépe porozuměla a řídila iniciativy AI, musí zvážit tři klíčové oblasti:
- Použití AI
Používání technologií umělé inteligence (např. ChatGPT, Bard a GitHub Copilot) nabízených dodavateli třetích stran při ochraně aktiv (např. citlivá data, duševní vlastnictví, zdrojový kód atd.) a zmírňování potenciálních rizik na základě případu použití - Budování AI
Vývoj vlastních řešení AI šitých na míru konkrétním potřebám organizace (např. proprietární algoritmy pro prediktivní analytiku, zákaznické kopiloty nebo chatboty a systém detekce hrozeb řízený AI) - Zabezpečení AI
Ochrana aplikací a systémů umělé inteligence před zlými aktéry, kteří s nimi manipulují, aby se chovaly nepředvídatelně
Zabezpečení experimentů GenAI
Transformace GenAI: dnes a v budoucnu
Přitažlivost GenAI pro spotřebitele a organizace ji nastavila na bezprecedentní trajektorii přijetí. Malá skupina náročných uživatelů rychle rostla částečně díky aktivní komunitě s otevřeným zdrojovým kódem a spotřebitelským experimentům s aplikacemi jako ChatGPT a Stable Diffusion.
Uživatelé díky tomu všemu zjistili, že roboti nás ve skutečnosti „nenahradí“.
GenAI staví lidi do pozice zdokonalování a rozšiřování, spíše než vytváření všeho od nuly, a může pomoci podnikům ampzvýšit efektivitu své pracovní síly. Prediktivní umělá inteligence nabízí podobné výhody tím, že v rámci řady iniciativ usnadňuje využívání dat pro zlepšení rozhodování, vytváření chytřejších produktů a přizpůsobení zákaznických zkušeností.
Dnes 59 % vývojářů v současné době používá AI ve svých vývojářských pracovních postupech1
Do roku 2026 bude více než 80 % podniků používat API, modely a/nebo aplikace s podporou GenAI nasazené v produkčních prostředích (oproti dnešním 5 %)2
Do roku 2030 rozšíří GenAI 50 % úkolů znalostních pracovníků s cílem zvýšit produktivitu nebo průměrnou kvalitu práce (dnes < 1 %)3
- SlashData, „Jak vývojáři interagují s technologiemi AI“, květen 2024
- Gartner, „CTO's Guide to the Generative AI Technology Landscape“, září 2023
- Gartner, „Rozvíjející se technologie: Klíčové technologické přístupy, které definují generativní umělou inteligenci“, září 2023
Bezpečné používání GenAI
Experimentování s umělou inteligencí zahrnuje spektrum od používání předem vytvořených nástrojů a služeb umělé inteligence až po vytváření vlastních řešení umělé inteligence od začátku. Zatímco některé organizace mohou pokročit směrem k vytváření vlastních modelů a aplikací umělé inteligence, mnohé se budou držet používání nástrojů umělé inteligence třetích stran.
V těchto případech nástroje umělé inteligence třetích stran vytvářejí nová rizika, protože organizace mají pouze omezené přímé kontroly svých konfigurací zabezpečení a ochrany soukromí.
Zaměstnanci nyní pravděpodobně používají běžné nástroje AI pro práci prostřednictvím sad SaaS, jako je Microsoft 365, chatboty zabudované do vyhledávačů nebo veřejných aplikací a dokonce i rozhraní API.
Organizace musí udělat svou náležitou péči, aby minimalizovaly rizika, včetně:
- Vyhodnocení bezpečnostních rizik nástrojů třetích stran
- Řešení problémů s ochranou osobních údajů
- Správa spoléhání (nebo nadměrného spoléhání) na externí rozhraní API
- Sledování potenciálních zranitelností
Bývalýample toho by bylo, když zaměstnanci používají veřejné web aplikace jako ChatGPT. Každý vstup vložený do výzvy se stává částí dat, která opouští kontrolu organizace. Uživatelé mohou nadměrně sdílet citlivé, důvěrné nebo regulované informace – jako jsou osobně identifikovatelné informace (PII), finanční údaje, duševní vlastnictví a zdrojový kód. A i když nesdílejí explicitní citlivé informace, je možné poskládat kontext ze vstupů a odvodit citlivá data.
Pro zajištění bezpečnosti mohou zaměstnanci přepnout nastavení, aby zabránili svým vstupům v dalším školení modelu, ale musí to udělat ručně. K zajištění bezpečnosti potřebují organizace způsoby, jak zabránit lidem v zadávání soukromých údajů.
Připravte se na bezpečnostní důsledky AI
Vystavení dat
Do jaké míry uživatelé nesprávně sdílejí citlivá data s externími službami umělé inteligence? Jsou anonymizační/pseudonymizační techniky dostatečné?
Rizika API
Jak budete řešit zranitelná místa v rozhraních API třetích stran, která by mohla být potenciálními branami pro útočníky?
Systémy Black-Box
Jaké jsou rozhodovací procesy externích modelů AI, které by mohly přinést neočekávaná rizika?
Řízení rizik dodavatele
Co víte o bezpečnostních postupech vašich poskytovatelů umělé inteligence třetích stran? A co je důležitější, co nevíte?
Kroky na obranu spotřeby AI
- Řídit správu a rizika
- Vypracujte zásady, jak a kdy používat AI, včetně toho, jaké informace organizace umožňuje uživatelům sdílet s GenAI, pokyny pro řízení přístupu, požadavky na dodržování předpisů a jak hlásit porušení
- Proveďte posouzení dopadu, abyste shromáždili informace, identifikovali a kvantifikovali přínosy a rizika používání AI
- Zvyšte viditelnost a ovládací prvky pro zabezpečení a soukromí
- Zaznamenávejte všechna připojení, včetně připojení k aplikacím AI, abyste mohli neustále sledovat aktivity uživatelů, používání nástrojů AI a vzory přístupu k datům za účelem zjišťování anomálií
- Zjistěte, jaké stínové IT existuje (včetně nástrojů AI) – a rozhodujte se o schválení, blokování nebo vrstvení dalších ovládacích prvků
- Prohledejte konfigurace aplikací SaaS z hlediska potenciálních bezpečnostních rizik (např. oprávnění OAuth udělená schválenými aplikacemi neautorizovaným aplikacím s podporou AI, riskující vystavení dat)
- Zjistěte, jaká data přechází dovnitř a ven z nástrojů AI a odfiltruje vše, co by mohlo ohrozit IP, ovlivnit důvěrnost nebo porušit autorská práva
- Aplikujte bezpečnostní kontroly pro to, jak mohou uživatelé interagovat s nástroji AI (např. zastavit nahrávání, zabránit kopírování/vkládání a vyhledávat a blokovat vstupy citlivých/proprietárních dat)
- Zaveďte bezpečnostní opatření, která zabrání robotům s umělou inteligencí seškrábat vás webmísto
- Nástroje AI přímo zablokujte pouze v případě, že nejsou možné žádné jiné ovládací prvky. Jak víme, uživatelé najdou řešení, která vyřadí zabezpečení mimo vaši kontrolu
- Ovládejte přístup k aplikacím a infrastruktuře AI
- Zajistěte, aby každý uživatel a zařízení přistupující k nástrojům AI prošel přísným ověřením identity podle toho, kdo může nástroje AI používat
- Implementujte řízení přístupu Zero Trust založené na identitě. Aplikujte co nejmenší oprávnění k omezení potenciálních škod způsobených kompromitovanými účty nebo hrozbami zevnitř
- Zefektivněte náklady a provozní efektivitu
- Porozumějte tomu, jak lidé používají aplikace umělé inteligence pomocí analýzy a protokolování, abyste měli kontrolu nad omezením rychlosti, ukládáním do mezipaměti, opakováním požadavků a záložním modelem jako měřítko využití.
Zabezpečte to, co postavíte
Trénujte svůj model AI
AI potrubí rozšiřují spektrum zranitelnosti. Ale díky zkušenostem se zajištěním na začátku a v průběhu vývojového procesu máme přehled o tom, co vede k úspěchu. Pokud jde o bezpečnost AI, přirozeným místem, kde začít, je váš model.
Jako základ aplikací AI se vše, co se používá k trénování vašeho modelu AI, promítne do jeho výstupů. Zvažte, jak tato data zpočátku zabezpečíte, abyste se později vyhnuli negativním dopadům. Pokud ponecháte nechráněné, riskujete rozšíření své útočné plochy a následné problémy s aplikacemi.
Zabezpečení, které zajišťuje integritu dat, je klíčové pro zmírnění záměrného a náhodného ohrožení dat. Bezpečnostní rizika v potrubí AI mohou zahrnovat:
- Otrava dat: Škodlivé datové sady ovlivňují výsledky a vytvářejí předsudky
- Zneužívání halucinací: Aktéři hrozeb legitimizují halucinace umělé inteligence – vynalézání informací za účelem generování odpovědí – takže škodlivé a nelegitimní datové soubory informují o výstupech
Alternativně, pokud netrénujete modely, vaše interní umělá inteligence by začala výběrem modelu pro provádění úkolů. V těchto případech byste chtěli prozkoumat, jak tvůrci vytvořili a zajistili model, protože hraje roli při vyvozování.
Odvození je proces, který následuje po školení AI. Čím lépe je model trénovaný a čím je vyladěnější, tím lepší budou závěry – ačkoli nikdy není zaručeno, že budou dokonalé. I vysoce trénované modelky mohou mít halucinace.
Zabezpečení po nasazení
Jakmile vytvoříte a nasadíte svou vlastní umělou inteligenci, budete muset chránit její soukromá data a zabezpečit k nim přístup. Spolu s doporučeními, která jsme již učinili v tomto dokumentu, včetně vynucení tokenů pro každého uživatele a omezení rychlosti, byste také měli zvážit:
- Správa kvót: Používá limity k ochraně před zneužitím a sdílením klíčů API uživatelů
- Blokování určitých autonomních systémových čísel (ASN): Zabraňuje útočníkům posílat do aplikací obrovské množství provozu
- Povolení čekáren nebo náročných uživatelů: Požadavky jsou obtížnější nebo časově náročnější, což útočníkům ničí ekonomiku
- Vytváření a ověřování schématu API: Nastiňuje zamýšlené použití identifikací a katalogizací všech koncových bodů API a poté uvádí všechny specifické parametry a limity typu.
- Analýza hloubky a složitosti dotazů: Pomáhá chránit se před přímými DoS útoky a vývojářskými chybami, udržuje váš původ zdravý a obsluhuje požadavky vašim uživatelům podle očekávání.
- Budování disciplíny kolem přístupu založeného na tokenech: Chrání před ohrožením přístupu, když se tokeny ověřují ve vrstvě middlewaru nebo bráně API
Robustní ochrana před hrozbami ve vašem experimentování s GenAI
Od přijetí až po implementaci, každý stage ze spektra experimentů GenAI by mělo postupovat s minimálním nebo tolerovaným rizikem. Se znalostmi získanými z tohoto dokumentu, ať už vaše organizace používá, buduje nebo plánuje AI v nějaké formě v budoucnu, máte moc ovládat své digitální prostředí.
I když je přirozené pociťovat váhavost při přijímání nových funkcí, existují zdroje, které vám dodají jistotu, že můžete s AI bezpečně experimentovat. Z těchto zdrojů dnes organizace nejvíce potřebují spojovací tkáň pro všechno IT a zabezpečení. Takové, které funguje jako společné vlákno, které snižuje složitost tím, že pracuje se vším v prostředí, je dostupné všude a provádí nezbytné funkce zabezpečení, sítě a vývoje.
S pojivovou tkání budete mít důvěru v různých případech použití, včetně:
- Dodržování předpisů se schopností detekovat a kontrolovat pohyb regulovaných dat
- Znovu získat viditelnost a kontrolu nad citlivými daty napříč aplikacemi SaaS, stínovým IT a novými nástroji AI
- Zabezpečení vývojářského kódu detekcí a blokováním zdrojového kódu při nahrávání a stahování. Navíc prevence, vyhledávání a oprava nesprávných konfigurací v aplikacích SaaS a cloudových službách, včetně úložišť kódu
Jak se AI neustále vyvíjí, nejistota je jistá. Proto je tak prospěšné mít stabilizační sílu, jako je Cloudflare.
Chraňte se před riziky AI napříč třemi typy LLM
V závislosti na použití se bude úroveň rizika, které AI pro organizaci vytváří, lišit. Je důležité porozumět různým rizikům spojeným s používáním a vývojem velkých jazykových modelů (LLM) a poté se aktivně zapojit do jakéhokoli nasazení LLM.
Typ rizika klíče LLM
- Interní přístup k citlivým údajům a duševnímu vlastnictví
- Produkt Reputační riziko
- Únik veřejně citlivých dat
Měřítko, snadné použití a bezproblémová integrace
Cloud pro připojení Cloudflare vám dává kontrolu do vašich rukou a zlepšuje viditelnost a zabezpečení – díky čemuž je experimentování s umělou inteligencí bezpečné a škálovatelné. Ještě lepší je, že naše služby vše posilují a zajišťují, že nedochází k žádným kompromisům
mezi uživatelskou zkušeností a bezpečností.
Vzhledem k tomu, že většina organizací bude buď používat pouze AI, nebo bude používat a budovat, využívání Cloudflare znamená, že se nikdy nezastavíte na projektech AI.
- Naše globální síť vám umožňuje rychle škálovat a prosazovat kontroly, kdekoli je potřebujete
- Naše snadné použití usnadňuje nasazení a správu zásad pro to, jak vaši uživatelé využívají AI
- Jedna programovatelná architektura vám umožňuje vrstvit zabezpečení na aplikace, které vytváříte, aniž byste narušili způsob, jakým vaši uživatelé využívají AI
Cloud pro připojení Cloudflare chrání každý aspekt vašeho experimentování s umělou inteligencí, konkrétně:
- Naše služby Zero Trust & Secure Access Service Edge (SASE) pomáhají zmírňovat rizika při používání nástrojů umělé inteligence třetích stran.
- Naše vývojářská platforma pomáhá vaší organizaci vytvářet vaše vlastní nástroje a modely umělé inteligence bezpečně a efektivně
- Pro zabezpečení pomocí AI naše platforma využívá AI a techniky strojového učení k vytváření informací o hrozbách, které se pak používají k ochraně organizací během jejich experimentování s AI.
Další kroky
Cloudflare pro AI vás pokryje, od ochrany toho, jak vaše organizace používá AI, až po obranu AI aplikací, které vytváříte. S našimi službami si můžete osvojit nové funkce v libovolném pořadí s neomezenou interoperabilitou a flexibilními integracemi.
Pro více informací navštivte cloudflare.com
Tento dokument slouží pouze pro informační účely a je majetkem společnosti Cloudflare. Tento dokument nezakládá žádné závazky ani ujištění ze strany Cloudflare nebo jejích přidružených společností vůči vám. Jste odpovědní za vlastní nezávislé posouzení informací v tomto dokumentu. Informace v tomto dokumentu se mohou změnit a nepředpokládají, že jsou vyčerpávající nebo obsahují všechny informace, které můžete potřebovat. Odpovědnosti a závazky Cloudflare vůči svým zákazníkům jsou řízeny samostatnými smlouvami a tento dokument není součástí žádné dohody mezi Cloudflare a jejími zákazníky, ani ji nemění. Služby Cloudflare jsou poskytovány „tak jak jsou“ bez záruk, prohlášení nebo podmínek jakéhokoli druhu, ať už výslovných nebo předpokládaných.
© 2024 Cloudflare, Inc. Všechna práva vyhrazena. CLOUDFLARE® a logo Cloudflare jsou ochranné známky společnosti Cloudflare. Všechny ostatní názvy a loga společností a produktů mohou být ochrannými známkami příslušných společností, se kterými jsou spojeny.
Cloudflare | Zajištění bezpečných postupů umělé inteligence1 888 99 FLARE | enterprise@cloudflare.com | Cloudflare.com
REV:BDES-6307.2024AUG1129
Často kladené otázky
- Otázka: Proč je zabezpečení experimentů GenAI důležité?
Odpověď: Zabezpečení experimentování s GenAI je zásadní pro zabránění narušení dat, zneužití uživatelů a škodlivému chování, které může ohrozit citlivé informace a narušit organizační operace. - Otázka: Jak mohou organizace zlepšit zabezpečení AI?
Odpověď: Organizace mohou zlepšit zabezpečení AI pochopením rizik, používáním renomovaných nástrojů AI, vytvářením vlastních řešení s ohledem na bezpečnost a implementací robustních bezpečnostních opatření na ochranu aplikací AI.
Dokumenty / zdroje
![]() |
Vzplanutí mraků Zajištění bezpečných postupů umělé inteligence [pdfUživatelská příručka Zajištění bezpečných postupů umělé inteligence, Zajištění, Bezpečné postupy umělé inteligence, Postupy |