Zajištění kybernetické bezpečnosti při využívání AI
2023-08-15
Rostoucí používání, dostupnost a popularita nástrojů umělé inteligence (AI) jako jsou ChatGPT, Dall-E, Bard atd., přináší velký zájem a příležitosti pro akademické využití. Kromě této příležitosti představuje AI významné kybernetické hrozby a rizika, která je třeba vzít v úvahu při využívání těchto AI nástrojů.
Mezi největší rizika jednoznačně patří sdílení citlivých informací včetně osobních údajů, které nesmí opustit prostředí UK a které nejsou veřejně dostupné.
Tyto pokyny jsou určeny pro všechny modely LLM (Large Language Models) a AI chatboty včetně ChatGPT, GPT-n/x, Bard, LLaMa, BLOOM apod.
Uživatelé by měli vzít v úvahu, že všechny dotazy/výzvy zadané v AI nástroji jsou viditelné pro provozovatele nástroje mimo UK. Zaměstnanci by měli znát a dodržovat základní pravidla při používání AI nástrojů a proto je z pohledu zajištění kybernetické bezpečnosti při využívání AI nástrojů nezbytné:
- pro registraci a přihlašování nevyužívat stejné přístupové heslo jako ke službám a systémům UK
- dodržovat požadavky na délku hesla 12 znaků s tím, že heslo musí obsahovat tyto požadavky:
- jedno velké písmeno (AKZSD)
- jedno malé písmeno (bsdijsd)
- jednu číslici (7291)
- jeden speciální znak (“.”; “,”; “@”; “#”; “%”; “!”; “$”; “&”; “+”; “-“; apod.)
- neukládat přihlašovací údaje do webového prohlížeče
- všude tam, kde je to možné, využívat dvoufaktorové přihlašování
- neposkytovat v AI nástroji důvěrné, interní, chráněné, citlivé informace, osobní údaje a další informace, které jsou svojí povahou neveřejné a nesmějí se dostat k neoprávněné osobě
- neposkytovat v AI nástroji informace, které by zahrnovaly univerzitní duševní vlastnictví
- uživatelská data nelze použít k trénování modelů AI, pokud uživatelé s tímto použitím výslovně nesouhlasili a použití dat pro účely strojového učení /AI není v souladu se zásadami univerzity.
Tento text byl převzatý z dokumentu Umělá inteligence AI - Doporučení pro akademické pracovníky Univerzity Karlovy