Zajištění kybernetické bezpečnosti při využívání AI

2023-08-15

Rostoucí používání, dostupnost a popularita nástrojů umělé inteligence (AI) jako jsou ChatGPT, Dall-E, Bard atd., přináší velký zájem a příležitosti pro akademické využití. Kromě této příležitosti představuje AI významné kybernetické hrozby a rizika, která je třeba vzít v úvahu při využívání těchto AI nástrojů.

Mezi největší rizika jednoznačně patří sdílení citlivých informací včetně osobních údajů, které nesmí opustit prostředí UK a které nejsou veřejně dostupné.

Tyto pokyny jsou určeny pro všechny modely LLM (Large Language Models) a AI chatboty včetně ChatGPT, GPT-n/x, Bard, LLaMa, BLOOM apod.

Uživatelé by měli vzít v úvahu, že všechny dotazy/výzvy zadané v AI nástroji jsou viditelné pro provozovatele nástroje mimo UK. Zaměstnanci by měli znát a dodržovat základní pravidla při používání AI nástrojů a proto je z pohledu zajištění kybernetické bezpečnosti při využívání AI nástrojů nezbytné:

Tento text byl převzatý z dokumentu Umělá inteligence AI - Doporučení pro akademické pracovníky Univerzity Karlovy