Zpět na výpis

Druhá vlna účinnosti pravidel o umělé inteligenci

Půl roku po účinnosti zákazu nepřijatelných systémů umělé inteligence vstupuje evropská regulace umělé inteligence do další fáze. Od 2. srpna 2025 platí druhá vlna pravidel nařízení EU 2024/1689 (AI Akt). Úprava míří především na poskytovatele takzvaných obecných modelů umělé inteligence, mezi něž patří ChatGPT, Llama, Gemini a další známé velké jazykové modely.

O první vlně účinnosti nařízení jsme již psali zde.

Obecné modely AI – nová pravidla

Obecné modely umělé inteligence se vyznačují vysokou univerzálností a schopností adaptovat se na různorodé oblasti využití. Lze je snadno propojovat s nejrůznějšími aplikacemi, implementovat do nových modelů a dále je přizpůsobovat konkrétním potřebám. Obecné modely jsou obvykle trénovány na obrovském množství dat od textů a obrázků až po zvuk nebo video. S jejich vývojem a použitím se pojí i mnohá rizika, která má regulace eliminovat.

Nová pravidla mají především zajistit, aby byly obecné modely vyvíjeny s důrazem na transparentnost a odpovědnost a jejich využití bylo bezpečné a spolehlivé. Tvůrci jsou povinni zveřejňovat informace o schopnostech modelu, výpočetních zdrojích, možných rizicích nebo použitých datech, včetně toho, zda při tréninku využili díla chráněná autorským právem. Současně musí vést podrobnou technickou dokumentaci a poskytovat ostatním vývojářům potřebné podklady, aby mohli modely bezpečně využívat a integrovat do svých řešení.

Přísnější režim čeká vysoce kompetentní a výkonné obecné modely, které jsou kvůli svým potenciálním dopadům na evropský trh nebo na veřejné zdraví, bezpečnost, základní práva či společnost, označovány jako obecné modely umělé inteligence se systémovým rizikem. Tyto modely podléhají registraci u Evropské komise, musejí být pravidelně testovány, včetně kontradiktorních zkoušek, a jejich poskytovatelé musí průběžně monitorovat jejich chování, hlásit incidenty a zajistit vysokou úroveň kybernetické bezpečnosti.

Kodex správné praxe a pokyny pro obecné modely AI

V souvislosti s novými pravidly Evropská komise v červenci představila finální verzi dobrovolného kodexu správné praxe pro obecné modely AI. Je výsledkem téměř roční společné tvorby, do které se zapojili zástupci evropských i národních orgánů, akademici, odborníci a zástupci významných technologických společností. Kodex se zaměřuje na transparentnost, dodržování autorských práv a bezpečnost a má podporovat odpovědný vývoj technologií. Jakmile kodex schválí členské státy a Komise, jeho dodržováním budou moci signatáři prokázat svůj soulad s AI Aktem. Rovněž poslouží jako praktický rámec pro takzvané „downstream providers“, tedy poskytovatele systémů umělé inteligence fungujících právě na bázi obecných modelů.  

V tuto chvíli kodex už podepsaly přední technologické společnosti jako OpenAI, Google, Microsoft nebo Anthropic. Někteří se však ke kodexu staví zdrženlivě, jako například Meta, která jej odmítla podepsat nebo xAI, která přistoupila pouze na kapitolu týkající se bezpečnosti. Dle kritiků představuje kodex mimo jiné nadbytečnou regulaci, která může brzdit rozvoj umělé inteligence v Evropě. Široká podpora je přitom klíčovou pro co nejrozšířenější používání kodexu v praxi a vytvoření jednotného přístupu k vývoji.

Bližší vodítko k výkladu povinností poskytují nezávazné pokyny k rozsahu povinností poskytovatelů obecných modelů umělé inteligence podle AI Aktu, které Evropská komise vydala v souvislosti s počátkem účinnosti pravidel. Dokument upřesňuje mimo jiné, kdy se model umělé inteligence považuje za „obecný model“, jak se určuje jeho poskytovatel a podmínky, za kterých se do této pozice mohou dostat „downstream providers“.

Spuštění sankčního mechanismu a co dělat dál

AI Akt neukládá povinnosti jen poskytovatelům a uživatelům systémů AI, ale i členským státům samotným. Ty musely do 2. srpna 2025 zmocnit příslušné vnitrostátní orgány, které budou dohlížet na dodržování AI Aktu. V Česku připadla tato agenda mimo jiné Ministerstvu průmyslu a obchodu, které zajišťuje přípravu zákona o umělé inteligenci. Hlavním dozorovým orgánem byl stanoven Český telekomunikační úřad.

Jestliže vaše organizace vyvíjí nebo využívá řešení založená na umělé inteligenci a s přípravou na AI Akt dosud nezačala, neotálejte. Čas na přípravu se totiž navzdory (neúspěšné) snaze oddálit účinnost AI Aktu rychle krátí. Navíc spolu s účinností pravidel pro obecné modely bude spuštěn i sankční mechanismus AI Aktu. Za nejzávažnější porušení hrozí pokuty ve výši až 35 milionů eur nebo sedm procent celosvětového obratu společnosti, za méně závažná provinění pak 7,5 milionů až 15 milionů eur nebo jedno až tři procenta z celosvětového obratu.

Proces přípravy a zavádění potřebných opatření může být v praxi časově náročný a obvykle vyžaduje zapojení různých odborníků napříč organizací. Doporučujeme proto co nejdříve začít s přehledným zmapováním používaných AI nástrojů, jejich kategorizací dle rizika, určením role vaší organizace a identifikací souvisejících povinností. Pokud si s AI Aktem nevíte rady, nebo se jen potřebujete ujistit, že jdete správným směrem, neváhejte a obraťte se na nás.