Grok svléká, EU zakazuje a 55 % vašich zaměstnanců netuší, co AI dělá s jejich daty
- Datum: 11.05.2026
- Autor: Aleš Pilný
Začnu trochu neobvykle. Elon Musk byl poradcem americké vlády pro efektivitu. Jeho AI nástroj Grok umí velice VĚROHODNĚ a OCHOTNĚ digitálně svlékat kohokoliv z běžných fotek.

Po čtyřech měsících skončil díky sporům s kabinetem, právních prohrách a nakonec veřejné hádce s prezidentem Trumpem. Odešel v tichosti, napsal skromné poděkování na X a vrátil se k Tesle.
Grok mezitím svléká dál.
Nevím, jestli to souviselo s jeho úřadem pro efektivitu DOGE, který jen vyhazoval specialisty. Ale vím, že je to výborný úvod k tématu, o kterém je třeba mluvit: proč bezpečnost AI není jen problém velkých technologických firem, ale každé kanceláře, každého HR oddělení a každé firmy, která dnes říká "my AI používáme".
Když zákon předběhly technologie
EU reaguje na Groka a jemu podobné nástroje po svém. V rámci úprav AI Actu se Evropský parlament a členské státy dohodly na zákazu tzv. „nudifier" aplikací — nástrojů, které generují sexualizovaný obsah bez souhlasu zobrazených osob. Zákaz prosadila česká europoslankyně Markéta Gregorová. Nová pravidla mají být účinná od 2. prosince 2026.
Španělská ministryně pro mládež dokonce požádala tamní generální prokuraturu, aby prošetřila, zda Grok nepáchá trestné činy. Dobře. Zákaz je v pořádku. Regulace je v pořádku. ISO 42001 mezinárodní norma pro bezpečné řízení AI, to vše je v pořádku.
Ale: zákon nezakáže vašim zaměstnancům vkládat citlivá firemní data do veřejných AI modelů. Zákon nezakáže slepě přijímat halucinace jako fakta. Zákon nezakáže odesílání firemní strategie chatbotovi, jehož podmínky použití nikdo nečetl.
To dokáže jen vzdělání.
Čísla, která by vás měla znepokojit
Podle dat McKinsey, Bain & Company a World Economic Forum:
- 88 % firem dnes AI pravidelně využívá
- 74 % zaměstnanců ji používá v práci každý den
- Ale jen 33 % z nich prošlo jakýmkoliv formálním školením
- A 55 % uživatelů AI nemá žádné vzdělání v oblasti bezpečnosti dat
Přeloženo do řeči managementu: ve vaší firmě pravděpodobně pracuje tým lidí, kteří každý den manipulují s firemními daty v prostředí, kterému nerozumí. A v případě jakéhokoliv incidentu: úniku dat, deepfake phishingu, halucinace přijaté jako strategické rozhodnutí — je odpovědnost na firmě.
Ne na AI. Ne na nástroji, který to způsobil. Na vás.
Co to konkrétně znamená v praxi
Nekonsenzuální svlékací aplikace jsou extrémní případ. Ale každodenní bezpečnostní rizika AI jsou subtilnější a proto nebezpečnější.
Data leakage: Zaměstnanec s nejlepšími úmysly zvyšovat produktivitu vloží do veřejného chatbotu znění nové smlouvy, aby ho "přeformuloval lépe". Data putují na servery, které nikdo ve firmě neauditoval.
Halucinace jako fakta: AI odpoví s jistotou, plynulou češtinou a správnou interpunkcí. A bude se mýlit. Bez trénovaného kritického myšlení to nikdo nezachytí.
AI-powered phishing: Personalizovaný deepfake email od "šéfa", který zní přesně jako on, píše přesně jako on a žádá o převod. Tohle dnes dokáže postavit každý průměrně zdatný útočník za pět minut.
Vzdělaný zaměstnanec tyhle scénáře rozpozná a zastaví. Nevzdělaný je nezaregistruje.
AI Core™: Dvě dny, které změní způsob, jakým vaši lidé AI používají
V TAYLLORCOX jsme přemýšleli o tom, co AI vzdělávání v tomto a následujícím roce skutečně musí znamenat.
Výsledkem je AI Core™ (AI|C) resp.: 2denní intenzivní program postavený na jednom principu: 0 % čisté teorie. Celý čas pracujete na reálných datech, reálných scénářích, reálných nástrojích.
Za ty dva dny absolvujete 23 hands-on laboratoří, kde se naučíte:
- Strukturovaný prompt engineering pro pracovní scénáře
- Bezpečnou práci s AI z pohledu ochrany dat, GDPR a governance
- Detekovat syntetická média a deepfake obsah. Ano, i ten od Groka
- Rozumět tomu, jak AI systémy fungují "pod kapotou" a proč generují to, co generují
- Kriticky vyhodnocovat výstupy AI: jak poznat halucinaci, zaujatost a nespolehlivý zdroj
A na konci: mezinárodní certifikace AI|C v1 pod akreditací ISO/IEC 17024. Té samé, které důvěřují přední technologické společnosti po celém světě.
Proč ISO 42001 a ne jen zákon
Zákaz nudifier aplikací je dobrý začátek. Ale ISO 42001 mezinárodní norma pro řízení umělé inteligence jde mnohem dál.
Říká vašim klientům, partnerům, regulátorům a zaměstnancům jednu jednoduchou věc: vaše AI je pod kontrolou.
Nezakazuje nástroje. Nastavuje systém. Pravidla, procesy, odpovědnosti, audit trail. Důkaz, že nejste firma, která AI jen slepě adoptovala ale firma, která ji řídí.
A přesně proto je AI Core™ přirozeným prvním krokem na cestě k ISO 42001. Nejdřív vzdělání, pak certifikace systému.
V TAYLLORCOX jsme jediná organizace v ČR a SR, která je zároveň ATO (Accredited Training Organisation), ACO(Accredited Consulting Organisation) a RCB (Registered Certification Body). Co to znamená v praxi: vzdělávání, implementaci i certifikaci ISO 42001 zajistíme pod jednou střechou a naši lektoři jsou praktikující auditoři, kteří tuto normu sami auditují.
Grok má se svlékáním od 2. prosince útrum. A vzdělání ochrání vaši firmu.
Vracím se k Elonu Muskovi. Byl poradcem pro efektivitu. Odešel po čtyřech měsících, po hádce s Trumpem, s bilancí výrazně skromnější než slibovaných dva biliony dolarů úspor. X napsal poděkování, vrátil se k Tesle. Grok mezitím svléká dál. Španělská ministryně požádala prokuraturu, aby prošetřila, zda to není trestný čin. EU chystá zákaz od 2. prosince 2026.
A vaši zaměstnanci budou zítra ráno opět otevírat AI nástroje bez školení, bez pravidel, bez tušení, co se s jejich daty děje. Žádný zákon to nezastaví dřív, než to zastaví vzdělání. Dvě dny investice do vzdělání jsou méně než jeden incident.
2 dny. 23 laboratoří. Certifikace. Žádná teorie navíc.
To je Artificial Intelligence Core™ kurz + certifikace (AI|C)


