Nejčastější chyby při používání AI a jak se jim vyhnout
10 nejčastějších chyb začátečníků při používání AI nástrojů jako ChatGPT a Claude – a konkrétní rady, jak se jim vyhnout.
Každý, kdo začíná s AI nástroji jako ChatGPT nebo Claude, dělá podobné chyby. Je to přirozené – jde o nové technologie s neočekávanými vlastnostmi a omezeními, která nejsou na první pohled zřejmá. Problém nastane, když tyto chyby vedou ke špatným rozhodnutím, únikům citlivých dat nebo slepé důvěře v nesprávné informace.
Tato příručka mapuje deset nejčastějších chyb, které dělají začínající uživatelé AI v Česku i jinde. Ke každé chybě patří vysvětlení, co konkrétně může jít špatně, a praktická rada, jak to napravit. Přečtení vám zabere patnáct minut – a může vám ušetřit vážné problémy.
Jedno upozornění na začátku: AI nástroje jsou mocné a skutečně užitečné. Cílem tohoto článku není vás od nich odradit, ale pomoci vám je používat chytře a bezpečně. Znalost omezení je prvním krokem k efektivnímu využití.
Používáš AI nástroje? Řekni nám jak →
Zúčastnit se průzkumuChyba 1: Slepá důvěra v AI fakta bez ověření
Co se děje: ChatGPT nebo Claude s naprostou sebejistotou uvede konkrétní datum, jméno osoby, statistiku, citaci nebo název firmy – a vše zní naprosto věrohodně. Problém je, že informace může být zcela vymyšlená. Tomuto jevu se říká „halucinace".
Typické příklady: AI vymyslí neexistující vědeckou studii s přesným názvem a autorem. Uvede špatné datum historické události. Popíše zákon, který v dané formulaci neexistuje. Přisoudí citát špatné osobě.
Jak se tomu vyhnout: Jakékoliv konkrétní faktické tvrzení, které plánujete použít v důležitém dokumentu, prezentaci nebo rozhodnutí, si vždy ověřte z nezávislého zdroje – Google, Wikipedie, oficiální web instituce nebo odborná literatura. Pravidlo zní: AI je výborný první průzkum, nikdy ne poslední ověření faktů.
Zvláštní pozor si dejte u: dat a čísel, jmen konkrétních osob, právních předpisů a jejich znění, zdravotnických informací, vědeckých studií a statistik.
Chyba 2: Sdílení citlivých osobních dat
Co se děje: Uživatelé v touze po co nejlepším výsledku AI sdílejí věci, které by sdílet neměli: rodné číslo, číslo občanského průkazu, čísla platebních karet, hesla, podrobné zdravotní záznamy nebo citlivé firemní informace.
Proč je to problém? OpenAI, Anthropic a další firmy mohou (a zpravidla to v podmínkách uvádějí) použít konverzace pro trénink budoucích modelů, pokud tuto funkci výslovně nevypnete. Data mohou být uložena na serverech v zahraničí. Při úniku dat by mohly být citlivé informace kompromitovány.
Jak se tomu vyhnout: Nikdy nezadávejte do AI chatů: rodné číslo, čísla karet, hesla, PIN kódy, podrobné diagnózy nebo zdravotní záznamy s jmény, a citlivé firemní dokumenty označené jako důvěrné. Pokud potřebujete AI pomoci s dokumentem obsahujícím citlivé údaje, nahraďte konkrétní data fiktivními (místo skutečného jména použijte „Jan Novák", místo skutečného čísla účtu vložte smyšlené).
V nastavení ChatGPT můžete zakázat používání konverzací pro trénink: jděte do Settings, pak Data controls a vypněte přepínač „Improve the model for everyone".
Chyba 3: Jednorázové promptování bez iterace
Co se děje: Začátečník napíše jeden prompt, dostane odpověď, která není ideální, a buď výsledek použije tak, jak je, nebo se vzdá. Přitom síla AI spočívá právě v iterativním dialogu.
AI není orákulum, které na jeden dotaz vydá dokonalou odpověď. Je to asistent, se kterým vedete konverzaci. Každá zpráva upřesňuje, co potřebujete.
Jak se tomu vyhnout: Naučte se navazovat na předchozí odpověď. Příklady navazujících promptů: „Výsledek je příliš dlouhý, zkrať ho na 150 slov a zachovej nejdůležitější body", „Tón je příliš formální, přepiš to přátelštěji", „Přidej konkrétní příklady pro každý bod", „Zaměř se více na aspekt X a vypusť část o Y".
Průměrný kvalitní výstup vyžaduje 3–5 výměn v konverzaci. Investujte čas do upřesnění – výsledek bude výrazně lepší.
Chyba 4: Nedávání kontextu a očekávání, že AI „ví"
Co se děje: Uživatel se ptá „Jak mám reagovat na tuto zprávu?" nebo „Je naše smlouva v pořádku?" – bez toho, aby AI poskytl jakýkoliv kontext o sobě, své firmě, svém vztahu s druhou stranou nebo svých cílech.
AI neví nic o vás, vaší firmě, odvětví, firemní kultuře, předchozí historii vztahů ani vašich prioritách. Odpovídá na základě obecných vzorů – a výsledek bude generický.
Jak se tomu vyhnout: Vždy začněte konverzaci krátkým kontextem: čím se zabýváte, kdo jste, pro koho je výsledek určen a jaký je váš cíl. Například: „Pracuji jako HR manažer v IT firmě s 50 zaměstnanci. Píši odpověď zaměstnanci, který žádá o neplacené volno z rodinných důvodů. Naším cílem je být vstřícní, ale zároveň udržet provoz. Napiš mi vzorový text odpovědi."
Čím více relevantního kontextu dáte, tím konkrétnější a užitečnější odpověď dostanete.
Chyba 5: Používání AI pro finální lékařská a právní rozhodnutí
Co se děje: Uživatel popíše symptomy a nechá AI diagnostikovat. Nebo si nechá AI napsat právní podání bez konzultace s odborníkem. Nebo se rozhodne na základě AI rady, aniž by výsledek konzultoval s kvalifikovanou osobou.
AI může poskytnout velmi kvalitní přehled tématu, obecné informace nebo výchozí bod pro diskusi. Ale nedokáže nést odpovědnost za výsledek. Lékař, který vás vyšetří, má informace, které AI nemá: vaši anamnézu, výsledky testů, fyzické vyšetření. Právník zná aktuální judikaturu, specifika vašeho případu a kontext.
Jak se tomu vyhnout: Používejte AI jako přípravu na konzultaci s odborníkem, nikoli jako její náhradu. Skvělé využití: „Vysvětli mi, co je to nájemní smlouva na dobu neurčitou a jaká jsou má práva jako nájemníka" – to je vzdělávání se. Špatné využití: „Pověz mi, zda mám právo odejít z bytu bez výpovědní lhůty v mém konkrétním případě" – to vyžaduje právníka.
Chyba 6: Očekávání kreativity bez kreativního vstupu
Co se děje: Uživatel napíše „Napiš mi kreativní příběh" a diví se, že výsledek je klišovitý a generický. Nebo „Vytvoř nový marketingový slogan pro naši firmu" – a dostane nezapamatovatelný průměr.
AI generuje výstupy na základě vzorů z trénovacích dat. Pokud nedostane specifické směřování, zaměří se na nejbezpečnější, nejčastější a nejgeneričtější výstupy – přesný opak kreativity.
Jak se tomu vyhnout: Buďte konkrétní a neobvyklí ve svém zadání. Místo „napiš kreativní příběh" zkuste: „Napiš 300slovný příběh z perspektivy postarší poštovní schránky v moravské vesnici, která sleduje odchod generace mladých lidí do měst. Tón má být melancholický, ale ne sentimentální."
Přidejte reference: „Napiš jako Hemingway" nebo „Ve stylu minimalistické severské prózy". Omezte žánr, délku, perspektivu nebo emocionální tón. Kreativní input vede ke kreativnímu outputu.
Chyba 7: Ignorování znalostního cutoffu
Co se děje: Uživatel se AI ptá na aktuální informace – dnešní kurz koruny, výsledky posledních voleb, nejnovější zákon nebo nedávnou vědeckou studii – a AI bez zaváhání odpovídá. Jenže informace jsou zastaralé nebo zcela vymyšlené, protože model neví o dění po svém datu cutoffu.
ChatGPT Free a Claude mají knowledge cutoff v dubnu 2024. O dění od té doby nevědí nic – pokud jim to sami neposkytnete.
Jak se tomu vyhnout: Pro aktuální informace používejte jiné nástroje: vyhledávač Google, Perplexity AI (AI s přímým přístupem k internetu) nebo ChatGPT Plus s povoleným vyhledáváním na webu. Pokud k dané problematice máte čerstvé informace (článek, dokument, data), vložte je přímo do promptu – AI pak pracuje s vámi poskytnutými aktuálními daty.
Vždy se ptejte: „Je tato otázka závislá na aktuálním stavu světa?" Pokud ano, ověřte si informace před tím, než jim věříte.
Chyba 8: Kopírování výstupů bez kontroly
Co se děje: Uživatel nechá AI napsat e-mail, zprávu nebo článek a text zkopíruje a odešle bez přečtení. Nebo vloží AI výstup přímo do dokumentu bez úprav.
Proč je to problém? AI může udělat faktické chyby. Tón nemusí odpovídat vašemu stylu nebo firemní kultuře. Text může obsahovat halucinace (vymyšlená fakta). Styl může být příliš generický nebo nepatřičný pro kontext.
Jak se tomu vyhnout: Vnímejte AI výstup jako draft, nikoli jako finální text. Vždy si ho přečtěte. Zkontrolujte fakta. Upravte tón a styl tak, aby zněl jako vy nebo vaše firma. Přidejte specifické detaily, které AI nezná. Teprve pak odešlete nebo publikujte.
Dobré pravidlo: AI napíše 80 % textu, vy ho finálně doladíte na 100 %. Ušetříte čas, ale kvalita zůstane pod vaší kontrolou.
Chyba 9: Nespecifikování formátu výstupu
Co se děje: Uživatel dostane odpověď ve formátu, který vůbec nepotřebuje. Chtěl tabulku, dostal odstavce. Chtěl bullet pointy, dostal esej. Chtěl 3 věty, dostal 3 stránky.
AI bez instrukce o formátu sama zvolí, jak výsledek strukturovat – a nemusí to být formát, který se hodí pro váš účel.
Jak se tomu vyhnout: Vždy specifikujte formát jako součást promptu. Konkrétní příklady: „Odpověz ve formě bullet pointů, maximálně 5 bodů", „Strukturuj odpověď jako tabulku se sloupci: Výhoda, Nevýhoda, Doporučení", „Odpověz v jednom odstavci, maximálně 100 slov", „Použij nadpisy H2 pro každou sekci a bullet pointy pro detaily".
Formát je součástí dobrého promptu – stejně důležitý jako samotné zadání.
Chyba 10: Očekávání, že AI si pamatuje z minulých konverzací
Co se děje: Uživatel začne novou konverzaci a očekává, že AI ví, co spolu řešili minulý týden. Nebo pokračuje v projektu a diví se, proč AI „zapomněla" vše, co bylo domluveno.
Každá nová konverzace v ChatGPT nebo Claudu začíná od nuly. AI nemá žádnou paměť předchozích chatů, pokud není explicitně zapnutá funkce paměti (Memory) – a i ta ukládá jen vybrané informace, ne celé konverzace.
Jak se tomu vyhnout: Na začátku každé nové konverzace poskytněte potřebný kontext znovu. Pro opakující se projekty si vytvořte „kontext dokument" – krátký text s klíčovými informacemi, který zkopírujete na začátek každé konverzace: popis projektu, cílová skupina, tón komunikace, klíčové termíny, co bylo rozhodnuto.
V ChatGPT si funkci Memory můžete zapnout v nastavení – AI si pak pamatuje informace, které jí řeknete ukládat (ne automaticky celé konverzace). Využijte ji pro trvalé preference a kontext, který se opakuje.
Jak funguje v Česku
V Česku se tyto chyby dělají stejně jako jinde na světě – a jejich dopady jsou stejně reálné. Česká obchodní inspekce a Úřad pro ochranu osobních údajů (ÚOOÚ) se AI tematice věnují stále více. GDPR platí i pro data sdílená s americkými AI firmami – pokud jsou v datech osobní údaje EU občanů, musí být splněny podmínky GDPR.
Pro české firmy je klíčové, aby měly jasnou interní politiku pro používání AI: co smí zaměstnanci sdílet, jaké nástroje jsou schváleny a jak se nakládá s AI výstupy. Mnoho firem v ČR zatím takovou politiku nemá – a vytvoření jednoduché interní směrnice je prvním krokem k bezpečnému a efektivnímu využití AI.
Pro jednotlivce platí jednoduché pravidlo: AI je mocný nástroj, ale nejste povinni mu věřit bez ověření. Používejte ho jako chytrého asistenta s určitými slepými místy – a budete mít z AI velký užitek bez zbytečného rizika.