Slovník

Slovník AI pojmů

40 pojmů vysvětlených v češtině — bez technického žargonu. Klikni na kategorii nebo prohledej abecedně.

Základní pojmy

AGIArtificial General Intelligence
Hypotetická AI schopná provádět jakýkoli intelektuální úkol stejně dobře jako člověk. Dnešní AI jsou 'narrow AI' — výjimeční v konkrétních úkolech, ale bez obecného porozumění. AGI zatím neexistuje; OpenAI i Anthropic uvádí, že se k ní blíží.
Generativní AIGenerative AI
AI systémy schopné tvořit nový obsah — text, obrázky, hudbu nebo video. Na rozdíl od klasické AI, která jen klasifikuje nebo předpovídá, generativní AI aktivně vytváří. Příklady: ChatGPT, Midjourney, DALL-E.
HalucinaceHallucination
Jev, kdy AI s jistotou uvede nepravdivou informaci — vymyšlenou citaci, neexistující zákon nebo špatné číslo. AI 'neví, že neví', proto halucinace zní přesvědčivě. Vždy ověřuj fakta, data a citace z AI výstupu.
Střežená generaceGuardrails
Bezpečnostní mechanismy zabudované do AI modelu, které brání generování škodlivého obsahu — návody k výrobě zbraní, nenávistné projevy, dezinformace. Různé modely mají různě přísné guardrails.
Umělá inteligence (AI)Artificial Intelligence
Obor informatiky, jehož cílem je vytvářet systémy schopné provádět úkoly, které normálně vyžadují lidskou inteligenci — rozpoznávání řeči, překlad, rozhodování nebo tvorbu textu.
Zarovnání AIAI Alignment
Výzkumná oblast zaměřená na to, aby AI systémy jednaly v souladu s lidskými hodnotami a záměry. Problém: AI optimalizovaná na úzký cíl může dosáhnout cíle způsoby, které jsou škodlivé nebo nečekané.

Modely a architektury

Embedding modelEmbedding Model
Specializovaný model, který převádí text na vektory (embeddingy) pro sémantické vyhledávání. Liší se od generativního LLM — nevytváří text, jen ho reprezentuje číselně. Příklady: OpenAI text-embedding-3, Cohere Embed.
GPTGenerative Pre-trained Transformer
Architektura neuronové sítě vyvinutá OpenAI, která stojí za ChatGPT. Zkratka znamená 'generativní předtrénovaný transformer'. Transformer je typ sítě, která zpracovává text po tokenech s mechanismem pozornosti (attention).
Multimodální AIMultimodal AI
AI, která pracuje s více typy vstupů — textem, obrázky, zvukem nebo videem zároveň. GPT-4o je multimodální: dokáže analyzovat fotografii a odpovídat na ni textem. Opak je pouze textový (text-only) model.
Open source AIOpen Source AI
AI modely s veřejně dostupnými váhami (parametry), které lze stáhnout a provozovat lokálně. Příklady: Llama (Meta), Mistral, Falcon. Výhody: soukromí, nulové náklady na API. Nevýhody: vyžaduje výkonný hardware.
Velký jazykový model (LLM)Large Language Model
Typ AI modelu trénovaný na obrovském množství textu (stovky miliard slov). LLM jako GPT-4, Claude nebo Gemini dokáží generovat, překládat a analyzovat text. Fungují na principu predikce nejpravděpodobnějšího dalšího slova.
Vícestupňové uvažováníMulti-step Reasoning
Schopnost AI řešit komplexní problémy rozdělením na kroky. Modely jako o1 nebo Claude 3.5 Sonnet jsou v tom výrazně lepší než starší verze. Klíčové pro matematiku, logiku a víceúrovňové analýzy.
Základní modelFoundation Model
Velký AI model trénovaný na obecných datech, který slouží jako základ pro další specializaci. GPT-4, Claude, Gemini nebo Llama jsou základní modely. Na jejich základě vznikají specifičtější aplikace přes fine-tuning nebo RAG.
Znalostní hraniceKnowledge Cutoff
Datum, po které AI model nemá žádné informace, protože byl trénován na datech pouze do tohoto data. GPT-4o má cutoff v dubnu 2024, Claude 3.5 v dubnu 2024. AI s webovým přístupem (Perplexity, ChatGPT s Search) toto omezení obchází.

Technické pojmy

APIApplication Programming Interface
Rozhraní, přes které vývojáři komunikují s AI modelem z vlastní aplikace. OpenAI, Anthropic i Google nabízejí API — platíš podle počtu tokenů. Umožňuje zabudovat AI do webů, aplikací nebo automatizovaných procesů.
DistilaceKnowledge Distillation
Technika, kdy se menší 'studentský' model trénuje na výstupech většího 'učitelského' modelu. Výsledek je kompaktnější model s podobnými schopnostmi. Příklad: Llama 3 8B je částečně distilovaná z větších modelů.
Doladění (fine-tuning)Fine-tuning
Proces, při kterém se obecný AI model dál trénuje na specializovaných datech pro konkrétní účel — například lékařský AI asistent trénovaný na lékařských textech. Fine-tuning přizpůsobuje styl, terminologii a chování modelu.
EmbeddingyEmbeddings
Číselná reprezentace textu (nebo obrázků) v mnohorozměrném vektorovém prostoru. Podobné texty mají blízké vektory. Embeddingy umožňují AI porovnávat sémantický význam slov a vět, nikoliv jen jejich znaky.
InferenceInference
Fáze, kdy trénovaný AI model generuje odpovědi na nové vstupy — v protikladu k trénovací fázi. Každé použití ChatGPT nebo Claude je inference. Inference je výpočetně nákladná, proto cloudové AI účtují podle počtu tokenů.
Inference APIInference API
Cloudová služba, přes níž přistupuješ k AI modelu bez nutnosti vlastního hardwaru. Platíš za použití — typicky za 1 000 tokenů vstupu + výstupu. Příklady: OpenAI API, Anthropic API, Google Vertex AI.
Kontextové oknoContext Window
Maximální množství textu (v tokenech), které AI zpracuje v jedné konverzaci. GPT-4o má ~128 000 tokenů, Claude 3.5 až 200 000. Po překročení limitu AI 'zapomene' starší části konverzace. Čím větší okno, tím déle si AI pamatuje kontext.
Neuronová síťNeural Network
Matematický model inspirovaný strukturou mozku, tvořený vrstvami vzájemně propojených uzlů (neuronů). Každé spojení má váhu, která se upravuje při trénování. Hluboké neuronové sítě (deep learning) jsou základem moderní AI.
Parametry modeluModel Parameters
Číselné hodnoty (váhy) v neuronové síti, které si model 'zapamatoval' při trénování. GPT-4 má odhadem 1,8 bilionu parametrů. Více parametrů obecně znamená větší kapacitu, ale i vyšší výpočetní nároky.
Přetrénování (overfitting)Overfitting
Situace, kdy model příliš 'memoruje' trénovací data a špatně generalizuje na nové příklady. Jako student, který se naučil odpovědi na paměť, ale nerozumí principům — selže při nové otázce.
RAGRetrieval-Augmented Generation
Technika, která kombinuje vyhledávání v externích dokumentech s generováním odpovědi. Místo aby AI spoléhala jen na natrénované znalosti, nejprve vyhledá relevantní dokumenty a pak z nich odpovídá. Snižuje halucinace, umožňuje práci s aktuálními daty.
RLHFReinforcement Learning from Human Feedback
Metoda trénování, při níž lidé hodnotí odpovědi AI a model se učí preferovat odpovědi, které lidé označí jako lepší. RLHF je klíčový pro to, aby ChatGPT nebo Claude odpovídaly přirozeně a bezpečně.
Teplotní parametrTemperature
Nastavení, které ovlivňuje 'kreativitu' výstupu AI. Nízká teplota (0–0.3): deterministické, předvídatelné odpovědi — vhodné pro fakta a kód. Vysoká teplota (0.7–1): rozmanitější, kreativnější výstupy — vhodné pro brainstorming.
TokenToken
Základní jednotka textu, se kterou AI pracuje. Token není totéž co slovo — může to být slabika, celé slovo nebo interpunkce. Zhruba 1 000 tokenů odpovídá cca 750 slovům v angličtině, v češtině je tokenizace méně efektivní (čeština má více tokenů na slovo).
TokenizaceTokenization
Proces rozdělení textu na tokeny před zpracováním AI modelem. Různé jazyky se tokenizují různě efektivně — angličtina průměrně 1 token/slovo, čeština 1,5–2 tokeny/slovo. Proto jsou delší české texty dražší na zpracování.
TransformerTransformer
Architektura neuronové sítě z roku 2017 (paper 'Attention is All You Need'), která revolučně změnila NLP. Transformer zpracovává vstupní sekvenci paralelně pomocí mechanismu self-attention, což umožňuje učení dlouhých závislostí v textu.
Vektorová databázeVector Database
Specializovaná databáze ukládající embeddingy (vektory). Umožňuje rychlé vyhledávání sémanticky podobného obsahu — základ RAG systémů. Příklady: Pinecone, Weaviate, pgvector pro PostgreSQL.

Použití a techniky

Agentní AIAgentic AI / AI Agent
AI systém, který sám plánuje a provádí série kroků k dosažení cíle — přistupuje k internetu, spouští kód, čte soubory. Na rozdíl od chatbota, který odpovídá na otázky, agent sám rozhoduje, jaké nástroje použije.
Few-shot learningFew-shot Learning
Technika, kdy AI dostane v promptu několik příkladů vstupu a výstupu, aby pochopila požadovaný vzor — bez nutnosti přetrénování. Například: ukážeš 3 příklady konverze textů do JSON a AI pokračuje ve stejném formátu.
Chain-of-ThoughtChain-of-Thought (CoT)
Technika promptování, kdy AI vybídneš k postupnému uvažování před finální odpovědí. Přidáním 'Uvaž krok za krokem' nebo 'Think step by step' do promptu výrazně zlepšíš výsledky u logických a matematických úloh.
JailbreakJailbreak
Technika, kdy uživatel obchází bezpečnostní omezení AI modelu pomocí chytře formulovaných promptů. Například přinutit AI, aby ignorovala svá pravidla přes roleplay scénář. Výrobci AI tyto mezery průběžně záplatují.
Multiagentní systémMulti-agent System
Architektura, kde více AI agentů spolupracuje na řešení komplexního úkolu. Jeden agent plánuje, druhý vyhledává, třetí píše kód. Umožňuje paralelizaci a specializaci — každý agent dělá to, co umí nejlépe.
PromptPrompt
Vstupní text nebo instrukce, které zadáváš AI modelu. Kvalita promptu přímo ovlivňuje kvalitu výstupu. Čím konkrétnější a strukturovanější prompt, tím lepší výsledek. Viz také: promptování.
PromptováníPrompt Engineering
Umění psát efektivní instrukce pro AI. Zahrnuje techniky jako: zadání role ('Jsi zkušený copywriter'), specifikace formátu ('Odpověz v odrážkách'), vložení kontextu a iterativní upřesňování. Dobrý prompt dramaticky zlepší výsledky.
Systémový promptSystem Prompt
Instrukce zadaná AI modelu na začátku konverzace, která definuje jeho roli, chování a omezení. Uživatel ho obvykle nevidí. Například: 'Jsi zákaznický asistent firmy X. Odpovídej jen česky. Neposkytuj ceny bez ověření.'
Zero-shotZero-shot
Schopnost AI zvládnout úkol bez jakýchkoli příkladů v promptu — pouze na základě přirozeného jazyka instrukce. 'Přelož tento text do němčiny' je zero-shot prompt, protože neuvádíš žádný příklad překladu.

Nevíš, kde začít?

Otestuj svou AI úroveň a dostaneš doporučení přesně pro tebe.

🎯Zjistit svou AI úroveň