Technické informace
- User-agent string
CCBot/2.0 (https://commoncrawl.org/faq/)- Respektuje robots.txt
- ano
- Publikované IP
- Rozsahy IP
- Oficiální dokumentace
- Odkaz
Podrobný popis
CCBot je unikátní případ mezi AI crawlery — není provozován žádnou AI firmou. Common Crawl Foundation je nezisková organizace založená v roce 2008, jejímž cílem je vytvářet veřejně dostupný archiv webu. Každý měsíc CCBot proindexuje miliardy stránek a výsledný Common Crawl dataset publikuje zdarma pro výzkumníky, akademiky, novináře a kohokoliv, kdo ho chce použít.
Paradoxní je, že ačkoliv Common Crawl sám AI netrénuje, jeho dataset se stal nejpoužívanější tréninkovou základnou pro AI modely na světě. Starší verze GPT (GPT-3, GPT-3.5), Meta LLaMA, a většina open-source LLM (Mistral, Falcon, Pythia, OLMo) používají Common Crawl jako primární zdroj tréninkových dat. Moderní komerční modely (GPT-4+, Claude, Gemini) používají kurátorované vlastní datasety, ale Common Crawl zůstává zásadní pro výzkumnou komunitu a menší AI labs.
Pro majitele webu to znamená, že blokace CCBot je nejširší možný AI opt-out: zatímco blokací GPTBot se chráníte před jednou firmou, blokací CCBot se chráníte před desítkami AI modelů, které dataset používají. Zároveň se ale vyřadíte z legitimního vědeckého výzkumu, žurnalistických analýz a open-source projektů, které Common Crawl využívají nekomerčně.
CCBot respektuje robots.txt přísně a dlouhodobě — Common Crawl má reputaci jednoho z nejlépe se chovajících crawlerů na webu. Na rozdíl od komerčních AI crawlerů nemá skrytou motivaci obcházet pravidla. Publikuje oficiální dokumentaci, kontaktní e-mail, a respektuje nestandardní direktivy včetně Crawl-delay.
Co se stane, když bota zablokujete
Co se stane, když CCBot zablokujete
Pokud v robots.txt zakážete CCBot, Common Crawl váš web vyřadí z budoucích měsíčních snapshotů. Obsah, který už je v existujících datasetech, zůstává — Common Crawl historické snapshoty nemaže, protože slouží i pro vědecký výzkum a journalism.
Co blokace ovlivní (dlouhodobě):
- Vaše stránky nepůjdou do budoucích tréninků open-source LLM (LLaMA varianty, Mistral, Falcon…)
- Vyloučíte se z tréninku menších a akademických AI modelů
- Vaše data nebudou dostupná pro vědecký výzkum, open-source NLP projekty, novinářské analýzy
Co blokace NEovlivní:
- Aktuální komerční AI modely (GPT-4+, Claude, Gemini) — ty používají vlastní datasety
- Google Search, Bing Search — to jsou nezávislé systémy
- Už existující použití vašich dat v historických trénincích
Blokace CCBot je strategicky silnější než blokace jednotlivých komerčních botů, protože vyřazuje váš obsah z celého ekosystému open-source AI. Zároveň má ale vedlejší efekty — vyloučíte se i z nekomerčního výzkumu, což někteří publisheři považují za ztrátu veřejné hodnoty.
Doporučení pro B2B
<p>Common Crawl je nezisková organizace s vědeckým posláním — blokace má mnohem širší dopady než u komerčních crawlerů, protože feeduje celý open-source AI ekosystém a vědeckou komunitu. Pro většinu B2B webů dává smysl povolit jako příspěvek k otevřenému výzkumu. Blokace dává smysl u licencovaného obsahu, kreativního díla s striktními právy, nebo pokud máte etický problém s jakýmkoliv AI tréninkem bez ohledu na provozovatele.</p>
Ukázky robots.txt
Povolit bota
User-agent: CCBot
Allow: /Zablokovat bota
User-agent: CCBot
Disallow: /Omezit frekvenci (Crawl-delay)
Částečné blokování
User-agent: CCBot
Disallow: /premium/
Disallow: /members/
Allow: /Historie
Common Crawl Foundation byla založena v roce 2008 jako iniciativa pro demokratizaci přístupu k webu pro výzkum. CCBot běží kontinuálně od roku 2012 s minimálními změnami. Jeho role se radikálně změnila s nástupem LLM — z relativně okrajového výzkumného zdroje se stal jedním z nejdůležitějších datasetů v AI průmyslu. Tato transformace proběhla bez změny Common Crawl organizace — zůstali neziskoví, transparentní a věrní původnímu poslání otevřeného webu.
Časté dotazy
Kdo vlastně používá Common Crawl dataset?
Nejhlavnější uživatelé jsou open-source AI labs a výzkumníci. Common Crawl byl primárním tréninkovým zdrojem pro starší GPT modely (OpenAI v roce 2020 explicitně uvedlo, že GPT-3 byl trénovaný z 60% na Common Crawl). Moderní open-source modely (Meta LLaMA, Mistral, Falcon, OLMo) ho používají dodnes. Kromě AI dataset využívají novináři pro analýzy, akademici pro výzkum jazyka, SEO firmy pro historické analýzy webu, a archivisté pro digitální paměť.
Proč je CCBot považován za důležitější pro opt-out než jednotlivé AI crawlery?
Protože jeho dataset napájí desítky modelů, ne jen jeden. Když zablokujete GPTBot, chráníte se před OpenAI modely. Když zablokujete ClaudeBot, chráníte se před Anthropicem. Když zablokujete CCBot, chráníte se před LLaMA variantami, Mistral, Falcon, Pythia, OLMo a dalšími modely současně. Zároveň ale — což je důležité — moderní komerční modely od OpenAI, Anthropic a Google už Common Crawl primárně nepoužívají, používají kurátorované vlastní data. CCBot blokace tedy chrání spíš open-source ekosystém než velké komerční AI.
Má Common Crawl aktivní dialog s publishery?
Ano, více než komerční AI firmy. Common Crawl má veřejný e-mail info@commoncrawl.org, respektuje kontakty od publisherů, rychle implementuje požadavky na opt-out. V roce 2023–2024, kdy se zvyšovaly tenze mezi AI firmami a publishery, Common Crawl aktivně komunikoval s novinářskými organizacemi a vysvětloval rozdíl mezi jejich neziskovou misí a komerčním AI tréninkem. Přes to zůstává v shadow větších debat — protože sám AI netrénuje, bývá v mediální pozornosti přeskočen.
Můžu blokovat CCBot a přesto přispět do open-source AI výzkumu?
Technicky ne přímou cestou přes Common Crawl. Ale existují alternativy: (1) explicitně licencovat obsah pro AI trénink přes Creative Commons, (2) kontaktovat konkrétní open-source projekty s nabídkou dat, (3) publikovat strukturovaná data (schema.org, Wikidata). Pokud vám jde o přispění do veřejného výzkumu bez prostřednictví Common Crawl, tyto cesty fungují — ale jsou pracnější.
Je Common Crawl legální? Má právo archivovat můj web bez souhlasu?
Ano, v drtivé většině jurisdikcí. Common Crawl respektuje robots.txt (což ho chrání legálně), pracuje s veřejně přístupným obsahem (nikoli paywalled content), a funguje jako neziskový archiv podobný Internet Archive / Wayback Machine. V EU podléhá GDPR — což řeší přes respektování opt-out mechanismů. Pro většinu B2B webů je Common Crawl zcela legální aktivitou. Pokud máte specifické právní obavy (licencovaný obsah, GDPR sensitivity), CCBot zablokujte a případně kontaktujte Common Crawl přímo.
Je váš web dobře nastavený pro AI crawlery?
Nechte si zauditovat robots.txt a další signály.
Auditovat web zdarma