Что такое AI Search Engine Optimization?
Если вы наблюдали, как ваш органический трафик выравнивается, в то время как логи рефералов от ChatGPT растут, вы уже видели, что происходит. Поиск разделяется на две поверхности — классические десять синих ссылок и AI-сгенерированный ответ, который цитирует свои источники прямо в тексте. Большинство сайтов все еще оптимизируются под первую поверхность. Те немногие, кто оптимизируется под обе, уходят в отрыв.
AI search engine optimization — это то, что выводит вас на вторую поверхность. Это дисциплина, делающая ваш контент цитируемым — не просто ранжируемым — для AI-систем, которые синтезируют ответы из нескольких источников. Традиционное SEO предполагало, что пользователь кликнет по вашей ссылке. AI SEO предполагает, что пользователь может никогда не кликнуть; само цитирование, с вашим брендом и URL, встроенными в ответ AI, является выигрышем. Это смежная, но отличная дисциплина от Generative Engine Optimization (GEO), которая является более широким понятием для того же сдвига.
Хорошая новость: AI SEO построено на том же техническом фундаменте, что и классическое SEO. Краулируемость, схема, скорость страницы, EEAT — все это по-прежнему важно, все это по-прежнему измеряется. Новым является слой сверху: явные разрешающие правила для AI-ботов в robots.txt, манифесты llms.txt, цитируемые отрывки по 40–80 слов, фактическая плотность, схема FAQPage с селекторами speakable и продуманный граф сущностей, связывающий ваш бренд с Wikipedia, Wikidata и аналогичными доверенными узлами. Это руководство проходит по каждому слою от начала до конца — 18 факторов ранжирования, универсальный чек-лист из 15 шагов и структура аудита, которую мы используем внутри sitetest.ai для тысяч сайтов каждую неделю.
5 AI-поисковых систем, которые имеют значение в 2026 году
Пять AI-поисковых систем обеспечивают почти весь трафик, генерируемый цитированиями, по состоянию на 2026 год. Они разделяют 80% основ оптимизации — схема, доступ краулеров, цитируемые отрывки — но по-разному вознаграждают сигналы на периферии. Знание характера каждой из них важно, прежде чем настраивать тактику под нее.
Google AI Overviews
Самая большая единая AI-поверхность, просто потому что она находится внутри Google. AI Overviews — это встроенные AI-ответы, которые Google размещает над десятью синими ссылками на растущей доле запросов. Они берут данные из того же веб-индекса, который Google всегда индексировал, но оценивают отрывки по извлекаемости, фактической плотности и сигналам схемы.
Рычагом для AI Overviews является доступ Google-Extended в robots.txt (обратите внимание: отдельно от Googlebot), схема FAQPage и HowTo, цитируемые отрывки в верхней части каждой страницы и свежесть dateModified. Сайты, уже находящиеся на первой странице органической выдачи с правильной схемой, почти автоматически попадают в AI Overviews. Сайты с поломанным техническим SEO не получают ничего ни на одной из поверхностей.
ChatGPT Search
OpenAI запустила ChatGPT Search в конце 2024 года и в течение нескольких месяцев достигла 4M+ ежедневных поисковых запросов. Он использует два краулера: GPTBot (обучение и обновление) и OAI-SearchBot (оперативный поиск). Цитирования появляются в виде пронумерованных сносок, которые ведут на URL источника.
ChatGPT отдает предпочтение контенту с сильными структурными сигналами — четкие вопросы в H2, схема FAQPage, цитируемые отрывки по 40–80 слов и упоминания бренда на Wikipedia, Reddit, GitHub и Stack Overflow. Он также агрессивно кэширует; как только отрывок процитирован, он имеет тенденцию оставаться процитированным в течение недель. Мы рассматриваем платформенные тактики в нашем руководстве ChatGPT SEO guide.
Perplexity
Самая прозрачная из AI-поисковых систем — каждый ответ Perplexity показывает свои цитирования в виде горизонтальной прокрутки карточек источников над синтезированным ответом. Нажмите на любую карточку, и вы перейдете непосредственно к URL источника. Для сайтов, оптимизирующихся под цитирование, Perplexity — самая простая система для измерения прогресса.
Perplexity использует PerplexityBot для краулинга и является одной из самых либеральных систем в плане повторной загрузки контента (каждые 2–3 дня для активных запросов). Она вознаграждает оригинальные исследования, встроенные цитирования источников и узконаправленные ответы на 40–80 слов. Отдача от оптимизации быстрая — исправления схемы и контента проявляются в цитированиях в течение 1–2 недель.
Gemini
Флагманский AI-ассистент Google, интегрированный в Search, Gmail, Docs и Android. Gemini использует тот же веб-индекс, который индексирует Googlebot, а также граф знаний Google и базу данных сущностей. Выводы для оптимизации: классическое SEO + авторитетность сущности + покрытие Google Knowledge Panel являются доминирующими рычагами.
Краулер Gemini — это Google-Extended — отдельная директива robots.txt от Googlebot. Сайты, которые разрешают Googlebot, но блокируют Google-Extended, исключают себя из Gemini и AI Overviews, продолжая при этом ранжироваться в органике. Исправление — одна строка в robots.txt; мы видим, что это упущение встречается примерно на 1 из 5 проверяемых нами сайтов.
Microsoft Copilot
Работает на базе Bing, интегрирован в Windows, Edge, Microsoft 365 и отдельное приложение Copilot. Microsoft Copilot использует Bingbot для краулинга — тот же краулер, который существует с 2009 года. Вывод: Bing SEO и оптимизация для Copilot почти идентичны, и многие сайты, уже оптимизированные для Bing, получают цитирования в Copilot бесплатно.
Copilot вознаграждает правильную настройку Bing Webmaster Tools, схемы Article и Organization, свежесть dateModified и упоминания бренда на LinkedIn (высокий вес, потому что Microsoft владеет LinkedIn). Для платформенных тактик по Perplexity, Gemini и Copilot бок о бок смотрите наше руководство Perplexity, Gemini & Copilot SEO guide.
Факторы ранжирования в AI-поиске — 18 факторов, которые имеют значение
В сети много расплывчатых советов о том, "что нравится AI-движкам". Вот 18 факторов, которые мы напрямую измерили на тысячах сайтов в конвейере аудита sitetest.ai. Каждый фактор содержит определение, примерную оценку веса (высокий / средний / низкий) и конкретный пример, чтобы вы могли провести аудит своего сайта.
1. Доступ AI-краулеров в robots.txt (Вес: высокий)
Бинарный шлюз. AI-движки могут цитировать только тот контент, который их краулеры могут загрузить. Пять значимых пользовательских агентов: GPTBot (обучение OpenAI), OAI-SearchBot (живой поиск ChatGPT), ClaudeBot и anthropic-ai (Anthropic), PerplexityBot, Google-Extended (Gemini и AI Overviews), applebot-extended (Apple Intelligence) и Bingbot (Copilot). Общее правило User-agent: * Disallow: / блокирует их всех.
Пример: на сайте SaaS, который мы проверили в марте 2025 года, было правило User-agent: GPTBot Disallow: / из-за паники по поводу GDPR в 2023 году. После его отмены и добавления явных правил Allow: / для восьми вышеуказанных AI-ботов первые цитирования в ChatGPT появились в течение 11 дней.
2. Наличие и валидность llms.txt (Вес: средний)
Манифест /llms.txt в корне сайта указывает AI-движкам, какие URL следует приоритезировать. Пока это не жесткий фактор ранжирования, но это чистый сигнал того, что сайт курируется и осведомлен об AI. Anthropic, Perplexity и несколько компаний-разработчиков инструментов активно проверяют его наличие.
Пример: публикация валидного llms.txt с 12 приоритетными URL (главная страница, цены, топ-10 постов в блоге) увеличила цитирования в Perplexity на 40% за 6 недель на одном из протестированных нами клиентских сайтов. Формат — простой Markdown: H1 с названием сайта, H2 разделы, маркированные ссылки с описаниями.
3. JSON-LD разметка Schema (Вес: высокий)
Пять типов схем имеют наибольший вес: FAQPage, HowTo, Article, Organization, BreadcrumbList. AI-движки парсят JSON-LD как сигнал высокого доверия, потому что он машиночитаем и однозначен. Сайты с правильной разметкой цитируются в 2–3 раза чаще, чем эквивалентные сайты без нее.
Пример: добавление схемы FAQPage в пост блога объемом 1200 слов (15 вопросов, реальные вопросы и ответы) увеличило количество цитирований в AI Overviews с 0 до 4 в течение 3 недель на сайте клиента из сферы финтеха. Тот же контент, тот же объем, только добавлена схема.
4. Селекторы Speakable (Вес: средний)
Схема SpeakableSpecification с cssSelector, указывающим на #tldr, #definition или #faq, сообщает голосовым и аудио AI, какие части страницы предназначены для чтения вслух. Голосовые AI-поверхности (Alexa, Siri, Google Assistant, ChatGPT Voice) преимущественно извлекают контент, помеченный как speakable.
Пример: разметка блоков TL;DR селекторами speakable увеличила частоту цитирования в голосовых контекстах (аудио Perplexity, ChatGPT Voice) примерно на 25% в наших внутренних тестах в sitetest.ai. В текстовых контекстах эффект незначителен, но это бесплатный бонус для голоса.
5. Длина цитируемого отрывка (40–80 слов) (Вес: высокий)
Конвейеры извлечения AI извлекают фрагменты именно такого размера. Отрывки короче 40 слов выглядят как фрагменты без контекста; длиннее 80 слов начинают терять смысловую связность. Самодостаточные отрывки длиной 40–80 слов в верхней части каждой страницы — это тактика с наибольшим эффектом для контента.
Пример: переписывание первого абзаца руководства объемом 3000 слов в самодостаточный ответ из 65 слов (тема, ответ, одно доказательство) привело к тому, что страница перешла от нулевых цитирований в ChatGPT к стабильному цитированию как источник №1 в течение 30 дней.
6. Фактическая плотность (Вес: средний-высокий)
Отрывок с 4–6 именованными сущностями (люди, даты, продукты, числа, места) на 100 слов оценивается выше, чем расплывчатая проза. LLM используют количество именованных сущностей как быстрый прокси для оценки "этот отрывок информативен". Слова-паразиты — "в современном быстро меняющемся мире", "важно отметить" — снижают плотность.
Пример: переписывание раздела из 600 слов с добавлением 18 именованных сущностей (конкретные инструменты, даты, проценты, имена основателей) без изменения длины утроило частоту цитирования этого раздела в Perplexity и AI Overviews.
7. Авторитетность сущности (Вес: высокий)
Wikipedia, Wikidata, Crunchbase, LinkedIn Company, GitHub и отраслевые ассоциации формируют граф сущностей, который AI-движки используют для распознавания брендов. Схема Organization с ссылками sameAs на все эти ресурсы превращает ваш бренд в распознаваемый узел, а не в неизвестный URL.
Пример: сайт клиента без записи в Wikipedia или Wikidata практически не цитировался в ChatGPT. После того как мы создали запись в Wikidata и добавили 8 ссылок sameAs в схему Organization, количество цитирований выросло с 0 до 12 в месяц в течение 90 дней.
8. Оригинальные исследования и статистика (Вес: высокий)
LLM нуждаются в первичных источниках. Страница с одним оригинальным числом — результатом опроса, бенчмарком или собственной статистикой — побеждает десять страниц, обобщающих чужие исследования. Оригинальные исследования привлекают цитирования, потому что это единственное место, где можно найти эти данные.
Пример: публикация результатов опроса 200 респондентов с раскрытой методологией принесла 47 цитирований в ChatGPT, Perplexity и AI Overviews за 60 дней. Обычные посты в блоге того же сайта в среднем получали 2 цитирования за тот же период.
9. Серверный рендеринг (SSR) (Вес: высокий)
Большинство AI-краулеров ненадежно выполняют JavaScript. Одностраничные приложения (Vue, React, Angular) без SSR отдают краулерам почти пустую HTML-оболочку — контент технически существует, но невидим. Обязательно использование SSR (Nuxt, Next.js, SvelteKit) или статической генерации.
Пример: React SPA без SSR не получал цитирований ни от одного из пяти AI-движков, несмотря на то, что находился на первой странице по нескольким ключевым словам. Миграция на Next.js с SSR привела к первому цитированию в ChatGPT в течение 2 недель.
10. Core Web Vitals (LCP, INP, CLS) (Вес: средний)
LCP менее 2.5с, INP менее 200мс, CLS менее 0.1. AI-краулеры устанавливают тайм-аут для медленных страниц (4+ секунды) и молча их пропускают. Скорость загрузки страницы — это шлюз для цитирования, а не просто метрика UX. Медленные страницы даже не попадают в пул кандидатов.
Пример: медиа-сайт с LCP 6.2с имел нерегулярные визиты краулеров. После оптимизации до LCP 2.1с (конвертация изображений в WebP, ленивая загрузка, поднаборы шрифтов) частота сканирования GPTBot утроилась за 30 дней.
11. Мобильная адаптация (Вес: средний)
AI-движки, как и классический поиск, отдают приоритет индексации для мобильных устройств. Страницы, которые некорректно отображаются на мобильных (горизонтальная прокрутка, нечитаемый текст, сломанные CTA), получают понижение веса во всех конвейерах сканирования.
Пример: форум, оптимизированный только для десктопа и не имеющий адаптивного макета, практически не получал AI-цитирований, несмотря на сильный контент. После добавления адаптивного макета количество цитирований удвоилось за 60 дней, даже без каких-либо других изменений.
12. Глубина контента (3000+ слов для краеугольных статей) (Вес: средний)
Центральные и опорные страницы выигрывают от глубины — 3000+ слов, всесторонне охватывающих тему, с подразделами, FAQ и таблицами. AI-движки извлекают информацию из центрального контента чаще, чем из коротких страниц, потому что там больше материала для потенциальных отрывков.
Пример: краеугольное руководство объемом 4500 слов превзошло по количеству цитирований в ChatGPT 12 более коротких постов блога того же сайта по родительской теме. Глубина побеждает для краеугольного контента; короткие страницы служат другим целям.
13. Встроенные ссылки на источники (Вес: высокий)
Каждая статистика, исследование или фактическое утверждение должны иметь встроенный источник — название издателя и год, по возможности ссылку. Голые статистики ("исследования показывают, что 73% пользователей предпочитают...") выглядят ненадежно для LLM и отфильтровываются из пула кандидатов на цитирование.
Пример: B2B-блог с 40+ статистиками без источников практически не имел AI-цитирований. После добавления встроенных источников (издатель + год) ко всем из них частота цитирования увеличилась в четыре раза за 45 дней. Тот же контент, тот же объем, только добавлены атрибуции.
14. Сравнительные таблицы (Вес: средний)
Таблицы предпочтительны для LLM, потому что они уже структурированы. Сравнительная таблица на 2 или 3 столбца с четким заголовком извлекается целиком в AI-ответы чаще, чем эквивалентная проза. Используйте HTML-таблицы, а не изображения таблиц.
Пример: замена прозаического сравнения ("Инструмент А быстрее, но у Инструмента Б больше функций...") на HTML-таблицу, сравнивающую шесть инструментов по пяти критериям, увеличила количество цитирований на странице с 1 до 9 за 60 дней.
15. Заголовки H2 в форме вопросов (Вес: средний-высокий)
Большинство запросов в AI-поиске — это вопросы. H2, сформулированные как вопросы ("Как сделать X?", "Что такое Y?", "Почему Z?"), становятся заголовками фрагментов в конвейерах извлечения и соответствуют пользовательским запросам с более высокой уверенностью, чем повествовательные заголовки.
Пример: переписывание 6 из 12 H2 в руководстве объемом 2800 слов в виде вопросов, соответствующих распространенным запросам в ChatGPT, привело к тому, что эта страница стабильно входила в топ-3 цитирований по целевой теме в течение 30 дней.
16. Сигналы свежести (dateModified) (Вес: средний-высокий)
dateModified в схеме Article, article:modified_time в мета-тегах и видимые строки "Обновлено:" — все это влияет на вес свежести. AI-движки подавляют цитирования контента старше 18 месяцев, если только тема не является вечнозеленой. Ежеквартальное обновление — это минимум.
Пример: руководство 2022 года, которое перестало цитироваться в конце 2024 года, было переписано с датами 2025 года, обновленной статистикой и новыми примерами. Цитирования возобновились в течение 3 недель после изменения dateModified.
17. Упоминания бренда на доверенных AI доменах (Вес: высокий)
Wikipedia, Reddit, GitHub, Hacker News, Stack Overflow и 2–3 крупных отраслевых издания в вашей нише выступают в качестве сигналов авторитетности. Одно цитирование в Wikipedia или закрепленная ветка на Reddit могут перевесить пятьдесят обычных обратных ссылок для целей AI-ранжирования.
Пример: SaaS-инструмент, который был практически невидим для ChatGPT, получил 8 цитирований за 30 дней после того, как один пост на Hacker News попал на главную страницу. AI-движки поглотили упоминание и начали цитировать бренд наравне с конкурентами.
18. Структура внутренних ссылок (Вес: низкий-средний)
Четкая тематическая структура "центр-спицы" с внутренними ссылками между связанными страницами помогает AI-движкам понимать тематическую глубину и авторитетность. Страницы, находящиеся на глубине 4+ кликов от главной, цитируются реже, чем страницы на глубине 1–2 кликов.
Пример: перестройка внутренних ссылок блога вокруг центральной страницы (с 14 спицами) подняла центральную страницу со второй страницы выдачи на первую и увеличила AI-цитирования на всех страницах-спицах примерно на 35% за 90 дней.
Эти 18 факторов не имеют одинакового веса, но они коррелируют. Страницы, набравшие высокие баллы по 12+ факторам, стабильно цитируются всеми пятью AI-движками. Страницы с низкими баллами по 6+ факторам практически невидимы. Следующий раздел — универсальный чек-лист из 15 шагов, который проверяет каждый фактор примерно за 2–3 часа.
Универсальный чек-лист оптимизации для AI-поиска (15 шагов)
Это универсальный чек-лист, который мы применяем к каждому сайту, проходящему через sitetest.ai. Каждый шаг занимает 1–15 минут. Общее время от начала до конца: около 2–3 часов для одного сайта. Результат — приоритезированный список задач и базовый уровень, который можно повторять ежеквартально.
- Разрешить все основные AI-краулеры в robots.txt. Убедитесь, что GPTBot, OAI-SearchBot, ChatGPT-User, ClaudeBot, anthropic-ai, PerplexityBot, Google-Extended, applebot-extended и Bingbot не запрещены. Добавьте явные правила
Allowдля каждого. - Подтвердить серверный рендеринг на ключевых страницах. Просмотрите исходный код каждой основной страницы. Убедитесь, что контент находится в сыром HTML, а не вставляется через JS. При необходимости перенесите SPA на SSR или статическую генерацию.
- Опубликовать валидный манифест llms.txt. Создайте
/llms.txt, перечислив ваши самые приоритетные URL. Проверьте на llmstxt.org. - Добавить схему Article к каждому посту блога и основной странице. JSON-LD с headline, datePublished, dateModified, author (Person + sameAs), image.
- Добавить схему FAQPage с селекторами speakable. 5–15 вопросов в FAQ на каждой основной странице, обернутых в JSON-LD FAQPage с SpeakableSpecification.
- Добавить схему HowTo ко всем пошаговым инструкциям. Шаги, обернутые в JSON-LD HowTo с name, totalTime, itemListElement. Схема должна соответствовать видимому контенту.
- Переписать вступительные абзацы до 40–80 самодостаточных слов. Первый абзац каждой страницы = самодостаточный ответ с темой, ответом и одним доказательством.
- Добавить блок TL;DR или резюме в начале длинного контента. 3–5 пунктов в верхней части статей объемом 1500+ слов. Пометьте
id="tldr"для speakable. - Добавить встроенные ссылки на источники для каждой статистики. Минимум название издателя + год, по возможности ссылка.
- Построить авторитетность сущности через Wikipedia и sameAs. Записи в Wikipedia, Wikidata, Crunchbase, LinkedIn, GitHub, связанные через Organization schema sameAs.
- Достичь LCP < 2.5с и INP < 200мс. Запустите PageSpeed Insights для топ-10 страниц. Используйте WebP для изображений, ленивую загрузку, исключите блокирующий рендеринг JS.
- Обновлять dateModified ежеквартально. Каждые 90 дней для топ-20 страниц. Обновите dateModified в схеме, meta article:modified_time, видимую строку даты.
- Использовать заголовки H2 в форме вопросов. Как минимум один H2 на странице, сформулированный как вопрос, соответствующий вероятным пользовательским запросам.
- Добавить сравнительные таблицы для любого сравнения концепций. HTML-таблицы с заголовками, 4–8 строк, подпись. Никаких изображений вместо таблиц.
- Настроить еженедельный отслеживание цитирований во всех 5 AI-движках. Profound, Otterly, Athena или sitetest.ai. Комбинируйте с рефералами GA4 от chat.openai.com, perplexity.ai, gemini.google.com.
Это тот же чек-лист, который мы автоматизируем внутри sitetest.ai — 168 отдельных проверок по краулерному доступу, схемам, контенту, производительности и сигналам авторитетности, с оценками от A до F и готовыми для разработчиков исправлениями. Для более глубокого знакомства с тем, что на самом деле охватывает автоматизированный AI SEO аудит, смотрите наше руководство-объяснение.
AI Crawler Access — Robots.txt Setup
Самый важный блок кода на вашем сайте для AI-поиска — это ваш robots.txt. Ошибка здесь сведет на нет все остальные тактики из этого руководства — AI-движки просто не смогут добраться до вашего контента.
Минимально жизнеспособный AI-дружественный robots.txt выглядит так:
User-agent: GPTBot
Allow: /
User-agent: OAI-SearchBot
Allow: /
User-agent: ChatGPT-User
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: anthropic-ai
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: applebot-extended
Allow: /
User-agent: Bingbot
Allow: /
User-agent: *
Allow: /
Sitemap: https://yoursite.com/sitemap.xml
Ошибка, которую мы видим еженедельно: сайты, которые в 2023–2024 годах массово заблокировали AI-ботов из-за GDPR или опасений по поводу лицензирования контента, и так и не отменили блокировку. Каждый из этих сайтов сегодня невидим для AI-поиска. Страх был в том, что LLM будут обучаться на вашем контенте и подорвут ваш трафик. Реальность обратная — сайты, блокирующие AI-краулеры, теряют 30%+ будущего трафика согласно исследованию Ahrefs, в то время как сайты, разрешающие краулеры, получают реферальные клики из AI-цитирований.
Исключение составляют контент за paywall и проприетарный контент, где опасения по поводу лицензирования обоснованы. Для таких конкретных путей используйте гранулярные правила Disallow: /paid/, а не массовые блокировки ботов. Весь остальной публичный контент должен быть разрешен. Проверьте результат, открыв https://yoursite.com/robots.txt и убедившись, что директивы для ботов присутствуют и правильно отформатированы — опечатки здесь незаметны и разрушительны.
Стоит отметить одну тонкую ловушку: Google-Extended — это отдельная директива от Googlebot. Это бот, который питает Gemini и AI Overviews. Сайты, которые разрешают Googlebot, но массово блокируют «всех остальных ботов», непреднамеренно исключают себя из AI-поверхностей Google, продолжая при этом ранжироваться в органике. Мы видим этот паттерн примерно на 1 из 5 сайтов, которые мы аудируем. Исправление — одна явная строка Allow, но только если вы знаете, что ее искать. Тестируйте ваш robots.txt с помощью инструмента проверки robots.txt в Google Search Console после каждого изменения и перепроверяйте ежеквартально, потому что список user-agent AI-ботов продолжает расширяться (applebot-extended от Apple для Apple Intelligence появился в середине 2024 года; ожидайте еще один-два в 2026 году).
llms.txt — Объяснение нового стандарта
llms.txt — это предлагаемый простой текстовый манифест по адресу /llms.txt, который сообщает AI-движкам, какие URL на вашем сайте наиболее полезны для обработки, в порядке приоритета. Думайте об этом как о robots.txt для LLM — кураторская карта вашего высококачественного контента. Спецификация была предложена Джереми Ховардом в 2024 году и сейчас принята Anthropic, Perplexity и растущим списком компаний, создающих AI-инструменты.
Формат — простой Markdown:
# Название вашего сайта
> Однострочное описание того, чем занимается ваш сайт.
## Документация
- [Начало работы](/docs/getting-started): Краткое описание в одно предложение.
- [Справочник API](/docs/api): Краткое описание в одно предложение.
## Блог
- [Лучшая статья](/blog/top-article): Краткое описание в одно предложение.
- [Вторая статья](/blog/second-article): Краткое описание в одно предложение.
H1 — это название вашего сайта, H2 — разделы (Документация, Блог, Цены, Учебники), пункты списка — URL + описание в одно предложение. Проверьте валидность с помощью чекера на llmstxt.org перед публикацией. По состоянию на 2026 год это не формальная спецификация W3C, но это 5-минутный сигнал о том, что вы понимаете AI-поверхность — и AI-движки действительно его сканируют.
Для получения полного руководства по llms.txt с 50+ реальными примерами, правилами валидации, распространенными ошибками и эволюцией спецификации, смотрите наше специальное глубокое погружение: llms.txt: Полное руководство по цитируемости в AI. Этот раздел намеренно короткий — та статья является экспертом в этой области.
Структура контента для цитирования в AI (Шаблоны)
Помимо технического уровня, структура определяет, какие именно фрагменты вашей страницы будут процитированы. Пять паттернов контента постоянно встречаются на страницах, которые цитируются в больших масштабах.
Паттерн 1: Блок определения. Открывайте каждую крупную страницу самодостаточным определением темы на 40–80 слов. Используйте стилизованный блок с id="definition", чтобы его было легко отметить с помощью speakable schema. Формат: название термина, затем 1–2 предложения, отвечающие на вопрос «что это?» с субъектом + ответом + одним доказательством. AI-движки извлекают блоки определений надежнее, чем любые другие фрагменты на странице, потому что они высокоплотные и самодостаточные.
Паттерн 2: Маркированный список TL;DR. 3–5 пунктов в начале длинных статей, отметьте id="tldr". Каждый пункт должен быть законченной мыслью (не фрагментом), заканчивающейся точкой. AI Overviews и ChatGPT Search оба напрямую извлекают блоки TL;DR в свои карточки ответов, потому что формат совпадает с их выходным форматом — списки на входе, списки на выходе.
Паттерн 3: Нумерованный список тактик. При перечислении тактик, шагов или пунктов чек-листа используйте упорядоченные списки (<ol>) с жирными ведущими фразами. Формат: 1. **Название тактики жирным.** Объяснение на 2–4 предложения. AI-движки извлекают нумерованные списки целиком, потому что они уже структурированы. Схема HowTo поверх этого формата — самая эффективная тактика для обучающего контента.
Паттерн 4: Сравнительная таблица. Всякий раз, когда вы сравниваете 2+ продукта, фреймворка, плана или концепции, используйте HTML-таблицу с четкими заголовками, 4–8 строками данных и подписью в одно предложение. AI-движки извлекают таблицы как единое целое; прозаические сравнения фрагментируются. Избегайте объединенных ячеек, вложенных таблиц и изображений в ячейках — они ломают парсинг таблиц LLM.
Паттерн 5: Раздел FAQ. Добавьте 5–15 вопросов внизу каждой крупной страницы. Используйте реальные вопросы из «Похожие вопросы» (People Also Ask), запросов ChatGPT, тикетов поддержки и тредов Reddit. Оберните в FAQPage JSON-LD с селекторами speakable. Это самая эффективная тактика для цитирования — AI Overviews напрямую извлекают ответы из FAQ в свои карточки ответов.
Эти пять паттернов покрывают примерно 80% поверхности контента, который извлекают AI-движки. Применяйте их последовательно к вашим топ-20 страницам, и частота цитирования заметно вырастет в течение 30–60 дней.
Schema.org для видимости в AI
Разметка Schema — это машиночитаемый слой вашего контента. AI-движки парсят JSON-LD как сигнал высокого доверия, потому что он однозначен — структурированные данные точно говорят им, что на странице, кто ее написал, когда она была обновлена и как она relates к вашему бренду. Сайты с правильной схемой цитируются в 2–3 раза чаще, чем эквивалентные сайты без нее.
Пять наиболее эффективных типов схем для видимости в AI:
Article. Оборачивает каждую запись в блоге и страницу контента. Обязательные поля: headline, datePublished, dateModified, author (схема Person с sameAs на LinkedIn/Twitter/личный сайт), image. AI-движки используют схему Article для оценки свежести и авторитетности автора.
FAQPage с SpeakableSpecification. Оборачивает раздел FAQ внизу каждой крупной страницы. SpeakableSpecification указывает на #faq, чтобы голосовые и аудио AI знали, какой селектор читать вслух. Самая эффективная тактика цитирования для AI Overviews.
HowTo. Оборачивает каждую пошаговую инструкцию или страницу-руководство. Обязательные поля: name, totalTime, itemListElement (массив HowToStep с name и text). AI Overviews извлекают контент HowTo в богатые карточки ответов со списком шагов.
Organization с sameAs. На главной странице и странице контактов. Ссылки sameAs связывают ваш бренд с Wikipedia, Wikidata, Crunchbase, LinkedIn Company, GitHub, Twitter/X — каждым узлом графа сущностей, где присутствует ваш бренд. AI-движки используют это, чтобы распознавать ваш бренд как сущность, а не как неизвестный URL.
BreadcrumbList. На каждом URL, кроме главной страницы, показывающий место страницы в иерархии сайта. AI-движки используют хлебные крошки для понимания тематического контекста. Страница на /blog/seo/technical-audit/ интерпретируется иначе, чем /blog/marketing/why-seo-matters/.
Самая распространенная ошибка, которую мы видим: отсутствие селекторов speakable в схеме FAQPage. Speakable — это 30-секундное дополнение (одно дополнительное свойство), которое значительно повышает цитирование в голосовом контексте. Вторая по распространенности: поля схемы, не соответствующие видимому контенту (например, schema dateModified установлена на сегодня, а видимая строка «Обновлено:» показывает 2023 год). AI-движки жестко штрафуют за такое несоответствие. Всегда проверяйте все через Google Rich Results Test перед публикацией.
Сигналы EEAT, которым доверяют AI-движки
EEAT — Опыт (Experience), Экспертиза (Expertise), Авторитетность (Authoritativeness), Доверие (Trustworthiness) — был введен Google в 2014 году и стал строго учитываться с 2022 года. AI-движки унаследовали оценку EEAT напрямую из руководств Google для оценщиков качества. Сайты с сильными сигналами EEAT цитируются последовательно; сайты без них отфильтровываются из пулов цитирования.
Подпись автора со схемой Person. Каждая страница контента должна иметь видимую подпись автора со ссылкой на страницу автора. Страница автора должна содержать JSON-LD Person с name, jobTitle, worksFor (Organization) и sameAs (LinkedIn, Twitter, личный сайт, Google Scholar для академических авторов). Анонимный контент цитируется гораздо реже, чем контент с указанием авторства.
Даты публикации и обновления. Видимые строки, показывающие, когда контент был впервые опубликован и последний раз обновлен. Сопоставьте видимые даты с schema datePublished и dateModified точно. Несоответствия подрывают сигналы доверия. AI-движки подавляют контент старше 18 месяцев, если тема не является вечнозеленой.
Примеры из первых рук и скриншоты. Реальные скриншоты панелей управления, реальные цифры «до/после» из ваших собственных тестов, реальные примеры клиентов (с разрешения). AI-движки отличают «пережеванный контент» от «оригинального исследования» частично по этим сигналам — страницы со встроенными скриншотами и первичными данными оцениваются выше.
Сноска о методологии. Короткий раздел «Методология» внизу статей, основанных на исследованиях, раскрывающий источники данных, размеры выборок и временные рамки. Это то, что отличает авторитетный контент от обычного наполнителя блога. AI-движки предпочтительно цитируют контент с раскрытой методологией, потому что он проверяем.
Совокупный эффект: сайт с полными сигналами EEAT (именные авторы с sameAs, видимые даты, скриншоты, методология) цитируется примерно в 3–4 раза чаще, чем эквивалентный сайт без них. EEAT также долговечен — как только ваши авторы признаны авторитетами, цитирования накапливаются по всем статьям. Вот почему страницы команды и авторов важнее, чем кажется.
Стоит выделить один паттерн: AI-движки сильно взвешивают кросс-платформенную согласованность. Если подпись автора гласит «Иван Петров, CMO», но в LinkedIn указано «VP Marketing», а в Twitter/X — «рост в $бренд», это несоответствие читается как низкое доверие. Выберите одну каноническую должность и распространите ее на LinkedIn, Twitter/X, GitHub, вашу страницу автора и все ссылки Person schema. То же самое с фото, написанием имени и местоимениями. Мелочь по отдельности, но накапливается по всем вашим авторам и контенту.
Скорость сайта и Core Web Vitals для AI
Скорость загрузки страницы — это шлюз для цитирования, а не просто метрика UX. AI-краулеры прерывают загрузку медленных страниц (4+ секунды) и молча отбрасывают их из пула кандидатов. Пороговые значения, которые важны для AI-поиска:
- LCP (Largest Contentful Paint) < 2.5с. Самый большой видимый элемент загружается в течение 2.5 секунд. Критически важно для AI-краулеров, которые прерывают медленный рендеринг.
- INP (Interaction to Next Paint) < 200мс. Заменяет FID с 2024 года. Измеряет отзывчивость на взаимодействия пользователя. AI-боты не взаимодействуют, но Google использует INP в mobile-first индексации, которая питает AI Overviews.
- CLS (Cumulative Layout Shift) < 0.1. Визуальная стабильность во время загрузки страницы. Влияет на сигналы ранжирования, которые распространяются на AI-поверхности.
Практический стек оптимизации: конвертируйте изображения в WebP (часто на 40–60% меньше JPEG), используйте ленивую загрузку для медиа ниже сгиба (loading="lazy"), устраните блокирующий рендеринг JavaScript (отложите некритичные скрипты), используйте CDN для статических ресурсов и подмножество веб-шрифтов только до тех символов, которые вы реально используете. PageSpeed Insights и Lighthouse дают диагностику; исправления в основном механические.
Совокупный эффект на видимость в AI: сайт с LCP 6+ секунд получает значительно меньше активности краулеров, чем сайт с LCP 2 секунды, даже если другие факторы идентичны. Мы измерили 3-кратный рост частоты сканирования GPTBot на сайтах клиентов после одного спринта по оптимизации скорости, который снизил LCP с 5.8с до 2.1с. Скорость страницы не сексуальна, но это фундамент для всего остального.
Измерение производительности AI-поиска
Нельзя улучшить то, что нельзя измерить. Производительность AI-поиска разбивается на три измеримых уровня, и полная система отслеживания покрывает все три.
Уровень 1: Доступ краулеров. Анализ серверных логов для user-agent AI-ботов — GPTBot, OAI-SearchBot, ChatGPT-User, ClaudeBot, anthropic-ai, PerplexityBot, Google-Extended, Bingbot, applebot-extended. Подтверждает, что краулеры достигают вашего контента. Инструменты: анализаторы серверных логов (GoAccess, AWStats) или встроенные панели в sitetest.ai.
Уровень 2: Цитирования. Ручные проверки и автоматические трекеры. Ручные: еженедельно запрашивайте ChatGPT, Perplexity, Gemini, AI Overviews, Copilot по вашим целевым запросам и проверяйте цитирования. Автоматизированные: такие инструменты, как Profound, Otterly, Athena, Peec AI и sitetest.ai, отслеживают упоминания во всех пяти движках с еженедельными дайджестами.
Уровень 3: Реферальный трафик. Сегмент GA4, где источник содержит «chat.openai.com», «perplexity.ai», «gemini.google.com», «copilot.microsoft.com». Это фактическая воронка кликов от цитирования к трафику.
Вместе эти три уровня дают вам воронку AI-поиска: сканируют ли AI-движки, цитируют ли они, переходят ли пользователи по ссылкам? Для сравнения 8 инструментов для отслеживания цитирований, проверок AI-ботов, валидаторов llms.txt и полноценных аудиторов с ценами на 2026 год, смотрите наше Руководство по инструментам видимости в AI.
AI Search SEO vs Traditional SEO — Comparison Table
Две дисциплины имеют общую основу, но расходятся в сигналах и результатах. Краткая версия:
| Измерение | Традиционное SEO | |
|---|---|---|
| Цель | Ранжироваться в 10 синих ссылках | Быть процитированным в AI-ответах |
| Результат клика | Пользователь переходит на ваш сайт | Пользователь может никогда не кликнуть — цитирование и есть победа |
| Сигналы с наибольшим эффектом | Обратные ссылки, таргетинг ключевых слов, EEAT | Схема, цитируемые отрывки, авторитет сущности |
| Приоритет схемы | Article, BreadcrumbList | FAQPage + speakable, HowTo, Organization sameAs |
| Проблемы краулеров | Googlebot, Bingbot | GPTBot, ClaudeBot, PerplexityBot, Google-Extended |
| Скорость результатов | 3–6 месяцев для изменений в ранжировании | 2–6 недель для появления цитирований |
| Измерение | Показы в GSC, органические клики | Цитирования, AI-рефералы, хиты краулеров в логах |
Они не противопоставлены друг другу. Сайты с нарушенным традиционным SEO не могут ранжироваться и в AI — краулинг, схема, EEAT, скорость загрузки страниц по-прежнему применяются. AI Search SEO — это дополнительный слой. Для углубленного разбора GEO vs SEO, охватывающего факторы ранжирования, модели трафика и стратегию миграции, смотрите наше сравнительное руководство.
Часто задаваемые вопросы
Frequently Asked Questions
Что такое оптимизация для поисковых систем на основе ИИ?
Как ранжироваться в Google AI Overviews?
В чем разница между AI SEO и традиционным SEO?
Стоит ли блокировать AI-краулеры на моем сайте?
Использует ли Google мой сайт в AI Overviews?
Как отслеживать AI-цитирования?
Что такое llms.txt?
Как скоро AI SEO дает результаты?
Стоит ли AI SEO того в 2026 году?
Могу ли я заниматься AI SEO самостоятельно или нужна помощь агентства?
Какова стоимость AI SEO?
Каковы наиболее важные факторы ранжирования в AI-поиске?
Выполняют ли AI-движки JavaScript?
Что такое AI-готовый сайт?
Чем AI-поиск отличается от голосового поиска?
Какая разметка схемы больше всего помогает AI-поиску?
Как оптимизировать контент специально для ChatGPT?
Важны ли обратные ссылки для AI-поиска?
Что такое показатель готовности к AI-поиску?
Как часто нужно обновлять мой чек-лист AI SEO?
Заключение — Три вывода
Оптимизация для поисковых систем на основе ИИ не заменяет классическое SEO. Это следующий слой поверх него. Сайты, которые выиграют в 2026 и 2027 годах, — это те, кто относится к доступу AI-краулеров, схеме и цитируемым отрывкам с той же серьезностью, с какой команды относились к ключевым словам и обратным ссылкам в 2010-х.
Три вывода из этого руководства. Первый: ворота бинарны — AI-движки либо добираются до вашего контента, либо нет. Разрешите GPTBot, ClaudeBot, PerplexityBot, OAI-SearchBot, Google-Extended и остальных в robots.txt сегодня — это единственное изменение открывает путь всем остальным тактикам в арсенале. Второй: структура побеждает объем. Страница на 1500 слов с TL;DR, FAQ, схемой HowTo, самодостаточными отрывками на 40–80 слов и встроенными цитированиями каждый раз превосходит стену неструктурированного текста на 5000 слов в AI-цитировании. Третий: измеряйте то, что внедряете. Без отслеживания цитирований, мониторинга серверных логов и фильтров рефералов GA4 вы не сможете понять, какие тактики приносят результат — выберите один трекер и настройте еженедельные дайджесты по вашим топ-20 запросам.
18 факторов ранжирования и 15-шаговый чек-лист из этого руководства — это та же стратегия, которую мы используем внутри sitetest.ai на тысячах сайтов каждую неделю. Каждая тактика внедряется менее чем за час. Совокупный эффект от всех них — это то, что отличает сайты, которые цитируют, от сайтов, которые остаются невидимыми.
Методология
Статистика в этом руководстве взята из исследования AI Overviews Search Engine Land (март 2025), отчета Reuters о еженедельных активных пользователях OpenAI (август 2024), исследования Ahrefs о трафике из AI-поиска (2025), данных Microsoft о DAU Copilot (январь 2025), доклада Google I/O 2025 о MAU Gemini и прогнозов Statista по рынку генеративного поиска (2026). Факторы ранжирования и методология аудита основаны на внутренних исследованиях sitetest.ai, включающих 168 отдельных проверок, выполняемых на тысячах сайтов ежемесячно, а также на анализе паттернов из исследований цитирования AI Overviews от BrightEdge и материалов блога Ahrefs по AI-поиску. Там, где мы тестировали тактику на собственном сайте (sitetest.ai) или на сайтах партнеров с их разрешения, мы приводим результат по тексту. Мы обновляем это руководство ежеквартально — следующее плановое обновление запланировано на август 2026 года, и dateModified отражает дату последней редакции.
