@MikeBlazerX
Mike Blazer Telegram Gönderileri

Все прелести SEO:
— результаты экспериментов
— секреты продвижения
— свежие идеи
— SEO-фишки
— кейсы
— юмор
— тренды
— топы без ссылок
— семантическое #SEO
— бесплатные инструменты
...
Автор: @MikeBlazer
Рекламу не продаю!
— результаты экспериментов
— секреты продвижения
— свежие идеи
— SEO-фишки
— кейсы
— юмор
— тренды
— топы без ссылок
— семантическое #SEO
— бесплатные инструменты
...
Автор: @MikeBlazer
Рекламу не продаю!
7,159 Abone
1,788 Fotoğraf
172 Video
Son Güncelleme 01.03.2025 06:22
Benzer Kanallar

5,791 Abone

2,527 Abone

1,534 Abone
Mike Blazer tarafından Telegram'da paylaşılan en son içerikler
Слышь, мне нужны бабки. Домен не хочешь прикупить? Я только что его регнул.
@MikeBlazerX
@MikeBlazerX
Когда сеошники встречаются на дороге с арбитражниками, они останавливаются, чтобы обменяться информацией.
Когда один из сеошников переходит к арбитражникам, его коллега отправляется за ним, чтобы вернуть его обратно.
@MikeBlazerX
Когда один из сеошников переходит к арбитражникам, его коллега отправляется за ним, чтобы вернуть его обратно.
@MikeBlazerX
Я придумал: будем менять регистр в анкорах! "КриптоКазино", "криптоказино", "КРИПТОКАЗИНО" — и всё это с одного домена!
@MikeBlazerX
@MikeBlazerX
Расширение для Хрома -
Это поможет вам понять общую производительность любого сайта всего за несколько минут.
https://chromewebstore.google.com/detail/advanced-gsc-visualizer/cdiccpnglfpnclonhpchpaaoigfpieel
Прежний пост про это расширение тут.
@MikeBlazerX
Advanced GSC Visualizer
пополнилось новой фичей, которая позволяет увидеть производительность 10 лучших подпапок вашего сайта одним щелчком мыши!Это поможет вам понять общую производительность любого сайта всего за несколько минут.
https://chromewebstore.google.com/detail/advanced-gsc-visualizer/cdiccpnglfpnclonhpchpaaoigfpieel
Прежний пост про это расширение тут.
@MikeBlazerX
Недавно один джуниор сеошник спросил меня, как развиваться в техническом направлении, рассказывает Маркос Чиаррокки.
Мой совет для начала — сфокусироваться на двух ключевых областях: веб-технологиях и парсинге.
По веб-технологиям:
Изучи, как строятся сайты.
Начни с
Это научит тебя:
* Как работают сайты и веб в целом
* Как серверы обрабатывают запросы
* Как связывать SEO-проблемы (краулинг и рендеринг) с тем, как построены сайты
Понимание основ веба значительно упрощает диагностику SEO-проблем и помогает эффективнее работать с командами разработчиков.
По парсингу:
Попробуй создать базовый парсер или краулер.
Это лучший способ разобраться в:
* Индексации
* Структурированных данных
* Извлечении и анализе веб-контента
Изучение написания скриптов на
Когда освоишь основы, ты даже сможешь использовать
Ниже несколько ссылок на курсы, которые являются хорошей отправной точкой.
По веб-приложениям:
https://www.udacity.com/course/full-stack-foundations--ud088
По скриптингу/скрейппингу на
https://www.coursera.org/specializations/introduction-scripting-in-python
https://www.coursera.org/learn/microsoft-automation-scripting-with-python
https://www.coursera.org/learn/python-network-data#modules
@MikeBlazerX
Мой совет для начала — сфокусироваться на двух ключевых областях: веб-технологиях и парсинге.
По веб-технологиям:
Изучи, как строятся сайты.
Начни с
Python
и Flask
, чтобы создать простой бэкенд, подключить базу данных и сделать простой фронтенд.Это научит тебя:
* Как работают сайты и веб в целом
* Как серверы обрабатывают запросы
* Как связывать SEO-проблемы (краулинг и рендеринг) с тем, как построены сайты
Понимание основ веба значительно упрощает диагностику SEO-проблем и помогает эффективнее работать с командами разработчиков.
По парсингу:
Попробуй создать базовый парсер или краулер.
Это лучший способ разобраться в:
* Индексации
* Структурированных данных
* Извлечении и анализе веб-контента
Изучение написания скриптов на
Python
может дать огромную отдачу, так как ты сможешь выполнять множество задач (автоматизация, анализ данных и т.д.).Когда освоишь основы, ты даже сможешь использовать
LLM
-ки для получения рабочих скриптов за считанные минуты и дорабатывать их по мере необходимости.Ниже несколько ссылок на курсы, которые являются хорошей отправной точкой.
По веб-приложениям:
https://www.udacity.com/course/full-stack-foundations--ud088
По скриптингу/скрейппингу на
Python
:https://www.coursera.org/specializations/introduction-scripting-in-python
https://www.coursera.org/learn/microsoft-automation-scripting-with-python
https://www.coursera.org/learn/python-network-data#modules
@MikeBlazerX
Максимально полный список юзер-агентов
Чтобы остановить
Полный список из 176 юзер-агентов вот тут.
@MikeBlazerX
AI
-ботов для их блокировкиAI
и ML
боты краулят ваш сайт и парсят контент гораздо чаще, чем вы думаете.Чтобы остановить
AI
-ботов от поглощения вашего контента для обучения своих систем вы можете заюзать этот Мега-блокировщик в .HTACCESS
:.htaccess
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} (Agent\ GPT|AgentGPT|AI\ Article\ Writer|AI\ Content\ Detector|AI\ Dungeon|AI\ SEO\ Crawler|AI\ Search\ Engine|AI\ Writer|AI21\ Labs|AIBot|AI2Bot|AISearchBot|AlexaTM|Alpha\ AI|AlphaAI|Amazon\ Bedrock) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Amazon\ Lex|Amazonbot|Amelia|anthropic-ai|AnthropicAI|AnyPicker|Anyword|Applebot|Articoolo|AutoGPT|Automated\ Writer|AwarioRssBot|AwarioSmartBot|BingAI|Brave\ Leo\ AI|Bytespider|CatBoost|CC-Crawler) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (CCBot|ChatGPT|Chinchilla|Claude-Web|ClaudeBot|ClearScope|cohere-ai|cohere-training-data-crawler|Common\ Crawl|commoncrawl|Content\ Harmony|Content\ King|Content\ Optimizer|Content\ Samurai|ContentAtScale) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (ContentBot|Contentedge|Conversion\ AI|CopyAI|Copymatic|Copyscape|Crawlspace|CrawlQ\ AI|crew\ AI|crewAI|DALL-E|DataForSeoBot|DeepAI|DeepL|DeepMind|DeepSeek|DepolarizingGPT|DialoGPT|Diffbot|DuckAssistBot) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (FacebookBot|Firecrawl|Flyriver|Frase\ AI|FriendlyCrawler|Gemini|Gemma|GenAI|Google\ Bard\ AI|Google-CloudVertexBot|Google-Extended|GoogleOther|GPT-2|GPT-3|GPT-4|GPTBot|GPTZero|Grammarly|Grok|Hemingway) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Hugging\ Face|Hypotenuse\ AI|iaskspider|ICC-Crawler|ImagesiftBot|img2dataset|INK\ Editor|INKforall|IntelliSeek\.ai|Inferkit|ISSCyberRiskCrawler|JasperAI|Kafkai|Kangaroo|Keyword\ Density\ AI|LeftWingGPT) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (LLaMA|magpie-crawler|MarketMuse|Meltwater|Meta\ AI|Meta\ Llama|Meta\.AI|Meta-AI|Meta-ExternalAgent|Meta-ExternalFetcher|MetaAI|MetaTagBot|Mistral|Narrative\ Device|Neural\ Text|NeuralSEO|OAI-SearchBot) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (OAI\ SearchBot|omgili|OmniGPT|Open\ AI|OpenAI|OpenText\ AI|Outwrite|Page\ Analyzer\ AI|PanguBot|Paraphraser\.io|peer39_crawler|PerplexityBot|PetalBot|ProWritingAid|QuillBot|RightWingGPT|RobotSpider) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Rytr|SaplingAI|Scalenut|Scrapy|ScriptBook|SearchGPT|SemrushBot|SEO\ Content\ Machine|SEO\ Robot|Sidetrade|Simplified\ AI|SlickWrite|Spin\ Rewriter|Spinbot|Stability|Sudowrite|Surfer\ AI|Text\ Blaze) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (TextCortex|The\ Knowledge\ AI|Timpibot|VelenPublicWebCrawler|Vidnami\ AI|WebChatGPT|Webzio|Whisper|WordAI|Wordtune|Writecream|WriterZen|Writescope|Writesonic|x\.AI|xAI|YouBot|Zero\ GTP|ZimmWriter) [NC]
RewriteRule (.*) - [F,L]
</IfModule>
Полный список из 176 юзер-агентов вот тут.
@MikeBlazerX
Именно это заставляет людей переключаться на конкурентов.
Опрос в более чем 3000 человек позволил выяснить, почему люди переходят на другой бренд.
Вот они.
@MikeBlazerX
Опрос в более чем 3000 человек позволил выяснить, почему люди переходят на другой бренд.
Вот они.
@MikeBlazerX
Как Google измеряет "значительные" изменения при обновлении
Анализирует ли Google смысловые изменения (например, "Казнить, нельзя помиловать" и "Казнить нельзя, помиловать"), смотрит на процент изменения текста, использует оба варианта, векторы или какой-то другой метод?
Ответы и мнения SEO-специалистов
1. Инсайты из тестирования:
— Предположение, что у Google нет эффективного способа определить злоупотребление
— Тесты показали рост трафика при простом обновлении
— Любые изменения, кроме исправления опечаток, можно считать "оправданными" для обновления
2. Технические аспекты реализации:
—
— Если сайт злоупотребляет
— Как минимум, Google может перестать пересчитывать пакетные метрики по запросу и делать это только когда сам захочет
— Злоупотребление
— При миграции сайта
— Тип краулинга в
3. Практики паблишеров:
— Один новостной паблишер меняет
a. Меняются большие фрагменты текста
b. Меняются заголовки
c. Не меняет даты при мелких опечатках
4. Подход Google:
— По словам Гари Иллиеса, доверие Google к сигналам
— Опечатка может считаться значительным изменением (например, в ценнике)
— Это предполагает, что Google может не использовать процент изменения текста или векторы для определения
5. Теория влияния на трафик:
— Рост трафика от обновлений
— Однако, рост трафика наблюдался и при обновлении только метаданных/структурированных данных
@MikeBlazerX
lastmod
в картах сайта?Анализирует ли Google смысловые изменения (например, "Казнить, нельзя помиловать" и "Казнить нельзя, помиловать"), смотрит на процент изменения текста, использует оба варианта, векторы или какой-то другой метод?
Ответы и мнения SEO-специалистов
1. Инсайты из тестирования:
— Предположение, что у Google нет эффективного способа определить злоупотребление
lastmod
— Тесты показали рост трафика при простом обновлении
lastmod
(хотя это не рекомендуется в долгосрочной перспективе, так как может рассматриваться как манипуляция)— Любые изменения, кроме исправления опечаток, можно считать "оправданными" для обновления
lastmod
2. Технические аспекты реализации:
—
Lastmod
может использоваться как триггер для пересчета пакетных метрик, а не как фактор ранжирования— Если сайт злоупотребляет
lastmod
, Google "расстраивается" и находит способы "усложнить жизнь" таким сайтам— Как минимум, Google может перестать пересчитывать пакетные метрики по запросу и делать это только когда сам захочет
— Злоупотребление
lastmod
скорее приведет к игнорированию этого сигнала для сайта, чем к санкциям в ранжировании— При миграции сайта
lastmod
становится датой миграции— Тип краулинга в
GSC
часто смещается к ~80% "Обнаружению" после миграции3. Практики паблишеров:
— Один новостной паблишер меняет
dateModified
(schema
) и lastMod
(sitemap
) когда:a. Меняются большие фрагменты текста
b. Меняются заголовки
c. Не меняет даты при мелких опечатках
4. Подход Google:
— По словам Гари Иллиеса, доверие Google к сигналам
lastmod
бинарное - они либо принимают их как сигнал, либо игнорируют— Опечатка может считаться значительным изменением (например, в ценнике)
— Это предполагает, что Google может не использовать процент изменения текста или векторы для определения
5. Теория влияния на трафик:
— Рост трафика от обновлений
lastmod
может быть связан с изменениями в структуре ссылок, когда статьи, отсортированные по дате, перемещаются на первые позиции, создавая более сильные сигналы (PageRank
?)— Однако, рост трафика наблюдался и при обновлении только метаданных/структурированных данных
@MikeBlazerX
Про
После 15+ лет в SEO и десятилетия доминирования в
Вот что реально работало раньше и продолжает работать в 2025 году в самой конкурентной нише.
1. Паразитное SEO
— Публикации на трастовых площадках
— SEO пресс-релизов
— Просроченные
—
—
— Использование трастовых платформ (
Про-тип: Google отдает приоритет авторитетным доменам - используйте их силу вместо того, чтобы месяцами ждать позиций.
2.
— Массовая регистрация
— Цепочки редиректов
— Гео-таргетированные сети
—
🔸Про-тип: Google принижает значение
3. Манипуляции с ссылками (основа
— Качественные бэклинки с нишевых сайтов
—
— Инжект ссылок и клоакинг редиректов
— Ссылки с форумов и комментариев
🔸Про-тип: Релевантность важнее количества - одна сильная ссылка с сайта про казино > 100 спамных ссылок.
4. Манипуляции с контентом и клоакинг
—
—
— Дорвеи и тонкие партнерские хаки
— Невидимый текст и инжект ключевиков
🔸Про-тип: Не перебарщивайте с клоакингом - Google жестко наказывает, миксуйте с легальным контентом.
5. Манипуляция кликами и фейковое вовлечение
— Боты для накрутки
— Накрутка социальных сигналов
— Оптимизация времени на сайте
— Автоматические отзывы и рейтинги
🔸Про-тип: Google измеряет поведенческие - даже реальными поведенческими можно манипулировать.
6. Техническое SEO и эксплойты
— Абьюз
— Эксплойты канониклов
— Фейковые рич-сниппеты
—
🔸Про-тип: Структурированные данные помогают Google понимать контент - но их можно оптимизировать за пределами гайдлайнов.
7. Эксплойты доменов и редиректов
— Перехват дроп-доменов
— Гео-редиректы
— Множественные дроп-домены на один сайт
— Цепочки аффилиатских редиректов
🔸Про-тип: Дропы - золотая жила, ищите те, у которых бэклинки с новостных и государственных сайтов.
8. Дорвеи и мультисайтовые сети
— Встраивание
— Ротация редиректов
— Клоакинг лендингов
— Мультисайтовые сети
🔸Про-тип: Диверсификация защищает от санкций - владение несколькими высокоранжируемыми доменами лучше, чем полагаться на один
@MikeBlazerX
iGaming SEO
После 15+ лет в SEO и десятилетия доминирования в
iGaming
, я протестировал все стратегии - некоторые провалились, некоторые работают лучше, чем когда-либо, пишет Трифон Боюклийский.Вот что реально работало раньше и продолжает работать в 2025 году в самой конкурентной нише.
1. Паразитное SEO
— Публикации на трастовых площадках
— SEO пресс-релизов
— Просроченные
Web 2.0
—
Google Sites
& Docs
SEO—
Forum
& Q&A
SEO (Quora
, Reddit
...)— Использование трастовых платформ (
Medium
, LinkedIn
...)Про-тип: Google отдает приоритет авторитетным доменам - используйте их силу вместо того, чтобы месяцами ждать позиций.
2.
EMD
-домены— Массовая регистрация
EMD
— Цепочки редиректов
EMD
— Гео-таргетированные сети
EMD
—
EMD
под казино🔸Про-тип: Google принижает значение
EMD
- но в сочетании с сильными бэклинками они все еще ранжируются выше обычных доменов.3. Манипуляции с ссылками (основа
iGaming
SEO)— Качественные бэклинки с нишевых сайтов
—
PBN
— Инжект ссылок и клоакинг редиректов
— Ссылки с форумов и комментариев
🔸Про-тип: Релевантность важнее количества - одна сильная ссылка с сайта про казино > 100 спамных ссылок.
4. Манипуляции с контентом и клоакинг
—
IP
-клоакинг—
AI
-генерированный контент— Дорвеи и тонкие партнерские хаки
— Невидимый текст и инжект ключевиков
🔸Про-тип: Не перебарщивайте с клоакингом - Google жестко наказывает, миксуйте с легальным контентом.
5. Манипуляция кликами и фейковое вовлечение
— Боты для накрутки
CTR
— Накрутка социальных сигналов
— Оптимизация времени на сайте
— Автоматические отзывы и рейтинги
🔸Про-тип: Google измеряет поведенческие - даже реальными поведенческими можно манипулировать.
6. Техническое SEO и эксплойты
Schema
— Абьюз
301
редиректов— Эксплойты канониклов
— Фейковые рич-сниппеты
—
HTTPS
спуфинг🔸Про-тип: Структурированные данные помогают Google понимать контент - но их можно оптимизировать за пределами гайдлайнов.
7. Эксплойты доменов и редиректов
— Перехват дроп-доменов
— Гео-редиректы
— Множественные дроп-домены на один сайт
— Цепочки аффилиатских редиректов
🔸Про-тип: Дропы - золотая жила, ищите те, у которых бэклинки с новостных и государственных сайтов.
8. Дорвеи и мультисайтовые сети
— Встраивание
Iframe
— Ротация редиректов
— Клоакинг лендингов
— Мультисайтовые сети
🔸Про-тип: Диверсификация защищает от санкций - владение несколькими высокоранжируемыми доменами лучше, чем полагаться на один
@MikeBlazerX
ЕСЛИ ВЫ ИСПОЛЬЗУЕТЕ
Только что провел аудит сайта клиента, где НАВИГАЦИЯ имела статичный вывод для видимых элементов ссылок, но вся навигационная структура под ней подгружалась динамически только после ВЗАИМОДЕЙСТВИЯ, пишет Даниэль Фоли Картер.
При взаимодействии с меню
Но при проверке сырого
ВОТ ПОЧЕМУ нужно быть особенно внимательным к техническим решениям, используемым на сайте.
Такие вещи требуют ПРОВЕРКИ.
В
Но при ручной проверке мне удалось это обнаружить.
Категории в НАВИГАЦИИ клиента показывали значительное падение эффективности, я также заметил, что многие СТРАНИЦЫ ПОДМЕНЮ были обнаружены не через краулинг, а через ДИСКАВЕРИ — обычно через страницы товаров, что странно: почему
Оказалось, что Гугл проходил через товары и находил категории верхнего уровня через хлебные крошки.
ИСПОЛЬЗУЙТЕ
Всё, что формирует страницу, должно быть в изначальном
Любая "ДИНАМИЧЕСКАЯ" функциональность, использующая
Поэтому даже такие базовые вещи, как использование
Где возможно — ПРЕДЗАГРУЖАЙТЕ всё на страницу и используйте скрипты для работы с контентом, который уже загружен в исходном коде.
Проблему решили, изменив технологию меню и обеспечив вывод контента при предварительном рендеринге.
Проблема решена — ЗНАЧИТЕЛЬНОЕ улучшение органических показателей в течение 3 недель после внедрения.
ВОТ КАК МОЖНО ОПРЕДЕЛИТЬ, ЕСТЬ ЛИ НА АНАЛИЗИРУЕМЫХ СТРАНИЦАХ ИЗМЕНЕНИЯ, КОТОРЫЕ ГУГЛ НЕ МОЖЕТ УВИДЕТЬ:
1. Зайдите на веб-страницу
2. Нажмите
3. В нижних вкладках кликните на
4. Нажмите на иконку очистки, чтобы скрыть текущие ошибки/предупреждения
5. Скопируйте и вставьте скрипт ниже в консоль и нажмите
6. Затем взаимодействуйте со страницей, например, кликните на меню — вы увидите, внедряются ли новые элементы
За скриншотами - сюда.
@MikeBlazerX
JAVASCRIPT
ДЛЯ ДИНАМИЧЕСКОЙ ЗАГРУЗКИ КОНТЕНТА ПОСЛЕ ВЗАИМОДЕЙСТВИЯ, ГУГЛ ЕГО НЕ УВИДИТ!Только что провел аудит сайта клиента, где НАВИГАЦИЯ имела статичный вывод для видимых элементов ссылок, но вся навигационная структура под ней подгружалась динамически только после ВЗАИМОДЕЙСТВИЯ, пишет Даниэль Фоли Картер.
При взаимодействии с меню
DIV
-элементы внедрялись в активный HTML
.Но при проверке сырого
HTML
после рендеринга никаких подклассов меню не существовало.ВОТ ПОЧЕМУ нужно быть особенно внимательным к техническим решениям, используемым на сайте.
Такие вещи требуют ПРОВЕРКИ.
В
Screaming Frog
ничего не отображалось, все подстраницы МЕНЮ имели высокие показатели глобальных внутренних ссылок — поэтому проблему сразу не заметишь.Но при ручной проверке мне удалось это обнаружить.
Категории в НАВИГАЦИИ клиента показывали значительное падение эффективности, я также заметил, что многие СТРАНИЦЫ ПОДМЕНЮ были обнаружены не через краулинг, а через ДИСКАВЕРИ — обычно через страницы товаров, что странно: почему
URL
навигации верхнего уровня находятся через товары?Оказалось, что Гугл проходил через товары и находил категории верхнего уровня через хлебные крошки.
ИСПОЛЬЗУЙТЕ
JS
, но делайте это правильно.Всё, что формирует страницу, должно быть в изначальном
DOM
.Любая "ДИНАМИЧЕСКАЯ" функциональность, использующая
Javascript
для выполнения действий, изменит страницу так, что Гугл этого не увидит.Поэтому даже такие базовые вещи, как использование
JS
для динамической подгрузки "загрузить еще" — в большинстве случаев плохая идея.Где возможно — ПРЕДЗАГРУЖАЙТЕ всё на страницу и используйте скрипты для работы с контентом, который уже загружен в исходном коде.
Проблему решили, изменив технологию меню и обеспечив вывод контента при предварительном рендеринге.
Проблема решена — ЗНАЧИТЕЛЬНОЕ улучшение органических показателей в течение 3 недель после внедрения.
ВОТ КАК МОЖНО ОПРЕДЕЛИТЬ, ЕСТЬ ЛИ НА АНАЛИЗИРУЕМЫХ СТРАНИЦАХ ИЗМЕНЕНИЯ, КОТОРЫЕ ГУГЛ НЕ МОЖЕТ УВИДЕТЬ:
1. Зайдите на веб-страницу
2. Нажмите
F12
, чтобы открыть DevTools
3. В нижних вкладках кликните на
CONSOLE
4. Нажмите на иконку очистки, чтобы скрыть текущие ошибки/предупреждения
5. Скопируйте и вставьте скрипт ниже в консоль и нажмите
enter
6. Затем взаимодействуйте со страницей, например, кликните на меню — вы увидите, внедряются ли новые элементы
new MutationObserver((mutations) => {
mutations.forEach((mutation) => {
mutation.addedNodes.forEach((node) => {
if (node.nodeType === 1) {
// Ensure it's an element node
if (node.tagName === "A" && node.hasAttribute("href")) {
console.log("%c[New Link Injected]", "color: red; font-weight: bold;", node.href, node);
}
// Also check if an <a> tag is added inside a changed element
node.querySelectorAll &&
node.querySelectorAll("a[href]").forEach((link) => {
console.log("%c[New Link Injected]", "color: red; font-weight: bold;", link.href, link);
});
}
});
});
}).observe(document.body, { childList: true, subtree: true });
За скриншотами - сюда.
@MikeBlazerX