Dernières publications de Mike Blazer (@mikeblazerx) sur Telegram

Publications du canal Mike Blazer

Mike Blazer
Все прелести SEO:

— результаты экспериментов
— секреты продвижения
— свежие идеи
— SEO-фишки
— кейсы
— юмор
— тренды
— топы без ссылок
— семантическое #SEO
— бесплатные инструменты

...

Автор: @MikeBlazer
Рекламу не продаю!
7,159 abonnés
1,788 photos
172 vidéos
Dernière mise à jour 01.03.2025 06:22

Canaux similaires

SEO BAZA
4,913 abonnés
noindex, nofollow
4,177 abonnés

Le dernier contenu partagé par Mike Blazer sur Telegram


Слышь, мне нужны бабки. Домен не хочешь прикупить? Я только что его регнул.

@MikeBlazerX

Когда сеошники встречаются на дороге с арбитражниками, они останавливаются, чтобы обменяться информацией.

Когда один из сеошников переходит к арбитражникам, его коллега отправляется за ним, чтобы вернуть его обратно.

@MikeBlazerX

Я придумал: будем менять регистр в анкорах! "КриптоКазино", "криптоказино", "КРИПТОКАЗИНО" — и всё это с одного домена!

@MikeBlazerX

Расширение для Хрома - Advanced GSC Visualizer пополнилось новой фичей, которая позволяет увидеть производительность 10 лучших подпапок вашего сайта одним щелчком мыши!

Это поможет вам понять общую производительность любого сайта всего за несколько минут.

https://chromewebstore.google.com/detail/advanced-gsc-visualizer/cdiccpnglfpnclonhpchpaaoigfpieel

Прежний пост про это расширение тут.

@MikeBlazerX

Недавно один джуниор сеошник спросил меня, как развиваться в техническом направлении, рассказывает Маркос Чиаррокки.

Мой совет для начала — сфокусироваться на двух ключевых областях: веб-технологиях и парсинге.

По веб-технологиям:

Изучи, как строятся сайты.

Начни с Python и Flask, чтобы создать простой бэкенд, подключить базу данных и сделать простой фронтенд.

Это научит тебя:

* Как работают сайты и веб в целом
* Как серверы обрабатывают запросы
* Как связывать SEO-проблемы (краулинг и рендеринг) с тем, как построены сайты

Понимание основ веба значительно упрощает диагностику SEO-проблем и помогает эффективнее работать с командами разработчиков.

По парсингу:

Попробуй создать базовый парсер или краулер.

Это лучший способ разобраться в:

* Индексации
* Структурированных данных
* Извлечении и анализе веб-контента

Изучение написания скриптов на Python может дать огромную отдачу, так как ты сможешь выполнять множество задач (автоматизация, анализ данных и т.д.).

Когда освоишь основы, ты даже сможешь использовать LLM-ки для получения рабочих скриптов за считанные минуты и дорабатывать их по мере необходимости.

Ниже несколько ссылок на курсы, которые являются хорошей отправной точкой.

По веб-приложениям:

https://www.udacity.com/course/full-stack-foundations--ud088

По скриптингу/скрейппингу на Python:

https://www.coursera.org/specializations/introduction-scripting-in-python
https://www.coursera.org/learn/microsoft-automation-scripting-with-python
https://www.coursera.org/learn/python-network-data#modules

@MikeBlazerX

Максимально полный список юзер-агентов AI-ботов для их блокировки

AI и ML боты краулят ваш сайт и парсят контент гораздо чаще, чем вы думаете.

Чтобы остановить AI-ботов от поглощения вашего контента для обучения своих систем вы можете заюзать этот Мега-блокировщик в .HTACCESS:

.htaccess
<IfModule mod_rewrite.c>

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} (Agent\ GPT|AgentGPT|AI\ Article\ Writer|AI\ Content\ Detector|AI\ Dungeon|AI\ SEO\ Crawler|AI\ Search\ Engine|AI\ Writer|AI21\ Labs|AIBot|AI2Bot|AISearchBot|AlexaTM|Alpha\ AI|AlphaAI|Amazon\ Bedrock) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Amazon\ Lex|Amazonbot|Amelia|anthropic-ai|AnthropicAI|AnyPicker|Anyword|Applebot|Articoolo|AutoGPT|Automated\ Writer|AwarioRssBot|AwarioSmartBot|BingAI|Brave\ Leo\ AI|Bytespider|CatBoost|CC-Crawler) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (CCBot|ChatGPT|Chinchilla|Claude-Web|ClaudeBot|ClearScope|cohere-ai|cohere-training-data-crawler|Common\ Crawl|commoncrawl|Content\ Harmony|Content\ King|Content\ Optimizer|Content\ Samurai|ContentAtScale) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (ContentBot|Contentedge|Conversion\ AI|CopyAI|Copymatic|Copyscape|Crawlspace|CrawlQ\ AI|crew\ AI|crewAI|DALL-E|DataForSeoBot|DeepAI|DeepL|DeepMind|DeepSeek|DepolarizingGPT|DialoGPT|Diffbot|DuckAssistBot) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (FacebookBot|Firecrawl|Flyriver|Frase\ AI|FriendlyCrawler|Gemini|Gemma|GenAI|Google\ Bard\ AI|Google-CloudVertexBot|Google-Extended|GoogleOther|GPT-2|GPT-3|GPT-4|GPTBot|GPTZero|Grammarly|Grok|Hemingway) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Hugging\ Face|Hypotenuse\ AI|iaskspider|ICC-Crawler|ImagesiftBot|img2dataset|INK\ Editor|INKforall|IntelliSeek\.ai|Inferkit|ISSCyberRiskCrawler|JasperAI|Kafkai|Kangaroo|Keyword\ Density\ AI|LeftWingGPT) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (LLaMA|magpie-crawler|MarketMuse|Meltwater|Meta\ AI|Meta\ Llama|Meta\.AI|Meta-AI|Meta-ExternalAgent|Meta-ExternalFetcher|MetaAI|MetaTagBot|Mistral|Narrative\ Device|Neural\ Text|NeuralSEO|OAI-SearchBot) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (OAI\ SearchBot|omgili|OmniGPT|Open\ AI|OpenAI|OpenText\ AI|Outwrite|Page\ Analyzer\ AI|PanguBot|Paraphraser\.io|peer39_crawler|PerplexityBot|PetalBot|ProWritingAid|QuillBot|RightWingGPT|RobotSpider) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Rytr|SaplingAI|Scalenut|Scrapy|ScriptBook|SearchGPT|SemrushBot|SEO\ Content\ Machine|SEO\ Robot|Sidetrade|Simplified\ AI|SlickWrite|Spin\ Rewriter|Spinbot|Stability|Sudowrite|Surfer\ AI|Text\ Blaze) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (TextCortex|The\ Knowledge\ AI|Timpibot|VelenPublicWebCrawler|Vidnami\ AI|WebChatGPT|Webzio|Whisper|WordAI|Wordtune|Writecream|WriterZen|Writescope|Writesonic|x\.AI|xAI|YouBot|Zero\ GTP|ZimmWriter) [NC]

RewriteRule (.*) - [F,L]

</IfModule>


Полный список из 176 юзер-агентов вот тут.

@MikeBlazerX

Именно это заставляет людей переключаться на конкурентов.

Опрос в более чем 3000 человек позволил выяснить, почему люди переходят на другой бренд.

Вот они.

@MikeBlazerX

Как Google измеряет "значительные" изменения при обновлении lastmod в картах сайта?

Анализирует ли Google смысловые изменения (например, "Казнить, нельзя помиловать" и "Казнить нельзя, помиловать"), смотрит на процент изменения текста, использует оба варианта, векторы или какой-то другой метод?

Ответы и мнения SEO-специалистов

1. Инсайты из тестирования:

— Предположение, что у Google нет эффективного способа определить злоупотребление lastmod
— Тесты показали рост трафика при простом обновлении lastmod (хотя это не рекомендуется в долгосрочной перспективе, так как может рассматриваться как манипуляция)
— Любые изменения, кроме исправления опечаток, можно считать "оправданными" для обновления lastmod

2. Технические аспекты реализации:

Lastmod может использоваться как триггер для пересчета пакетных метрик, а не как фактор ранжирования
— Если сайт злоупотребляет lastmod, Google "расстраивается" и находит способы "усложнить жизнь" таким сайтам
— Как минимум, Google может перестать пересчитывать пакетные метрики по запросу и делать это только когда сам захочет
— Злоупотребление lastmod скорее приведет к игнорированию этого сигнала для сайта, чем к санкциям в ранжировании
— При миграции сайта lastmod становится датой миграции
— Тип краулинга в GSC часто смещается к ~80% "Обнаружению" после миграции

3. Практики паблишеров:

— Один новостной паблишер меняет dateModified (schema) и lastMod (sitemap) когда:
a. Меняются большие фрагменты текста
b. Меняются заголовки
c. Не меняет даты при мелких опечатках

4. Подход Google:

— По словам Гари Иллиеса, доверие Google к сигналам lastmod бинарное - они либо принимают их как сигнал, либо игнорируют
— Опечатка может считаться значительным изменением (например, в ценнике)
— Это предполагает, что Google может не использовать процент изменения текста или векторы для определения

5. Теория влияния на трафик:

— Рост трафика от обновлений lastmod может быть связан с изменениями в структуре ссылок, когда статьи, отсортированные по дате, перемещаются на первые позиции, создавая более сильные сигналы (PageRank?)
— Однако, рост трафика наблюдался и при обновлении только метаданных/структурированных данных

@MikeBlazerX

Про iGaming SEO

После 15+ лет в SEO и десятилетия доминирования в iGaming, я протестировал все стратегии - некоторые провалились, некоторые работают лучше, чем когда-либо, пишет Трифон Боюклийский.

Вот что реально работало раньше и продолжает работать в 2025 году в самой конкурентной нише.

1. Паразитное SEO

— Публикации на трастовых площадках
— SEO пресс-релизов
— Просроченные Web 2.0
Google Sites & Docs SEO
Forum & Q&A SEO (Quora, Reddit...)
— Использование трастовых платформ (Medium, LinkedIn...)

Про-тип: Google отдает приоритет авторитетным доменам - используйте их силу вместо того, чтобы месяцами ждать позиций.

2. EMD-домены

— Массовая регистрация EMD
— Цепочки редиректов EMD
— Гео-таргетированные сети EMD
EMD под казино

🔸Про-тип: Google принижает значение EMD - но в сочетании с сильными бэклинками они все еще ранжируются выше обычных доменов.

3. Манипуляции с ссылками (основа iGaming SEO)

— Качественные бэклинки с нишевых сайтов
PBN
— Инжект ссылок и клоакинг редиректов
— Ссылки с форумов и комментариев

🔸Про-тип: Релевантность важнее количества - одна сильная ссылка с сайта про казино > 100 спамных ссылок.

4. Манипуляции с контентом и клоакинг

IP-клоакинг
AI-генерированный контент
— Дорвеи и тонкие партнерские хаки
— Невидимый текст и инжект ключевиков

🔸Про-тип: Не перебарщивайте с клоакингом - Google жестко наказывает, миксуйте с легальным контентом.

5. Манипуляция кликами и фейковое вовлечение

— Боты для накрутки CTR
— Накрутка социальных сигналов
— Оптимизация времени на сайте
— Автоматические отзывы и рейтинги

🔸Про-тип: Google измеряет поведенческие - даже реальными поведенческими можно манипулировать.

6. Техническое SEO и эксплойты Schema

— Абьюз 301 редиректов
— Эксплойты канониклов
— Фейковые рич-сниппеты
HTTPS спуфинг

🔸Про-тип: Структурированные данные помогают Google понимать контент - но их можно оптимизировать за пределами гайдлайнов.

7. Эксплойты доменов и редиректов

— Перехват дроп-доменов
— Гео-редиректы
— Множественные дроп-домены на один сайт
— Цепочки аффилиатских редиректов

🔸Про-тип: Дропы - золотая жила, ищите те, у которых бэклинки с новостных и государственных сайтов.

8. Дорвеи и мультисайтовые сети

— Встраивание Iframe
— Ротация редиректов
— Клоакинг лендингов
— Мультисайтовые сети

🔸Про-тип: Диверсификация защищает от санкций - владение несколькими высокоранжируемыми доменами лучше, чем полагаться на один

@MikeBlazerX

ЕСЛИ ВЫ ИСПОЛЬЗУЕТЕ JAVASCRIPT ДЛЯ ДИНАМИЧЕСКОЙ ЗАГРУЗКИ КОНТЕНТА ПОСЛЕ ВЗАИМОДЕЙСТВИЯ, ГУГЛ ЕГО НЕ УВИДИТ!

Только что провел аудит сайта клиента, где НАВИГАЦИЯ имела статичный вывод для видимых элементов ссылок, но вся навигационная структура под ней подгружалась динамически только после ВЗАИМОДЕЙСТВИЯ, пишет Даниэль Фоли Картер.

При взаимодействии с меню DIV-элементы внедрялись в активный HTML.

Но при проверке сырого HTML после рендеринга никаких подклассов меню не существовало.

ВОТ ПОЧЕМУ нужно быть особенно внимательным к техническим решениям, используемым на сайте.

Такие вещи требуют ПРОВЕРКИ.

В Screaming Frog ничего не отображалось, все подстраницы МЕНЮ имели высокие показатели глобальных внутренних ссылок — поэтому проблему сразу не заметишь.

Но при ручной проверке мне удалось это обнаружить.

Категории в НАВИГАЦИИ клиента показывали значительное падение эффективности, я также заметил, что многие СТРАНИЦЫ ПОДМЕНЮ были обнаружены не через краулинг, а через ДИСКАВЕРИ — обычно через страницы товаров, что странно: почему URL навигации верхнего уровня находятся через товары?

Оказалось, что Гугл проходил через товары и находил категории верхнего уровня через хлебные крошки.

ИСПОЛЬЗУЙТЕ JS, но делайте это правильно.

Всё, что формирует страницу, должно быть в изначальном DOM.

Любая "ДИНАМИЧЕСКАЯ" функциональность, использующая Javascript для выполнения действий, изменит страницу так, что Гугл этого не увидит.

Поэтому даже такие базовые вещи, как использование JS для динамической подгрузки "загрузить еще" — в большинстве случаев плохая идея.

Где возможно — ПРЕДЗАГРУЖАЙТЕ всё на страницу и используйте скрипты для работы с контентом, который уже загружен в исходном коде.

Проблему решили, изменив технологию меню и обеспечив вывод контента при предварительном рендеринге.

Проблема решена — ЗНАЧИТЕЛЬНОЕ улучшение органических показателей в течение 3 недель после внедрения.

ВОТ КАК МОЖНО ОПРЕДЕЛИТЬ, ЕСТЬ ЛИ НА АНАЛИЗИРУЕМЫХ СТРАНИЦАХ ИЗМЕНЕНИЯ, КОТОРЫЕ ГУГЛ НЕ МОЖЕТ УВИДЕТЬ:

1. Зайдите на веб-страницу
2. Нажмите F12, чтобы открыть DevTools
3. В нижних вкладках кликните на CONSOLE
4. Нажмите на иконку очистки, чтобы скрыть текущие ошибки/предупреждения
5. Скопируйте и вставьте скрипт ниже в консоль и нажмите enter
6. Затем взаимодействуйте со страницей, например, кликните на меню — вы увидите, внедряются ли новые элементы

new MutationObserver((mutations) => {
mutations.forEach((mutation) => {
mutation.addedNodes.forEach((node) => {
if (node.nodeType === 1) {
// Ensure it's an element node
if (node.tagName === "A" && node.hasAttribute("href")) {
console.log("%c[New Link Injected]", "color: red; font-weight: bold;", node.href, node);
}

// Also check if an <a> tag is added inside a changed element
node.querySelectorAll &&
node.querySelectorAll("a[href]").forEach((link) => {
console.log("%c[New Link Injected]", "color: red; font-weight: bold;", link.href, link);
});
}
});
});
}).observe(document.body, { childList: true, subtree: true });

За скриншотами - сюда.

@MikeBlazerX