أحدث المنشورات من Mike Blazer (@mikeblazerx) على Telegram

منشورات Mike Blazer على Telegram

Mike Blazer
Все прелести SEO:

— результаты экспериментов
— секреты продвижения
— свежие идеи
— SEO-фишки
— кейсы
— юмор
— тренды
— топы без ссылок
— семантическое #SEO
— бесплатные инструменты

...

Автор: @MikeBlazer
Рекламу не продаю!
7,159 مشترك
1,788 صورة
172 فيديو
آخر تحديث 01.03.2025 06:22

قنوات مشابهة

noindex, nofollow
4,177 مشترك

أحدث المحتوى الذي تم مشاركته بواسطة Mike Blazer على Telegram


​Хотите получать бэклинки на автопилоте?

Вот простой хак, сочетающий PPC и линкбилдинг, которым пока не пользуется большинство сеошников.

Делайте так...

1️⃣ Создайте страницу с ценной статистикой

(например, "Generative AI Statistics 2025").

2️⃣ Запустите PPC-рекламу по таким запросам:

"Generative AI statistics"

"AI adoption trends 2025"

"Latest AI industry data"

3️⃣ Журналисты и блогеры, ищущие источники, будут кликать на вашу рекламу...

...И некоторые поставят на вас ссылку!

Лучшие практики:

Таргетируйтесь на точное соответствие (например, "stress statistics 2025").
Избегайте широкого соответствия - оно быстро сжигает бюджет.
Проверяйте страницы конкурентов в Ahrefs/SEMrush для поиска дополнительных ключей.
Отслеживайте стоимость ссылки за месяц для оценки ROI.

Результаты?

По словам Стива Тота, недавний тест с бюджетом в $360 на рекламу принес 7 бэклинков.

@MikeBlazerX

Конвертируйте PDF в HTML без потери текста и формата.

https://github.com/pdf2htmlEX/pdf2htmlEX

@MikeBlazerX

​Влияние ссылок с Reddit на SEO

Джой Хокинс провела эксперимент, чтобы измерить влияние Reddit на позиции в Google.

Используя свой сайт, она создала релевантный пост на Reddit с nofollow-ссылкой, содержащей определенный анкор.

За две недели целевой запрос поднялся с 25-й на 10-ю позицию.

Улучшение произошло благодаря тому, что сама ветка на Reddit хорошо ранжировалась в Google и получала органический трафик - это ключевой фактор, поскольку nofollow-ссылки из низкотрафиковых или спамных веток Reddit не дадут подобных результатов.

Хотя большинство ссылок на Reddit по умолчанию имеют атрибут nofollow, существует два способа получить dofollow-ссылки на платформе.

Модераторы сабреддитов могут создавать dofollow-ссылки в сайдбарах с помощью текстовых виджетов.

Для этого нужно войти как модератор, получить доступ к интерфейсу редактирования сайдбара и добавить ссылки в текстовом формате.

Второй метод связан с функцией публикации изображений на Reddit.

Загружая несколько изображений, пользователи могут настроить подпись ко второму изображению как анкор и добавить dofollow-ссылку - эту функцию обнаружил Брок Миснер.

Модераторы Reddit активно банят аккаунты, нарушающие правила платформы, поэтому крайне важно, чтобы посты оставались релевантными и добавляли ценность в обсуждения.

@MikeBlazerX

Рене Жирар:

В последнее время атаки скрейперов просто зверские - хуже, чем когда-либо!

Мой домен буквально бомбардируют с 2001:4860:7:622::ff.

Кто-нибудь ещё сталкивается с подобным от IPV6 из диапазона префиксов 2001:4860:7?!

Мы их блокируем, но есть подозрения, что это может быть гуглобот, хотя при проверке через верификатор юзер-агента он так не определяется.

Дэйв Смарт:

Похоже, это может быть один из префетч-прокси. По сути, Google предварительно загружает некоторые результаты выдачи, чтобы ускорить навигацию, подробнее тут.

Если проверить IP через ipinfo.io, должен показать ASN AS15169 (хотя я не уверен, что это универсально).

Если записывать все хедеры запросов в логах:

purpose будет prefetch
referer будет https://www.google.{thetld}
sec_fetch_mode будет no-cors

То есть, это не скрейпер и не гуглобот, а префетч для ускорения загрузки вашего сайта при клике пользователя (кстати, обычно это признак того, что вы хорошо ранжируетесь хотя бы по каким-то запросам!).

Есть опубликованный список IP для этих прокси здесь (изначально для геолокации, но подойдет и для этого!). Позже добавлю их в свой инструмент проверки реальных IP гуглбота.

Вы можете контролировать объем или даже полностью отключить эту функцию для своего сайта, как описано здесь.

@MikeBlazerX

15 правил семантического написания текстов, которые реально помогают ранжироваться

После того как Эндрю Ансли удалось выйти в топ по сложнейшим запросам вроде "drug rehab" и "SEO Audit" и обучения более 200 агентств, вот его правила семантического написания, которые действительно работают:

1. Сначала ответ, потом детали

— Пример: На вопрос "Что такое SEO?", начните с "SEO оптимизирует сайты для более высоких позиций в поисковиках", затем раскрывайте детали.

2. Ключевые ответы - не более 40 слов

— Пример: Вместо длинного объяснения про N8N, напишите "N8N создает кастомные базы знаний и парсит данные с веба для автоматизации маркетинговых процессов".

3. Фокус на одной теме

— Пример: Страница про GHL должна рассказывать только о функциях/использовании GHL - без отклонений в общие советы по маркетингу или сравнение с конкурентами.

4. Только фактические утверждения

— Пример: Замените "Email-маркетинг поможет вам получить лиды" на "Email-маркетинг генерирует лиды через автоматизированные последовательности".

5. Соответствие структуры вопрос/ответ

— Пример: Вопрос: "Как работает GHL?"

Ответ: "GHL работает через автоматизацию email-рассылок, рекламы, лендингов и AI-агентов".

6. Выделяйте жирным ответы, а не ключевики

— Пример: Вопрос: Что такое N8N?

Ответ: N8N - это инструмент автоматизации рабочих процессов, который связывает API и создает кастомные решения.

7. Создавайте четкую иерархию контента

— Пример: H1: Гайд по N8NH2: Ключевые функции → H3: API-интеграция → H4: Этапы настройки

8. Включайте несколько примеров

— Пример: Не ограничивайтесь одним воркфлоу N8N - покажите три разных примера автоматизации с конкретными кейсами.

9. Определяйте термины при первом использовании

— Пример: "GHL (Go High Level) - это платформа для автоматизации маркетинга, которая..."

10. Выстраивайте тематические связи

— Пример: Свяжите "автоматизацию маркетинга" с "функциями GHL" и "воркфлоу N8N" для создания семантических связей.

11. Пишите короткими предложениями

— Пример: Замените "Автоматизация маркетинга - сложная тема, требующая понимания множества инструментов и платформ, что может быть сложно для изучения"

на

"Автоматизация маркетинга объединяет множество инструментов. Каждый инструмент выполняет конкретную задачу. Интеграция создает мощные воркфлоу."

12. Используйте HTML-списки правильно

— Пример: Структурируйте списки функций тегами <ul> и <li> вместо ручных маркеров.

13. Правильно распределяйте информацию

— Пример: Один ключевой концепт на параграф.

Новый параграф для каждой новой идеи.

14. Пишите линейно

— Пример: Начните с базовых концепций GHL → перейдите к настройке → затем к продвинутым функциям.

Никогда не прыгайте между базовым и продвинутым уровнем хаотично.

15. Включайте подтверждающие данные

— Пример: Подкрепляйте утверждения конкретными цифрами - "Автоматизация GHL сократила ручные задачи на 47% в 200 клиентских кампаниях".

Помните: Это не теория - все основано на реальных результатах ранжирования

@MikeBlazerX

​SEO мертво, да здравствует Google Discover!

У вас есть сайт, соответствующий этим критериям?

💎 Тогда вы сидите на золотой жиле потенциального трафика.

Вот требования, которым нужно соответствовать:

🗞 Ваш сайт редакционного характера

— Вы управляете медиа-ресурсом, блогом или информационным сайтом, который в основном публикует редакционный контент вроде статей.
— Бонус: Ваш сайт включен в Google News (опционально).

🚀 У вашего сайта крепкая техническая база

— Ваши статьи (производительность главной страницы не так важна!) загружаются быстро и получают как минимум оранжевые, а в идеале зеленые показатели в инструментах Google (Page Speed Insights).
— Статьи индексируются быстро (естественным путём в течение 24 часов, в течение 3 часов если в Google News).
— Бонус: Ваш сайт проходит Core Web Vitals (опционально).

👪 У вас уже есть существующая аудитория

— Неважно откуда: из поиска, соцсетей или любых других источников трафика.
— Минимум желательно 5К посетителей в месяц, но чем больше, тем лучше!

💰 Ваш трафик идет (или мог бы идти) из стран с высоким RPM

— США, Великобритания, Канада, Австралия...
— Бонус: Вы уже монетизируете аудиторию через медийную рекламу (опционально).

💑 У вас сильные поведенческие метрики

— Лояльная аудитория, которая возвращается.
— Высокое время на страницах.
— Бонус: Высокая глубина просмотра (>2, опционально).

📈 Вы в хороших отношениях с Google

— Не попали под последние Core Update, HCU или другие апдейты Google.
— График трафика стабилен или растет последние 3 месяца.

🪩 Вкладка Discover уже видна в вашей GSC

— Даже если показатели низкие, это значит, что вы потенциально подходите.
— Бонус: У вас уже есть какие-то показы/клики органически, без активной стратегии.

Вы уделяете внимание сигналам E-E-A-T

— Статьи подписаны реальными авторами, несут добавленную ценность, и ваши юридические данные прозрачны.
— Бонус: У вас есть UGC контент (секция комментариев, взаимодействие с пользователями и т.д.) (опционально).

Если вы отметили 6 (или больше) из этих 8 пунктов, у вашего сайта высокие шансы получить миллионы дополнительных посещений через Google Discover.

@MikeBlazerX

Наткнулась на "пресс-релиз" на каком-то новостном сайте, - рассказывает Прити Гупта.

И знаете, что там было написано?

"Компания ABC с огромным восторгом сообщает о публикации своего нового блог-поста".

Вы серьезно?

@MikeBlazerX

​Всего за ПЯТЬ дней совершенно новое паразитическое SEO-партнерство прошло путь от 0 до более чем $1.2 МИЛЛИОНА ежемесячного трафика по данным Ahrefs...

Как этот нишевый сайт смог это сделать?

Скриншот

В настоящее время он занимает #1 место в США по таким ключам, как "best online casino", "online slots", "real money casinos", "new online casinos" и даже #6 место просто по запросу "slots"!

И всё это всего за 5 дней?!

Как им это удалось?

Скриншот

Ну, во-первых, Google пытался бороться с таким поведением с помощью "политики злоупотребления репутацией сайта", но спустя годы так и не смог внедрить что-либо на алгоритмическом уровне.

И именно алгоритм является причиной такого высокого ранжирования!

Скриншот

Алгоритм Google постепенно настраивался (в течение последних нескольких лет) на то, чтобы отдавать предпочтение сайтам с "авторитетом" - то есть сайтам, на которые ссылается наибольшее количество других сайтов в интернете.

Вероятно, здесь также играют роль фактор свежести, тематический авторитет и умная оптимизация контента, хотя они используют даже AI-изображения, так что...

Скриншот

Вы можете спросить себя, кто же стоит за этим?

В большинстве случаев сами сайты недостаточно умны, чтобы реализовать такие стратегии самостоятельно, и часто им не хватает воображения, чтобы придумать такую идею.

Кстати, ОЧЕНЬ прибыльную идею!

Скриншот

Если отследить автора всех этих постов, похоже, что это реальный человек, но маловероятно, что она подготовила ВЕСЬ этот контент самостоятельно за 2 дня...

Скриншот

Быстрая проверка её LinkedIn показывает, что она работает в Esports Insider, а также является "Контент-редактором" в "ClickOut Media".

Скриншот

Кто такие ClickOut Media?

Скриншот

Да, у Google есть политика против этого...

Но ручные санкции применяются редко, а алгоритм всё больше и больше настраивается на то, чтобы поощрять эту стратегию.

И это поощрение может составлять более $1 миллиона В НЕДЕЛЮ в комиссионных!

Скриншот

А когда Google всё-таки применяет санкции, они затрагивают только нарушающие подпапки, что не наносит реального ущерба издателю, а третья сторона может просто перейти к следующему новостному сайту с DR70+, готовому печатать бесплатные деньги, пока это возможно!

Скриншот
-

После того, как сайт попал под ручные санкции, Esports Insider практически ПОЛНОСТЬЮ ВОССТАНОВИЛСЯ всего за несколько дней на той же самой подпапке 👀

См. скриншот к посту.

@MikeBlazerX

​Когда блокировка страниц в Robots.txt приводит к увеличению индексации 🤖

На сайте одного из моих клиентов на Magento недавно начали генерироваться бесконечные фасетные URL, которые Гугл начал активно краулить, пишет Шарль Вайсье.

Из-за ограниченных ресурсов разработки для нормального исправления проблемы или даже добавления noindex тегов (которые, как мы знаем, со временем помогли бы Гуглу меньше краулить эти страницы) и предстоящей миграции, мы решили заблокировать URL в robots.txt, чтобы предотвратить миллионы ненужных краулов.

То, что произошло дальше, было совершенно неожиданным.

Вместо того чтобы просто прекратить краулинг, Гугл также начал стремительно индексировать эти URL.

Нашей целью было просто остановить гуглобота от краулинга страниц, оставив их неиндексированными.

Для решения проблемы мы откатили изменения и удалили правила disallow из robots.txt.

Постепенно Гугл начал исключать страницы из индекса.

⚠️Что стало причиной?

Каноникал теги на этих фасетных URL работали корректно, предотвращая их индексацию.

Однако, заблокировав URL в robots.txt, мы помешали Гуглу видеть эти каноникал теги, что привело к индексации URL вместо их игнорирования.

💡Ключевой вывод:

Хотя блокировка URL в robots.txt не останавливает их индексацию (что мы знали), она может привести к их индексации, мешая Гуглу видеть критически важные сигналы, такие как каноникал теги.

Этот случай подчеркивает важность понимания того, как различные элементы SEO взаимодействуют между собой, прежде чем вносить изменения.

Как вы думаете, было ли это нормальным и ожидаемым поведением со стороны Гугла?

@MikeBlazerX

Учитывает ли Google "стоимость извлечения" в качестве фактора ранжирования?

Марк Уильямс-Кук скептически относится к концепции "cost of retrieval", аргументируя это тем, что Google в любом случае необходимо получить контент, чтобы определить стоимость его извлечения, и что ранжирование качественного контента должно иметь лучшую ожидаемую ценность для Google, чем ранжирование контента более низкого качества только потому, что он имеет меньшую стоимость извлечения.

Признавая логичность того, что системы Google переходят от вычислительно дешёвых к вычислительно дорогим тестам (например, используя быстрые тесты для фильтрации 900 тысяч очевидно плохих страниц из миллиона перед применением более ресурсоёмких тестов), он ставит под вопрос, как этот процесс оптимизации связан со стоимостью извлечения контента как фактором ранжирования, отмечая, что некачественный контент останется некачественным в любом случае.

Ответы и мнения SEO-специалистов

1. Бизнес-перспектива:

— С точки зрения операционных расходов бизнеса, оптимизация для минимизации затрат имеет смысл, так как снижение расходов увеличивает прибыль
Prerender может быть фактором, хотя наблюдаемый буст может быть просто результатом улучшения скорости сайта, а не стоимости обработки

2. Перспектива краулинга:

— Поисковики краулят целые сети страниц, а не отдельные страницы
— Они настраивают оценки целесообразности инвестирования ресурсов в остальные страницы домена/сайта/кластера связанных страниц
— Эти оценки учитывают востребованность и уникальность контента
— Страницы в "хороших окрестностях" могут получить больше инвестиций благодаря своим связям

3. Инсайты по распределению ресурсов:

— Индексация веба - это задача оптимизации: цель - потратить минимум ресурсов для извлечения уникального контента, который нравится пользователям
— Частота краулинга - ранний индикатор инвестиций в контент
— Иерархия легкости обработки контента: размеченный семантический контент > чистый HTML > JS-рендеринг

4. Наблюдения по авторитетности и индексации:

— Сигналы авторитетности могут перевешивать другие сигналы, например, каноникалы
— Идентичные страницы авторитетных сайтов (с параметрами отслеживания) могут индексироваться и рендериться
— Медленно загружающиеся клиент-рендеринг сайты получают ограниченные ресурсы краулинга/индексации по сравнению со статическими быстрыми сайтами

5. Связь с Core Web Vitals:

CWV связаны с энергопотреблением за счет сокращения времени/ресурсов на обработку страниц
— Метрики стоимости можно определить только после рендеринга
— Любая стоимость извлечения будет ретроактивной метрикой
— Предположения о стоимости можно делать после сбора достаточного количества данных
— Сеть ссылок показывает ценность, которая распространяется по сети

6. Перспектива коммуникации Google:

— Если бы "стоимость извлечения" была важным фактором, Google, вероятно, более открыто коммуницировал бы об этом, поскольку они обычно делятся рекомендациями о том, как помочь им лучше индексировать веб, и возможно даже создали бы специальную метрику для этого

@MikeBlazerX