АлаичЪ про SEO, бизнес и …
6.36K subscribers
71 photos
502 links
Говорим про SEO, внутреннюю кухню студии «АлаичЪ и Ко» и другие крутые проекты 💪🏻
Автор: @VictimAlex (Александр Алаев).
PS Рекламу не продаем.
Download Telegram
Привет, ребята.
Недавно я вернул рубрику #вашивопросы в рамках которой вы можете задать мне любой вопрос, а ответы на самые интересные я публикую в канале (на неинтересные отвечаю в переписке). Так что, если есть что спросить – пишите лично или в комменты.

Также вы мне периодически присылаете что-то, чем хотите поделиться (не знаю, зачем это вам, но мне очень приятно).
А где-то месяц назад меня посетила не гениальная, но все же идея – а что если обогатить наш канал вашим опытом? Просто так писать, будем честны, впадлу для большинства.
Но если мы предусмотрим небольшое вознаграждение тем, кто пришлет полезную информацию, например, 500-1000 рублей за опубликованный пост? Ваши небольшие кейсы, опыты, наблюдения и лайфхаки – если мне понравится, я опубликую в канале – тогда бонус ваш.
Что скажете?

А ниже я опубликую информацию, которую мне прислали сегодня:
Здравствуйте Александр, может Вам пригодиться, нашел возможность добавить компанию в Гугл картах в Крыму. Всего за сутки. Я думаю, можно так добавлять и в других регионах, чтобы не ждать месяц кода на почту, а потом уже на готовую карточку подтверждать права владельца.
Необходимо стать местным экспертом - https://www.google.com/localguides/signup
Справка Google - https://support.google.com/local-guides/answer/6225846?hl=ru
Моего 3 уровня хватило чтобы добавить компанию.
Далее - https://yadi.sk/i/45uVmGVvgGHuHQ
На почту пришло такое сообщение - https://yadi.sk/i/mAH-Y5J2PiTagg

Информация совсем не новая. Я писал об этом пару лет назад тут https://alaev.info/blog/post/7054#speedadd (заголовок «Как быстро добавить организацию на Гугл Карты?»), а пользовался и намного раньше. Но кто-то мог и не знать, поэтому я решил, поделиться.

Стать Местным Экспертом высокого уровня просто (но не быстро) – достаточно ставить оценки, писать отзывы, загружать фото и видео. Ходите в кафешки, рестораны, парки, останавливаетесь в отелях – пишете отзыв (с телефона и не менее 250 символов – так баллов больше), прикладываете пару фотографий – сразу дают много баллов. Прокачанный профиль может потом много где пригодиться 😎
👍1
Читали уже новость про то, что «Яндекс учтет сигналы о недобросовестности организаций при ранжировании их сайтов»?

🔗 https://webmaster.yandex.ru/blog/utm-source-wmblog-utm-medium-post-utm-campaign-new-ranging-yandeks-uchtet-signaly-o-nedobrosovestnosti-organizatsiy-pri-ranzhirovanii-ikh-saytov

Кстати, обратили внимание на url? Что-то контент-менеджер накосячил, однако. Так что, если вдруг они опомнятся и исправят url, возможно, новость по ссылке будет недоступна.

---
Как это работает?
Алгоритм может понять, какой сайт или бизнес действует недобросовестно. Например, сознательно уклоняется от предоставления уже оплаченных клиентом услуг или исполняет их в ненадлежащем виде. Алгоритм опирается на множество факторов, используя для принятия решения совокупность сигналов, когда одни данные перепроверяются другими. Это дает возможность исключить ошибки и делает бесполезной фальсификацию жалоб на конкурентов или, к примеру, публикацию в сети отзывов о себе.

Важно знать: новые правила никак не коснутся организаций, у которых были осечки в сервисе (например, связанные с человеческим фактором), но не было плана действовать так специально.

Представим, что существует клининговая компания A, которая работает по 100%-ной предоплате. Клиент ее внес, а специалисты к нему не приехали и приезжать не собирались. Будет ли влияние алгоритма на такой сайт значительным? Да. Яндекс просканирует поток сигналов о компании А, оценит их регулярность и придет к выводу, что это недобросовестная организация.

Существует компания B, оказывающая услуги по сборке мебели. Специалисты обычно делают все качественно и в срок, но однажды сильно опоздали, и клиент остался недоволен услугой. Это не повлияет на ранжирование сайта, потому что ошибки, форс-мажоры и недопонимание с клиентами случаются у всех. Злого умысла здесь не было.
---

Честно говоря, это звучит так, как не будет работать на практике никогда.
Сколько уже было слов «алгоритм может понять …» - и вместо многоточия можно подставлять историю, как конкуренты накручивают ПФ, покупают плохие ссылки и т.д.
Мы-то знаем, что происки конкурентов приводят к тому, что ваш сайт в жопе, как будто вы сами пробовали продвинуться запрещенными способами. А Яндекс никогда не комментирует происходящее, потому что не знает, что происходит, и «наш алгоритм все понимает, просто улучшайте ваш сайт».

Проклятые капиталисты 👊

PS Как обычно, самое ценное в таких публикациях – комментарии.
Ребята, напоминаю, что я отвечаю на ваши вопросы по SEO или бизнесу. Не стесняйтесь спрашивать!

Подскажите, как лучше закрыть от индексации все страницы с параметрами для избежания дублей (у меня все страницы с ЧПУ)?
Disallow: /
? или clean-param или canonical

❗️ В отличие от большинства seo-вопросов, тут есть решение, которое позволит удовлетворить оба поисковика.

Что нам говорит Яндекс:
«Иногда для закрытия таких страниц используется директива Disallow. Рекомендуем использовать Clean-param, так как эта директива позволяет передавать основному URL или сайту некоторые накопленные показатели.»

Самое главное тут не в самой рекомендации, а в причине: передача показателей страниц. То есть оно работает так, как должен работать canonical, который в Яндексе работает очень плохо и, например, сортировки и пагинации в итоге не склеиваются.
Если же просто закрыть страницы с параметрами от индексации при помощи Disallow: /? или meta robots=”noindex”, то «накопленные показатели» основной странице не передадутся.

Что нам говорит Google:
«Google не рекомендует блокировать поисковым роботам доступ к повторяющемуся контенту с помощью файла robots.txt или иными способами. Лучше всего разрешить сканирование этих URL, но при этом пометить их как точные копии с помощью ссылки rel="canonical" или инструмента обработки параметров URL.»

В Гугле никакого клинпарама не существует, зато canonical работает как положено! Фактически, вы получите результат, аналогичный описанному для Яндекса выше, если будете использовать canonical.

Кстати, в Гугле вообще лучше избегать использования robots.txt, так как он хоть и не сканирует такие страницы, но регулярно добавляет в индекс (с пометкой, что индексирование запрещено),

⚠️ Выводы: Как вы уже догадались, чтобы все было хорошо, надо одновременно использовать директиву Clean-param: в robots.txt для Яндекса и rel="canonical" для Google.

Кроме этого, если технически затруднительно настроить каноникалы, для Гугла можно использовать инструмент «Параметры URL», где вы можете указать параметры и как их следует обрабатывать (указываем те же, какие будем писать в clean-param).

🔗 Директива Clean-param: https://yandex.ru/support/webmaster/robot-workings/clean-param.html
Страницы с идентичным контентом: https://developers.google.com/search/docs/advanced/guidelines/duplicate-content?hl=ru
Параметры URL: https://www.google.com/webmasters/tools/crawl-url-parameters

PS Видели, вчера интерфейс Google Search Console обновился? Я лично скучаю по старому интерфейсу (он еще остался в некоторых инструментах, например, если перейдете в «Параметры URL» по ссылке выше, то увидите его).

👉 Вы можете задавать мне вопросы в комментариях или лично @VictimAlex

#вашивопросы
😢1
Как делать SEO на запад?

Чек лист:

1. Подписаться на канал Виктора Карпенко
2. Получать норм идеи и практическую выжимку
3. Применять на своих проектах

PS: Посмотрите для примера этот пост, по прокачке.

Топов, трафика и мега конверсий!)

#реклама
​​«Черная пятница, Киберпонедельник, Рождество, Новый год».
Если названия этих праздников вызывают не светлые эмоции, а чувство легкого натяжения нервных клеток, значит — пришло время заняться своими сайтами 🤔
Serpstat запустили SEO-распродажу: до 40% на все свои тарифы на период 6 и 12 месяцев!

Чем крут Serpstat:
более 30 инструментов для продвижения в одной платформе;
доступ к 244 поисковым базам данных Google и Яндекс;
возможность в один клик провести комплексный экспресс-анализ сайта с помощью расширения Serpstat Website SEO Checker.

Кроме этого, перед покупкой ребята проведут персональную демонстрацию возможностей платформы, чтобы вы могли определить для себя: Serpstat для вас или надо искать дальше?

Свою скидку можете забрать 👉 тут 👈

А еще у них есть крутой блог, где они собрали готовые стратегии продвижения от лидеров ниши в формате чек-листов, реальные кейсы клиентов и советы от специалистов Serpstat по вашим задачам 🚀

#реклама
Качественные ссылки под бурж SEO (или где взять надежного поставщика обратных ссылок для любого GEO?)

Если вам нужны качественные линки:

- аутрич
- крауд
- морды
- PBN
- другие типы ссылок

То вот чек лист для нужного результата:

1) Переходим по этой ссылке
2) Заполняем заявку
3) Обсуждаем задачу
4) Начинаем получать нужные ссылки
5) Получаем нужный топчик

Кто ставит ссылки?

Backlinkers – опытная и системная команда, которая уже более 7-ми лет занимается линкбилдингом.

- налаженный процесс
- четкое понимание задачи
- выдают рекомендации по анкор листам, динамике и простановке (а это очень важно для успешного линкбилдинга)

В общем, гоу обсуждать задачу, и получать нужный результат!)

Зачем оттягивать на завтра то, что может принести результат уже сегодня?

PS: Если вам влом заполнять заявку на сайте, то просто можно сразу написать Коле: @nick_konyev , он детально и оперативно подскажет)

#реклама
​​Наверное, многие из вас уже позабыли, что в конце июля я анонсировал новый сервис для краулинга/сканирования сайта – Qrawl.io.

«…сейчас мы быстро все пофиксим и вернемся с новым раундом тестирования!» - обещал я, но оказалось все сложнее. Так что я приношу свои извинения за столь длительную задержку.

На прошлом этапе было более 100 тестеров: спасибо вам за обратную связь, мы все (многое) учли и провели не только работу над ошибками, но существенно улучшили техническую часть парсера.

Краул предлагает базовый функционал (но теперь ваш ноут точно вытянет, всё в облаке, работает очень быстро, да еще и бесплатно):
- Базовые вещи (robots.txt, meta robots, canonical, редиректы, ответы сервера и т.д.),
- Анализ метатегов и заголовков (title, description, h1-h6),
- Анализ не HTML содержимого (скрипты, стили, файлы, документы и т.д. с группировкой по URL)
- Анализ изображений (с группировкой по URL),
- Анализ структуры (и вложенности),
- Анализ ссылок (внешних и внутренних),
- Сохраняет все ссылочные связи,
- Может обрабатывать 1000+ URL в секунду, если позволит сервер, где хостится сайт,
- Определение антиботов и защиты от парсинга (предупредим если для успешного сканирования сайта необходимо будет отключить защиту или добавить ip сервиса в вайтлист).

На этот раз:
- Никаких инвайтов (регистрация свободная для всех),
- Фидбек в свободной форме и по желанию (пишите мне @victimalex),
- Ограничение на 30 000 url на аккаунт (можно просканировать 30к страниц в рамках одного сайта, либо 30 сайтов по 1к страниц – как вам нравится).

🔗 https://app.qrawl.io/

Короче, го тестить, друзья! 😎

PS Как только базовый функционал покажет свою стабильность, мы сразу отправимся пилить действительно крутые штуки, так что если у вас есть какие-то идеи, пусть даже совершенно безумные, пишите!
Скрепы рушатся, господа.
Alexa.com прекращает работу с 1 мая 2022 года!

Не уверен, что кто-то из вас покупал подписку на платные тарифы сервиса, но с 8 декабря 2021 года нельзя будет оформить такую подписку, а все существующие подписки будут действовать до 1 мая 2022 года.

🔗 https://support.alexa.com/hc/en-us/articles/4410503838999

Alexa Internet просуществовал 25 лет!
Аминь.
😭
Нужно мнение общественности: Какой уровень вложенности имеет главная страница и страница в одном клике от главной?
Anonymous Poll
62%
Главная - 0 уровень. Один клик от главной - 1 ур.
38%
Главная - 1 уровень. Один клик от главной - 2 ур.
Ребята, напоминаю, что я отвечаю на ваши вопросы по SEO или бизнесу. Не стесняйтесь спрашивать!

Как Яндекс и Google определяют last-click? Если бы пользователь открывал одну страницу, смотрел ее и возвращался в ПС – в целом понятно. Но на практике пользователь открывает большое количество сайтов одновременно во вкладках, переходит между ними не последовательно, а на те, которые загрузились, периодически возвращается в поиск, открывая новые. Как ПС определяет с какого сайта он вернулся? Понятно, что Гугл берет данные из хрома, а Яндекс из своего браузера. Но в России нет браузера монополиста – погрешность выводов только на этих данных слишком большая. Как в итоге ПС определяют этот самый ласт клик с высокой точностью?

❗️ Информации от самих поисковиков на этот счет нет, оно и понятно. Так что все нижесказанное – это лишь догадки, немного логики и здравый смысл (но это не точно).

Во-первых, никто не сказал, что ласт-клик определяется с высокой точностью. Наверное, на выдаче миллиарды кликов ежедневно, так что где-то на стыке ресурсозатрат и важности параметра достигается приемлемая точность.

Во-вторых, описанный сценарий поведения на выдаче - открыть сразу много вкладок - один из множества. Я тоже так делаю…но только когда работаю с компа, а на телефоне, например, мой сценарий поведения совсем иной: я жму понравившийся результат и перехожу на сайт, если меня все устроило, читаю и закрываю браузер, если не устроило – жму назад, попадают на выдачу, жму следующий результат и далее по аналогичному сценарию.

В-третьих, выдача уже давно неоднородна – кроме того, что там вперемешку коммерция и информационка, так еще в рамках этих групп есть свои деления. Надо оценивать: CTR конкретного результата, CTR определенной группы, возвраты, длину сессии на странице поиска и еще десятки (а может, сотни) других параметров.

Для всего этого нет необходимости использовать данные из браузеров или что-то подобное. Все, что измеряется на странице выдачи, и так уже подконтрольно поисковикам, точнее уже ничего быть не может.

Я к чему. Очень много пользователей, еще больше кликов, паттерны поведения разные, они меняются в зависимости от девайса…
Короче, рассматривать изолированно только этот один параметр не имеет практического смысла. Ну, разве что с чисто научной точки зрения и только.

⚠️ А вот из практики хотелось бы добавить, что если мы тут собрались обсуждать продвижение и мыслим в этом ключе, метрика, которая существенно влияет на ранжирование – это CTR. При этом, вообще не важно, что происходит дальше и уж тем более не важно, что происходит на самом сайте.
На этом и строится накрутка ПФ, которая, как мы знаем, до сих пор работает прекрасно.

👉 Вы можете задавать мне вопросы в комментариях или лично @VictimAlex

#вашивопросы
Я вам сейчас одну вещь скажу, только вы не обижайтесь 🤪
Помните те времена, когда ближе к новому году на многих сайтах появлялись снежинки и всякое такое подобное, от чего процессор компьютера офигевал сразу на 100%?
Я решил, что это давно в прошлом, потому что не видел ничего подобного уже много лет.
И тут какое-то ностальгическое потрясение случилось – кто-то из клиентов попросил: сделайте мне снежинки!
ШТО?
А потом еще один!
КАК?
Я не могу объяснить это странное поведение.
Но что мы могли сделать в такой ситуации?
А вдруг из ваших клиентов тоже кто-то захотел?

Коллеги из прог.отдела (Оля, привет) запилили падающий снег!
☃️ Выглядит так: http://alaev.co/ (я не хотел, честно, меня заставили показывать демо на нашем сайте)

Особенности:
❄️ Используется CSS + JS поэтому не тормозит и не вешает сайт (мы потестили),
❄️ Используется библиотека Font Awesome v4.7.0 (так что можно поставить любую иконку, а не только снежинку),
❄️ В файле snowFlake.js можно изменять: иконку, цвет, количество снежинок.

Чтобы установить:
1. Скачать и распаковать архив с Google Drive,
2. Добавить папку в корень сайта,
3. Добавить подключение в блок head из файла readme.txt,
4. Сбросить кеш (опционально).

Если есть какие-то замечания по скорости или снежинки недостаточно сеошные, дайте знать 😍
👍1
Господа, у меня мгновение отчаяния, надеюсь, вы мне сможете помочь.
Полгода поисков программиста в офис не привели к результатам (парочка неудачных собеседований не в счет).
Хотел было спросить, что не так с программистами, а потом вспомнил, что с сеошниками такая же история (поэтому мы сами обучаем). Но обучать своих программистов мы не в состоянии пока.

Я к чему это все! Если гора не идет…может быть и идти никуда не надо?

Мы (АлаичЪ и Ко) ищем программиста-битриксоида на удаленку.
- Вы сами программист – пишите мне, обсудим,
- Ваш друг/знакомый кодит – пригласите его,
- Знаете, где еще можно поискать – я буду благодарен.

И я не теряю надежду, что еще может найтись программист из Краснодара, который хочет к нам приконнектиться (идеальный вариант).

Что касается подробностей, вот две наши вакансии из архива (надоело платить за то, что не приносит результата):
Junior: https://krasnodar.hh.ru/vacancy/48642946
Middle: https://krasnodar.hh.ru/vacancy/48639150
Смотрите описание и требования. ЗП готовы предложить и выше (но не в 2 раза, конечно).

PS Сейчас принято какие-то блага раздавать (вероятно, это скоро станет стандартом), так что со своей стороны могу обещать 20 000р. за рекомендацию. Если никто не рекомендовал, а вы сами как-то подсуетились, 20к получите вы. (после испытательного срока)

Надеюсь на волшебную силу всех вас, друзья ❤️
​​Привет, друзья.
До конца года полторы недели, значит пора подводить итоги. Я делаю это вот уже 12 лет. Начал писать для себя, теперь продолжаю еще и для читателей и всех небезразличных.
Помогает вспомнить все, что происходило, а часто это совсем непросто сделать, но как только начинаешь писать, воспоминания всплывают. Мне подведение итогов помогает понять, что год не прошел зря (часто кажется, что именно бессмысленно жизнь и проходит).

Ладно, к делу. Предлагаю прочитать первую половину – бизнес-итоги 2021 про:
- студию,
- команду,
- провалившиеся проекты,
- CheckTrust.ru,
- Qrawl.io,
- Moo.Team,
- этот канал,
- и не только.

🔗 https://alaev.info/blog/post/8954

PS Буду рад, если вы поделитесь и своими итогами в комментариях (здесь или на блоге - второе предпочтительнее для истории).

PPS Сегодня начинаю писать про личные итоги, надеюсь к концу недели успеть.
​​Друзья, делюсь с вами второй частью моих итогов – на этот раз личных.
Уж не знаю, что вам больше откликается, про работу или про жизнь, а может, и вовсе ни про что.

Как бы там ни было, я написал про:
- блог,
- книги,
- отдых,
- не отдых,
- дом,
- котов,
- семью.

🔗 https://alaev.info/blog/post/8981

И не молчите, хоть в паре слов скажите, как у вас-то дела? 😊

PS Выбрал самую уебищную фотографию. А может я просто выкидываю мусор, который не собираюсь брать с собой в следующем году )))
👍2
За что я люблю мой блог и этот телеграм канал? Почему мой первый проект в 2004 (как и все последующие) начался с форума?

Правильно – это комментарии, общение! Я обожаю вас за это, друзья 😍 Спасибо вам, что доставляете мне, себе и вообще всем такое удовольствие.

Помните мой пост про снежинки полторы недели назад? Я ведь думал, что это полная дичь, и никто в здравом уме не будет ставить их себе на сайт. Но мне поступило столько откликов и благодарностей, что я до сих пор не верю, что это было наяву 😊

И, конечно, ваши комментарии про сугробы и все такое… они были услышаны.
Я-то рассчитывал, что мы тут просто посмеемся и забудем, но сегодня из программного отдела пришло сообщение:

«Ребятки, в прошлой серии Оля сделала непоправимую красоту вашим сайтам, в виде прекрасных снежинок.
Теперь снежинок стало так много, что они скопились в сугробы!»

Установка:
1. Скачать и распаковать архив с Google Drive,
2. Закачать папку в корень сайта,
3. Добавить подключение в блок head из файла readme.txt,
4. Сбросить кеш (опционально).

Особенности:
❄️ Используется CSS + JS поэтому не тормозит и не вешает сайт (мы потестили),
❄️ Используется библиотека Font Awesome v4.7.0 (так что можно поставить любую иконку, а не только снежинку),
❄️ В файле snowFlake.js можно изменять: иконку, цвет, количество снежинок и сугробов, высоту сугробов и не только,
❄️ Все адаптивно!

☃️ Снежинки и сугробы поселились тут: https://alaev.co/

А что будет, если сугробы вырастут выше гор? Придется подождать и посмотреть 🧨

Можете оставлять в комментах отзывы и поздравления, если хотите!

С наступающим, господа! 🎅🏼
👍4🤩3
​​Дорогие друзья!
Сегодня, как вы понимаете, никаких дел, кроме общения с дорогими друзьями, быть не может! Готовка-подготовка – это не в счет, это праздничная суета, она только придает настроения празднику. 🎅🏼

Постараюсь без длинных речей, а только чтобы всех вас поздравить с наступающим Новым Годом!

Желаю всем вам в новом году хорошего настроения, удачи и правильного настроя, чтобы дела ладились и жизнь приносила радость! ❄️

Давайте дружно отдохнем и расслабимся, я думаю, мы все хорошо потрудились и заслужили перерыв, который можно посвятить себе и своим близким! ☃️

Спасибо вам за то, что мы вместе. От всей нашей команды вам большой привет и наилучшие поздравления ❤️

Увидимся в Новом 2022 году, друзья! Всем салют 🧨
👍18🔥17🤩5
​​В Google Business Profile (бывшем Google My Business) появились ограничения для новых владельцев и администраторов. Теперь полный доступ добавленный пользователь бизнес-профиля получит только через 7 дней.

Во время установленного периода ожидания добавленный администратор или новый владелец НЕ СМОЖЕТ:
• удалить и восстановить профиль;
• удалить из профиля других владельцев и администраторов;
• передать роль основного владельца себе, другому владельцу или администратору.

Новые ограничения от Google вроде как должны повысить безопасность бизнес-профилей, предотвратить попытки мошенничества или взлома.

Справка Google по теме: https://support.google.com/business/answer/3403100?hl=ru
😱9
​​Я уже писал в итогах года, что решил зарегистрировать товарный знак для нашей CRM-системы moo.team. А вчера получил оригинал свидетельства об этом.

Как еще одно напоминание себе и другим, что все серьезно, и мы не собираемся забрасывать то, что начали, будем развивать и в итоге сделаем самую крутую CRM для диджитал-команд!

Ну, и раз тут разговор снова зашел про CRM, хочу вам напомнить, что мы разрабатываем систему, оптимизированную под работу компаний, занимающиеся seo, разработкой и другой деятельностью, связанно с сайтами и маркетингом.

Наша команда полностью переехала в Мутим больше года назад, и теперь все дела и работу мы ведем там. Кроме задач и общения с клиентами мы анализируем нагрузку сотрудников, планируем отпуска, рассчитываем ЗП (это отдельный очень крутой модуль), храним доступы, структурируем базу знаний, строим отчеты, мониторим состояние сайтов и многое другое.

📑 В этом году будем делать упор на управленческие функции – все же решение о выборе удобной системы лежит на руководителе компании (или отдела). Создадим отчет об эффективности сотрудников. Учет прихода-ухода клиентов и рентабельность компании (отдела). Упрощенный (для начала) управленческий учет. И еще… И все это будет полезно не только командам (большим и маленьким), но и фрилансерам-одиночкам.

✋🏼 Если вы еще не тестировали или зарегистрировались, но не разобрались, напишите мне, устроим созвон-презентацию и я все вам покажу (буду рад пообщаться). Расскажете, как работаете, а я посоветую, как лучше настроить аккаунт и куда вам дальше двигаться (в развитии компании).

🤝🏼 У нас есть чат поддержки пользователей, где можно задавать вопросы, предлагать фичи и не только: https://t.me/mooteamchat - туда же я выкладываю информации об обновлениях, так что подписывайтесь в любом случае, чтобы не пропустить момент, когда появится та самая фича, которая станет для вас решающей, чтобы начать пользоваться CRM вообще или переехать из другой.

🔗 Ну и ссылка, конечно: https://moo.team

PS Если кому интересно, регистрация стоила 60к (плюс-минус 5к, не помню уже точную сумму) и 4,5 месяцев ожидания.
👍22🔥9
Вчера Google в Search Console выкатил отчет по основным интернет показателям и удобстве страниц теперь еще и для десктопа. Посмотрите, как красиво :)

Это подготовка к февральскому развёртыванию алгоритма, который будет учитывать Core Web Vitals в ранжировании результатов поиска на десктопе.

🔗 Источник: https://twitter.com/googlesearchc/status/1483109178658930694
👍13😱2
​​💥ОТКРЫТА РЕГИСТРАЦИЯ на крупнейшую конференцию по SEO-продвижению бизнеса на западных рынках
NaZapad 19💥

✔️ Для собственников и менеджеров бизнеса,
✔️ Маркетологов и пиарщиков,
✔️ SEOшников, веб-разработчиков, арбитражников и др.

За 7 лет выхода конференции перед зрителями выступили 200+ отечественных и зарубежных спикеров, которые поделились успешными кейсами и факапами. Всё максимально честно, наглядно и без воды.

Цель NaZapad — дать знания и инструменты для немедленного применения.

В этот раз вы узнаете о growth hacking, link building, affiliate и SEO. Ребята всегда приглашают топовых спикеров, но в этот раз они нашли профи, которые ВПЕРВЫЕ поделятся знаниями с публикой.

Среди самых ожидаемых докладов:
💥Иван Палий - Виральный контент для продуктовых сайтов. Как создавать и продвигать исследования на основе данных?
💥Дмитрий Сохач - Как создать персону с нуля и получить десятки ссылок с топовых сайтов
💥Сергей Сюняков - Affiliate SEO с продажами на 82+ млн. долларов за 4 года. Строим устойчивый конвейер по заработку на Amazon Affiliate и других товарных партнерках в США и Европе
💥Иван Боговик - Почему ссылки не работают в SEO? Ошибки линкбилдинга

Задавайте докладчикам вопросы в чате и получайте ответы на волнующие вас вопросы!
Отметьте в календаре: старт 28 января в 9:00

‼️ Участие БЕСПЛАТНОЕ при условии регистрации на nazapad.com

Подписывайтесь и следите за Telegram-каналом @nazapadseo.
Станьте частью профессионального комьюнити тех, кто развивает бизнес за рубежом!

#реклама