23 Апрель 2017, 15:05
SEOPRAVDA.RU


Последние сообщения

Страницы: [1] 2 3 ... 10
1
Ну что ж, отличное новшество, спасибо Яндексу за наше счастливое настоящее и с верой в еще более счастливое будущее  :clapping:
2
Запросы с разных устройств — теперь и в Вебмастере

Цитирую блог Яндекса для вебмастеров об отличном новшестве, облегчающем жизнь сеошников и вебмастеров:

21 апреля, 10:14

В Яндекс.Вебмастере появилась возможность разделять запросы, заданные с мобильных устройств и десктопов.

Позиции, CTR, показы и клики по одним и тем же поисковым запросам могут серьёзно различаться в мобильной и десктопной выдаче. Это происходит потому, что пользователи по-разному ведут себя на разных устройствах. Поиск старается учитывать такие особенности, и именно для этого в феврале прошлого года был запущен алгоритм Владивосток, учитывающий мобилопригодность ресурса как фактор ранжирования.


Поэтому мы рекомендуем отдельно анализировать показатели сайта с учётом устройств пользователей при помощи нового фильтра, добавленного в раздел «Поисковые запросы».
3
Привет!  :drinks: Я всегда советую ставить эти кнопки. И кнопки Ваших сетей, чтобы люди становились Вашими друзьями в сетях. Кстати, эти кнопки ПОДЕЛИТЬСЯ очень удобны при заказе услуг у сторонних лиц.

Когда регулярно ведутся акки и группы в сетях, то всегда есть доп. трафик - ежедневно, а раз в месяц примерно отслеживаю и покупки в ИМ от клиентов, пришедших из Твиттера, ВК, ФБ, Гугл+
4
Сегодня 21.04.17 людям стали приходить в Вебмастер сообщения о наличии фильтра Баден-Баден, на Серче поднялся галдеж и лай и появился вот этот скромный пост в блоге ЯВМ:

Баден-Баден и уведомления в Вебмастере

сегодня, 16:29

Как и обещали, мы начали использовать алгоритм Баден-Баден для определения нарушений со стороны сайта, связанных с переоптимизацией, дополнив им предыдущие способы определения этой проблемы. Уведомления о данном нарушении в Яндекс.Вебмастере выглядят вот так:


Для устранения нарушения необходимо удалить переоптимизированные тексты с сайта. После этого нужно дождаться, пока наши алгоритмы обнаружат и обработают изменения на страницах. Также вы можете воспользоваться кнопкой «Я все исправил», которая отправит нашим алгоритмам дополнительный сигнал о том, что сейчас на сайте нарушений нет.

Мы просим владельцев сайтов еще раз убедиться, что на их ресурсах тексты написаны для людей, а не для роботов.

Держим обещания
Команда Поиска
5
Коллеги, собственно вопрос в топике.
Одна моя знакомая говорит, что это важно. Я считаю, что нет. Может ошибаюсь. А как думаете вы?
6
7 апреля 2017 появился новый пост на блоге Яндекс-Вебмастера, из которого мы узнали, что скоро факт наличия ББ будет фиксироваться в разделе Нарушения как ПЕРЕОПТИМИЗАЦИЯ:

Баден-Баден и нарушения на сайте
7 апреля, 11:05

Помогая пользователям находить ответы на вопросы и решать разнообразные задачи, Яндекс старается показывать в результатах поиска те сайты, которые лучше справляются с этой задачей – то есть являются более удобными и информативными. Удобство и информативность сайта во многом зависит от текста, который пользователь видит на его страницах.

К сожалению, довольно часто тексты на страницах сайтов пишутся не для людей, а для поисковых роботов. В них много повторяющихся ключевых слов и неестественных речевых оборотов, но мало полезной информации. Мы называем такие тексты переоптимизированными и стараемся, чтобы страницы с такими текстами не ранжировались высоко в результатах поиска, отдавая предпочтение текстам, написанным для людей.

Недавно мы начали использовать в ранжировании Баден-Баден - новый алгоритм определения переоптимизированных страниц. В апреле мы переходим к следующему этапу работы с этим алгоритмом - начинаем использовать его для определения на сайте нарушения «Переоптимизация», при наличии которого все страницы сайта могут ранжироваться ниже. Информация о наличии этого и других нарушений поисковой лицензии отображается в Яндекс.Вебмастере в разделе «Диагностика» - «Безопасность и нарушения».

Рекомендуем вебмастерам отказаться от использования на своих сайтах текстов для роботов и повернуть тексты лицом к людям.
7
Как спарсить тайтлы, дескрипшн, кейвордс и заголовки Н1-2-3-4 сайта

Белое продвижение сайтов набирает обороты. Реально самым главным сегодня становится контент для людей. Сейчас Яндекс вводит пессимизирующий алгоритм Баден-Баден. Анализируя сайты новых клиентов, постоянно вижу, что у 70% проектов неправильные тексты, теги, заголовки, из-за чего сайты плохо ранжируются или получают фильтры, имеют малый трафик, к тому же и этот трафик малоконвертируемый.

Чтобы на первом этапе быстро поправить весь сайт сразу, ищу ошибки в тайтл, дескрипшн, заголовках. Для этого нужна пакетная выгрузка всех тегов и заголовков сайта. В этой статье расскажу, как это быстрее и удобнее реализовать.

Итак, чтобы выгрузить теги и заголовки интересующих нас страниц, у нас должен быть список в файле txt этих страниц. Подробно том, как его получить проще и быстрее всего, к тому же без мусора, я рассказываю в посте Как получить УРЛы сайта бесплатно. Считаем, что этот список у нас уже есть.

Заходим на сайт Программист.ру и качаем программку ПАРСЕР ЗАГОЛОВКОВ СТРАНИЦ ссылка.
Запускаем программу и выставляем необходимые настройки, сейчас меня лично интересуют вот эти:


Затем ставим УРЛы для исследования в окно и жмем клавишу НАЧАТЬ ПАРСИНГ:


Получаем результат


Жмем Файл и Экспорт в Эксель. Получаем таблицу, в которой можно сразу работать по корректировке тегов и заголовков, внося изменения:








8
Как получить УРЛы сайта бесплатно

Спарсить урлы сайта можно многими способами, например, при помощи проги Xenu. Но эта программа выдает очень много лишнего - не только актуальные страницы сайта, но и УРЛ изображений, скриншотов, видео, исходящие ссылки с сайта и пр. Этот список долго сортировать. Поэтому можно пойти другим путем.

Вариант 1. Онлайн-сервис xml-sitemaps.com (до 500 ссылок бесплатно)

Если у Вас небольшой сайт (до 500 страниц), заходим на этот замечательный сервис ссылка, вводим УРЛ сайта и жмем кнопку НАЧАЛО:


В результате получаем карту сайта -


Но нас сегодня интересует не карта сайта XML, а список УРЛ, скачиваем его отсюда в блокнот в формате txt:


На этом все. Список УРЛов готов для дальнейшего использования.

Вопрос. А что делать, если на сайте намного больше страниц, чем 500?

Ответ. Для этого можно скачать платную десктопную программу (стоимостью 20 долларов США)
ссылка, позволяющую создавать карту сайта и список УРЛов для неограниченного количества страниц.

Вариант 2. Десктопная программа wonderwebware.com/sitemap-generator/ - генератор карты сайта и УРЛов

Заходим сюда ссылка и скачиваем десктопную программу - Генератор карты сайта wonderwebware.com/sitemap-generator


Запускаем Программу. Вводим УРЛ сайта и жмем кнопку СТАРТ, получаем все УРЛ сайта:


Переходим на вкладку Yahoo и копируем УРЛ в буфер обмена нажатием клавиши Copy to Clipboard:


После этого вставляем содержимое в блокнот. Вуаля, наш список УРЛов сайта готов для дальнейшего использования. Например, для изучения всех тегов и заголовков сайта с целью их корректировки, об этом я пишу в этом посте ссылка. Вариант 2 мне понравился больше  :dance2:





9
Здравствуйте,

Сегодня мы обновили данные в нашем веб-сервисе подбора ключевых слов по доменам конкурентов.

Поисковая выдача Яндекса запрашивалась со второй половины марта по первую половину апреля 2017 г.
База ключевых слов обновлена в марте 2017 г., частотности по этим словам запрошены также в марте.
Размер базы, по которой запрашивалась выдача для региона "Москва", составляет 105 млн. ключевых слов.
Размер базы, по которой запрашивалась выдача для регионов "Россия", "Украина" и "Санкт-Петербург", составляет 30 млн. ключевых слов.

Адрес веб-сервиса:
ссылка
10
Всех форумчан поздравляю с Пасхой - светлым Христовым Воскресением! Христос Воскресе!
Желаю мира, добра, здоровья, благополучия!

Страницы: [1] 2 3 ... 10