- специфіка тесту
- Технічна оптимізація
- Як заборонити в robots.txt сканування всього сайту
- Що потрібно знати про карту сайту
- Коли сторінка точно не буде проіндексована в Яндексі і Google?
- Як працює директива Clean-param в robots.txt?
- Текстова оптимізація
- Що таке LSI?
- Щільність входжень слова в текст
- Оптимальна довжина тега title
- Алгоритм текстового ранжирування Яндекса на РОМІП-2006
- довідкові чинники
- Платні посилання, відповідно до Мадридської доповіді
- Як працює rel = «nofollow»?
- Виберіть вірні твердження в плані SEO-посилань
- Переїзд сайту і трафік з Google
- Робота з інструментами
- Як визначити кількість пошуків за ключовим словом в Яндексі?
- Досягнення мети, цільові візити і відвідувачі
- Як працює оператор лапки в Яндекс.Вордстат
- Аналіз лог-файлу
- На закінчення
Вчора виклав в FB онлайн-тест по SEO . вийшло бурхливе обговорення , Тест, що називається «зайшов». З гордістю ділюся думкою Євгена Кулакова:
без жартів, крутий контрольна тест. Після проходження такого тесту на співбесіді будь-якого СЕО-експерта можна відправити додому)
Чесно кажучи, я робив сторінку тяп-ляп (для разового використання у своєму відділі) і не очікував такої реакції. Однак раз є інтерес - має сенс зробити його трохи якісніше.
В першу чергу всіх цікавлять правильні відповіді. Результати виводилися дуже криво (так вже працює хороший в іншому плагін). Ну а з відібраними мною вірними відповідями багато хто не згодні. Тому вирішив написати огляд тесту і докладно пояснити кожне питання.
Важливо! Перед читанням цієї статті настійно рекомендується пройти тест: https://alexeytrudov.com/junior-seo-test Я не буду повністю цитувати питання, так що це просто необхідно для розуміння статті.
специфіка тесту
У Мережі хоч відбавляй SEO-тестів. Однак ті, що я знайшов не підходили під мої завдання. Мені потрібен був тест, в якому:
- Завдання мають однозначне рішення, різні трактування не допускаються.
- Рішення засновані не на приватному думці, а на достовірних джерелах (в ідеалі - на довідці пошукових систем).
- Порушено кілька областей SEO (все охопити не вийде, але 3-4 різних сфери перевірити необхідно).
- Досить складні завдання (інакше результати будуть мало про що говорити: і профі, і новачок наберуть багато балів).
- Чи не занадто складні завдання (з тієї ж причини: якщо ніхто не зможе нічого вирішити, на перший план вийде удача, а не знання).
Судячи зі статистики результатів і обговорень, що вийшов тест цілком відповідає цим критеріям. Це радує, так як завдання об'єктивно непроста. Зробити не надто тривіальні питання на основі простих і добре відомих рекомендацій в довідці Яндекса - трошки взаємовиключні параграфи.
Ну а тепер власне до питань.
Технічна оптимізація
Що таке rel canonical
Мабуть, це один з найпростіших питань тесту - для затравки. Знайти вірний варіант легко методом виключення:
- Відповідь номер 1 явно хибний: Goolge взагалі не рекомендує використовувати canonical на сторінках пагінацію для «подклеіванія» підлеглих до першої, так що він явно не міг бути створений з цією метою.
- У відповіді номер 3 canonical-у приписана роль атрибута hreflang.
Як заборонити в robots.txt сканування всього сайту
Ще одне просте запитання. Правильна відповідь звичайно ж «Disallow: /».
У коментарях пропонували альтернативний варіант: «Disallow: *», проте в довідці і Яндекса і Google наведені приклади з використанням саме слеша.
UPD: покопався в функціоналі плагіна, виявляється, можна налаштувати кілька коректних відповідей. Тепер приймає і «Disallow: *».
Що потрібно знати про карту сайту
Тут трохи складніше - питання вимагає досить різнобічних знань про sitemap . Розберемо затвердження.
- За допомогою карти сайту можна повідомити робота про якій завгодно кількості сторінок сайту - правильно. У окремих файлів sitemap є технічні обмеження, але ви можете створити дуже багато файлів sitemap! І до речі, ніхто не забороняє змінювати url в карті!
- За допомогою карти сайту можна додати в індекс не більше 50 000 url - неправильно. Очевидно, що суперечить попередньому пункту.
- Якщо посилання на карту сайту не вказана в robots.txt, то пошукові системи проігнорують її - це не так. І Яндекс і Google дозволяють додавати карту сайту безпосередньо в панель вебмастера. До речі, не вказувати карту в robots.txt буває корисно, щоб не полегшувати життя тим, хто хоче Спарс ваш контент.
- Щоб прискорити індексацію сайту, потрібно вказати для всіх url в sitemap елемент priority, рівний 1 - якщо у всіх сторінок буде однаковий пріоритет, робот буде відбирати сторінки для обходу повністю на свій розсуд.
- Якщо адреса сторінки не вказано в sitemap.xml, то сторінка не буде проіндексована - неправда. Sitemap це допоміжний файл, додаткова точка входу роботів на сайт. Невеликі проекти живуть без неї розкошуючи. Більш того, я не раз переконувався, що Google далеко не завжди активно Краулі сторінки з карти сайту .
- Google підтримує sitemap.xml для зображень, а Яндекс - немає - правильно. Це просто факт з довідки ( пруф ).
Коли сторінка точно не буде проіндексована в Яндексі і Google?
Це питання викликало масу суперечок. Щоб в ньому розібратися, раджу насамперед прочитати мою статтю про способи управління індексацією .
З варіантом відповіді «Якщо її адресу відповідає забороняє правилом в robots.txt» особливих проблем не виникло: досить широко відомо, що robots.txt розглядається Google як рекомендація, а не сувора директива.
Багато відзначали, що сторінка не буде проіндексована в обох випадках:
- Якщо вона віддає заголовок X-Robots-Tag до директиви noindex, nofollow
- Якщо в її секції head міститься мета-тег robots, з noindex, follow
Однак варіант з X-Robots-Tag невірний з двох причин.
По-перше, Яндекс офіційно не підтримує X-Robots-Tag (див. Також міні-експеримент по посиланню вище):
По-друге, формулювання «мета-тег robots, з noindex, follow» однозначно описує конструкцію <meta name = "robots" content = "noindex, follow» /> (див. специфікацію для мета-тегів ). А ось першої формулюванні буде відповідати в тому числі і такий заголовок:
X-Robots-Tag: otherbot: noindex, nofollow
Це інструкція для робота «otherbot», вона точно не забороняє індексацію ні в Google ні в Яндексі.
Як працює директива Clean-param в robots.txt?
Ця директива працює під Яндекс, тому просто відкидаємо всі варіанти, де вказано Google.
Текстова оптимізація
Що таке IDF
Питання на розуміння однієї з основ текстової релевантності в класичному сенсі - метрики TF-IDF.
Проходив тест спотикаються на різниці між визначеннями:
«Інверсія частоти, з якою деяке слово зустрічається в документах колекції» і «Показник популярності унікального слова в пошуковому індексі. Прямо пропорційний кількості документів, де є дане слово, обернено пропорційний розміру індексу ».
Є кілька підказок, які дозволяють вибрати правильну відповідь, навіть не пам'ятаючи формулу, із загальних міркувань:
- Слово «інверсія» в першій фразі (відповідає букві I в абревіатурі).
- Метрика TF-IDF потрібна (якщо зовсім на пальцях), щоб обчислити, які слова запиту мають відносно високу популярність в даному документі. Щодо - значить в порівнянні з документами колекції. Якби один з множників формули - IDF був прямо пропорційний кількості документів, де є це слово, то максимальне значення TF-IDF отримували б найчастіші слова в Інтернеті, тобто ті, що зустрічаються майже у всіх документах. Інакше кажучи - стоп-слова! Це маячня, так що твердження неправильне.
Що таке LSI?
У FB навколо цього питання поламали чимало списів. Я вважаю, що тест повинен перевіряти реальні знання, а не знання домислів (нехай навіть вони записані в Вікіпедії). Реальність така, що першоджерелом щодо LSI є наукова література. Їй ми і будемо довіряти.
Почитати про це докладніше можна у великій і нудною статті від мене або короткою і веселою від Євгена Кулакова .
Багатьох, як я і планував, збила з пантелику формулювання «LSI - спектральне розкладання терм-документної матриці», тому що всім відомий сеошний мем у виконанні Олексія Чекушіна:
Зверніть увагу: Олексій говорить про сингулярному, а не спектральному розкладанні. Це різні речі.
Щільність входжень слова в текст
Зрозуміло, ніяких точних цифр привести не можна. Цього не можна зробити і щодо більш складних метрик оцінки тексту, про що я неодноразово писав, наприклад, тут .
Оптимальна довжина тега title
Лінь в сотий раз пояснювати одне й те саме. Про це у мене теж є окрема стаття (я запасливий!): Оптимальна довжина title для SEO. Чи обов'язково втискати тайтл в 60-70-75 символів?
Багато відповіли по суті вірно, вибравши варіант «Стільки, скільки потрібно для охоплення семантики, але не більше 12 слів». Він неточний з двох причин:
- Ніхто не заважає зробити title в 15 слів, але так щоб всі значущі для просування слова вписалися в перші 12.
- Завжди краще розуміти, звідки взялася цифра, ніж пам'ятати її. Адже Google може поміняти кількість врахованих в title слів в будь-який момент - та хоч в ті 10 хвилин, що ви проходите тест.
Алгоритм текстового ранжирування Яндекса на РОМІП-2006
Тут все досить просто, питання тільки виглядає загрозливо. Можна навіть не читати легендарну статтю (або мої коментарі до неї) - і відповісти вірно!
дивіться:
«Відсутність точного входження фрази для багатослівних запитів» навряд чи може бути фактором текстової релевантності в класичному сенсі. Оцінка релевантності - це сума доданків. Якби цей фактор працював, то документи, де фрази немає були б більш доречні, ніж ті, де вона є! Більш того, у нас є протилежне твердження: «Наявність точного входження фрази для багатослівних запитів.» Ясно, що два фактори, що несуть одну і ту ж інформацію навряд чи можуть існувати в одній формулі.
Ще один неправильний відповідь - «Величина скалярного твори векторів, у вигляді яких представлені текст запиту і текст документа». Щоб його вибрати, досить уважно прочитати анонс алгоритму Корольов . Або із загальних міркувань здогадатися, що перетворення документів у вектора, які можна порівнювати з векторами запитів (ось так от легко!) - це завдання не для 2006 року.
довідкові чинники
Чому показники начебто Ahrefs Domain Rating не можуть вважатися достовірною оцінкою посилальних чинників?
Тут всі відповіді правильні.
Перший пункт очевидний, але якщо хочете пруф - легко нагулу статистику активності різних роботів. Від Googlebot відстають все (що очікувано).
За другим пунктом не можу відіслати до конкретної статистикою. Тут досить трохи поспілкуватися з тими, хто серйозно займається сітками сайтів, щоб зрозуміти, наскільки масштабна блокування доступу роботам довідкових сервісів.
Щоб погодитися з третім відповіддю вистачить факту, що у Google є патент «Ranking documents based on user behavior and / or feature data».
Платні посилання, відповідно до Мадридської доповіді
Знову-ж, необов'язково читати доповідь, щоб вірно відповісти (він згаданий в заголовку, щоб був чіткий і зрозумілий пруф). Очевидно, що два останні пункти легко можуть бути ознаками нормальних, природних посилань.
Як працює rel = «nofollow»?
Питання чисто на знання довідки. Правильна відповідь: «Цей атрибут - інструкція пошуковому роботу не переходити за посиланням» - тільки це формулювання витримує порівняння з довідкою пошукових систем.
Див. також докладніше про nofollow .
Виберіть вірні твердження в плані SEO-посилань
- І Яндекс і Google можуть вводити санкції проти сайтів, агресивно нарощують кількість посилань - правильно. Є Минусинськ, є Пінгвін.
- Яндекс.Вебмайстер має спеціальний інструмент для відхилення «поганих» посилань - неправильно (і це дуже сумно).
- Google Search Console має спеціальний інструмент для відхилення «поганих» посилань - вірно, ось пруф .
- Платні посилання не можуть бути корисним сигналом для підвищення якості пошуку - неправильно. Зрозуміло, вони можуть бути корисним сигналом, про це прямо сказано в тому ж Мадридському доповіді. Взагалі кажучи, в іншому випадку пошуковики давно обнулили б їх дію і вся індустрія продажу посилань померла б років десять тому.
- Зовнішні посилання не можуть пошкодити ранжирування сайту в Google - неправильно, Пінгвін нікуди не подівся.
Переїзд сайту і трафік з Google
Все строго по довідці.
Пам'ятайте про те, що при перенесенні сайту може змінюватися його положення в результатах пошуку.
Це пов'язано з тим, що робот Google сканує і індексацію веб-сторінок заново. Як правило, повне індексування сайту середнього розміру займає кілька тижнів. Чим більше сайт, тим триваліше цей період.
https://support.google.com/webmasters/answer/34437?hl=ru
Інструмент зміни адрес повідомляє в Google актуальні URL ваших сторінок, що дозволяє нам додати в індекс новий домен. Оновлення індексу триває 180 днів. Протягом цього часу робот Googlebot сканує та індексує сторінки з новими адресами.
https://support.google.com/webmasters/answer/83106?hl=ru
Чи не знизиться рейтинг сторінок, якщо я настрою переадресацію на нові URL?
Ні. Переадресація 301 або 302 не призводить до зниження PageRank.
https://support.google.com/webmasters/answer/83106?hl=ru
Отже, правильна відповідь - «Згідно з офіційними заявами PageRank при переадресації не губиться, однак не виключена просадка позицій на тривалий термін». 180 днів - серйозний термін.
Робота з інструментами
Які дані про пошукові запити є в Google Search Console?
Просте запитання, але так як у відповіді багато пунктів, потрібно правильно відповісти на всі.
- У SC показуються всі пошукові запити, за якими були преход на сайт з Google - немає (див. Наступні пункти).
- У SC можуть не показуватися низькочастотні пошукові запити - правильно (див. Цитату на початку статті про аналіз даних в Search Console ).
- У SC можуть не показуватися пошукові запити, пов'язані з персональними даними - правильно, пруф там же.
- У SC також показуються url сайту, на які були зроблені переходи - правильно, досить відкрити інтерфейс, щоб в цьому переконатися.
- У SC для кожної фрази показуються CTR і SERP Impressions - неправильно. SERP Impressins показуються тільки в Яндекс.Вебмастере . В консолі є Total impressions.
Як визначити кількість пошуків за ключовим словом в Яндексі?
Тут потрібно знати, що таке SERP Impressions (посилання абзацом вище), оцінити період, за який представлені дані на скріншоті (це 10 днів), помножити 7437 на 3 та округлити до тисяч, в результаті вийде 22.
Досягнення мети, цільові візити і відвідувачі
Складаємо все кліки по кнопці додавання в корзину - отримуємо 5 цільових дій. Вибираємо єдиний варіант, де вказано їх кількість.
Як працює оператор лапки в Яндекс.Вордстат
Напевно ви вже втомилися лазити в довідку до цього моменту, так що тут найпростіше подивитися повний скрін:
Єдина відповідь, яку нам підходить: Запити з 4 слів, що містять лексеми «холодильник» і «купити».
Аналіз лог-файлу
Ключова фраза тут - «незалежно від того, який формат балки використовується». Ми не знаємо взагалі, яку інформацію і в якому порядку сюди пхає сервер. Однак в нашій улюбленій довідці Google чорним по білому написано , Що під виглядом робота Google на сайт можуть заходити зловмисники. Для того, щоб зрозуміти, чи дійсно це візит робота Google, потрібно виконати зворотний DNS-запит IP-адреси (за посиланням все докладно), стандартних журналів сервера для цього недостатньо.
На закінчення
Зрозуміло, головне в SEO - це не вміння вирішувати тести, а вміння добувати цільовий трафік. Так що якщо ви отримали порівняно низький результат (тобто менше 10 балів) - це не повинно вас засмучувати (тим більше що формулювання завдань все-таки не ідеальні і можна щось переплутати в тому числі з моєї вини). Просто пам'ятайте, що SEO-скилл базується в першу чергу на вмінні працювати з інформацією, помічати деталі і будувати несуперечливу картину реальності.
Успіхів і вітаю з настала п'ятницею!
Txt?Коли сторінка точно не буде проіндексована в Яндексі і Google?
Txt?
Що таке LSI?
Чи обов'язково втискати тайтл в 60-70-75 символів?
Як працює rel = «nofollow»?
Com/webmasters/answer/34437?
Com/webmasters/answer/83106?
Com/webmasters/answer/83106?
Як визначити кількість пошуків за ключовим словом в Яндексі?