В Яндексе подтвердили существование автоматического фильтра - АГС-17
Многие вебмастера уже в сентябре потерпели поражение в борьбе с Яндексом в связи с тем, что начал более активно и жестко работать фильтр АГС-17 и начал отстрел говносайтов и сателлитов. Понятно, что под обстрел рикошетом попали и СДЛ.
А вот какие секреты хранит в себе фильтр Яндекса АГС-17, никто так до конца и не знает, все рассказы основаны лишь на догадках и домыслах.
Данная тема уже довольно активно муссируется в инете, поэтому и я не могу остаться в стороне по поводу последних причуд Яндекса, а конкретно по фильтру АГС-17.
Понятно, что дорога говносайтам на свалку, но повылетало достаточно много крупных , старых СДЛ, в индексе которых осталось по 10 абсолютно не несущих информации страниц, какой алгоритм используется и зачем не ясно.
Яндекс по этому поводу вещает следующее:
С начала сентября многие оптимизаторы стали замечать , что на некоторые сайты Яндекс накладывает фильтр, в результате чего в индексе остаётся минимальное число страниц. В Яндексе подтвердили существование автоматического фильтра - АГС-17.
«Робот анализирует содержание всех страниц сайта и принимает решение о включении их в индекс. Если сайт большой, а в поиске участвует лишь несколько его страниц, это означает, что остальные были классифицированы как не имеющие дополнительной ценности для пользователей.
Какое количество страниц будет проиндексировано - зависит от многих факторов, в том числе от качества контента, интереса пользователей к ресурсу и соответствия сайта поисковой лицензии, особенно это касается пункта 3.5. В некоторых случаях число страниц может быть и меньше 10, и больше 10. В любом случае проиндексированных страниц должно быть достаточно для того, чтобы сайт находился по основным запросам, на которые он может дать хороший и релевантный ответ», - прокомментировал для Searchengines.ru менеджер проектов по борьбе с поисковым спамом компании «Яндекс».
Фильтр АГС-17 был введён три года назад. При этом его работу оптимизаторы стали замечать только сейчас. По мнению отдела качества поиска, это объясняется тем, что в последнее время стало появляться большое количество сайтов, страницы которых не выдерживают подобной проверки.
Из этого можно сделать вывод, что фильтр Яндеса борется с теми факторами, которые мешают правильному ранжированию в поисковой выдаче и хочетт обосновать падение СДЛ сайтов, которые продвигались покупными ссылками с других сайтов.
Представим себе один прекрасный белый и пушистый сайт закупает ссылки через Sape, SeoPult и прочие биржи ссылок с целью продвижения по нужным ключевым словам в ТОП. Яндекс отлично индексирует ссылки, купленные на биржах и учитывает их при ранжировании.
И вот в сентябре после запуска фильтра АГС-17 на полную мощность огромная часть сателлитов из Sape вылетает из индекса и соответственно слетают все купленные ссылки на этих площадках для продвижения нашего прекрасного белого и пушистого сайта для людей .
Яндекс в этой ситуации прекрасно понимает, что данный СДЛ продвигался не естественными, а искусственными ссылками и приходит к выводу бесполезности ресурса для пользователей ПС.
Поэтому резкий обвал ссылочной массы сейчас является своеобразной красной тряпкой (т.е. бык на арене - Яндекс) для срабатывания фильтра АГС-17.
А то что не все СДЛ сайты, продающие ссылки, подверглись жесткому прессингу со стороны фильтра Яндекса говорит о разумном подходе некоторых вебмастеров к процессу размещения покупных ссылок в разумных количествах и параллельному продвижению сайтов естественными ссылками.
И напоследок несколько мнений по этой теме c форума Сапы:
1. Борьбы с ссылками, как таковыми, очевидно нет. По-прежнему есть борьба с плохими ссылками и с зарвавшимися вебмастерами, продающими ссылки сверх всякой меры и без контроля. Яндекс перешел от борьбы с самими продажными ссылками, к борьбе за качество продажных ссылок.
2. Сами по себе продажные ссылки качественному сайту не вредят, но вот если у сайта есть определенные проблемы с точки зрения поисковки, то начиная где-то с августа наличие ссылок стало существенно более сильным "ухудшающим фактором" для таких проблемных сайтов.
Иными словами совсем качественный сайт с ссылками и не очень качественный, проблемный сайт без ссылок могут по прежнему спать спокойно. А вот наличие ссылок на сайте, который уже сам по себе "проблемный" с точки зрения поисковки, теперь стало заметно сильнее делать сайт проблемным.
3. Теперь что такое "проблемный" сайт в контексте вышесказанного. Таких показателей "не очень высокого качества" для качественных с нашей точки зрения СДЛ и MFS видимо три.
- Технические проблемы с доступом робота к сайту, ошибки в коде или (Внимание, это очень важно!) запутанная навигация. Есть ощущение что вес запутанной навигации в определении "проблемности сайта" заметно вырос. Если у вас вылететел гарантировано качественный СДЛ со 100% ценными уникальными текстами - ищите лишние внутренние перелинковки и лишние, ненужные блоки навигации.
- Наличие на сайте большого числа частично дублирующегося контента (дублирующегося в рамках самого сайта), а также наличие большого количества URI, содержимое которых необоснованно часто частично или полностью обновляется. Это могут быть например в первом случае текст статьи с комментариями и без комментарием, если они доступны по разным адресам. Во-втором -- наличие каких-то блоков (типа "похожие статьи", "читайте по теме") которые меняются при каждом заходе робота.
- в) Наличие большого количества неуника, в том числе и синонимизированного. Качество определения Яндексом синоминизированных дублей заметно возросло. Теперь, если меняя отдельные слова, вы оставляете между ними куски старого неизмененного текста, хотя бы всего по несколько слов -- Яндекс вас по этому признаку вычислит однозначно. Соотвественно, если делали прогон по каталогам ссылок или размещали в Liex сгенеренные статьи -- ждите отвала бэков.
Прошу обратить внимание, что сейчас Яндекс намного лояльнее относится к полному копипасту с ссылкой на источник.
И еще есть интересные мнения с форума forum.searchengines.ru:
Отчетливо вижу, что АГС-17 расстрелял все сапосайты, независимо от возраста, качества, движков, уровня уникализации контента и структуры организации контента; их динамики обновления, распределения по IP, хостингам и т.д.
Очевидно, Яндекс искореняет не сколько говносайты, сколько сам способ заработка на SAPE - это раз, и способ массового ссылочного влияния на ранжирование - это два. Все что торговало в SAPE блочными ссылками, по разным схемам внешних ссылок - обвалилось.
Не хочется резких высказываний и громких выводов, но, мне кажется, эпоха SAPE подходит к концу. Продажа блочных ссылок - это серьезный риск для сайта. Для молодого сайта - это смерть в течение нескольких апов. Я не знаю, насколько SAPE в будущем смогут заинтересовать SEO большинство контекстными ссылками, лично мне это не приносит заметной прибыли, хотя спрос сейчас резко выростет и на них, и на статьи.
Довольно разные мнения, но однозначно верно что в духе фильтра АГС-17 возрастет спрос и продажа контекстных ссылок и статей через специализированные биржи типа Indek, Uniplace, Nahaa, Liex, Seozavr, Miralinks как наименее подверженных ооределению продажности. Хотя контекстные ссылки предлают купить и продать та же Sape и Setlinks.
Сколько людей - столько мнений. Поживем - увидим. Но до тех пор пока алгоритмы поисковых систем строятся на ссылках борьба оптимизаторов-вебмастеров и поисковиков будет продолжаться.
Возможно, следующий фильтр Яндекса будет называться Искандер-М :)
Народная ссылка для регистрации:
Яндекс и фильтр АГС-17Категории:
Поделитесь этой записью или добавьте в закладки
Комментариев: 16
Комментировать
Другие материалы и статьи
» Партнерская программа знакомств Love Planet: Love Planet - это международная служба знакомств. Одна из самых древних и испытанных временем партнерок...
» Биржа статей "Артикс": Анонсирую новую биржу статей "Артикс", в которой статьи размещаются ввиде рейтинга, а не ката...
» Что такое FOREX (Форекс)?: FOREX (FOReign EХchange market) Это международный валютный рынок, на котором свободно продаются и покуп...
» Биржа статей Text Exchange: Text Exchange - биржа статей, помогающая копирайтерам продать статьи (копирайтинг, качественный рерайти...
А вот последние вести от seonews:
АГС-17 - мощнейший удар по сателлитам
Елена Камская, управляющий технического отдела компании Seolib.ru: 22.10.2009 | 14:30
С конца августа-начала сентября этого года почти все вебмастера увидели общее выпадение страниц из базы Яндекса, при котором в индексе оставалось от одной до десяти страниц. Под раздачу попали прежде всего плохие сайты («говносайты») и сателлиты, но посреди выпавших оказалось также много высококачественных ресурсов. Паника посреди вебмастеров породила множество теорий: происходящее объясняли и глюком базы, и введением нового метода, и санкциями за линкоторговлю. Спустя месяц ситуацию официально откоментировали создатели поисковой системы: это последствия работы фильтра АГС-17, целью которого является чистка поисковой базы от страниц, не представляющих энтузиазма для юзеров. Заглавие этого фильтра его создатели ассоциируют с современным орудием – автоматическим гранатометом станковым АГС-17. Вебмастера же отдали аббревиатуре более осмысленную расшифровку, в точности отражающую назначение фильтра – Анти-Говно-Сайт.
Активация АГС стала мощным ударом по сателлитостроителям – ведь ссылки, не проиндексированные Яндексом, не имеют спроса посреди оптимизаторов. Почти все сателлитчики, делающие сайты под продажу ссылок сотнями в недельку, остановили работу и ждут определенности. Будущее сателлитостроительства, ставшего для почти всех вебмастеров главным делом, остается под вопросом.
Цель оправдывает средства. Предпосылки и последствия АГС-17
Не обязательно быть сотрудником отдела свойства поиска Яндекса, чтоб понять предпосылки введения этого фильтра. Как только вебмастера осознали возможность легкого заработка с реализации ссылок через биржи, количество некачественных и полностью непригодных для юзеров страниц подросло до циклопических масштабов. Логика сателлитостроиетеля проста: чем больше у него страниц и чем больше каждый сайт имеет страниц, тем больше можно реализовать ссылок и заработать средств. Как правило, такие сайты создаются массово на шаблонных движках, а их заполнение составляет копипаст (ворованный контент с остальных страниц) либо непригодный для чтения синонимайз (контент с остальных страниц, прошедший автоматическую обработку с целью уникализации). другими словами, никакой полезности, не считая дохода для их владельцев и бирж-посредников, эти сайты не приносят и никакого энтузиазма для рядовых юзеров веба не представляют, но их индексация и хранение в поисковой базе создает большую нагрузку на ресурсы поисковика. Введение фильтра АГС-17 позволило Яндексу достигнуть сходу нескольких целей:
1) уменьшение перегрузки на сервера – попавшие под АГС странички или не индексируются вообще, или индексируются еще реже;
2) избавление базы от бесполезных ресурсов – чем меньше таковых страниц, тем меньше искажается релевантность выдачи;
3) удар по сателлитостроителям – можно надеяться, что сейчас почти все любители легкого заработка задумаются над тем, имеет ли смысл развивать этот «бизнес»;
4) удар по биржам – большая часть сознательных оптимизаторов откажутся от покупки ссылок на непроиндексированных страничках, что приведет к падению доходов не только владельцев страниц, но и ссылочных бирж;
5) удар по автоматическим сервисам для продвижения страниц типа Seopult – оптимизаторы все больше понимают необходимость ручного контроля ссылочной массы, и автосервисы теряют свою актуальность.
По словам разработчиков АГС, фильтр действует уже 3 года. Почему же вебмастера увидели его существование лишь сейчас? Может быть, резкий рост количества сателлитов привел и к резкому увеличению числа ресурсов, пораженных АГС, что принудило вебмастеров направить внимание на этот фильтр. Есть и другое объяснение – количество «дурных» страниц и ссылок с них, искажающих выдачу Яндекса, достигло критической массы, что принудило разработчиков фильтра ужесточить его метод.
Как работает АГС-17?
Анализ поведения АГС наталкивает на следующие выводы:
1) Это автоматизированный фильтр, без помощи других принимающий решение о целесообразности индексации страниц (что подтвердилось комментарием разработчиков). бот закачивает все странички сайта, анализирует их и решает, стоит включать в индекс либо нет.
2) Решение об индексации страниц принимается роботом на основании ряда критериев, которые могут изменяться. Не исключено, что бот способен улучшать собственный метод без роли человека (этим разъясняется временное выпадение из индекса множества страниц различных страниц с одинаковым параметром в URL – tag, searcheorld и др.).
3) Как и хоть какой автоматический фильтр, АГС имеет погрешность, чем разъясняется массовый вылет высококачественных страниц наряду с сателлитами.
Последний пункт значит, что даже если ваш сайт белый и пушистый, он может попасть под огнестрел, если по неким критериям он будет идентичен с сателлитами. Но в первую очередь под АГС попадают:
1) сайты с неуникальным либо автоматом сгенерированным контентом;
2) сайты, содержащие множество дублей страниц под различными адресами;
3) сайты, у которых размер содержательной части (основной текст) большинства страниц намного меньше, чем размер шаблонной части (меню, сквозные блоки и т.Д.);
4) Сайты с разделами, не относящимися к основной теме ресурса (сборники продажных статей, к примеру);
5) сайты, у которых количество исходящих ссылок намного превосходит количество проиндексированных страниц;
6) сайты, беспорядочно ссылающиеся на кого попало.
Как застраховаться от АГС-17?
Избавиться от АГС еще сложнее, чем застраховаться от заражения им. Вот что рекомендуется сделать, чтоб ваш сайт не завлекал внимание этого фильтра:
1) Убедитесь, что сайт не содержит внутренних дублей страниц. К таким можно отнести странички тэгов, новостных анонсов, странички для печати и остальные странички с одинаковым содержанием и различными URL. Часто такие странички генерируются автоматом админкой сайта, и вебмастера не замечают их существования.
2) Убедитесь в уникальности контента вашего сайта. Если вы грешили копипастом, замените его на копирайт либо в худшем случае на совсем высококачественный переписку. Если же вы вначале без помощи других трудились над созданием контента, убедитесь, что его не растащили по всему вебу.
3) Если вы не сможете отрешиться от реализации ссылок, пристально смотрите, на кого ссылается ваш сайт. Нежелательно ставить ссылки на порноресурсы, варез, а также сайты, тема которых полностью не соответствует теме вашего сайта. Также не стоит перебарщивать с количеством ссылок – продавайте не достаточно ссылок по высочайшей цене, и вы ничего не потеряете.
4) Пытайтесь не переусердствовать с внутренней перелинковкой. Если с главной странички вашего сайта будет 500 ссылок на внутренние странички, сомневаюсь, что боту это покажется естественным.
5) Пытайтесь избегать сотворения малоинформативных страниц. Если в основном ваш сайт состоит из товарных предложений либо фото, позаботьтесь, чтоб не считая изображений на страничках было содержательное описание.
Не лишним будет еще раз прочесть требования Яндекса к качеству страниц. Если ваш сайт вполне им соответствует, вряд ли он завлечет внимание АГС.
Что делать, если сайт попал под АГС?
Если вы убеждены в качестве вашего сайта, который попал под раздачу, напишите в техподдержку Яндекса – если при ручной проверке их мировоззрение совпадет с вашим, возвращения сайта в индекс не придется долго ожидать. Если связываться с «платонами» нет желания, но возвращение сайта в индекс – дело принципа, может посодействовать несколько радикальных мер:
1) попытайтесь заменить плохой контент высококачественным. Добавьте новый, хороший контент. Лишь делать это необходимо не равномерно, а по-способности массово и скоро, чтоб вернуть энтузиазм бота-индексатора к вашему сайту.
2) Если сайт грешил линкоторговлей – попытайтесь снять все ссылки и подождите некое время. Может быть, ваш сайт будет помилован.
3) Так как существует предположение, что бот АГС работает независимо от бота-индексатора, есть смысл испытать поменять сходу все адреса страниц (к примеру, поменять один параметр URL в админке). Но таковая мера может возыметь нехорошие последствия для остальных поисковиков.
4) Проанализируйте входящую ссылочную массу на ваш сайт. Значимые, трастовые ссылки также могут стать хорошим лекарством для исцеления от АГС.
5) Если доменное имя для вас не принципиально – смените домен и начните все поначалу, лишь с учетом всех требований поисковой машины к качеству сайта.
С другой стороны, если ваш сайт создан только для ссылок и попал под АГС, задумайтесь, стоит ли растрачивать время и усилия на его возвращение в индекс. Ведь методы фильтра совершенствуются, и при таковой тенденции отношений Яндекса к сателлитам, исключение его из базы – лишь вопрос времени.
Еще один вопрос, волнующий сателлитостроителей и владельцев автоматических сервисов для продвижения – учитываются ли ссылки с страниц, попавших под АГС? Почти все крупные компании уже ставят опыты для определения деяния ссылок с непроиндексированных страниц, а самый большой автосервис Seopult остановил съем таковых ссылок до конечной определенности в этом вопросе.
Тот факт, что Яндекс прекратил атаку сателлитов с помощью АГС так же внезапно, как и начал, лишь увеличивает напряжение – маловероятно, что «войска» отступили, поднявши белый флаг. Может быть, создатели фильтра ждут массивного апдейта выдачи на базе новой, чистой от сателлитов базы, чтоб проанализировать релевантность результатов и исправить ошибки. Может быть, что на данном шаге фильтр выполнил свою задачку и временно отступил. Не исключено также, что АГС совершенствуется и готовится к новой атаке. Одним словом, жить в руинтернете стало интересней, выжить – сложнее.
Хороший материал, только слишком уж акцент на борьбу именно со ссылками продажными сделан. Все-таки основная задача фильтра очистить ИМЕННО выдачу ПС от гавносайтов и сателлитов (сугубо моё мнение)
Все гудят про борьбу с продажными ссылками, но никто почему то не возмущается, что под фильтр попало много сайтов ссылками не торгующие, с нормальным контентом. Т.е. белых проектов. А их довольно много. И чем сильнее Яша ужесточает фильтр, тем больше, наряду с говносайтами, вываливаеться нормальных сайтов. Я не завидую "Платону". Их наверно завалили письмами, поэтому они решили немножко выключить фильтр.
А насчет дублированного контента в рамках одного сайта... А что в нем плохого? Я довольно часто распечатываю статьи с посещаемых сайтов, а потом читаю в оффлайне. И мне проще и экономичнее распечатывать материалы со специально подготовленных старниц с минимумом элементов дизайна, только статья и иллюстрации. Для меня это удобно, а Яша решил, что это плохо. Так, смотри, он и PDF-документы скоро будет считать злом и блокировать сайты по наличию возможности экспорта статей в PDF. Меня просто лишают удобной эргономической функции сайтов (я про страницы для печати). Я считаю - это не справедливо.
Вызывают сомнения в адекватности Яндекса. Может ну его, этого Яшу, может всем в Гугл податься и ориентироваться на него?... :)
В НЕадекватности Яши уже никто не сомневается давно :)
А насчет Гугля уже давно пора всем туда.
Очень информативно. У меня три сайтика из-за саповских ссылок вылетели из Яши. И пару сдл понизились в тице. От этих нововведений и вправду хочется тратить больше своих усилий на гугл...
Впрочем, благодаря этому посту - буду претворять в жизнь некоторые мероприятия, чтобы мои сайтики спокойно жили на просторах инета.
>> И мне проще и экономичнее распечатывать материалы со специально подготовленных старниц с минимумом элементов дизайна, только статья и иллюстрации/
Так для этих целей надо не отдельные странички создавать - а отдельные таблицы стилей. Нужна правильная верстка, и правильные таблицы стилей. Просто работа в Сети - хоть разработка, хоть продвижение - требует все более осмысленного, профессионального подхода. И хотя мои ссылочные ГС тоже повыпадали из индекса, причем напрочь - я не жалею. ГС - в топку.
Усилия на Гугл - это конечно хорошо, но если вас интересует не только PageRank - то к Яндексу надо относиться со всем вниманием. Как ни крути - большинство рядовых юзеров в Рунете пользуются именно Яндексом. Так что надо думать и приспосабливаться.
Согласен на 100% насчет отдельных таблиц стилей - именно такой подход и можно назвать профессиональным...
А я прочитал интересную мысль про фильр АГС 17 apollo-8.ru/index.php?option=com_content&task=view&id=1597&Itemid=99 с одной стороны много сайтов вылетело из индекса, но ведь ссылки на сайтах, которые под фильтром продолжают работать. Да, может быть вес таких ссылок и меньше, но если ссылки прогнать через яззл и снять, то позиции падают.
Ненавижу Яндекс!! Сами хапают бабло, а нам не деют!П***ы!
Улыбло :) Антияндекс...
Гугл тоже имеет свои фильтры. Вот у меня на одном из сайтов не под фильтрами уже всего лишь 10% страниц, а еще недавно таких было 66%. Причем контент практически не менялся, а страницы исключались из поиска.
Так что и с гуглом не все так просто.
Большое спасибо автору за статью!
СОгласен с предыдущем комментатором - что вы все на Яндекс гоните? Попробуйте в гугле, только американском сайт для продажи ссылок сделать. 95%, что вы вообще в индекс не попадете. Так что Яша еще гуманный - оставляет шанс вернуться, показывает в выдаче страницы, на которые реально трафик идет. Да и с картинок у меня сайты под АГС имеют посетителей.
Интересно написано Спасибо.
Яндексом пользуется всё меньше людей. Гугл рулит...
Да,и сейчас поистечении времени доконца не понять этот фильтр. Все вроде на сайте нормально, а его яша бац и под фильтр.
Очень хорошая статья) Так я так и не поняла, если сайт выпал из Яндекса он влетит обратно)) ИЛи это только одному яндексу известно. После того как сайт выпал начинаешь задумываться а есть ли смысл вообще вести сайт.
Да я сейчас тоже делаю упор на гугл, так как на яндекс рассчитывать не приходится)) хотя надежда есть еще))