Тулзы Ленивого — Проверка ссылок, подарок к 23-му
Всех с праздником, прошедшим. Отладка, будь она не ладна, особенно по edge—gprs, заставила на сутки задержать публикацию поста. Ну да ладно, лучше поздно, чем никогда.
Анонсированная в Твиттере страничка нашла своё воплощение. Итак, встречайте Тулзы Ленивого.
Пока всего один инструмент есть, Проверка ссылок. Эта тулза жила у меня больше года (а может и двух) в закрытом режиме, тулза полезная.
Для чего?
Есть у меня правило, при покупке ссылок: «Если сомневаешься в качестве ссылки, откажись и купи другую». А выше указанный инструмент позволяет автоматом отсеивать ссылки, в которых я сомневаюсь, по очевидным факторам (визуальным, фильтр url).
Как использовать?
Опять же, ничего сложного.
- Идём в sape (или другую биржу) в интерфейс оптимизатора на страницу Новые заявки (можно и старые прошерстить, но не рекомендую, если уж купили — пусть висят) и Экспортируем страницы, на которых предлагают купить ссылки (Экспорт всех данных → URL страницы → TSV (остальные галочки снять)).
- Открываем отданный сапой файл текстовым редактором и копируем его содержимое в textarea тут.
- Получаем список сомнительных ссылок. Я, как правило, сразу отказываюсь от них в сапе.
Всё, этап для которого нужна эта тулза закончен. Далее можете устроить проверку УВ, YP, GC. От не прошедших отбор — смело отказывайтесь, ведь на их место найдутся ссылки, которые его пройдут. А это позволяет нам сказать что такие ссылки будут более качественные.
Для чего использовать?
Решать Вам. Все мои ссылки перед покупкой в обязательном порядке проходят эту проверку, и те что для тица и другие, что для серпа.
Благодарности
Делать платной тулзу или принимать донатионы мне не позволяет совесть. Так что пользуйтесь в своё удовольствие.
Лучшая благодарность — небольшой пиар в вашем блоге или твиттере. Ответную ссылку получите из блока ЯППБ справа ;)
ps. заметите глюки, пишите в комментариях.
Комментарии (69)
Ленивый, извините что не в тему а что у вас за плагин стоит, который выводит ЯППБ???
Просто пхп-снипет, который инклудит файл .html, который генерируется php скриптом, запускающимся по крону.
а напишите подробнее пжл 351715126, буду благодарен, хотел такую к себе на сайт
Куда уж подробней?
Парсите ЯППБ, преобразуете в нужный вам формат, инклудите в нужный блок на сайте. Всё.
ps. аськой не пользуюсь.
А что тулза то чекает?
Я объясню тут, так как вопросов достаточно много накопилось и не все поняли фразу фильтр url.
Вбиваем адреса в тулзу:
http://site.ru/forum/
http://site.ru/webcatalog/
http://site.ru/links/index.html
http://site.ru/showthread.php?p=1
Да же не опытный seo-шник посоветует не покупать с этих страниц ссылок. Тулза как раз пытается автомтом вычислить максимум таких сомнительных урлов.
Как писал, порой и нормальные сайты попадут, но всегда на их место можно найти замену.
А можно подробнее про это? Есть какая-то открытая официальная инфа от поисковиков что URL вида http://site.ru/webcatalog/ имеет меньший вес как донор? И кто эти СЕО-шники, что советуют не покупать с них ссылки?
Или вы имеете ввиду что нежелательность проявляется только в ключевых словах в URLe (типа links, webcatalog и пр.)? Тоже бред, т.к. обозвать что угодно можно хоть как.
Это из опыта. Тулза прежде всего для очистки от страниц движков со стандартным ЧПУ.
Пример. Мы знаем что со страниц, где мало контента ссылки в теории должны работать хуже. Мы находит такие движки и по признакам исключаем эти страницы (например cat_id=, /links), тем уменьшая процент покупаемых ссылок с таких страниц.
Я считаю что это логично.
Тнтересная тулза, а можно хоть чуть-чуть раскрыть ее алгоритм? Чтоб при продаже ссылок не влететь в "удалено urls" ?
Полностью 100% страниц под фильтр не попадут, только если специально ЧПУ на сайте заточить под тулзу.
Можно подробнее о том что делает данная тулза? И как по url можно определить не качественность ссылки?
http://lazyhomeless.ru/node/25#comment-1175
> Получаем список сомнительных ссылок. Я, как правило, сразу отказываюсь от них в сапе.
Что такое "сомнительных ссылок"? Каковы критерии сомнительности?
http://lazyhomeless.ru/node/25#comment-1175
Спасибо за полезную тузлу. Поюзаем:)
Попробовал , проверил ссылки, пару штук ваша тузла отбраковала. Хоть и не нашел ничего подозрительного, правда были косвенные подозрения. Оттолкнулся все же от авторитета разработчика. Хотелось бы использовать не вслепую, по каким характеристикам бракуется?
Как раз косвенные подозрения подкрепляют мою мысль: «Если сомневаешься в качестве ссылки, откажись и купи другую».
http://lazyhomeless.ru/node/25#comment-1175
Как я понял тебе нужны человекоподобные url?
Пошел пользоваться. Спасибо.
Мне? Мне нет.
Оптимизаторам не помешают. Тулза немного на другое нацелена, на скрипты, движки со стандартным ЧПУ.
Тоже присоединяюсь к вопрошающим о алгоритме скрипта.
http://lazyhomeless.ru/node/25#comment-1175
Хорошая тулза. Спасибо.
Ввел URL страницы, выдало: Что-то совсем тут плохо! Наверное, с ГСов покупаем ссылочки?
При том, что ТИЦ 130 (естественный, без всякой сапы), сайт в ЯК (взяли бесплатно), домену 4 года.
Страниц в поиске по Я.вебмастер -- 8К+
Сайт ссылками не барыжит (только контекст и продажа баннеров).
Если это -- ГС, покажите мне тогда белый и пушистый сайт :)
P.S. офф: капча каким модулем делается? Можно ссылку на страницу модуля на сайте Друпала?
На маленьких объёмах можно не смотреть на надпись. Тулза рассчитана на обработку больших списков url. Я сам ей пользуюсь, скармливаю тысячами ;)
http://drupal.org/project/captcha
Ага, спасибо за ответ.
Было бы удобно, если бы у вас стоял http://drupal.org/project/comment_notify
Иначе приходится заглядывать смотреть, ответил кто-то или нет.
Готово ;)
Хороший модуль.
Тоже интересен принцип отсева плохих ссылок.
Что исключаем?
вчиталась в каменты.. а какие еще бывают диагнозы, кроме "можно купить более хорошие"? =)
алгоритм не понимаю, но с моими выводами совпадает 100% - часть ссылок у меня хреновая, зато дешевая - эксперименты ставлю. )
а скорость работы подсказывает мне, что он просто проверяет урлы по базе, на сами сайты не ходит, да? видела такой gbl у бурундука, а этот по какому принципу составлен?
http://lazyhomeless.ru/node/25#comment-1175
На сколько помню, у Бурундука большой чёрный список. Здесь белые-чёрные списки не используются.
работает просто - отсеивает всякий хлам - в url forum, user, topic и т.д., отсеивает так же страницы, у которых УВ мог измениться (в url page), страницы без контента - user, search
в общем - хорошая тулза, буду пользоваться при покупке ссылок, но старые из-за неё снимать не стану)))
нифига - урлы на такую мусорность проверяются саповским плагином. это было бы глупо ) их вроде вообще не покупают, не?
Ага.
Старые ссылки снимать не следует. Если ссылка провисела два года, то очень глупо от неё отказываться из-за такого фактора.
у меня в сапе сайт с некоторыми такими урлами - все продается нормально
Ленивый, афигенская тулза!
Если не совсем лениво, сделай плиз исключение для урлов Jooml-ы вида: /index.php?page=shop.browse&category_id=3&option=com_virtuemart&Itemid=8
Тулза режет их за слово "category", но в этом случае это не показатель того, что это страница категории, так джумла составляет свои урлы. А ЧПУ, к сожалению, не каждый хостинг выдерживает.
Мне думается, стоит сделать исключение для урлов, содержащих слово "com_virtuemart", т.к. такие магазинчики попадаются в сапе каждый день. А пока добавил у себя промежуточный фильтр, чтобы не показывать такие ссылки твоей шайтан-машине)
Надо подумать, стоит ли.
Одно тут плохо, многим оптимизаторам не нужны такие сапа-магазины. За частую на страницах и контента-то мало.
Надо поискать примеры сайтов. Спасибо за замечание ;)
А можно посмотреть на полный список фильтров этой тулзы?
Не планировал палить список, тем более он будет обновляться.
Ясно, ну ладно, будем определять его экспериментально :)
Если есть наблюдения, что можно ещё в него включить, пишите в комментариях или на почту из хуиза.
Сорри за нубское мнение, но у меня такое ощущение, что плагин просто тупо проверяет на индексацию и попадание в выдачи Яши :)
Что бы проверить догадки банально прогнал пару сайтмапов :) количество оставшихся страниц после анализа приблизительно везде соответсвует показателю проиндексированных страниц по версии панели вебмастера яши ;)
А скорость работы скрипта вас не удивило?
В принципе полученные вами результаты, доказывает что с отсеиваемых страниц ссылки лучше заменить на менее сомнительные. Яше они тоже не нравятся.
К Яше обращений нет.
Спасибо, попробую!
>В принципе полученные вами результаты, доказывает что с отсеиваемых страниц ссылки лучше заменить на менее сомнительные. Яше они тоже не нравятся.
Не совсем так или даже совсем не так. ;) Правильное замечание Rudman легко можно (и нужно:) развить до следующего: проверка индексации страницы в Яндексе плюс Гугле -- является более точным (и более универсальным) определением "качественности" в плане как кандидата в доноры, перекрывая функциональность "эмпирических вариаций", в частности, например, и представленную тулзу (собственно, как и большинство других "автоматических" средств).
Т.е. более простым способом (индекс Я+G) - можно добиться большего эффекта и точности. Хотя, конечно, в плане скорости, помноженной на объёмы для закупки говноссылок - представленная тулза лучше. А для более дорогих и когда есть время подождать проверки индексации - таки индекс Я+Г лучше.
Как вариант, конечно, их скрестить. Но, думаю, в последнем случае количество отсеянных быстро вызовет уныние (и, наоборот - просветление - в осознании процента качественных доноров в сапе ;).
Эта тулза отсеивает у меня процентов 20-40% ссылок, остальные добиваю проверками Винковского плагина.
Ну на счёт уныния, оно давно настало, с тех пор как ещё массово в сапу форумы и каталоги добавляли сеошники. В те времена и появилась идея.
Думаю не совсем корректно (заочно) приравнивать форумы к "плохим" (в плане SEO) донорам. Равно как и каталоги. Всё же правильней их делить с учётом того, как поступают ПС (как минимум - декларируют свой подход к этому). Т.е. с учётом модерируемости и условной "трастовости", при наличии в ЯК, с малым количеством исходящих - это вполне нормальные доноры. Даже можно сказать и где-то "рекомендумые" - в плане всё той же "естественности".
ещё одно пожелание - можешь так подкрутить, что бы в результатах разные ссылки были в разных окнах - то есть, те ссылки, что имеют сомнительные урл не отображались в верхнем окне - типа, эти можно проверить на индексацию, а эти покупать не стоит :)
сорри, догнал, можно сразу отменить размещение этих ссылок, а потом заново имортировать и оставшиеся проверять на индексацию )))
Я так и делаю, делал так, чтобы себе удобно было.
Если вдруг какой-то другой вывод потребуется, можно написать, реализовать не сложно.
Спасибо за тулзу. Небольшое замечание.
Можно ли (и стоит ли?), сделать так, чтоб фильтр накладывался на часть урла после самого адреса сайта?
Например: тулза зафильтровала адрес http://xakep-archive.ru/xa/081/124/1.htm, потому что в самом адресе сайта есть подозрительное слово archive (сам сайт конечно стоит того, чтоб его отправить в GBL, но ведь так можно и хорошие сайты удалить).
Такие сайты попадают редко, но с ситуацией знаком. Когда исключают домены со словом warez или porno, я не особо огорчаюсь.
archive — поправлю, спасибо.
Не только archive, про слово tag тоже не забудьте, плиз...
А вот эти партизаны пролезли мимо фильтра :)
http://www.***.ru/electronic/usb_flash_drive/page52
http://www.***.ru/video/tv_plasma_display/page69
http://www.***.ru/portable/mp3_player/page27
и еще пачка похожих
Вот гады!
Сяду вечером вносить изменения,
тут поможет фильтр по подстроке
/page
Воспользовался вашей тулзой, не все, но отсеял несколько плохих ссылок. Спасибо. Еще было бы удобнее, если бы после проверки, в верхнем окне оставались только "хорошие" ссылки.
А чем удобнее?
Отказываемся в сапе от плохих и уже работаем далее с остатком, у меня на следующей стадии модуль Винка подключается.
Ну в принципе да, как то сразу не подумал, сорри. Просто я сначала проверить какие хорошие.
Извините, я не понял. А что делать с плохими ссылками? Вручную проверять теперь каждую строчку в сапе и отказываться? А если список огромный?
Отказывайтесь от них не глядя, а проверяйте лучше оставшиеся. Среди них тоже шлак есть.
>Извините, я не понял. А что делать с плохими ссылками? Вручную проверять теперь каждую строчку в сапе и отказываться? А >если список огромный?
Возможно вопрос был в другом. Как автоматом пометить все ссылки на сапе и отказаться от них. Там есть специальное окошко, пометить галочкой следующие урлы, загружаете в это окошко список черных сайтов, Пометить - Отказаться.. Вот и все.
Ага, если вопрос в технике отказа, то присоединяюсь к ответу.
Что скажешь насчет этого адреса?
http://iphonew.net/index.php/top/726.msg4933 вроде бы форум но твоей тулзой не палится.
Есть и на стандартных движках форумы с прикрученным ЧПУ, они тоже тулзой не вычисляются.
Доброго времени суток!
Скажите, пожалуйста, почему не желательно продавать ссылки на фарму? Просто много где натыкался на это данное - не советуют.
Фарма — считается чёрной нишей. В Америке запрещено торговать таблетками, если у сайта нет лицензии-акредитации (забыл как называется сертификат-разрешение). Соответственно и возможна жёсткая реакция Гугла.
Есть правило трёх «P»: porno, pharmacy, poker. Это скользкие тематики. Лучше держать сдлы подальше от ссылок на такие сайты.
А если ГС на мед тематику?)
Я бы стал продавать и фарму.
Очень полезная тузла! Вначале проверяю ей, потом модулем винка на индексацию и ВС а уже то что останется проверяю визуально. Большой респект вам.
Я так же делаю ;)
Интересная тулза. Спасибо, по юзаем...
Отправить комментарий