Автоматический генератор URL List-a.
|
|
Бывалый
1284 сообщения
Мужчина
|
Суть скрипта в том, что они будет собирать абсолютно все как внешние, так и внутренние ссылки на странице и будет выводить их, подобно к robots.txt
То есть, например у нас имеется главная. На ней 5 ссылок в категории, 4 на главные страницы модулей, 10 ссылок на материалы, 1 ведущая на гл. uCoz-а и линк на страницу со статистикой счетчика. Скрипт, пробегает, подобно поисковому боту, по всем линкам именно с этой страницы и заносит их в urllist.txt
Если, скажем, у нас имеется страница с материалом об Интернете, скрипт пробегает по этой странице и вносит к себе все ссылки ведущие с данной страницы и даже те, которые добавлены в самой статье.
|
|
|
|
|
Бывалый
692 сообщения
Мужчина
|
Rj_DiNex, А зачем такое? Мне кажется это лишняя работа...
|
|
|
|
|
uSite Team
3601 сообщениий
Мужчина
|
собирать ссылки на js можно, отдавать результаты в .txt только на пыхе
По всем вопросам обращаемся на support@usite.su
|
|
|
|
|
Бывалый
1284 сообщения
Мужчина
|
Quote (one) А зачем такое? Для большего количества проиндексированных страниц сайта. Таким образом, бот сможет собирать абсолютно все страницы и если они устраивают его, он их будет индексировать.
Также, используя специальный софт, можно мониторить не проиндексированные страницы и сделать в них правки.
Добавлено (02.05.2012, 21:05) --------------------------------------------- Quote (Zork) отдавать результаты в .txt только на пыхе По-моему, лучше будет в .xml
|
|
|
|
|
Бывалый
692 сообщения
Мужчина
|
Rj_DiNex, Аааа, ну теперь понятно... Тогда отличная идея
|
|
|
|
|
Бывалый
384 сообщения
Мужчина
|
Rj_DiNex, т.е, например скрипт нашел ссылку /forum. Затем он собирает ссылки со страницы /forum? И так с каждой ссылкой, а потом заносит все в один .txt файл? Или я неправильно понял? P.S Надо ведь еще делать проверку на дубликаты в таком случае.
Ну, в общем, вот небольшой скриптик, который будет просто собирать ссылки со страницы, на которой вы находитесь. Может, кому-нибудь понадобится.
Code c=[],b=[]; $('a').each(function(){ a=[location.host,'http://',$(this).attr('href')]; if((a[2].indexOf(a[0])!=-1) || (a[2].indexOf(a[1])==-1 && a[2].indexOf('javascript')==-1)){c[c.length]=a[2];} if(a[2].indexOf(a[1])!=-1 && a[2].indexOf(a[0])==-1){b[b.length]=a[2];} });
// преобразование ссылок вида "/forum" в "http://site.ru/forum" for(i=0;i<c.length;i++){ if(c[i].indexOf(location.host)==-1){ c[i]='http://'+location.host+c[i]+''; } }
alert(b); // внешние alert(c); // внутренние
|
|
|
|
|
|
Сообщение от пользователя iFrendly с отрицательной репутацией.
Вы можете просмотреть это или все сообщения данного пользователя.
|
Бывалый
1721 сообщениий
Мужчина
|
hi7emka, Интересно
|
|
|
|
|
Бывалый
1284 сообщения
Мужчина
|
Quote (hi7emka) Или я неправильно понял? Правильно.
Quote (hi7emka) Надо ведь еще делать проверку на дубликаты в таком случае. По любому.
Quote (hi7emka) Может, кому-нибудь понадобится. Когда откроют раздел Мануалы, напишу там причину данной идеи.
Quote (hi7emka) Ну, в общем, вот небольшой скриптик, который будет просто собирать ссылки со страницы, на которой вы находитесь. Собирает в .xml формате ?
|
|
|
|
|
Бывалый
384 сообщения
Мужчина
|
Rj_DiNex, нет-нет, просто собирает и выводит через оповещение (alert).
Ну, конечно, можно дописать get-запрос ссылок, но тогда бана по ip долго ждать не придется Так что js с этим не справится, по-моему)
|
|
|
|
|
Бывалый
1284 сообщения
Мужчина
|
В .xml хорошо бы.
|
|
|
|
|
Coder
627 сообщений
Мужчина
|
Rj_DiNex, где прячется смысл этого скрипта? (про txt я бы еще понял, типо urlist), насчет xml ситуация не ясна, http://usite.su/sitemap.xml это зачем?
|
|
|
|
|
|
Сообщение от пользователя iFrendly с отрицательной репутацией.
Вы можете просмотреть это или все сообщения данного пользователя.
|
Бывалый
1721 сообщениий
Мужчина
|
Quote (syp41k) http://usite.su/sitemap.xml это зачем? +1
|
|
|
|
|
Бывалый
1284 сообщения
Мужчина
|
melomen707, syp41k, Это SEO-шная хитрость. Просите АМС, чтобы открыли Мануалы быстрее, если не терпится узнать.
|
|
|
|
|