информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Атака на InternetЗа кого нас держат?Страшный баг в Windows
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 ФБР нашла русский след в атаках... 
 Массовый взлом SharePoint 
 Microsoft Authenticator прекращает... 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / web building
Имя Пароль
ФОРУМ
если вы видите этот текст, отключите в настройках форума использование JavaScript
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
  • Напоминаю, что масса вопросов по функционированию форума снимается после прочтения его описания.
  • Новичкам также крайне полезно ознакомиться с данным документом.
а теперь прямыми руками... 02.07.03 18:15  Число просмотров: 1834
Автор: Eugene Статус: Незарегистрированный пользователь
<"чистая" ссылка>
для поиска ссылок предлагаю использовать модуль Parser (вешать на теги хендлеры).

для обработки ответа - грамотней взять LWP( + HTTP::Response) и просто получить код ответа через соответствующий метод.

ненадо тут изобретать велосипед

http://www.cpan.org/modules
<web building>
поиск битых ссылок 02.07.03 10:35  
Автор: Маньяк Статус: Незарегистрированный пользователь
<"чистая" ссылка>
Есть большой сайт... на нем точно где-то есть битые ссылки - известно даже как они точно выглядят, неизвестно откуда они... Есть ли какая-нибудь прога для поиска битых ссылок?
http://validator.w3.org/checklink?uri=http://ya.ru/ 05.07.03 11:41  
Автор: BioHazard <bio> Статус: Elderman
<"чистая" ссылка>
Всем сенкс! Вот еще один вопросик возник... 02.07.03 20:44  
Автор: Маньяк Статус: Незарегистрированный пользователь
<"чистая" ссылка>
Видел, что на некоторых сайтах нельзя изображения
а) скачать(кнопка забита)
б) открыть в браузере при задании адреса "что-то-там.com/картнка.jpg"
в) показать на другом сайте, сославшись напрямую на картинку...


Как это реализовать? Мэнюал где-нибудь есть?
Всем сенкс! Вот еще один вопросик возник... 05.07.03 11:52  
Автор: tdes <jin> Статус: Member
<"чистая" ссылка>
1)- javascript
2),3) - web server permissions
б,в - ответ 02.07.03 23:03  
Автор: whiletrue <Роман> Статус: Elderman
<"чистая" ссылка>
> Видел, что на некоторых сайтах нельзя изображения
> а) скачать(кнопка забита)
> б) открыть в браузере при задании адреса
> "что-то-там.com/картнка.jpg"
> в) показать на другом сайте, сославшись напрямую на
> картинку...

Если пров дает ПХП и .htaccess, то пишешь в .htaccess что-то типа:
AddType application/x-httpd-php .jpg
После этого файлы .jpg запускаются как пхп-шные, ну в них и анализируешь - если IP-адрес ($REMOTE_ADDR) не тот, то показываешь дулю.
а теперь прямыми руками... 02.07.03 18:15  
Автор: Eugene Статус: Незарегистрированный пользователь
<"чистая" ссылка>
для поиска ссылок предлагаю использовать модуль Parser (вешать на теги хендлеры).

для обработки ответа - грамотней взять LWP( + HTTP::Response) и просто получить код ответа через соответствующий метод.

ненадо тут изобретать велосипед

http://www.cpan.org/modules
Общий подход 02.07.03 10:49  
Автор: whiletrue <Роман> Статус: Elderman
<"чистая" ссылка>
> Есть большой сайт... на нем точно где-то есть битые ссылки
> - известно даже как они точно выглядят, неизвестно откуда
> они... Есть ли какая-нибудь прога для поиска битых ссылок?

Пишешь прогу на Перле или ПХП, которая пробегает по списку проверяемых страниц ищет там что-то типа:
/<ahref[\s\n\r]*=[\s\n\r\"\'][^\s\n\r\"\'\>]+)[\s\n\r\"\'\>]+/simU
(т.е. <a href=link...)
Дальше для каждого найденного линка открываешь сокет по 80 порту и пихаешь туда что-то типа
HEAD / HTTP/1.0\r\n\r\n
и смотришь на отклик. Взависимости от него че-то делаешь (ведешь базу...) Очень даже коротенькая прога!

Если пров дает тебе CronTab - то запускешь ее периодически.
Уточнение 02.07.03 15:00  
Автор: amirul <Serge> Статус: The Elderman
<"чистая" ссылка>
> Пишешь прогу на Перле или ПХП, которая пробегает по списку
> проверяемых страниц ищет там что-то типа:
> /<ahref[\s\n\r]*=[\s\n\r\"\'][^\s\n\r\"\'\>]+)[\s
> \n\r\"\'\>]+/simU
> (т.е. <a href=link...)
> Дальше для каждого найденного линка открываешь сокет по 80
> порту и пихаешь туда что-то типа
> HEAD / HTTP/1.0\r\n\r\n
head не всегда поддерживается, так что если придет не 200, то лучше сделать get для полной уверенности. Не помню, может код для не поддерживаемого head-а и другой. Тогда задача упрощается: если вернулось 200 - все нормально ссылка живая, если 404 - битая, а если другое - то попытаться сделать get.

> и смотришь на отклик. Взависимости от него че-то делаешь
> (ведешь базу...) Очень даже коротенькая прога!
>
> Если пров дает тебе CronTab - то запускешь ее периодически.
1




Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2025 Dmitry Leonov   Page build time: 0 s   Design: Vadim Derkach