информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Все любят медГде водятся OGRыПортрет посетителя
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 Очередное исследование 19 миллиардов... 
 Оптимизация ввода-вывода как инструмент... 
 Зловреды выбирают Lisp и Delphi 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / web building
Имя Пароль
если вы видите этот текст, отключите в настройках форума использование JavaScript
ФОРУМ
все доски
FAQ
IRC
новые сообщения
site updates
guestbook
beginners
sysadmin
programming
operating systems
theory
web building
software
hardware
networking
law
hacking
gadgets
job
dnet
humor
miscellaneous
scrap
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
Всем сенкс! Вот еще один вопросик возник... 02.07.03 20:44  Число просмотров: 1766
Автор: Маньяк Статус: Незарегистрированный пользователь
<"чистая" ссылка>
Видел, что на некоторых сайтах нельзя изображения
а) скачать(кнопка забита)
б) открыть в браузере при задании адреса "что-то-там.com/картнка.jpg"
в) показать на другом сайте, сославшись напрямую на картинку...


Как это реализовать? Мэнюал где-нибудь есть?
<web building>
поиск битых ссылок 02.07.03 10:35  
Автор: Маньяк Статус: Незарегистрированный пользователь
<"чистая" ссылка>
Есть большой сайт... на нем точно где-то есть битые ссылки - известно даже как они точно выглядят, неизвестно откуда они... Есть ли какая-нибудь прога для поиска битых ссылок?
http://validator.w3.org/checklink?uri=http://ya.ru/ 05.07.03 11:41  
Автор: BioHazard <bio> Статус: Elderman
<"чистая" ссылка>
Всем сенкс! Вот еще один вопросик возник... 02.07.03 20:44  
Автор: Маньяк Статус: Незарегистрированный пользователь
<"чистая" ссылка>
Видел, что на некоторых сайтах нельзя изображения
а) скачать(кнопка забита)
б) открыть в браузере при задании адреса "что-то-там.com/картнка.jpg"
в) показать на другом сайте, сославшись напрямую на картинку...


Как это реализовать? Мэнюал где-нибудь есть?
Всем сенкс! Вот еще один вопросик возник... 05.07.03 11:52  
Автор: tdes <jin> Статус: Member
<"чистая" ссылка>
1)- javascript
2),3) - web server permissions
б,в - ответ 02.07.03 23:03  
Автор: whiletrue <Роман> Статус: Elderman
<"чистая" ссылка>
> Видел, что на некоторых сайтах нельзя изображения
> а) скачать(кнопка забита)
> б) открыть в браузере при задании адреса
> "что-то-там.com/картнка.jpg"
> в) показать на другом сайте, сославшись напрямую на
> картинку...

Если пров дает ПХП и .htaccess, то пишешь в .htaccess что-то типа:
AddType application/x-httpd-php .jpg
После этого файлы .jpg запускаются как пхп-шные, ну в них и анализируешь - если IP-адрес ($REMOTE_ADDR) не тот, то показываешь дулю.
а теперь прямыми руками... 02.07.03 18:15  
Автор: Eugene Статус: Незарегистрированный пользователь
<"чистая" ссылка>
для поиска ссылок предлагаю использовать модуль Parser (вешать на теги хендлеры).

для обработки ответа - грамотней взять LWP( + HTTP::Response) и просто получить код ответа через соответствующий метод.

ненадо тут изобретать велосипед

http://www.cpan.org/modules
Общий подход 02.07.03 10:49  
Автор: whiletrue <Роман> Статус: Elderman
<"чистая" ссылка>
> Есть большой сайт... на нем точно где-то есть битые ссылки
> - известно даже как они точно выглядят, неизвестно откуда
> они... Есть ли какая-нибудь прога для поиска битых ссылок?

Пишешь прогу на Перле или ПХП, которая пробегает по списку проверяемых страниц ищет там что-то типа:
/<ahref[\s\n\r]*=[\s\n\r\"\'][^\s\n\r\"\'\>]+)[\s\n\r\"\'\>]+/simU
(т.е. <a href=link...)
Дальше для каждого найденного линка открываешь сокет по 80 порту и пихаешь туда что-то типа
HEAD / HTTP/1.0\r\n\r\n
и смотришь на отклик. Взависимости от него че-то делаешь (ведешь базу...) Очень даже коротенькая прога!

Если пров дает тебе CronTab - то запускешь ее периодически.
Уточнение 02.07.03 15:00  
Автор: amirul <Serge> Статус: The Elderman
<"чистая" ссылка>
> Пишешь прогу на Перле или ПХП, которая пробегает по списку
> проверяемых страниц ищет там что-то типа:
> /<ahref[\s\n\r]*=[\s\n\r\"\'][^\s\n\r\"\'\>]+)[\s
> \n\r\"\'\>]+/simU
> (т.е. <a href=link...)
> Дальше для каждого найденного линка открываешь сокет по 80
> порту и пихаешь туда что-то типа
> HEAD / HTTP/1.0\r\n\r\n
head не всегда поддерживается, так что если придет не 200, то лучше сделать get для полной уверенности. Не помню, может код для не поддерживаемого head-а и другой. Тогда задача упрощается: если вернулось 200 - все нормально ссылка живая, если 404 - битая, а если другое - то попытаться сделать get.

> и смотришь на отклик. Взависимости от него че-то делаешь
> (ведешь базу...) Очень даже коротенькая прога!
>
> Если пров дает тебе CronTab - то запускешь ее периодически.
1




Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2025 Dmitry Leonov   Page build time: 0 s   Design: Vadim Derkach