Видел, что на некоторых сайтах нельзя изображения
а) скачать(кнопка забита)
б) открыть в браузере при задании адреса "что-то-там.com/картнка.jpg"
в) показать на другом сайте, сославшись напрямую на картинку...
Есть большой сайт... на нем точно где-то есть битые ссылки - известно даже как они точно выглядят, неизвестно откуда они... Есть ли какая-нибудь прога для поиска битых ссылок?
Видел, что на некоторых сайтах нельзя изображения
а) скачать(кнопка забита)
б) открыть в браузере при задании адреса "что-то-там.com/картнка.jpg"
в) показать на другом сайте, сославшись напрямую на картинку...
Как это реализовать? Мэнюал где-нибудь есть?
Всем сенкс! Вот еще один вопросик возник...05.07.03 11:52 Автор: tdes <jin> Статус: Member
> Видел, что на некоторых сайтах нельзя изображения > а) скачать(кнопка забита) > б) открыть в браузере при задании адреса > "что-то-там.com/картнка.jpg" > в) показать на другом сайте, сославшись напрямую на > картинку...
Если пров дает ПХП и .htaccess, то пишешь в .htaccess что-то типа:
AddType application/x-httpd-php .jpg
После этого файлы .jpg запускаются как пхп-шные, ну в них и анализируешь - если IP-адрес ($REMOTE_ADDR) не тот, то показываешь дулю.
а теперь прямыми руками...02.07.03 18:15 Автор: Eugene Статус: Незарегистрированный пользователь
> Есть большой сайт... на нем точно где-то есть битые ссылки > - известно даже как они точно выглядят, неизвестно откуда > они... Есть ли какая-нибудь прога для поиска битых ссылок?
Пишешь прогу на Перле или ПХП, которая пробегает по списку проверяемых страниц ищет там что-то типа:
/<ahref[\s\n\r]*=[\s\n\r\"\'][^\s\n\r\"\'\>]+)[\s\n\r\"\'\>]+/simU
(т.е. <a href=link...)
Дальше для каждого найденного линка открываешь сокет по 80 порту и пихаешь туда что-то типа
HEAD / HTTP/1.0\r\n\r\n
и смотришь на отклик. Взависимости от него че-то делаешь (ведешь базу...) Очень даже коротенькая прога!
Если пров дает тебе CronTab - то запускешь ее периодически.
Уточнение02.07.03 15:00 Автор: amirul <Serge> Статус: The Elderman
> Пишешь прогу на Перле или ПХП, которая пробегает по списку > проверяемых страниц ищет там что-то типа: > /<ahref[\s\n\r]*=[\s\n\r\"\'][^\s\n\r\"\'\>]+)[\s > \n\r\"\'\>]+/simU > (т.е. <a href=link...) > Дальше для каждого найденного линка открываешь сокет по 80 > порту и пихаешь туда что-то типа > HEAD / HTTP/1.0\r\n\r\n head не всегда поддерживается, так что если придет не 200, то лучше сделать get для полной уверенности. Не помню, может код для не поддерживаемого head-а и другой. Тогда задача упрощается: если вернулось 200 - все нормально ссылка живая, если 404 - битая, а если другое - то попытаться сделать get.
> и смотришь на отклик. Взависимости от него че-то делаешь > (ведешь базу...) Очень даже коротенькая прога! > > Если пров дает тебе CronTab - то запускешь ее периодически.