информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Spanning Tree Protocol: недокументированное применениеСетевые кракеры и правда о деле Левина
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 Очередное исследование 19 миллиардов... 
 Оптимизация ввода-вывода как инструмент... 
 Зловреды выбирают Lisp и Delphi 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / web building
Имя Пароль
если вы видите этот текст, отключите в настройках форума использование JavaScript
ФОРУМ
все доски
FAQ
IRC
новые сообщения
site updates
guestbook
beginners
sysadmin
programming
operating systems
theory
web building
software
hardware
networking
law
hacking
gadgets
job
dnet
humor
miscellaneous
scrap
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
Мощная вещь... Спасибо! :) 06.05.05 06:17  Число просмотров: 1807
Автор: HandleX <Александр М.> Статус: The Elderman
<"чистая" ссылка> <обсуждение закрыто>
<web building>
Эмулятор популярного браузера для хождения по ссылкам, реализованный на PHP или Perl — очень-очень нужен... 03.05.05 20:29  
Автор: HandleX <Александр М.> Статус: The Elderman
Отредактировано 03.05.05 20:44  Количество правок: 5
<"чистая" ссылка> <обсуждение закрыто>
Тема: есть хостер. У него работает Perl, PHP.
Проблема: надо получить документ по URL, сделать квинтэссенцию пирожков из него (если сервер прислал), выделить множество содержащихся в документе ссылок (желательно, по регулярным выражениям), и "походить" по этим ссылкам...
Если требуют пирожки обратно, корректно их отдавать ;-)
И так, чтобы на удалённом сервере (куда "идут" из скрипта) была полная иллюзия, что сёрфят по выбранным ссылкам реальныим браузерами.

Маленькие намёточки или кусочки кода — и я долго буду биться в истерике от счастья... ж-)

Заранее всем БОЛЬШОЕ спасибо!
В LWP все для этого готово 03.05.05 21:39  
Автор: dl <Dmitry Leonov>
<"чистая" ссылка> <обсуждение закрыто>
Только парсер ссылок самому.

Поцитирую сам себя:

# создание
$UserAgent = new LWP::UserAgent;
# задание строки с именем "броузера"
$UserAgent->agent("MoZilla 9.0 (non-compatible; MSIE 9.3; PalmOS)");
# работа через прокси
$UserAgent->proxy('http', $proxy);

HTTP::Request отвечает за формирование запроса серверу, HTTP::Headers
-- за формирование заголовков запроса:
# формируем заголовки
$Headers = new HTTP::Headers(Referer => $referer);
# формируем запрос
$Request = new HTTP::Request(GET => $url, $Headers);

Взаимодействие с сервером осуществляется функцией request, возвращающей
объект HTTP::Response:

$Response = $UserAgent->request($Request);
if($Response->is_success) # успешно выполненный запрос
{
# получаем информацию, возвращенную сервером
$text = $Response->content;
}

Для работы с cookie используется модуль HTTP::Cookie и функция
cookie_jar, сообщающая нашему виртуальному броузеру о необходимости
использовать объект Cookie:
my $СookieJar = new HTTP::Cookies;
$UserAgent->cookie_jar($CookieJar);

Для сохранения и загрузки cookie используются функции
$CookieJar->load($cookiefilename);
$CookieJar->save($cookiefilename);
Можно формировать их значения и вручную с помощью функции set_cookie.
Спасибо огромное, подскажи ещё ссылочку на оригинальную статью, откуда «цитировал», pls... :-) 05.05.05 16:03  
Автор: HandleX <Александр М.> Статус: The Elderman
<"чистая" ссылка> <обсуждение закрыто>
это из последней "Атаки" 05.05.05 21:02  
Автор: dl <Dmitry Leonov>
<"чистая" ссылка> <обсуждение закрыто>
Аналогичный текст есть в этой методичке, в самом конце:
http://lib.ru/PERL/LEONOV/perl_www.txt
Мощная вещь... Спасибо! :) 06.05.05 06:17  
Автор: HandleX <Александр М.> Статус: The Elderman
<"чистая" ссылка> <обсуждение закрыто>
1




Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2025 Dmitry Leonov   Page build time: 0 s   Design: Vadim Derkach