информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Страшный баг в WindowsВсе любят мед
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 Бэкдор в xz/liblzma, предназначенный... 
 Три миллиона электронных замков... 
 Doom на газонокосилках 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / beginners
Имя Пароль
ФОРУМ
если вы видите этот текст, отключите в настройках форума использование JavaScript
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
  • Напоминаю, что масса вопросов по функционированию форума снимается после прочтения его описания.
  • Новичкам также крайне полезно ознакомиться с данным документом.
Господа, будьте снисходительны, не бросайтесь сразу штрафовать за, как вам кажется, глупые вопросы - beginners на то и beginners.
можно, например, скачивать wget'ом 06.07.04 12:53  Число просмотров: 1381
Автор: _йцукенг_ Статус: Незарегистрированный пользователь
<"чистая" ссылка>
можно, например, из перлового скрипта запускать для скачивания wget, а в конфиге wget'а написать
robots = off
<beginners>
Как обмануть robots.txt? 06.07.04 12:46  
Автор: Cherry Статус: Незарегистрированный пользователь
<"чистая" ссылка>
Люди, как написать (на Perl) программу, которая скачивает URL, прописанные в robots.txt как запрещённые?
можно, например, скачивать wget'ом 06.07.04 12:53  
Автор: _йцукенг_ Статус: Незарегистрированный пользователь
<"чистая" ссылка>
можно, например, из перлового скрипта запускать для скачивания wget, а в конфиге wget'а написать
robots = off
1




Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2024 Dmitry Leonov   Page build time: 0 s   Design: Vadim Derkach