информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Страшный баг в WindowsВсе любят мед
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 Microsoft обещает радикально усилить... 
 Ядро Linux избавляется от российских... 
 20 лет Ubuntu 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / beginners
Имя Пароль
ФОРУМ
если вы видите этот текст, отключите в настройках форума использование JavaScript
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
  • Напоминаю, что масса вопросов по функционированию форума снимается после прочтения его описания.
  • Новичкам также крайне полезно ознакомиться с данным документом.
Господа, будьте снисходительны, не бросайтесь сразу штрафовать за, как вам кажется, глупые вопросы - beginners на то и beginners.
можно, например, скачивать wget'ом 06.07.04 12:53  Число просмотров: 1419
Автор: _йцукенг_ Статус: Незарегистрированный пользователь
<"чистая" ссылка>
можно, например, из перлового скрипта запускать для скачивания wget, а в конфиге wget'а написать
robots = off
<beginners>
Как обмануть robots.txt? 06.07.04 12:46  
Автор: Cherry Статус: Незарегистрированный пользователь
<"чистая" ссылка>
Люди, как написать (на Perl) программу, которая скачивает URL, прописанные в robots.txt как запрещённые?
можно, например, скачивать wget'ом 06.07.04 12:53  
Автор: _йцукенг_ Статус: Незарегистрированный пользователь
<"чистая" ссылка>
можно, например, из перлового скрипта запускать для скачивания wget, а в конфиге wget'а написать
robots = off
1




Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2024 Dmitry Leonov   Page build time: 0 s   Design: Vadim Derkach