информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Все любят медЗа кого нас держат?Атака на Internet
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 Бэкдор в xz/liblzma, предназначенный... 
 Три миллиона электронных замков... 
 Doom на газонокосилках 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / dnet
Имя Пароль
ФОРУМ
все доски
FAQ
IRC
новые сообщения
site updates
guestbook
beginners
sysadmin
programming
operating systems
theory
web building
software
hardware
networking
law
hacking
gadgets
job
dnet
humor
miscellaneous
scrap
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
  • Напоминаю, что масса вопросов по функционированию форума снимается после прочтения его описания.
  • Новичкам также крайне полезно ознакомиться с данным документом.
Не работает это 14.12.06 11:10  Число просмотров: 2904
Автор: SergNe0 <Sergey> Статус: Member
Отредактировано 14.12.06 11:14  Количество правок: 3
<"чистая" ссылка>
:)
реально не работает это дело, прокси наплевать что через него идут дубликаты, и не следит за этим совершенно, я уже по этому поводу с разрабами говорил, и это сделано ваще спецально, чтобы не было потери отработанных данных, им не важно сколько раз ты посчитаешь одно и тоже хоть 100 раз им важен результат, есть такая маза что например когда ты перегружаешь компьютер в своей сети, где стоит персональный прокси в тот момент когда клиент пересылает данные на него то не получив подтверждения от прокси клиент заного отправляет тот же самый блок еще раз , прокси с легкостью проглатывает его и в его логах можно увидеть, что он якобы отправил несколько раз одно и тоже, тем самым например очень портится статистика в Personal Proxy Statistics ppstats. Реальные данные с данными которые показывает статистика различается в таком случае. И ничего не попишешь, так ведь подумать чтобы прокси следила за дубликатами это ей надо каждый блок сравнивать с теми, что уже через нее прошли, вы представляете какой комп нужен, чтобы обрабатывать такие данные с такой скорость? такого еще нет ;)
<dnet> Поиск 






Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2024 Dmitry Leonov   Page build time: 0 s   Design: Vadim Derkach