информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Spanning Tree Protocol: недокументированное применениеСтрашный баг в Windows
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 Бэкдор в xz/liblzma, предназначенный... 
 Три миллиона электронных замков... 
 Doom на газонокосилках 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / programming
Имя Пароль
ФОРУМ
все доски
FAQ
IRC
новые сообщения
site updates
guestbook
beginners
sysadmin
programming
operating systems
theory
web building
software
hardware
networking
law
hacking
gadgets
job
dnet
humor
miscellaneous
scrap
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
  • Напоминаю, что масса вопросов по функционированию форума снимается после прочтения его описания.
  • Новичкам также крайне полезно ознакомиться с данным документом.
Я сам свои ссылки перечитал. В общем я несколько неправильно... 09.11.05 11:26  Число просмотров: 1706
Автор: amirul <Serge> Статус: The Elderman
<"чистая" ссылка> <обсуждение закрыто>
> Спасибо за мнение и ссылки. IOCP - именно это сейчас хочу посмотреть.

Я сам свои ссылки перечитал. В общем я несколько неправильно понимал принцип действия iocp, но все равно - это самый эффективный метод реализации масштабируемых серверов на NT-платформе. На самом деле в эту очередь добавляются хендлы с запрошенным асинхронным вводом/выводом. И этот порт можно ждать при помощи WaitForSingleObject. Когда любая из операций завершается - порт становится в signalled state. И из него можно вычитать данные о завершившейся операции. Рабочие потоки все равно придется создавать самому, правда раздача заданий несколько упрощается. В общем смотри примеры.

> > Worker threads придется реализовывать самому.
> Создается пул
> > потоков, очередь обработки (защищенная мьютексом).
>
> Почему именно мьютексом?

Просто первое, что пришло в голову. Критическая секция действительно быстрее будет в рамках одного процесса. Обязательна сериализация доступа, метод этой сериализации - совершенно произвольный.

> > Все эти потоки становятся в ожидание одного
> синхронизирующего (с
> > самосбросом) event-а.
>
> кто устанавливает event? В лупе первичного потока проверкой
> select наличие данных в буфере данных сокета одного из
> клиентов?

Ага. Когда появляется работа (появились данные в сокете или еще чего) обработка выносится в отдельный поток. Опять таки event - просто способ синхронизации командного потока с рабочим. Правда здесь в голову не приходит более простая и эффективная замена event-у.

> Когда необходимо выполнить некую
> > Когда необходимо выполнить некую работу, основной
> поток заполняет структуру, в которой есть
> > все данные, необходимые для выполнения этой работы,
> > вставляет ее в очередь и сигналит event. Первый из
> > ожидающих потоков просыпается, блокирует мьютексом
> очередь
> > обработки, забирает из очереди свое задание (с
> удалением
> > его из очереди), разблокирует очередь и начинает
> спокойно
> > выполнять задание.
>
> Впростейшем случае, если используется STL контейнеры -
> критической секцией нельзя защищтить очередь?

Можно чем угодно. Лишь бы не было race-а и не побились сами списки.

ЗЫ: Да, эту концепцию можно несколько расширить. Если по завершению операций необходимо выполнить еще какую то работу (в зависимости от того, как она была завершена, например за операций СЧИТЫВАНИЯ команды из сокета следует операция ВЫПОЛНЕНИЯ этой команды), то можно создать еще один список, но уже завершенных операций. А еще лучше в каждом задании на обработку завести поля для callback-а, который будет вызываться по завершению. В любом случае поллить (переопрашивать) статус (как тут было предложено) - не самый лучший выбор в многозадачных системах.
<programming> Поиск 






Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2024 Dmitry Leonov   Page build time: 0 s   Design: Vadim Derkach