информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Страшный баг в WindowsГде водятся OGRы
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 Doom на газонокосилках 
 Умер Никлаус Вирт 
 С наступающим 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / hardware
Имя Пароль
ФОРУМ
все доски
FAQ
IRC
новые сообщения
site updates
guestbook
beginners
sysadmin
programming
operating systems
theory
web building
software
hardware
networking
law
hacking
gadgets
job
dnet
humor
miscellaneous
scrap
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
  • Напоминаю, что масса вопросов по функционированию форума снимается после прочтения его описания.
  • Новичкам также крайне полезно ознакомиться с данным документом.
Pls, Объясните мне, ламеру, суть и идею 32-битного цвета в видеокартах? ;-) 16.01.06 07:13  Число просмотров: 2840
Автор: HandleX <Александр М.> Статус: The Elderman
Отредактировано 16.01.06 11:38  Количество правок: 1
<"чистая" ссылка>
1) RGB. Три канала. по байту на канал — 24 бита.
2) 32 на 3 не делится ;-)
3) Виндовый GDI (к примеру), тоже получает значения цвета в виде RGB, 8 "лишних" бит не используются.

Итак, выставляя для рабочего стола глубину цвета в 32 бита, 1 байт в каждом пикселе экрана уходит в /dev/null ?

Всем заранее спасибо за ответы.
<hardware> Поиск 






Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2024 Dmitry Leonov   Page build time: 1 s   Design: Vadim Derkach