информационная безопасность
без паники и всерьез
 подробно о проектеRambler's Top100
Сетевые кракеры и правда о деле ЛевинаСтрашный баг в Windows
BugTraq.Ru
Русский BugTraq
 Анализ криптографических сетевых... 
 Модель надежности двухузлового... 
 Специальные марковские модели надежности... 
 Бэкдор в xz/liblzma, предназначенный... 
 Три миллиона электронных замков... 
 Doom на газонокосилках 
главная обзор RSN блог библиотека закон бред форум dnet о проекте
bugtraq.ru / форум / miscellaneous
Имя Пароль
ФОРУМ
если вы видите этот текст, отключите в настройках форума использование JavaScript
регистрация





Легенда:
  новое сообщение
  закрытая нитка
  новое сообщение
  в закрытой нитке
  старое сообщение
  • Напоминаю, что масса вопросов по функционированию форума снимается после прочтения его описания.
  • Новичкам также крайне полезно ознакомиться с данным документом.
Все проще: 30.01.04 11:48  Число просмотров: 1204
Автор: Zef <Alloo Zef> Статус: Elderman
<"чистая" ссылка>
Получив несколько мыл подряд, Гугл должен отваливаться...
<miscellaneous>
Защита от спама - новая идея! 29.01.04 10:40  
Автор: Lawyer Статус: Незарегистрированный пользователь
<"чистая" ссылка>
Привет, всем!

Наверное, вам всем надоели спамеры, убытки от которых исчисляются миллионами долларов... Кажется, есть способ избавиться от них!!! В общем, прочитайте эту статью: http://www.m0l.nm.ru/anti_spam.htm

Жду ваших отзывы на e-mail!
Есть более удачные идеи 29.01.04 15:30  
Автор: amirul <Serge> Статус: The Elderman
<"чистая" ссылка>
Насчет того, что спамер легко сможет восстановить реальный адрес. Ведь на это и рассчитано, если связаться хочет человек, то он быстро поймет чего от него хотят, а спам базы собирают роботы и никто и никогда не просматривает несколько миллионов записей с целью понять чего же собственно нужно.

Лучший способ борьбы со спамерами был бы в изменении почтовых протоколов, но это из разряда сказок. Самый лучший на сегодня способ активного противодействия спамерам (в отличие от пассивного - фильтрации) - создание фейковых страниц с такими же фековыми (генерирующимися) линками и базами. Когда спам робот натыкается на такую страницу он будет блуждать по ней, попутно заполняя базу всяким мусором. Вот только спамеры ведь тоже могут блек-листы вести
Блек-листы? Это рульно! 30.01.04 03:18  
Автор: Zef <Alloo Zef> Статус: Elderman
<"чистая" ссылка>
Почесать репу на тему определения робота "на той стороне" (например по скорости перебора линков) и подсовывать ему фэйк-таблицу. Тогда он либо зависнет, либо занесет тя в блэк-лист и больше не будет приставать.
Гы. И внедрить в качестве стандартной примочки к апачу :-) 30.01.04 03:29  
Автор: amirul <Serge> Статус: The Elderman
<"чистая" ссылка>
> Почесать репу на тему определения робота "на той стороне"
> (например по скорости перебора линков) и подсовывать ему
> фэйк-таблицу. Тогда он либо зависнет, либо занесет тя в
> блэк-лист и больше не будет приставать.
Вот только больше всех от этого имхо пострадает гугль :-)
Его паук тоже лазит с нехилой скоростью. Кроме того такую систему можно дурить как и обычные IDS, определяющие сканирование портов - просканить страницу - занести себе в таблицу все линки - перейти к какой нить из занесенных страниц. Все случайно. Он будед лазить на других сайтах, но обязательно вернется.

Обычная, млин, гонка снаряда и брони
Гугло не постадает - на фиг ему мыла? Научится игнорировать... 8-) 30.01.04 05:10  
Автор: Zef <Alloo Zef> Статус: Elderman
<"чистая" ссылка>
А откуда ты знаешь, что со страниц выгребаются мыла? 30.01.04 05:17  
Автор: amirul <Serge> Статус: The Elderman
<"чистая" ссылка>
Робот ходит по ссылкам и закачивает страницы. Все в точности совпадает с поведением гугля. Вот только гугль полученные страницы индексирует полностью, а спамерские роботы выдирают с них мыла.
Ну если встраивать... 30.01.04 10:32  
Автор: whiletrue <Роман> Статус: Elderman
<"чистая" ссылка>
> Робот ходит по ссылкам и закачивает страницы. Все в
> точности совпадает с поведением гугля. Вот только гугль
> полученные страницы индексирует полностью, а спамерские
> роботы выдирают с них мыла.

... то можно в HTTP-запрос добавить комманду типа "GET NO EMAILS" или "GET ROBOTS". А апач по этой комманде отрезал бы все мылы в страничке... :)
Все проще: 30.01.04 11:48  
Автор: Zef <Alloo Zef> Статус: Elderman
<"чистая" ссылка>
Получив несколько мыл подряд, Гугл должен отваливаться...
Дык он так и делает скорее всего 30.01.04 13:17  
Автор: amirul <Serge> Статус: The Elderman
<"чистая" ссылка>
> Получив несколько мыл подряд, Гугл должен отваливаться...
Первоначальное предложение было: заметив робота ВМЕСТО нормальной страницы начать пихать ему фейк. Гугль на это тоже поведется и отвалится
очень примитивно 29.01.04 11:54  
Автор: ZaDNiCa <indeed ZaDNiCa> Статус: Elderman
<"чистая" ссылка>
кодирование мыла кодами символов или, что лучше, яваскриптом намного эффективнее (в Smarty есть для этого спец функции). Насколько мне известно прог для собирания мыл с поддержкой работы с яваскриптами еще нет и появятся ли они неизвестно.
1




Rambler's Top100
Рейтинг@Mail.ru


  Copyright © 2001-2024 Dmitry Leonov   Page build time: 1 s   Design: Vadim Derkach