RDot

RDot (https://rdot.org/forum/index.php)
-   Релизы/Releases (https://rdot.org/forum/forumdisplay.php?f=11)
-   -   PHPFastScanner - многопоточный Reverse-IP сканнер на PHP (https://rdot.org/forum/showthread.php?t=1160)

Dr.Z3r0 23.01.2011 17:15

PHPFastScanner - многопоточный Reverse-IP сканнер на PHP
 
Вложений: 2
Актуальная версия: 3.2 (26.11.2011)
Сканер создан для выполнения всей рутиной работы при взломе через Reverse-IP.

Основные возможности:
  • Анализ соседей целевого сайта по Reverse-IP
  • Определение используемых движков (в базе 68 сигнатур)
  • Возможность добавлять свои сигнатуры движков в общую базу (см. FAQ)
  • Поиск phpinfo, phpmyadmin, sypex dumper
  • Сканирование структуры сайта + вложенное сканирование каталогов
  • Наборы словарей для сканирования структуры сайта, разбиты по типу файлов и по популярности
  • Возможность добавлять свои наборы словарей для сканирования структуры сканера (см. FAQ)
  • Метод HEAD сканирования структуры (экономия трафика + увеличение скорости)
  • Определение несуществующих страниц по коду ответа и(!) методом сравнения содержимого с заведомо несуществующей страницей
  • Раздельная обработка разных расширений (уменьшение ложных срабатываний при анализе структуры)
  • Поддержка Keep-Alive соединений (увеличение скорости)
  • Поддержка многопоточности (увеличение скорости)
  • Понятный интерфейс, множество различных настроек, наличие встроенного FAQ
Вообще это малая часть всех возможностей, все таки 130кб чистого кода для сканера это вам не цацки пецкать, все не опишешь =)
Ксатати более подробно вы сможете почитать во встроенном FAQ

При разработке основной упор делался на возможность дальнейшего расширения сканера новым функционалом. Поэтому в следующих версиях, думаю, появится много нового. А пока надо бы его потестить и почистить от багов, если таковые имеются.

Установка:
Распакуйте архив и выставьте права на запись в папку tmp/

Благодарности:
  • Grey - за большое количество идей и помощь
  • oRb - за дизайн содранный из его WSO
  • m0Hze - за is_numeric и за словари к сканеру структуры
  • eLwaux - за большую часть сигнатур движков


При размещении данной утилиты на сторонних сайтах, обязательно указание авторства и наличия прямого линка на данную страницу.

Svet 24.01.2011 18:19

Сканнер понравился. Есть одно предложение - сделать ссылки в разделе "результаты" кликабельными.

kiss dragon 24.01.2011 22:51

попробовал скрипт, в отчётах:
Цитата:


Лог
Целевой URL: http://www.***/
Целевой IP: *****
Получем соседние сайты...
Не полученно ни одного соседнего сайта.
Сканируем http://www.***/ (*****)

=====

http://www.****/KeepOut/ (503)
http://www.****/KeepOut/WebCalendar/ (503)
http://www.****/KeepOut/WebCalendar/administracao.php (503)
http://www.****/KeepOut/WebCalendar/comments/ (503)
http://www.*****/KeepOut/WebCalendar/components/ (503)
http://www.*****/KeepOut/WebCalendar/psp/ (503)
хотелось узнать так и должно выводить, и что такое /KeepOut , так же через маднета находит сайты, или я что то неправильно делаю..



Ps: разобрался, извиняюсь за нубский вопрос, не надо было ставить в конце адреса сайта / .
Спасибо за сканер.

Dr.Z3r0 26.01.2011 00:27

Новая версия: 3.0 beta (26.01.2011)

Собственно, не долго то и пришлось ждать =) Изменения:
Код:

+ определение используемых двигов на сайтах
* пофикшена работа с keep-alive с IIS (негодяйский MS, постоянно выдумывает всякую гадость)
* кликабельные ссылки в результатах (special to Svet =)) но через сервис anonym.to
* много незначительных изменений в кодесе

UPD: 2kiss dragon
Цитата:

хотелось узнать так и должно выводить, и что такое /KeepOut , так же через маднета находит сайты, или я что то неправильно делаю..

Ps: разобрался, извиняюсь за нубский вопрос, не надо было ставить в конце адреса сайта / .
Вообще, да, так и должно выводить. KeepOut/ - это дира которую определил сканер. Так что все правильно.
PS:для сканера безразлично есть ли в конце сайта слеш / или нет, так что проблема была не в этом.

Jokester 27.01.2011 13:22

Толи лыжи не едут...

7cyprus.com (для примера)

>800 сайтов реверса, ник.ру. Движки отказывается определять. Греевский определяет, но для него 800 дохрена, а с первой сотни результаты есть

Цитата:

Искать на соседних сайтах Да
Определять движок сайта Да
Искать системные файлы Нет
Сканировать структуру Нет
Сохранять ли в tmp/result.txt Да
===========================

Ну а в целом норм. Достаточно шустро, большая выдача его вроде не смущает (хотя структуру пока не тестил)


PS Давай синтаксис регулярок для определения движков с описанием, чем больше народу примет участие в добавлении их, тем быстрее из него получится хекатель интырнетов.
PPS Да, конечно можно в коде посмотреть, но я ленивый, да и лучше если ТС сам опишет =\

Dr.Z3r0 27.01.2011 18:21

Я так понимаю если из 800 сайтов не было определенно ни одного движка то, боюсь, что проблема не в количестве имеющихся сигнатур движков, а в ошибках в кодесе либо в уже имеющихся сигнатурах. Собственно версия пока бетка, так что это нормально.

Насчет кодеса ручатся не могу, всем свойственно ошибаться, но как минимум вордпресс он определяет нормально. Наиболее вероятно что проблема в уже имеющихся сигнатурах

Цитата:

PS Давай синтаксис регулярок для определения движков с описанием, чем больше народу примет участие в добавлении их, тем быстрее из него получится хекатель интырнетов.
PPS Да, конечно можно в коде посмотреть, но я ленивый, да и лучше если ТС сам опишет =\
Джок, лентяй)) в сканере есть встроенный ФАК там это расписанно. (кто не нашел - ткните на название сканера на главной. Ну или напрямую: ?about)
А пример сигнатуры в базе лежит тут engines/.example.txt

Выдержка из FAQ:
Цитата:

Как добавить сигнатуру движка в базу?
Все сигнатуры хранятся в папке engines/ Для каждого движка должен быть определен свой файл. Он не должен начинатся с точки и должен иметь расширение .txt.

Среди всех файлов вы найдете .example.txt содержащий описание структуры каждого файла. Для добавления нового движка, достаточно создать файл с его именем в указанной выше папке, и по подобию примера вписать в него нужные регулярки.

[Dark Green] 28.01.2011 09:48

Цитата:

Сообщение от Jokester (Сообщение 13120)
PS Давай синтаксис регулярок для определения движков с описанием, чем больше народу примет участие в добавлении их, тем быстрее из него получится хекатель интырнетов.
PPS Да, конечно можно в коде посмотреть, но я ленивый, да и лучше если ТС сам опишет =\

с сигнатурами проблем быть не должно, охотно предоставлю ТС более 130 сигнатур платных и около 70-80 бесплатных движков)
Только вот "кое-кто" (не буду показывать пальцем, главное, что он понял) немного лентяй... :yes: и станет ли он добавлять все эти сигнатуры в сканер - вопрос)) :)

Dr.Z3r0 28.01.2011 20:00

Хех. Ок. Давай определимся. Есть два варианта:
1) У тебя есть уже сигнатуры 200 движков, не знаю откуда ты их добыл, но суть в том что они уже есть. Ты ошибаешься думая, что мне лень будет добавить их в базу.

2) Ты перепутал понятия. У тебя есть 200 разных движков, и если ты мне предоставишь на их основе сигнатуры для добавления в общую базу, то я охотно соглашусь. То есть ты будешь ставить на локалхост каждый движок, составлять регулярку для индексного файла, определять уникальные файлы, составлять дополнительные регулярки для каждой версии и тд, все это в совокупности и будет называться сигнатурой одного движка.

То есть если ты считаешь что это просто - делай, а если нет, то нехуй меня называть лентяем ибо я и так сделал достаточно много для всех остальных. А если ты думаешь, что я кому то обязан, и что я буду делать все сам, то ты заблуждаешься.

[Dark Green] 28.01.2011 20:28

ога, затупил спросони... ну ты /me думаю понимаешь, видел)

имел ввиду исходники =\

apache3 29.01.2011 05:16

автоматизация хорошо
хорошая автоматизация хороша вдвойне

первое,с чем столкнулся - хотелось бы возможность сохранять подобие конфига (настройки,чтобы каждый раз их не вбивать заново)

2) целевой урл должен начинаться с http. Не очень удобно.
3) если добавить урл без http,то скрипт возвращает "Ошибки - Не могу получить имя домена из целевого URL", при этом активна
"Остановить сканирование". Хотелось бы,чтобы при подобных ошибках оно само останавливалось.

Настройки reverse ip:
- Удалить дубли сайтов с/без www.
Было бы интересно,если бы сканер автоматически сравнивал идентичность контента www.host и просто host. И в случае их идентичности уже
можно было бы решать - считать такой хост как дубликат и удалять или не удалять.

Настройки поиска системных файлов
немного не понятен смысл:
Искать уже найденные файлы на остальных хостах. То есть,если я на host1 нашел файл admin.txt.passwd,то на host2 такой файл
уже искаться не будет? Если так,то для чего оно нужно?

Вывод.
на каком-то тестовом сайте вывелось очень много 302 и 403. В такой толпе не сложно потерять искомые 200 ;) Было бы прекрасно,если бы можно
было применять фильтр -какой тип ответов показывать.

Когда уже работа "завершенна" (Zero - исправь плз),"Остановить сканирование" всё еще активно.

Дополнительные фишки
Хотелось бы,чтобы сканер автоматически показывал версию сервера,а также ответ на запрос options.
Версию сервера желательно каждый раз сравнивать - бывают случаи,когда http://site/URL1 обрабатывает один сервер,а http://site/URL2
обрабатывает другой.

Можно было бы добавить определялку версий PHP.

вывод - софт достойный и действительно помогает в рутине.
Автору респект )


Часовой пояс GMT +3, время: 04:19.

Powered by vBulletin® Version 3.8.5
Copyright ©2000 - 2019, Jelsoft Enterprises Ltd. Перевод: zCarot