Исследование Web-сервера

минута на чтение

Исследование Web-сервераПосле того как мы осветили основные методы идентификации работающих служб, настало время поговорить о протоколе HTTP. Этот протокол используют Web-серверы, которые для нас особенно интересны. Работая с современным Web-сервером, удаленный пользователь имеет возможность взаимодействовать сразу с несколькими приложениями, используя один протокол. Если посмотреть с нашей точки зрения, то чем больше функций выполняет машина, тем больше она уязвима, тем больше вероятность найти ошибку, которой можно воспользоваться. В этой книге уже затрагивалась проблема изучения Web-серверов. Большинство из них предоставляет некоторую информацию о себе при ответе на запрос клиентской части. Приведем следующий пример: Отсюда видно, что на домене slashdot. org установлен Web-сервер Apache 1.3.12, работающий в ОС UNIX. При этом, возможно, сервером используется модуль mod_perl версии 1.24. Правда, если вы знакомы с этим сайтом, то ничего нового не узнали: пример лишь иллюстрирует идею. В примере использовалась команда HEAD / НТТР/1. О, после чего последовало два символа возврата каретки (OxODOA). То, что мы сделали, — не больше, чем сканирование анонсов. Для того чтобы узнать больше, необходимо получить с сервера все опубликованные на нем файлы. В первую очередь нас интересуют файлы, содержащие исполняемые сервером команды или хранящие некоторую информацию об инфраструктуре сайта. Возможности получить только интересующие нас файлы не существует. Легких путей здесь искать не приходится, так что логично сначала получить все доступные файлы, а затем в спокойной обстановке проанализировать полученную информацию. Для скачивания всех файлов сайта я рекомендую использовать специально предназначенные для этого программы, например wget из архива GNU. Имейте в виду, что процесс может занять много времени, замедлит работу сервера и не останется незамеченным для службы безопасности. Тем более, если сайт объемный или содержит динамические инструкции. Если вас не беспокоят такие проблемы, то использование wget или аналогичных программ, скорее всего, окажется наилучшим способом сбора файлов.

Facebook Vk Ok Twitter Telegram

Похожие записи:

Обычный proxy-сервер кэширует исходящие HTTP-запросы и соответствующие этим запросам ответы. Примерно таким же образом может работать реверсивный proxy-сервер, распределяя запросы между несколькими Web — серверами. Далее клиент 10.0.0.1 обращается с запросом п...
Какие факторы указывают на то, что емкости сайта недостаточно? В разных случаях вы можете обнаружить задержки в ответах сервера, ошибки браузера, ошибки Web-сервера, базы данных или обрывы соединений. Хуже, если существуют проблемы с удаленными соединениями: в...
Одним из простейших механизмов распределения является ведение таблицы текущих HTTP-сессий. После выбора Web-сервера, который будет отвечать на запросы того или иного клиента, распределитель заменяет МАС — адрес в пакетах адресом этого сервера. Для того чтобы т...