есть урл сайта. как получить список всех его доступных страниц?
(4)
http://www.webcrawler.com/
ввожу адрес сайта - выдает кучу левых страниц
Очень размытое понятие. Всех доступных страниц. Карта сайта нет ?
(6)наверное, нет
(5) я имел в виду - тебе нужна прога, относящаяся к классу "Web crawler"
wget -r нужный_сайт
(11) но это только то что без авторизации
так что правильный ответ - это принципиально невозможно
Если там 100500 каталогов и какие-то страницы там лежат ? длина ограничена ? типы символов ограниченны ?
Короче так то да простым перебором можно много чего сделать, только это может затянуться на 100500 тыс. млрд. лет. !
(16) Ты колись чего ты хочешь сделать ? В конечном итоге, слить, удалить, найти дыру через которую сможешь положить сайт или чего ?
Теоретически если бюджет нормальный то можно и социал-инжиниринг подключить с внедрением своих людей в нужный участок цепи. Но здесь гарантия 100%, а во всех остальных случаях можно потратиться на хренову тучу лавандосов и в итоге не получить и грамма инфы.
если деньги есть, эффективнее терморектальный инжиниринг
(22) А чего их раскрывать ... 1С позволит положить исполнимый файлик на сервер и запустить, а далее дело техники ...
У стима по жизни хитрые задачи. Где он их берет. И платят ли за это