Linux : getwebfolder scriptim ile açık web klasörlerini kolayca indirin (Download open web folders with my getwebfolder script)
Go to english version
İnternette google arama teknikleriyle arama yaparak
bulduğunuz veya kendinize ait olan açık klasörleri indirmek için wget
kullanabileceğinizi belki biliyorsunuzdur. Örneğin intitle:"index of"
aramasıyla içerdiği dosyalar açık olan klasörleri bulabilirsiniz. Böyle bir
klasörün içindeki dosyaları ve alt klasörleri indirmek için
wget -r -np -R "index.html*" http://example.com/example_folder/
komutunu kullanabilirsiniz.
Buradaki –r recursive (alt klasörlerle birlikte),
-np no parent (üst klasörleri indirmek istemiyorum),
-R "index.html*" ise index.html dosyalarını
indirmek/oluşturmak istemiyorum demek. Geriye kalan kısım ise indirmek
istediğimiz açık http veya ftp klasörünün adresi.
wget bu şekilde genel olarak çalışsa da bazı sitelerde sorun
çıkabiliyor ve çok fazla gereksiz html dosyası oluşturabiliyor. Bu işi
kolaylaştırmak ve gereksiz dosya oluşturmalarını engellemek amacıyla kendim
için yazdığım ilk linux scriptim olan getwebfolder scriptimi sizinle
paylaşıyorum.
Aşağıdaki linkten indirebilirsiniz. Kullanımı son derece kolay.
Linux sisteminize indirdiğiniz klasörde dosyanın çalıştırılabilir olması için
öncelikle zip dosyasındaki getwebfolder isimli dosyayı çıkartın.
Dosyanın çalıştırılabilir olması için
chmod +x getwebfolder
komutunu girin. Daha sonra
./getwebfolder indirmek_istediğiniz-klasör_URL
girerek web klasörünü indirme işlemini başlatabilirsiniz. Bu
script adresini verdiğiniz klasörü wget kullanarak alt klasörleri ile birlikte
indirir. İndirme işlemi verdiğiniz URL nin domain adında bir klasör
oluşturularak bunun içine yapılır. Örnek:
./getwebfolder http://example.com/example_folder/
Scripti açık kaynak kodlu ve açıklamalı olarak yayınlıyorum.
Fikir haklarıma ve emeğime saygı göstererek kullanmanız gerektiğini belirtmek
isterim. Önerilerinizi ve scriptte bulduğunuz hataları lütfen
bytebitter@outlook.com adresime veya aşağıdaki yorumlara yazın.
English Version
You may know that you can use wget to download open folders that you find by searching on the internet using google search techniques. For example, you can find open folders that contain files with intitle:"index of" search. To download files and subfolders in such a folder:
You may know that you can use wget to download open folders that you find by searching on the internet using google search techniques. For example, you can find open folders that contain files with intitle:"index of" search. To download files and subfolders in such a folder:
wget -r -np -R "index.html*" http://example.com/example_folder/
–r : recursive (download with sub folders),
-np : no parent (don't want to download parent folders),
-R : "index.html*" : don't want to create
index.html files.
wget generally works in this way, but some sites may have
problems and it may create too many unnecessary html files. In order to make
this work easier and to prevent unnecessary file creation, I am sharing my
getwebfolder script, which is the first linux script I wrote for myself.
You can download the script from the link below. It's extremely
easy to use. To be able to run the file first extract getwebfolder file from
the zip file you downloaded.
Make it executable by entering
chmod +x getwebfolder
after that you can download any open web folder by entering
./getwebfolder web_folder_url
This script will download the entire folder with subfolders using
wget. The download is done by creating a folder named domain of the URL you entered.
The script is open source and annotated. I would like to
state that you should use it with respect for my intellectual rights and labor.
Please write down your suggestions and errors in the script to bytebitter@outlook.com
or in the comments below.
Thanks for your scripts. Works without any issues. Running on my Netgear Readynas
YanıtlaSillink ölmüş tekrar yüker misiniz
YanıtlaSil