کمانڈ لائن پروگرام
wget میں دو آپشنز کچھ یوں ہیں:
کوڈ:
‘-i file’
‘--input-file=file’
Read urls from a local or external file.[...] file should consist
of a series of URLs, one per line. [...]
‘-O file’
‘--output-document=file’
The documents will not be written to the appropriate files, but all will be
concatenated together and written to file.[...]
میں نے تجربہ کرنے کی غرض سے ایک ٹیکسٹ فائل میں یہ تین روابط لکھے:
کوڈ:
http://www.majzoob.com/1/13/132/1320010.htm
http://www.majzoob.com/1/13/132/1320020.htm
http://www.majzoob.com/1/13/132/1320030.htm
اور پھر یہ کمانڈ چلائی:
کوڈ:
wget -i url-list.txt -O majzoob.html
نتیجے میں
majzoob.html میں ان تینوں روابط کا متن ترتیب وار آ گیا۔ ایچ-ٹی-ایم-ایل مارک اَپ کا حشر ضرور ہوا (کیونکہ تین ایچ-ٹی-ایم-ایل فائلز کو اندھا دھند ایک میں سمویا گیا ہے)، لیکن براؤزر میں کھولنے پر متن کافی حد تک شریفانہ انداز میں نظر آیا، جسے آسانی سے کاپی کر کے ورڈ فائل میں پیسٹ اور پھر فارمیٹ کیا جا سکتا ہے۔ (اس کتاب کے متن کو فارمیٹنگ کی ضرورت تو ویسے بھی پیش آئے گی کیونکہ ویب سائٹ پر ایچ-ٹی-ایم-ایل کے ہیڈنگ یا لسٹ وغیرہ کے ایلیمینٹس استعمال نہیں کیے گئے۔)
اس طریقے میں تین قباحتیں ہیں:
ایک، تمام مطلوبہ روابط کو ایک فائل میں لکھنا۔ (اس ویب سائٹ کے روابط کی سکیم ترتیب وار نمبروں پر مشتمل ہے، چنانچہ نوٹ پیڈ پلس پلس کے ذریعے اس کام میں زیادہ مشکل نہیں ہوئی۔)
دو، صفحات کے ہیڈرز اور فُٹرز کا متن اپنے آپ کو دہراتا رہے گا ("پچھلا صفحہ"، "اگلا صفحہ"، "ہمیں لکھئے۔ انتباہ"، "جملہ حقوق محفوظ ہیں" وغیرہ وغیرہ)۔کاپی پیسٹ کے بعد انہیں نکالنے کی ضرورت پیش آئے گی (جو ورڈ کے سرچ اور ری پلیس فنکشن کی مدد سے بآسانی ممکن ہونا چاہیے)۔
اور تین، فہرست میں موجود ہائپرلنکس درست کام نہیں کریں گے۔
درج بالا طریقے سے حاصل کیا گیا کتاب الایمان، کتاب الطہارة، کتاب الصلوٰة، اور کتاب الزکٰوة کا متن (ایچ-ٹی-ایم-ایل فائلز کی صورت میں) مَیں نے
یہاں رکھ دیا ہے۔ امید ہے کہ کچھ مدد ہو سکے گی۔