ایک سکرپٹ کی ضرورت ہے

الف عین

لائبریرین
بہت سے احباب ویب سائٹ کے مختلف صفحات ایک ساتھ ایک ہی فائل میں محفوظ کرنے کے لئے سکرپٹ بنا چکے ہیں۔ مجھے بھی تفہیم القرآن کے لئے سبط الحسین نے ایسی سکرپٹ بنا کر دی تھی۔
بہت دن سے میں ہمت کر رہا ہوں کہ اس سائٹ کے ہر صفحے کو ڈاؤن لوڈ کروں، لیکن ابھی خیال آیا کہ دوستوں سے مدد لی جا سکتی ہے۔ ہے کوئی جو ایسی جینرک سکرپٹ لکھ کر دے دے جو زیادہ تر ویب سائٹس میں کام آ سکے۔ یہ سائٹ تو بہت آسان لگتی ہے اس سلسلے میں۔ یا کم از کم کوئی یہ مدد کرے کہ زبدۃ الفقہ مکمل کتاب بنا کر دے دیں اور عند اللہ ماجور کریں۔
 

نبیل

تکنیکی معاون
اعجاز اختر صاحب، اس طرح کی جنرک سکرپٹ لکھنا قدرے مشکل ہوگا کیونکہ تصویری متن پر مشتمل مواد میں یو آر ایل کے پیٹرن بدلتے رہتے ہیں۔ اور بالفرض ایسی سکرپٹ تیار کر بھی لی جائے تو یہ عام یوزر کے لیے استعمال کرنا ممکن نہیں ہوگا کیونکہ اس کے مختلف پیرامیٹر سیٹ کرنے کی ضرورت پیش آئے گی جوکہ پیچیدہ کام ہو سکتا ہے۔ اگر آپ کو کوئی کتاب درکار ہے تو اس کا آن لائن ربط یہاں فراہم کر دیں۔ کوئی نہ کوئی یقیناً اس کو فائل میں اکٹھا کر دے گا۔
 

نبیل

تکنیکی معاون
میں نے ابھی نوٹ کیا ہے کہ کتاب کا ربط اعجاز اختر صاحب نے فراہم کیا ہوا ہے۔ لیکن حیرانی کی بات ہے کہ صرف ایک صفحہ تصویری شکل میں ہے جبکہ باقی صفحات یونیکوڈ شکل میں معلوم ہو رہے ہیں۔
 

الف عین

لائبریرین
میں تو اسکام کیلئے کسی ٹول یا سافٹوئیر کا استعمال بہتر سمجھتا ہوں۔ جیسے:
http://www.httrack.com/
یہ سافٹ وئر میرے پاس بھی ہے، لیکن یہ داؤن لوڈ تو کر لیتا ہے، لیکن مختلف فائلوں میں۔ اس صورت میں بھی ورڈ داکیومینٹ بنانے کے لئے آف لائن ہر ویب پیج کو علیحدہ علیحدہ کاپی پیسٹ کرنا پڑے گا۔
 

الف عین

لائبریرین
میں نے ابھی نوٹ کیا ہے کہ کتاب کا ربط اعجاز اختر صاحب نے فراہم کیا ہوا ہے۔ لیکن حیرانی کی بات ہے کہ صرف ایک صفحہ تصویری شکل میں ہے جبکہ باقی صفحات یونیکوڈ شکل میں معلوم ہو رہے ہیں۔
اسی لئے لکھا تھا کہ یہ بڑی آسان سائٹ لگ رہی ہے۔ کہ اس میں کوئی امیج بھی نہیں ہے۔ سوائے اس صفحے کے جہاں سارے روابط ہیں
 

سعادت

تکنیکی معاون
کمانڈ لائن پروگرام wget میں دو آپشنز کچھ یوں ہیں:

کوڈ:
‘-i file’
 
‘--input-file=file’
 
    Read urls from a local or external file.[...] file should consist
 
    of a series of URLs, one per line. [...]
 
‘-O file’
 
‘--output-document=file’
 
    The documents will not be written to the appropriate files, but all will be
 
    concatenated together and written to file.[...]

میں نے تجربہ کرنے کی غرض سے ایک ٹیکسٹ فائل میں یہ تین روابط لکھے:

کوڈ:
http://www.majzoob.com/1/13/132/1320010.htm
 
http://www.majzoob.com/1/13/132/1320020.htm
 
http://www.majzoob.com/1/13/132/1320030.htm

اور پھر یہ کمانڈ چلائی:

کوڈ:
wget -i url-list.txt -O majzoob.html

نتیجے میں majzoob.html میں ان تینوں روابط کا متن ترتیب وار آ گیا۔ ایچ-ٹی-ایم-ایل مارک اَپ کا حشر ضرور ہوا (کیونکہ تین ایچ-ٹی-ایم-ایل فائلز کو اندھا دھند ایک میں سمویا گیا ہے)، لیکن براؤزر میں کھولنے پر متن کافی حد تک شریفانہ انداز میں نظر آیا، جسے آسانی سے کاپی کر کے ورڈ فائل میں پیسٹ اور پھر فارمیٹ کیا جا سکتا ہے۔ (اس کتاب کے متن کو فارمیٹنگ کی ضرورت تو ویسے بھی پیش آئے گی کیونکہ ویب سائٹ پر ایچ-ٹی-ایم-ایل کے ہیڈنگ یا لسٹ وغیرہ کے ایلیمینٹس استعمال نہیں کیے گئے۔)

اس طریقے میں تین قباحتیں ہیں:

ایک، تمام مطلوبہ روابط کو ایک فائل میں لکھنا۔ (اس ویب سائٹ کے روابط کی سکیم ترتیب وار نمبروں پر مشتمل ہے، چنانچہ نوٹ پیڈ پلس پلس کے ذریعے اس کام میں زیادہ مشکل نہیں ہوئی۔)

دو، صفحات کے ہیڈرز اور فُٹرز کا متن اپنے آپ کو دہراتا رہے گا ("پچھلا صفحہ"، "اگلا صفحہ"، "ہمیں لکھئے۔ انتباہ"، "جملہ حقوق محفوظ ہیں" وغیرہ وغیرہ)۔کاپی پیسٹ کے بعد انہیں نکالنے کی ضرورت پیش آئے گی (جو ورڈ کے سرچ اور ری پلیس فنکشن کی مدد سے بآسانی ممکن ہونا چاہیے)۔

اور تین، فہرست میں موجود ہائپرلنکس درست کام نہیں کریں گے۔

درج بالا طریقے سے حاصل کیا گیا کتاب الایمان، کتاب الطہارة، کتاب الصلوٰة، اور کتاب الزکٰوة کا متن (ایچ-ٹی-ایم-ایل فائلز کی صورت میں) مَیں نے یہاں رکھ دیا ہے۔ امید ہے کہ کچھ مدد ہو سکے گی۔ :)
 

الف عین

لائبریرین
جزاک اللہ خیر سعادت۔ باقی کام ورڈ کا فائنڈ رپلیس کر دے گا۔ کتاب الصوم کو میرے لئے ہی چھوڑ دیا کیا؟
ممنون ہوں۔
 

سعادت

تکنیکی معاون
جزاک اللہ خیر سعادت۔ باقی کام ورڈ کا فائنڈ رپلیس کر دے گا۔ کتاب الصوم کو میرے لئے ہی چھوڑ دیا کیا؟
ممنون ہوں۔

کتاب الصوم تصاویر پر مبنی ہے، اس لیے اس پر کوئی دھیان نہیں دیا تھا۔ ابھی دیکھا ہے تو اس کی تصاویر کے روابط بھی ترتیب ہی میں ہیں، چنانچہ ان کی فائل یہ رہی۔ (یہ سب علیحدہ علیحدہ امیج فائلز ہی ہیں۔۔۔ ایک بڑی تصویر میں انہیں اکٹھا نہیں کیا کہ انہیں ٹائپ کرنے کی ضرورت تو بہرحال پڑے گی۔)

(ویسے ویب سائٹ پر کتاب الصوم کے آخری دستیاب صفحے پر کسی اگلے صفحے کا ربط بھی ہے، لیکن وہ کام نہیں کر رہا، لہذا اسی صفحے تک کی تصویریں اتاری ہیں۔)
 
السلام علیکم،

میرے ذہن میں اس کے دو طریقے ہیں۔
ایک تو یہ کہ ایڈوبی ایکروبیٹ پروفیشنل ورژن میں جب پی ڈی ایف فائل بناتے ہیں تو اس میں کسی ویب سائٹ کو پی ڈی ایف میں کنورٹ کرنے کی سہولت موجود ہوتی ہے اور اس میں آپ لنکس کے لیول بھی ایڈجیسٹ کر سکتے ہیں۔ اور جب پی ڈی ایف فائل بن جائے تو سیلیکٹ آل اور پر کاپی تمام ٹیکسٹ۔

دوسرا طریقہ یہ کہ html یا htm بھی پی ڈی ایف میں کنورٹ ہو سکتے ہیں۔ کسی بھی ویب سائٹ کاپیئر سوفٹوئیر مثلاََ website copier یا HTTrack سے یہ http://www.majzoob.com/1/13/131/ پوری ڈائیریکٹری کی صرف html یا htm فائلیں ڈاؤنلوڈ کر کے انہیں پی ڈی ایف میں کنورٹ کر کے سلیکٹ آل ٹیکسٹ سے تمام صفحوں کا ٹیکسٹ سلیکٹ ہو جائے گا۔
 
اوپر والا پہلا تجربہ ہی کامیاب ہو گیا اور پوری کتاب کتاب کی صورت میں میری ہارڈ ڈسک میں ہے جی :cool:
اب میں ٹیکسٹ سلیکٹ کر کے ڈیلیٹ کروں یا تبدیل۔
 

اوشو

لائبریرین
میرا خیال آئی ڈیم ایم یا فلیش گیٹ کے بیچ ڈاؤنلوڈ کی مدد بھی لی جاسکتی ہے جس سے وائلڈ کارڈ استعمال کرتے ہوئے ایک مخصوص پیٹرن پر چلتے ہوئے ویب پیجز میں سے کسی مخصوص قسم کے ڈیٹا کو ڈاونلوڈ کیا جا سکتا ہے۔
 

الف عین

لائبریرین

الف عین

لائبریرین
میرا خیال آئی ڈیم ایم یا فلیش گیٹ کے بیچ ڈاؤنلوڈ کی مدد بھی لی جاسکتی ہے جس سے وائلڈ کارڈ استعمال کرتے ہوئے ایک مخصوص پیٹرن پر چلتے ہوئے ویب پیجز میں سے کسی مخصوص قسم کے ڈیٹا کو ڈاونلوڈ کیا جا سکتا ہے۔
کیا اس طرح سنگل داکومینٹ بن سکتا ہے کسی بھی فارمیٹ میں؟
 
Top