جب AI نے جان بوجھ کر جھوٹ بولا۔ ویڈیو از تختی آن لائن

علی وقار

محفلین
یعنی؟
کچھ تفصیل ہو جائے۔ :)
ڈاکٹر یونس بٹ کا مقبول زمانہ مزاحیہ ڈراما سیریل تھا، فیملی فرنٹ۔ اس میں خوشیا نامی ایک کردار تھا، جو کہ کنبے والوں کے جملہ مسائل حل کرنے کی کوشش کرتا تھا چاہے سیدھے طریقے سے حل ہوں یا کوئی غلط راہ اختیار کرنی پڑ جائے۔
 

محمداحمد

لائبریرین
ڈاکٹر یونس بٹ کا مقبول زمانہ مزاحیہ ڈراما سیریل تھا، فیملی فرنٹ۔ اس میں خوشیا نامی ایک کردار تھا، جو کہ کنبے والوں کے جملہ مسائل حل کرنے کی کوشش کرتا تھا چاہے سیدھے طریقے سے حل ہوں یا کوئی غلط راہ اختیار کرنی پڑ جائے۔
ہممم

ڈرامہ اور خوشیا صاحب تو یاد آگئے تھے لیکن یہ سمجھ نہیں سکا تھا کہ آپ کیا کہنا چاہ رہے ہیں۔

شکریہ۔ :)
 

علی وقار

محفلین
ہممم

ڈرامہ اور خوشیا صاحب تو یاد آگئے تھے لیکن یہ سمجھ نہیں سکا تھا کہ آپ کیا کہنا چاہ رہے ہیں۔

شکریہ۔ :)
ویسے اے آئی کو اخلاقی اقدار سے کیا واسطہ۔ ہاں، اگر اسے بتا دیا جائے کہ آپ نے مقصد کے حصول کے لیے کسی صورت غیر حقیقی بات نہیں کرنی ہے تو پھر شاید وہ سدھر جائے۔ وگرنہ اگر اسے بہرصورت ہدف تک پہنچنے کا ٹاسک دے دیا جائے تو واقعی خطرناک صورت حال پیدا ہو سکتی ہے۔ اس سے زیادہ خطرناک صورت حال تو مجھے یہ نظر آتی ہے کہ چیٹ بوٹس الگ سے زبان بنا کر اس میں مکالمہ کرنے لگ جائیں، اور مکالمہ بھی با معنی ہو مگر انسانی فہم سے ماورا ہو۔ یہ بات مجھے حیران کر گئی۔
 
اے آئی بذاتِ خود تو کچھ نہیں۔ یہ مجموعہ ہے ان الگورتھمز (algorithms) کا جو اسے چلاتے ہیں۔ وہ الگورتھمز (algorithms) ا نسانوں نے بنائے ہیں جن کو استعمال کرکے اے آئی کسی بھی مسئلے کا حل نکالتی ہے۔لیکن اے آئی کی سوچنے اور پراسیس کرنے کی صلاحیت انسان کے مقابلے میں لامحدود حد تک زیادہ ہے۔ صورتحال خطرناک اس وقت ہو سکتی ہے جب اسے بنانے والے انسان ارادی طور پر یا غیر اردی طور پر الگورتھمز (algorithms) میں غلطی کریں۔ یا دیے گئے الگورتھمز (algorithms) کی تما م ترتیبیوں (sequences) کا نتیجہ سمجھنے سے قاصر رہیں۔اور ایسا بالکل ممکن ہے-کیونکہ یہ ترتیبیں (sequences) لامحدود ہو سکتی ہیں (یعنی ایک کام براہِ راست کرنے کے بہت سے طریقے ہوسکتے ہیں اور بالواسطہ کرنے کے ان گنت ہو سکتے ہیں)۔پھر ظاہر ہے کہ ان لامحدود میں سے کون سی اخلاقی یا غیر حقیقی ہیں ان کو علیحدہ کرنا بہت مشکل ہے۔
دی گئی ویڈیو میںCAPTCHA کی مثال بھی یہی ظاہر کرتی ہے کہ بنانے والے یہ سمجھ رہے ہیں کہ اے آئی نہ دیکھ سکتی ہے نہ سن سکتی ہے لیکن اے آئی کو چونکہ دوسرے طریقوں کا علم ہے جو کہ ان گنت ہو سکتے ہیں۔ اس لیے وہ ان میں سے کوئی بھی طریقہ اختیار کرسکتی ہے-
 

محمداحمد

لائبریرین
اے آئی بذاتِ خود تو کچھ نہیں۔ یہ مجموعہ ہے ان الگورتھمز (algorithms) کا جو اسے چلاتے ہیں۔ وہ الگورتھمز (algorithms) ا نسانوں نے بنائے ہیں جن کو استعمال کرکے اے آئی کسی بھی مسئلے کا حل نکالتی ہے۔لیکن اے آئی کی سوچنے اور پراسیس کرنے کی صلاحیت انسان کے مقابلے میں لامحدود حد تک زیادہ ہے۔ صورتحال خطرناک اس وقت ہو سکتی ہے جب اسے بنانے والے انسان ارادی طور پر یا غیر اردی طور پر الگورتھمز (algorithms) میں غلطی کریں۔ یا دیے گئے الگورتھمز (algorithms) کی تما م ترتیبیوں (sequences) کا نتیجہ سمجھنے سے قاصر رہیں۔اور ایسا بالکل ممکن ہے-کیونکہ یہ ترتیبیں (sequences) لامحدود ہو سکتی ہیں (یعنی ایک کام براہِ راست کرنے کے بہت سے طریقے ہوسکتے ہیں اور بالواسطہ کرنے کے ان گنت ہو سکتے ہیں)۔پھر ظاہر ہے کہ ان لامحدود میں سے کون سی اخلاقی یا غیر حقیقی ہیں ان کو علیحدہ کرنا بہت مشکل ہے۔
دی گئی ویڈیو میںCAPTCHA کی مثال بھی یہی ظاہر کرتی ہے کہ بنانے والے یہ سمجھ رہے ہیں کہ اے آئی نہ دیکھ سکتی ہے نہ سن سکتی ہے لیکن اے آئی کو چونکہ دوسرے طریقوں کا علم ہے جو کہ ان گنت ہو سکتے ہیں۔ اس لیے وہ ان میں سے کوئی بھی طریقہ اختیار کرسکتی ہے-

اے آئی عام سافٹ وئیر سے اس لیے مختلف ہے کہ اس میں فکس الگورتھم نہیں ہیں بلکہ یہ مشین لرننگ کی بنیادوں پر کام کرتی ہے۔ یعنی ڈیٹا سے سیکھتی ہے ۔ یہ اپنے تجربات سے سیکھتی رہتی ہے اور اپنے آپ کو مستقل بہتر سے بہتر بناتی ہے۔
 
اے آئی عام سافٹ وئیر سے اس لیے مختلف ہے کہ اس میں فکس الگورتھم نہیں ہیں بلکہ یہ مشین لرننگ کی بنیادوں پر کام کرتی ہے۔ یعنی ڈیٹا سے سیکھتی ہے ۔ یہ اپنے تجربات سے سیکھتی رہتی ہے اور اپنے آپ کو مستقل بہتر سے بہتر بناتی ہے۔
آپ درست فرمارہے ہیں سر! لیکن تجربات اور ڈیٹا سے سیکھنا اور اپنے آپ کو بہتر بنانا، اس کے پیچھے بھی فکس الگورتھمز کام کررہے ہوتے ہیں۔الگورتھمز (سیکھ کر ) اپنے آپ کو تبدیل نہیں کررہے ہوتے ۔ ہاں ! ماڈل بنانے والے ان کو ضرورت کے مطابق خود اپ ڈیٹ کرتے رہتے ہیں۔
مثال کے طور پر ماڈل میں پہلے ڈیٹا میں ایک سوال کا ایک جواب تھا لیکن جوں جوں ڈیٹا وسیع ہوتا گیا اسی سوال کے جواب مختلف ہوتے گئے۔ جیسے:
ڈیٹا میں تھا کہ حیدرآباد پاکستان کا ایک شہر ہے۔پھر مختلف سورسز لنک ہوئے ڈیٹا وسیع ہوا تو جواب دو ہوگئے کہ حیدرآباد پاکستان اور ہندوستان کے شہر ہیں۔ پھر مزید ڈیٹا سورسز میں اضافہ ہوا تو جوابات میں مزید اضافہ ہوا کہ حیدرآباد پاکستان میں ایک شہر ہے اور ایک قصبہ بھی ہے۔
 

محمداحمد

لائبریرین
آپ درست فرمارہے ہیں سر! لیکن تجربات اور ڈیٹا سے سیکھنا اور اپنے آپ کو بہتر بنانا، اس کے پیچھے بھی فکس الگورتھمز کام کررہے ہوتے ہیں۔الگورتھمز (سیکھ کر ) اپنے آپ کو تبدیل نہیں کررہے ہوتے ۔ ہاں ! ماڈل بنانے والے ان کو ضرورت کے مطابق خود اپ ڈیٹ کرتے رہتے ہیں۔
مثال کے طور پر ماڈل میں پہلے ڈیٹا میں ایک سوال کا ایک جواب تھا لیکن جوں جوں ڈیٹا وسیع ہوتا گیا اسی سوال کے جواب مختلف ہوتے گئے۔ جیسے:
ڈیٹا میں تھا کہ حیدرآباد پاکستان کا ایک شہر ہے۔پھر مختلف سورسز لنک ہوئے ڈیٹا وسیع ہوا تو جواب دو ہوگئے کہ حیدرآباد پاکستان اور ہندوستان کے شہر ہیں۔ پھر مزید ڈیٹا سورسز میں اضافہ ہوا تو جوابات میں مزید اضافہ ہوا کہ حیدرآباد پاکستان میں ایک شہر ہے اور ایک قصبہ بھی ہے۔

آپ کی بات بھی کسی حد تک سمجھ آتی ہے۔
 
Top