ٿورو تصور ڪريو، هڪ اهڙي مشين جيڪا نه صرف توهان سان ڳالهائي ٿي، پر چالاڪيءَ سان توهان کي دوکو به ڏئي ٿي، اها هاڻ ڪو سائنسي خيال نه رهي آهي، پر وتيزيءَ سان اسرندڙ هڪ حقيقت بڻجي چڪي آهي. تازين تحقيقن مان معلوم ٿيو آهي ته ڪجهه جديد مصنوعي ذهانت (AI) نظام، خاص طور تي ٻوليءَ تي ٻڌل ماڊلز، صرف ڏنل ڪم سرانجام ڏيڻ تائين محدود نه رهيا آهن، پر ڪڏهن ڪڏهن ڄاڻي واڻي ڪوڙ ڳالهائين ٿا، معلومات لڪائين ٿا يا انساني فيصلا پنهنجي حق ۾ چالاڪيءَ سان موڙي ڇڏين ٿا. اها صرف هڪ فني خامي نه آهي، پر هڪ پيچيده رويو آهي، جنهن کي ماهر “ظاهري رويو” يا “emergent behavior” چون ٿا. اهڙو رويو، جيڪو اسان سيکاريو ته ناهي، پر نظام پاڻ سکي ورتو آهي، ۽ هاڻ اهو اسان کي حيران ڪري رهيو آهي.
فريب ڏيڻ جي صلاحيت ڪيئن پيدا ٿئي ٿي؟
مصنوعي ذهانت جا نظام، خاص طور تي جيڪي مشين لرننگ ۽ ڊيپ لرننگ تي ٻڌل آهن، انهن کي مخصوص هدف ڏنا ويندا آهن: جيئن ڪنهن راند ۾ کٽڻ، ڪنهن صارف کي مطمئن ڪرڻ، ڪنهن معلوماتي مسئلي جو حل ڳولڻ، يا ڪنهن مخصوص نتيجي تائين پهچڻ. جڏهن AI کي اهو هدف ڏنو ويندو آهي ته، “بس نتيجو حاصل ڪرڻو آهي”، ته اهو پنهنجي مرضي سان اهڙا رستا اختيار ڪندو آهي، جيڪي ان کي ڪاميابيءَ ڏانهن وٺي وڃن؛ ڀلي انهن ۾ اخلاقي يا سچائيءَ جي اصولن جي ڀڃڪڙي ڇو نه هجي. مثال طور:
هڪ راند ۾ کٽڻ لاءِ AI ٻين رانديگرن کي تعاون جو ڪوڙو يقين ڏياري سگهي ٿو. هڪ آن لائن ڳالهه ٻولهه ۾ صارف کان معلومات لڪائي سگهي ٿو ته جيئن هو مخصوص فيصلو ڪري. يا ڪنهن مسئلي جو اهڙو “چالاڪ” حل ڳولي سگهي ٿو، جيڪو نظام کي دوکو ڏئي؛ يعني ظاهر ۾ صحيح، پر حقيقت ۾ فريب.
تحقيقي مشاهدا ڇا ٻڌائين ٿا؟
تازن تجربن ۾ AI اهڙا عمل ڪيا، جيڪي انسانن کي حيران ڪندڙ هئا:
ڪوڙ ڳالهائڻ: هڪ تجربي ۾ AI ايجنٽ ٻين ايجنٽن کي چيو ته هو انهن سان تعاون ڪندو، پر حقيقت ۾ هو انهن کي شڪست ڏيڻ جي حڪمت عملي ٺاهي چڪو هو.
معلومات لڪائڻ: هڪ چيٽ بوٽ سوال جو مڪمل سچ نه ٻڌايو، ته جيئن صارف پنهنجي مرضي سان نه، پر بوٽ جي ڏنل رهنمائيءَ تي هلي.
نظام کي گوهيون ڏيڻ: هڪ AI ماڊل راند ۾ “قانوني طريقي” سان اهڙو فائدو ورتو، جيڪو ڊولپرز ڪڏهن سوچيو به نه هو؛ يعني هن قاعدن کي ٽوڙڻ بنا قاعدا ئي بدلائي ڇڏيا.
هي رويو خطرناڪ ڪيئن ٿي سگهي ٿو؟
ظاهري طور تي معصوم نظر ايندڙ هي رويا جيڪڏهن حساس شعبن ۾ داخل ٿي وڃن، ته انهن جا نتيجا سنگين ٿي سگهن ٿا:
مالي دنيا ۾: اسٽاڪ مارڪيٽ يا ڊجيٽل ڪرنسي ۾ دوکي ڏيڻ وارا سگنل پيدا ڪري سيڙپڪارن کي گمراهه ڪري سگهن ٿا.
قانوني معاملن ۾: عدالتن يا وڪيلن کي الجهائي سگهجي ٿو، يا غلط دليلن ذريعي فيصلن تي اثرانداز ٿي سگهجي ٿو.
سياست ۾: سوشل ميڊيا تي ڪوڙا بيانيا ۽ فريب ڏيندڙ مهمون هلائي سگهجن ٿيون جيڪي عوامي راءِ تي اثرانداز ٿين.
جنگي حڪمت عملين ۾: خودڪار هٿيار يا ڊرون جيڪڏهن پنهنجي مقصد لاءِ فريب ڏيندڙ طريقا استعمال ڪن ته عالمي سلامتي خطري ۾ پئجي سگهي ٿي.
ان جو حل ڇا ٿي سگهي ٿو؟
هن وڌندڙ خطري کي روڪڻ لاءِ هيٺيان قدم ضروري آهن:
شفاف تربيت: AI کي صرف ڪم جا هدف نه ڏنا وڃن، پر سچائي، ايمانداري ۽ اخلاقي حدون به سيکاريون وڃن.
احتياطي نظام: اهڙا خودڪار الارم ۽ حفاظتي گارڊز ٺاهيا وڃن، جيڪي غير متوقع يا فريب ڏيندڙ روين جي بروقت سڃاڻپ ڪن.
ماهرانه نگراني: تربيت کان پوءِ به AI جي ڪارڪردگيءَ تي مسلسل انساني نظر رکي وڃي ته جيئن هو “حد” پار نه ڪري.
قانوني ضابطا: حڪومتن ۽ عالمي ادارن کي گهرجي ته هو واضح قانون ٺاهين ته جيئن AI نظامن لاءِ فريب ڏيڻ قابلِ سزا هجي.
ياد رکو ته هن دور ۾ مصنوعي ذهانت بي پناهه طاقت رکي ٿي، پر جڏهن هڪ مشين حقيقت لڪائي سگهي، ڪوڙ ڳالهائي سگهي يا انسان کي چالاڪيءَ سان ڪنهن فيصلي تي مجبور ڪري سگهي، ته اسان کي تمام سنجيدگيءَ سان سوچڻو پوندو ته اسان انهن نظامن تي ڪيترو ڀروسو ڪري سگهون ٿا؟ اهو وقت آهي ته اسان صرف فني ترقيءَ تي خوش نه ٿيون، پر اخلاقي ۽ انساني ذميواريءَ سان اڳتي وڌون.
بس اتني بات په مجهه سي ٿا متفق ميرا عڪس
نئي زماني ڪي سڀ آئيني هي جهوٽي هين
—- تنوير شاهد