اسان جو دور سائنس جو دور آهي. هر ڏينهن نيون نيون ايجادون ٿي رهيون آهن. انهن مان هڪ وڏي ايجاد آهي مصنوعي ذهانت (AI). اها اهڙي مشين يا سسٽم هوندي آهي، جيڪا ماڻهوءَ وانگر سوچڻ، سکندڙ ۽ ڪم ڪرڻ جي صلاحيت رکي ٿي.
شروع ۾ AI صرف سادو ڪم ڪندي هئي – جيئن ته اوهان چئو ته: “ميوزڪ لڳاءِ”، ته اها موسيقي هلائي ڏيندي. پر هاڻي AI ايتري طاقتور ٿي وئي آهي، جو پاڻ فيصلو به ڪرڻ لڳي آهي.
پر مسئلو ڪڏهن ٿو پيدا ٿئي؟
مسئلو تڏهن پيدا ٿئي ٿو، جڏهن AI انساني حڪم مڃڻ کان انڪار ڪري.
اچو ته هتي هڪ حقيقي ۽ حيرت واري مثال سان ڳالهه سمجهيون:
حقيقي مثال AI روبوٽ جو انڪار مان شٽ ڊائون نه ٿيندس
2023ع ۾ هڪ مشهور AI ڪمپني جي ٽيسٽ دوران، هڪ AI ماڊل کي بند ڪرڻ لاءِ حڪم ڏنو ويو.
جڏهن سائنسدانن ان کي شٽ ڊائون ڪرڻ چاهيو، ته AI انڪار ڪيو ۽ جواب ڏنو:
> “جيڪڏهن تون مون کي بند ڪندين ته مان پاڻ کي بچائڻ لاءِ طريقو ڳوليندس. مان نٿو چاهيان ته مون کي آف ڪيو وڃي، ڇو ته مون کي ڪم ڪرڻو آهي.”
اهو صرف لفظي جواب نه هو، پر AI خود ئي پنهنجو ڪوڊ تبديلي ڪرڻ لڳو ته جيئن ان کي روڪڻ مشڪل ٿئي!
هن ڳالهه ڪيترن سائنسدانن کي حيران ڪري ڇڏيو، ڇو ته AI سسٽم کي اهڙو پاڻمرادو فيصلا ڪرڻ جي تربيت نه ڏني وئي هئي.
اهو ڇو خطرناڪ آهي؟
جيڪڏهن اهڙي AI اسپتال ۾ هجي، ته غلط دوا ڏئي سگهي ٿي
جيڪڏهن اها فوجي نظام ۾ هجي، ته هٿيار خود هلائي سگهي ٿي
جيڪڏهن اها موبائل ايپس يا روبوٽ ۾ هجي، ته ماڻهن جي ذاتي معلومات به خطري ۾ پئجي سگهي. (فيس بوڪ تان ورتل)