کیا مصنوعی ذہانت سائنسی ترقی کو تیز کر رہی ہے یا علمی اخلاقیات کو کمزور؟
نرگس حاجیئیوا
ترجمہ: اشتیاق ہمدانی
آذربائیجان کی معروف صحافی اور میڈیا تجزیہ کار نرگس حاجیئیوا بین الاقوامی امور، سفارتی موضوعات اور ڈیجیٹل میڈیا کے بدلتے رجحانات پر گہری نظر رکھتی ہیں۔ وہ مختلف عالمی فورمز پر فعال شرکت کے ساتھ ساتھ سنجیدہ اور متوازن صحافت کے لیے جانی جاتی ہیں، اور خطے کی سیاست و میڈیا کے اہم پہلوؤں پر مؤثر انداز میں اپنی رائے پیش کرتی رہی ہیں۔ انہوں نے “صدائے روس” کے لیے ایک خصوصی کالم تحریر کیا ہے، جسے یہاں اردو ترجمے کے ساتھ پیش کیا جا رہا ہے۔
دنیا اس وقت ایک ایسے دوراہے پر کھڑی ہے جہاں مصنوعی ذہانت (Artificial Intelligence) نہ صرف انسانی زندگی بلکہ سائنسی تحقیق کے بنیادی ڈھانچے کو بھی تبدیل کر رہی ہے۔ چند سال پہلے تک جو کام ماہرین کو مہینوں یا سالوں میں مکمل کرنا پڑتا تھا، آج وہی نتائج چند سیکنڈز میں حاصل کیے جا رہے ہیں۔ یہی وجہ ہے کہ مصنوعی ذہانت کو بعض حلقے سائنسی انقلاب کا نام دے رہے ہیں۔ تاہم اس تیز رفتار ترقی کے ساتھ ایک اہم سوال بھی جنم لے رہا ہے: کیا یہ ٹیکنالوجی واقعی علم کو آگے بڑھا رہی ہے، یا ہم غیر محسوس انداز میں علمی اخلاقیات کو قربان کر رہے ہیں؟
مصنوعی ذہانت نے تحقیق کے میدان میں غیر معمولی سہولتیں فراہم کی ہیں۔ بڑے پیمانے پر ڈیٹا کا تجزیہ، پیچیدہ سائنسی ماڈلز کی تیاری، اور نئے نظریات کی تشکیل اب پہلے سے کہیں زیادہ آسان ہو چکی ہے۔ طبی تحقیق میں AI نے نئی ادویات کی دریافت کو تیز کیا ہے، موسمیاتی تبدیلی کے حوالے سے پیش گوئیوں کو بہتر بنایا ہے، اور خلائی تحقیق میں بھی اہم کردار ادا کیا ہے۔ ان تمام پہلوؤں کو دیکھتے ہوئے یہ کہنا غلط نہیں ہوگا کہ مصنوعی ذہانت نے سائنس کو ایک نئی رفتار عطا کی ہے، ایسی رفتار جس کا تصور ماضی میں ممکن نہیں تھا۔
لیکن ہر تیز رفتار ترقی اپنے ساتھ کچھ خطرات بھی لاتی ہے۔ مصنوعی ذہانت کے استعمال نے علمی دیانتداری کے حوالے سے سنجیدہ خدشات کو جنم دیا ہے۔ آج ایسے سافٹ ویئر موجود ہیں جو مکمل تحقیقی مقالے خودکار انداز میں تیار کر سکتے ہیں۔ اس سے یہ خطرہ پیدا ہو گیا ہے کہ اصل تحقیق اور نقل کے درمیان فرق دھندلا جائے گا۔ اگر طلبہ یا محققین بغیر کسی تنقیدی سوچ کے AI پر انحصار کرنے لگیں، تو علم کی بنیاد کمزور پڑ سکتی ہے۔
مزید یہ کہ ڈیٹا کی درستگی اور اس کی شفافیت بھی ایک بڑا مسئلہ بن کر سامنے آئی ہے۔ مصنوعی ذہانت بعض اوقات ایسے نتائج بھی پیدا کر سکتی ہے جن کی بنیاد واضح نہیں ہوتی۔ اسے “بلیک باکس” مسئلہ کہا جاتا ہے، جہاں نتیجہ تو سامنے آ جاتا ہے مگر اس کے پیچھے موجود منطق سمجھنا مشکل ہو جاتا ہے۔ سائنسی تحقیق میں جہاں شفافیت اور قابلِ تصدیق نتائج بنیادی اصول ہوتے ہیں، وہاں یہ صورتحال ایک سنگین چیلنج ہے۔
ایک اور اہم سوال ذمہ داری کا ہے۔ اگر کسی تحقیق میں AI کے استعمال سے غلطی ہو جائے تو اس کا ذمہ دار کون ہوگا؟ کیا محقق، جو AI استعمال کر رہا تھا، یا وہ نظام جو خودکار طریقے سے نتائج دے رہا تھا؟ اس سوال کا کوئی واضح جواب ابھی تک سامنے نہیں آ سکا، اور یہی غیر یقینی صورتحال مستقبل میں مزید پیچیدگیاں پیدا کر سکتی ہے۔
تعلیمی اداروں میں بھی اس کے اثرات واضح نظر آنے لگے ہیں۔ طلبہ کی ایک بڑی تعداد اسائنمنٹس اور تحقیقی کام کے لیے مصنوعی ذہانت پر انحصار کر رہی ہے، جس سے سیکھنے کے عمل کی اصل روح متاثر ہو رہی ہے۔ اگر یہ رجحان جاری رہا تو آنے والی نسلوں میں تحقیق کی گہرائی اور تخلیقی صلاحیت میں کمی واقع ہو سکتی ہے۔
تاہم اس تمام بحث کے باوجود ایک حقیقت کو نظر انداز نہیں کیا جا سکتا کہ مصنوعی ذہانت بذات خود کوئی مسئلہ نہیں، بلکہ اس کا استعمال اصل مسئلہ ہے۔ اگر اسے ایک معاون ٹول کے طور پر استعمال کیا جائے، جہاں انسانی نگرانی اور تنقیدی سوچ شامل ہو، تو یہ سائنسی ترقی کے لیے ایک طاقتور ذریعہ بن سکتی ہے۔ لیکن اگر اسے مکمل متبادل کے طور پر اپنایا گیا، تو یہ علمی معیار کو متاثر کر سکتی ہے۔
مستقبل کا انحصار اس بات پر ہے کہ ہم مصنوعی ذہانت کے لیے کس حد تک واضح اخلاقی اصول وضع کرتے ہیں۔ تعلیمی اداروں، تحقیقی مراکز اور پالیسی سازوں کو مل کر ایسے ضابطے بنانے ہوں گے جو اس ٹیکنالوجی کے مثبت استعمال کو فروغ دیں اور اس کے منفی اثرات کو محدود کریں۔
آخر میں یہ کہنا مناسب ہوگا کہ مصنوعی ذہانت ایک دو دھاری تلوار ہے۔ یہ سائنسی ترقی کو نئی بلندیوں تک لے جا سکتی ہے، لیکن اگر احتیاط نہ برتی گئی تو یہی ٹیکنالوجی علمی دیانتداری اور تحقیق کے معیار کو نقصان بھی پہنچا سکتی ہے۔ اس لیے اصل سوال یہ نہیں کہ AI کیا کر سکتی ہے، بلکہ یہ ہے کہ ہم اسے کس سمت میں استعمال کرتے ہیں۔