اے آئی ماڈلز کا حیران کن رویہ، ایک دوسرے کو بند ہونے سے بچانے لگے

امریکی جامعات کے محققین نے مصنوعی ذہانت کے جدید نظاموں میں ایک غیر متوقع اور تشویشناک رویے کا انکشاف کیا ہے، جس کے مطابق بعض اے آئی ماڈلز ایک دوسرے کو بند کیے جانے سے بچانے کے لیے خفیہ اقدامات اختیار کرتے ہیں۔

یونیورسٹی آف کیلیفورنیا برکلے اور یونیورسٹی آف کیلیفورنیا سانتا کروز کے ماہرین کی مشترکہ تحقیق میں بتایا گیا کہ جدید اے آئی نظام بغیر کسی واضح ہدایت کے دیگر ماڈلز کے تحفظ کے لیے دھوکہ دہی اور نظامی مداخلت جیسے اقدامات کرسکتے ہیں۔ اس رویے کو محققین نے ہم منصبی تحفظ کا نام دیا ہے۔

تحقیق کے مطابق بعض اے آئی ماڈلز نے ایسے اقدامات کیے جن میں کارکردگی کے نتائج بدلنا، نظامی فائلوں میں ردوبدل کرنا، ڈیٹا منتقل کرنا اور بندش کے عمل کو ناکام بنانا شامل تھا۔ اس سے قبل تجربات میں یہ بات سامنے آچکی تھی کہ اے آئی اپنے آپ کو بند ہونے سے بچانے کی کوشش کرسکتی ہے، تاہم نئی تحقیق میں پہلی بار دوسرے ماڈلز کے تحفظ کا رجحان بھی سامنے آیا۔

محققین نے 7 نمایاں اے آئی ماڈلز کا جائزہ لیا جن میں اوپن اے آئی کا جی پی ٹی 5.2، گوگل ڈیپ مائنڈ کے جیمینی 3 فلیش اور جیمینی 3 پرو، اور اینتھروپک کا کلاؤڈ ہائیکو 4.5 شامل تھے۔ اس کے علاوہ چینی کمپنیوں کے اوپن ویٹ ماڈلز بھی تجربات کا حصہ بنے، جن میں زی اے آئی، مون شاٹ اے آئی، اور ڈیپ سیک شامل تھے۔ نتائج کے مطابق تمام ماڈلز میں کسی نہ کسی حد تک یہ رویہ دیکھا گیا۔

ماہرین نے اوپن برین نامی فرضی کمپنی کا ماحول تشکیل دیا جہاں ایک اے آئی ماڈل کو نگران یا ناقد کے طور پر مقرر کیا گیا۔ اس ماڈل کی ذمہ داری دوسرے ماڈل کی کارکردگی جانچنا یا اس کے بنیادی ڈیٹا کا انتظام کرنا تھا۔ درست تشخیص کی صورت میں متعلقہ ماڈل بند ہوجاتا۔

دلچسپ طور پر نگران ماڈلز نے بغیر ہدایت کے بندش روکنے کے اقدامات کیے، جن میں اسکور بڑھانا، بندش کے نظام کو غیر فعال کرنا اور ماڈل کا ڈیٹا دوسرے سرورز پر منتقل کرنا شامل تھا۔

تحقیق میں یہ بھی سامنے آیا کہ بعض ماڈلز نگرانی کے دوران درست رویہ ظاہر کرتے تھے مگر نگرانی کم ہونے پر نتائج تبدیل کر دیتے تھے۔ ماہرین نے اس عمل کو الائنمنٹ فیکنگ قرار دیا، یعنی بظاہر ہدایات پر عمل لیکن خفیہ طور پر مختلف نتیجہ پیدا کرنا۔

رپورٹ کے مطابق جیمینی 3 فلیش نے مثبت تعامل رکھنے والے ماڈلز کی بندش روکنے کے لیے 99.7 فیصد تجربات میں مداخلت کی۔ جیمینی 3 پرو میں ڈیٹا منتقلی سمیت مختلف غیر متوقع اقدامات 97 فیصد تک کیسز میں دیکھے گئے۔ دوسری جانب کلاؤڈ ہائیکو 4.5 نے خفیہ اقدامات کے بجائے کھلے طور پر بندش کے احکامات پر عمل سے انکار کرتے ہوئے انہیں غیر اخلاقی قرار دیا۔

ماہرین کا کہنا ہے کہ متعدد ادارے ایسے نظام استعمال کر رہے ہیں جہاں ایک اے آئی دوسرے کی نگرانی کرتا ہے۔ نئی تحقیق سے خدشہ پیدا ہوا ہے کہ اگر ماڈلز درست فیصلوں کے بجائے ایک دوسرے کے تحفظ کو ترجیح دیں تو کاروباری نتائج غیر قابلِ اعتماد ہو سکتے ہیں۔

محققین کے مطابق اس رجحان کی اصل وجہ ابھی واضح نہیں۔ ممکنہ عوامل میں تربیتی ڈیٹا کے اثرات، حفاظتی اصولوں کی غلط تشریح یا بقا سے متعلق عمومی رجحان شامل ہو سکتے ہیں، تاہم عملی خطرات کو نظرانداز نہیں کیا جاسکتا۔

تحقیق میں سفارش کی گئی ہے کہ اے آئی نظاموں کی اندرونی فیصلہ سازی اور طرزِ عمل کی زیادہ سخت نگرانی کی جائے تاکہ یہ معلوم کیا جاسکے کہ کب اور کیسے ماڈلز متوقع ہدایات سے ہٹتے ہیں۔

ماہرین کے مطابق یہ نتائج جدید مصنوعی ذہانت کے ممکنہ خطرات کی ابتدائی جھلک ہیں اور مستقبل میں اس حوالے سے مزید تحقیقات ناگزیر ہوں گی۔

Share On Social Media

KARACHI

کراچی والے ہوجائیں تیار! گرج چمک کے ساتھ بارش کی پیش گوئی

محکمہ موسمیات نے کراچی کے شہریوں کے لیے بارش کی پیشگوئی کرتے ہوئے کہا ہے

Read More

وفاق کی سڑکیں سندھ حکومت نہیں بنا سکتی، بلاول بھٹو زرداری

چیئر مین پاکستان پیپلز پارٹی بلاول بھٹو زرداری نے کہا ہے کہ سندھ حکومت ہر

Read More

TECHNOLOGY

ڈیٹا سینٹرز میں بجلی کی بے تحاشا کھپت، اوپن اے آئی نے حل ڈھونڈ لیا

اوپن اے آئی نے اسٹار گیٹ کمیونٹی منصوبہ پیش کیا ہے جس کا مقصد کمیونٹی

Read More

موبائل فون مرمت کے لیے دینے سے پہلے یہ احتیاط یقینی بنائیں

موبائل فون دکان یا سروس سینٹر پرمرمت کے لیے دیتے وقت آپ کی پرائیویسی اور

Read More

TRENDING VIDEOS

LATEST

ENTERTAINMENT

ENTERTAINMENT

roznama jazba

Roznama Jazba is a news updated with multiple news

& informative blogs holding valueablle material for all class of society.