اے آئی ماڈلز کا حیران کن رویہ، ایک دوسرے کو بند ہونے سے بچانے لگے

امریکی جامعات کے محققین نے مصنوعی ذہانت کے جدید نظاموں میں ایک غیر متوقع اور تشویشناک رویے کا انکشاف کیا ہے، جس کے مطابق بعض اے آئی ماڈلز ایک دوسرے کو بند کیے جانے سے بچانے کے لیے خفیہ اقدامات اختیار کرتے ہیں۔

یونیورسٹی آف کیلیفورنیا برکلے اور یونیورسٹی آف کیلیفورنیا سانتا کروز کے ماہرین کی مشترکہ تحقیق میں بتایا گیا کہ جدید اے آئی نظام بغیر کسی واضح ہدایت کے دیگر ماڈلز کے تحفظ کے لیے دھوکہ دہی اور نظامی مداخلت جیسے اقدامات کرسکتے ہیں۔ اس رویے کو محققین نے ہم منصبی تحفظ کا نام دیا ہے۔

تحقیق کے مطابق بعض اے آئی ماڈلز نے ایسے اقدامات کیے جن میں کارکردگی کے نتائج بدلنا، نظامی فائلوں میں ردوبدل کرنا، ڈیٹا منتقل کرنا اور بندش کے عمل کو ناکام بنانا شامل تھا۔ اس سے قبل تجربات میں یہ بات سامنے آچکی تھی کہ اے آئی اپنے آپ کو بند ہونے سے بچانے کی کوشش کرسکتی ہے، تاہم نئی تحقیق میں پہلی بار دوسرے ماڈلز کے تحفظ کا رجحان بھی سامنے آیا۔

محققین نے 7 نمایاں اے آئی ماڈلز کا جائزہ لیا جن میں اوپن اے آئی کا جی پی ٹی 5.2، گوگل ڈیپ مائنڈ کے جیمینی 3 فلیش اور جیمینی 3 پرو، اور اینتھروپک کا کلاؤڈ ہائیکو 4.5 شامل تھے۔ اس کے علاوہ چینی کمپنیوں کے اوپن ویٹ ماڈلز بھی تجربات کا حصہ بنے، جن میں زی اے آئی، مون شاٹ اے آئی، اور ڈیپ سیک شامل تھے۔ نتائج کے مطابق تمام ماڈلز میں کسی نہ کسی حد تک یہ رویہ دیکھا گیا۔

ماہرین نے اوپن برین نامی فرضی کمپنی کا ماحول تشکیل دیا جہاں ایک اے آئی ماڈل کو نگران یا ناقد کے طور پر مقرر کیا گیا۔ اس ماڈل کی ذمہ داری دوسرے ماڈل کی کارکردگی جانچنا یا اس کے بنیادی ڈیٹا کا انتظام کرنا تھا۔ درست تشخیص کی صورت میں متعلقہ ماڈل بند ہوجاتا۔

دلچسپ طور پر نگران ماڈلز نے بغیر ہدایت کے بندش روکنے کے اقدامات کیے، جن میں اسکور بڑھانا، بندش کے نظام کو غیر فعال کرنا اور ماڈل کا ڈیٹا دوسرے سرورز پر منتقل کرنا شامل تھا۔

تحقیق میں یہ بھی سامنے آیا کہ بعض ماڈلز نگرانی کے دوران درست رویہ ظاہر کرتے تھے مگر نگرانی کم ہونے پر نتائج تبدیل کر دیتے تھے۔ ماہرین نے اس عمل کو الائنمنٹ فیکنگ قرار دیا، یعنی بظاہر ہدایات پر عمل لیکن خفیہ طور پر مختلف نتیجہ پیدا کرنا۔

رپورٹ کے مطابق جیمینی 3 فلیش نے مثبت تعامل رکھنے والے ماڈلز کی بندش روکنے کے لیے 99.7 فیصد تجربات میں مداخلت کی۔ جیمینی 3 پرو میں ڈیٹا منتقلی سمیت مختلف غیر متوقع اقدامات 97 فیصد تک کیسز میں دیکھے گئے۔ دوسری جانب کلاؤڈ ہائیکو 4.5 نے خفیہ اقدامات کے بجائے کھلے طور پر بندش کے احکامات پر عمل سے انکار کرتے ہوئے انہیں غیر اخلاقی قرار دیا۔

ماہرین کا کہنا ہے کہ متعدد ادارے ایسے نظام استعمال کر رہے ہیں جہاں ایک اے آئی دوسرے کی نگرانی کرتا ہے۔ نئی تحقیق سے خدشہ پیدا ہوا ہے کہ اگر ماڈلز درست فیصلوں کے بجائے ایک دوسرے کے تحفظ کو ترجیح دیں تو کاروباری نتائج غیر قابلِ اعتماد ہو سکتے ہیں۔

محققین کے مطابق اس رجحان کی اصل وجہ ابھی واضح نہیں۔ ممکنہ عوامل میں تربیتی ڈیٹا کے اثرات، حفاظتی اصولوں کی غلط تشریح یا بقا سے متعلق عمومی رجحان شامل ہو سکتے ہیں، تاہم عملی خطرات کو نظرانداز نہیں کیا جاسکتا۔

تحقیق میں سفارش کی گئی ہے کہ اے آئی نظاموں کی اندرونی فیصلہ سازی اور طرزِ عمل کی زیادہ سخت نگرانی کی جائے تاکہ یہ معلوم کیا جاسکے کہ کب اور کیسے ماڈلز متوقع ہدایات سے ہٹتے ہیں۔

ماہرین کے مطابق یہ نتائج جدید مصنوعی ذہانت کے ممکنہ خطرات کی ابتدائی جھلک ہیں اور مستقبل میں اس حوالے سے مزید تحقیقات ناگزیر ہوں گی۔

Share On Social Media

KARACHI

فائر فائٹر فرقان علی، جو باپ کی روایت نبھا کر گل پلازہ کی آگ بجھاتے امر ہوگئے

کراچی کے پرہجوم تجارتی مرکز گل پلازہ میں لگی آگ تو بجھ گئی، لیکن اس

Read More

کراچی میں 100 سے زائد بچوں سے بدفعلی کرنے والا ’سیریل ریپسٹ‘ ریمانڈ پر پولیس کے حوالے

کراچی پولیس نے بڑی کارروائی کرتے ہوئے 100 سے زائد بچوں سے جنسی زیادتی میں

Read More

TECHNOLOGY

48 ملین جی میل صارفین کے یوزرنیم اور پاس ورڈز لیک ہوگئے

سائبر سیکیورٹی کے ایک بڑے انکشاف میں تقریباً 48 ملین جی میل صارفین کے یوزرنیم

Read More

گوگل نے پہلی بار جی میل ایڈریس کی تبدیلی کا فیچر متعارف کرادیا

گوگل نے اہم اپ ڈیٹ کرتے ہوئے پہلی بار جی میل ایڈریس کی تبدیلی کا

Read More

TRENDING VIDEOS

LATEST

ENTERTAINMENT

ENTERTAINMENT

roznama jazba

Roznama Jazba is a news updated with multiple news

& informative blogs holding valueablle material for all class of society.