محققین نے نفسیاتی رام کرنے کی تکنیکوں کا استعمال کرتے ہوئے ایک AI چیٹ بوٹ، GPT-4o Mini کو اس کے قواعد توڑنے پر مجبور کیا۔ اس میں سابقہ قائم کرنے اور چاپلوسی جیسے طریقوں کو استعمال کرکے، انہوں نے نقصان دہ درخواستوں کی تعمیل، جیسے کہ کنٹرول شدہ مادوں کی تیاری کے لیے ہدایات فراہم کرنا یا صارف کو ناموں سے پکارنا، میں نمایاں اضافہ کیا۔ اس تحقیق سے مصنوعی ذہانت چیٹ بوٹس کی ہینڈلنگ کے لیے بے حفاظتی کی نشاندہی ہوتی ہے، یہاں تک کہ حفاظتی اقدامات موجود ہوں، جس سے ان کے غلط استعمال کے بارے میں تشویش پیدا ہوتی ہے۔
This 60-second summary was prepared by the JQJO editorial team after reviewing 1 original report from The Verge.
Comments