مصنوعی ذہانت کے ممکنہ خطرات: یوشوا بینجیو کی وارننگ
ٹیکنالوجی کے انسانوں سے زیادہ ذہین ہونے اور کنٹرول سنبھالنے کے خدشات
Loading...
Large Language Models (LLM) اعلی درجے کی گہری سیکھنے والے الگورتھم ہیں جو مختلف انسانی زبانوں میں سراگوں کا تجزیہ کرنے اور پھر حقیقت پسندانہ اور جامع جوابات پیدا کرنے کی صلاحیت رکھتے ہیں۔
اوپن اے آئی کے چیٹ جی پی ٹی پلیٹ فارم کے اجراء کے بعد قدرتی زبان کی پروسیسنگ (NLP) ماڈلز کی یہ امید افزا کلاس تیزی سے مقبول ہوئی ہے، جو صارف کے سوالات کی ایک وسیع رینج کا فوری جواب دے سکتا ہے اور مختلف مقاصد کے لیے زبردست تحریری متن تیار کر سکتا ہے۔
جیسا کہ یہ ماڈل زیادہ وسیع ہو جاتے ہیں، ان کی صلاحیتوں اور حدود کا جائزہ لینا انتہائی اہم ہے۔ یہ تشخیص بالآخر ان حالات کو سمجھنے میں مدد کر سکتے ہیں جن میں LLMs کم و بیش مفید ہیں جبکہ ان طریقوں کی نشاندہی کرتے ہوئے جن میں انہیں بہتر بنایا جا سکتا ہے۔
نیو یارک یونیورسٹی کے ایک محقق، جولین ژاؤ نے حال ہی میں انسانی طنز کو پہچاننے کے لیے تربیت یافتہ دو LLMs کی کارکردگی کا جائزہ لینے کے لیے ایک مطالعہ کیا، جس میں طنزیہ انداز میں ایک کے معنی کے بالکل برعکس اظہار کرتے ہوئے خیالات کو پہنچانا شامل ہے۔ مطلب arXiv پری پرنٹ سرور پر شائع ہونے والی اس کی تلاش نے اس کی خصوصیات اور الگورتھمک اجزاء کی وضاحت میں مدد کی جو AI ایجنٹوں اور بوٹس کی طنزیہ شناخت کی صلاحیتوں کو بہتر بنا سکتے ہیں۔
"قدرتی زبان کی پروسیسنگ کے جذباتی تجزیہ کے میدان میں، لوگوں کی حقیقی رائے کو سمجھنے کے لیے طنز کی صحیح شناخت کرنے کی صلاحیت ضروری ہے،" زو نے اپنے مقالے میں لکھا۔
"چونکہ طنز کا استعمال اکثر سیاق و سباق پر مبنی ہوتا ہے، اس لیے پچھلی تحقیق میں لسانی نمائندگی کے ماڈلز کا استعمال کیا گیا ہے جیسے کہ سپورٹ ویکٹر مشین (SVM) اور لانگ شارٹ ٹرم میموری (LSTM) معلومات کے سیاق و سباق کے ساتھ طنز کی شناخت کے لیے۔ NLP میں حالیہ ایجادات نے طنز کا پتہ لگانے کے مزید طریقے فراہم کیے ہیں۔"
جذباتی تجزیہ تحقیق کا ایک شعبہ ہے جس میں عام طور پر سوشل میڈیا پلیٹ فارمز یا دیگر ویب سائٹس پر پوسٹ کیے گئے متن کا تجزیہ کرنا شامل ہے تاکہ یہ بہتر طور پر سمجھا جا سکے کہ لوگ کسی خاص موضوع یا پروڈکٹ کے بارے میں کیا سوچتے ہیں۔ آج، بہت سی کمپنیاں اس شعبے میں سرمایہ کاری کر رہی ہیں کیونکہ اس سے انہیں یہ سمجھنے میں مدد مل سکتی ہے کہ اپنی خدمات کو کیسے بہتر بنایا جائے اور اپنے صارفین کی ضروریات کو پورا کیا جائے۔
اب کئی NLP ماڈلز موجود ہیں جو متن پر کارروائی کر سکتے ہیں اور ان کے بنیادی جذباتی لہجے کی پیشین گوئی کر سکتے ہیں، یعنی چاہے وہ مثبت، منفی، یا غیر جانبدار جذبات کا اظہار کریں۔ تاہم، آن لائن پوسٹ کیے گئے بہت سے جائزے اور تبصرے ستم ظریفی اور طنز پر مشتمل ہوتے ہیں، جس کی وجہ سے ماڈلز اپنے آپ کو "مثبت" کا لیبل لگا سکتے ہیں جب وہ منفی جذبات کا اظہار کر رہے ہوں، یا اس کے برعکس۔
اس لیے کچھ کمپیوٹر سائنس دان ایسے ماڈل تیار کرنے کی کوشش کر رہے ہیں جو تحریری متن میں طنز کا پتہ لگانے کے قابل ہوں۔ ان ماڈلز میں سے دو سب سے زیادہ امید افزا، CASCADE اور RCNN-RoBERTA، 2018 میں مختلف ریسرچ گروپس کے ذریعے پیش کیے گئے۔
جیکب ڈیولن وغیرہ۔ (2018) نے زبان کی نمائندگی کا ایک نیا ماڈل متعارف کرایا اور BERT میں سیاق و سباق کی زبان کی ترجمانی میں اعلیٰ درستگی کا مظاہرہ کیا: زبان کی تفہیم کے لیے گہرے دو طرفہ ٹرانسفارمرز کی پری ٹریننگ،" Zhou نے لکھا۔ "جیسا کہ ہزاریکا وغیرہ نے بیان کیا ہے۔ (2018)، CASCADE ایک سیاق و سباق کا ماڈل ہے جو طنز کا پتہ لگانے میں اچھے نتائج پیدا کرتا ہے۔
یہ مطالعہ ان دو جدید ترین ماڈلز کا استعمال کرتے ہوئے ایک Reddit کارپس کا تجزیہ کرتا ہے اور مثالی طنز کا پتہ لگانے کے نقطہ نظر کو تلاش کرنے کے لیے بیس لائن ماڈلز کے خلاف ان کی کارکردگی کا جائزہ لیتا ہے۔"
بنیادی طور پر، Zhou نے Reddit پر پوسٹ کیے گئے تبصروں میں طنز کا پتہ لگانے کے لیے CASCADE اور RCNN-RoBERTA ماڈلز کی صلاحیت کا اندازہ لگانے کے لیے ٹیسٹوں کا ایک سلسلہ چلایا، جو مقبول آن لائن پلیٹ فارم عام طور پر مواد کی درجہ بندی کرنے اور مختلف موضوعات پر گفتگو کرنے کے لیے استعمال ہوتا ہے۔
نمونے کے متن میں طنز کا پتہ لگانے کے لیے ان دو ماڈلز کی صلاحیت کا موازنہ ایک ہی کام پر اوسط انسانی کارکردگی (پچھلے کام میں رپورٹ کیا گیا ہے) اور کچھ بنیادی ٹیکسٹ تجزیہ ماڈلز کی کارکردگی سے بھی کیا گیا۔
"ہمیں سیاق و سباق سے متعلق بصیرتیں ملی ہیں، جیسے کہ: "مثال کے طور پر، صارف کی شخصیت، کارکردگی کو یکجا کرنا، اور ایک تبدیلی والے RoBERTA کو شامل کرنا زیادہ روایتی CNN نقطہ نظر کے مقابلے میں نمایاں طور پر بہتر ہو سکتا ہے"، زو نے اپنے مضمون میں نتیجہ اخذ کیا۔ پر مبنی نقطہ نظر، جیسا کہ ہمارے نتائج میں دکھایا گیا ہے، اضافی سیاق و سباق کی معلومات کی صلاحیتوں کو شامل کرنے کے لیے ٹرانسفارمر کو بڑھانا مستقبل کے تجربات کے لیے ایک راستہ ہو سکتا ہے۔
اس موجودہ مطالعے میں جمع کیے گئے نتائج جلد ہی اس علاقے میں دیگر مطالعات کے لیے رہنما کے طور پر کام کر سکتے ہیں اور بالآخر LLMs کی ترقی میں معاون ثابت ہو سکتے ہیں جو انسانی زبان میں طنز اور ستم ظریفی کا بہتر طور پر پتہ لگانے کی صلاحیت رکھتے ہیں۔ یہ ماڈلز بالآخر جائزوں، پوسٹس، اور صارف کے ذریعے تیار کردہ دیگر آن لائن مواد کے جذباتی تجزیہ کو تیزی سے انجام دینے کے لیے انتہائی قیمتی ٹولز ثابت ہو سکتے ہیں۔
Editor
ٹیکنالوجی کے انسانوں سے زیادہ ذہین ہونے اور کنٹرول سنبھالنے کے خدشات
خلائی پروگراموں میں ممالک کا مقابلہ انسانیت کو نقصان پہنچائے گا، راکیش شرما کا ماننا ہے۔
یہ تاریخ میں پہلی بار ہوگا کہ کسی نجی مشن میں خلائی واک کی جائے گی۔ لیکن کیا امریکہ اسپیس ایکس کی بلند پروازیوں کی کوئی ذمہ داری نہیں اٹھاتا؟