مصنوعی ذہانت کے ممکنہ خطرات: یوشوا بینجیو کی وارننگ
ٹیکنالوجی کے انسانوں سے زیادہ ذہین ہونے اور کنٹرول سنبھالنے کے خدشات
Loading...
2023 مصنوعی ذہانت کے ارتقاء اور معاشرے میں اس کے کردار میں ایک اہم موڑ ہے۔ اس سال تخلیقی AI کا عروج دیکھا، جس نے سائے سے ایک ٹیکنالوجی کو عوامی تخیل کے مرکز میں لایا۔ ہم نے کئی دنوں سے خبروں کے چکر میں AI اسٹارٹ اپس میں بورڈ روم ڈرامہ بھی دیکھا ہے۔
انجانا سوسرلا، کیسی فیسلر اور کینٹارو تویاما، دی کنورسیشن
اس نے بائیڈن انتظامیہ کو ایک ایگزیکٹو آرڈر جاری کرنے اور یورپی یونین کو AI کو ریگولیٹ کرنے کے مقصد سے قانون سازی کرنے پر مجبور کیا۔ اس کی وضاحت پہلے ہی سرپٹ دوڑتے گھوڑے کو قابو کرنے کی کوشش کے طور پر کی جا سکتی ہے۔ ہم نے AI سائنسدانوں کے ایک پینل کو اکٹھا کیا تاکہ AI ڈویلپرز، ریگولیٹرز، اور عام لوگوں کو 2024 تک درپیش چیلنجوں کو بیان کیا جا سکے، اور ان کی امیدوں اور سفارشات کا اظہار کیا جا سکے۔
کیسی فیسلر، انفارمیشن سائنس کے ایسوسی ایٹ پروفیسر، کولوراڈو بولڈر یونیورسٹی
2023 مصنوعی ذہانت کے فروغ کا سال تھا۔ AI کی دنیا کو بچانے یا تباہ کرنے کی باتوں کے باوجود، AI کیا کر سکتا ہے اس کے تصورات نے اصل حقیقت کو بادل میں ڈال دیا ہے۔ میرا ماننا ہے کہ مستقبل میں ہونے والے نقصان کا اندازہ لگانا ٹیکنالوجی کے اخلاقی فرض پر قابو پانے کا ایک لازمی حصہ ہے اور یہ کہ اس کو زیادہ ہائپ کرنے سے AI کا ایک ایسا وژن پیدا ہونے کا خطرہ ہے جو کسی ایسی ٹیکنالوجی کے بجائے جادوئی لگتا ہے جسے واضح انتخاب کے ذریعے تشکیل دیا جا سکتا ہے۔ لیکن کنٹرول لینے کے لیے، آپ کو اس ٹیکنالوجی کو بہتر طور پر سمجھنے کی ضرورت ہے۔
2023 میں AI میں ایک بڑی بحث تعلیم میں چیٹ جی پی ٹی کی طرح چیٹ بوٹس کے کردار کے بارے میں تھی۔ اس بار پچھلے سال، سب سے زیادہ متعلقہ موضوعات پر توجہ مرکوز کی گئی تھی کہ طالب علم کس طرح دھوکہ دے سکتے ہیں اور کیسے اساتذہ انہیں ایسے طریقوں سے روکنے کی کوشش کر سکتے ہیں جو اچھے سے زیادہ نقصان پہنچاتے ہیں۔
لیکن کئی سالوں سے، یہ تسلیم کیا گیا ہے کہ طلباء کو AI کے بارے میں نہ سکھانے کے قابل نہ ہونا انہیں نقصان میں ڈالتا ہے، اس لیے بہت سے اسکولوں نے پابندی ہٹا دی ہے۔ مجھے نہیں لگتا کہ ہمیں ہر چیز کے مرکز میں AI کو رکھنے کے لیے تعلیم پر دوبارہ غور کرنے کی ضرورت ہے۔ لیکن اگر طلباء نہیں جانتے کہ AI کیسے کام کرتا ہے، تو وہ اس کی حدود کو نہیں سمجھ پائیں گے اور یہ کتنا مفید اور متعلقہ ہے۔ کیا کرنا چاہیے اور کیا نہیں کرنا چاہیے۔ یہ صرف طالب علموں کی کہانی نہیں ہے۔ جتنے زیادہ لوگ سمجھیں گے کہ AI کیسے کام کرتا ہے، اس کو استعمال کرنے اور جانچنے کے اتنے ہی زیادہ مواقع ملیں گے۔
تو 2024 کے لیے میری پیشین گوئی یا امید یہ ہے کہ سیکھنے کی بڑی خواہش ہوگی۔ 1966 میں، چیٹ بوٹ ELIZA کے تخلیق کار، Joseph Weizenbaum نے لکھا کہ جب یہ مشین "انتہائی تجربہ کار مبصر کو بھی حیران کرنے کے لیے کافی تھی،" تو یہ جادو ٹوٹ جائے گا اگر "اس کے اندرونی کام کو سادہ زبان میں بیان کیا جائے"۔ جنریٹیو AI کے ساتھ چیلنج یہ ہے کہ ایسی زبان تلاش کرنا بہت مشکل ہے جو AI میں جادو کو سامنے لانے کے لیے "کافی واضح" ہو، سادہ ELIZA پیٹرن میچنگ اور متبادل تکنیک کے مقابلے۔
میرے خیال میں یہ کیا جا سکتا ہے۔ امید ہے کہ AI ٹیکنالوجی کے ماہرین کی خدمات حاصل کرنے کے لیے جلدی کرنے والی یونیورسٹیاں بھی AI اخلاقیات کو بھرتی کرنے کے لیے وہی کوشش کریں گی۔ مجھے امید ہے کہ میڈیا شور کو کم کرنے میں مدد کرے گا۔ مجھے امید ہے کہ ہر کوئی اس ٹیکنالوجی کے استعمال اور مضمرات کے بارے میں سوچے گا۔ مجھے امید ہے کہ ٹیک کمپنیاں اس بارے میں سوچیں گی کہ وہ مستقبل کے لیے کیا انتخاب کریں گی اور درست تنقید کو سنیں گی۔ Kentaro Toyama مشی گن یونیورسٹی میں کمیونٹی انفارمیشن کے پروفیسر ہیں۔
1970 میں، مصنوعی ذہانت کے علمبردار اور نیورل نیٹ ورک کے شکوک مارون منسکی نے لائف میگزین کو بتایا، "تین سے آٹھ سال کے اندر، ہمارے پاس ایک اوسط انسان کی ذہانت والی مشینیں ہوں گی۔" یہ انسانی ذہانت سے میل کھاتا ہے اور اس سے آگے نکل جاتا ہے۔ ہم ابھی تک وہاں نہیں ہیں۔ یہ کہا جا سکتا ہے کہ منسکی کم از کم 10 بار ناکام ہوئے۔ AI کے بارے میں پیشین گوئیاں کرنا خطرناک ہے۔
تاہم، ایک سال کی پیش گوئی کرنا اتنا خطرناک نہیں لگتا۔ ہم 2024 میں AI سے کیا امید کر سکتے ہیں؟ سب سے پہلے، ریس شروع ہوتی ہے! منسکی کے عروج کے زمانے سے مصنوعی ذہانت میں پیشرفت مستحکم رہی ہے، لیکن 2022 میں ChatGPT کے عوامی آغاز نے منافع، شان اور عالمی تسلط کے لیے ایک ہمہ گیر جنگ شروع کی۔ نئی AI ایپلی کیشنز کی لہر کے ساتھ طاقتور AI کی توقع کریں۔
سب سے بڑا تکنیکی چیلنج یہ ہے کہ اے آئی انجینئرز گہری سیکھنے کی موجودہ اچیلز ہیل سے کتنی جلدی اور پوری طرح نمٹ سکتے ہیں: کٹوتی منطق، عرف عام پیچیدہ استدلال۔
کیا موجودہ نیورل نیٹ ورک الگورتھم میں فوری موافقت کافی ہے، یا کیا بنیادی طور پر مختلف نقطہ نظر کی ضرورت ہے، جیسا کہ نیورو سائنسدان گیری مارکس نے مشورہ دیا ہے؟ اے آئی کے سائنسدان اس مسئلے پر کام کر رہے ہیں، اس لیے 2024 تک کچھ پیش رفت متوقع ہے۔
اس کے علاوہ، نئی AI ایپلی کیشنز نئے چیلنجز لا سکتی ہیں۔ جلد ہی، آپ چیٹ بوٹس اور AI معاونین کو اپنی طرف سے اپنی پیٹھ کے پیچھے بات کرتے ہوئے سن سکیں گے۔ ان میں سے کچھ مبہم ہیں۔ یہ یا تو مضحکہ خیز ہے یا افسوسناک۔ ڈیپ فیکس، AI سے تیار کردہ تصاویر، اور ویڈیوز جن کا پتہ لگانا مشکل ہے ضابطے کے باوجود پھیلتے رہیں گے، جس سے دنیا بھر کے افراد اور جمہوریتوں کو مزید نقصان پہنچے گا۔
اور نئی قسم کی AI آفات ہو سکتی ہیں جن کا پانچ سال پہلے تک تصور بھی نہیں کیا جا سکتا تھا۔ مسائل کے بارے میں بات کرتے ہوئے، جو لوگ AI کے بارے میں سب سے زیادہ بات کرتے ہیں، جیسے ایلون مسک اور سیم آلٹمین، ایسا لگتا ہے کہ وہ پہلے سے زیادہ طاقتور AI بنانے سے دستبردار نہیں ہو رہے ہیں۔ مجھے امید ہے کہ وہ مزید کام کرتے رہیں گے۔
وہ ان لوگوں کی طرح ہیں جو آگ لگاتے ہیں، آگ لگنے کی اطلاع دیتے ہیں، اور حکام سے اسے بجھانے کو کہتے ہیں۔ اس نقطہ نظر سے، مجھے 2024 میں جس چیز کی سب سے زیادہ امید ہے وہ قومی اور بین الاقوامی سطح پر AI کا مضبوط ضابطہ ہے، چاہے یہ آہستہ آہستہ ترقی کر رہا ہو۔ انجانا سوسنلا مشی گن اسٹیٹ یونیورسٹی میں کمپیوٹر سسٹمز کی پروفیسر ہیں۔
ChatGPT کے شروع ہونے کے ایک سال میں، جنریٹیو AI ماڈلز کی ترقی میں کمی آئی ہے۔
ایک ناقابل یقین رفتار سے جاری. ایک سال پہلے کے ChatGPT کے برعکس، جس نے ٹیکسٹ ٹیگز کو ان پٹ کے طور پر لیا اور ٹیکسٹ کو آؤٹ پٹ کے طور پر بنایا، نئی قسم کا جنریٹو AI ماڈل ملٹی موڈلی تربیت یافتہ ہے۔ اس کا مطلب یہ ہے کہ تربیت کے لیے استعمال ہونے والا ڈیٹا ٹیکسٹ ذرائع جیسے ویکیپیڈیا سے نہیں آتا ہے۔
آپ اسے نہ صرف Reddit پر بلکہ YouTube ویڈیوز، Spotify گانے، اور دیگر آڈیو اور بصری معلومات میں بھی تلاش کر سکتے ہیں۔ جدید ترین ملٹی موڈل لارج لینگویج ماڈلز (LLM) جو ان ایپلی کیشنز کو طاقت دیتے ہیں آپ کو نہ صرف تصاویر اور متن بلکہ آڈیو اور ویڈیو بنانے کے لیے ٹیکسٹ ان پٹ استعمال کرنے کی اجازت دیتے ہیں۔
کمپنیاں ایل ایل ایم تیار کرنے کی دوڑ لگا رہی ہیں جو اسمارٹ فونز سمیت متعدد ہارڈ ویئر اور ایپلی کیشنز پر چل سکتی ہیں۔ ان ہلکے پھلکے اور اوپن سورس LLMs کا ظہور خود مختار AI ایجنٹوں کی دنیا کا باعث بن سکتا ہے۔ ضروری نہیں کہ عالمی برادری تیار ہو۔
یہ جدید ترین AI صلاحیتیں انٹرپرائز سے لے کر صحت سے متعلق ادویات تک متعدد ایپلی کیشنز میں ناقابل یقین اختراعی طاقت فراہم کرتی ہیں۔ میری سب سے بڑی تشویش یہ ہے کہ یہ جدید خصوصیات نہ صرف انسانی تخلیق کردہ مواد اور AI سے تیار کردہ مواد کے درمیان فرق کرنے میں نئے چیلنجز پیدا کریں گی بلکہ الگورتھمک نقصان کی نئی شکلوں کا باعث بھی بنیں گی۔
جنریٹیو AI کے ذریعہ تیار کردہ مصنوعی مواد کا بہاؤ ایک ایسی دنیا بنا سکتا ہے جہاں بدنیتی پر مبنی افراد اور ادارے مصنوعی شناخت بنا سکتے ہیں اور بڑے پیمانے پر غلط معلومات پھیلا سکتے ہیں۔ الگورتھمک فلٹرز اور سفارشی نظاموں کو استعمال کرنے کے لیے تیار کردہ AI سے تیار کردہ مواد کا سیلاب جلد ہی اہم کاموں جیسے کہ حقائق کی جانچ، معلومات کی خواندگی، اور سرچ انجنز، سوشل میڈیا پلیٹ فارمز، اور ڈیجیٹل سروسز کے ذریعے فراہم کردہ بے حسی کو زیر کر سکتا ہے۔
فیڈرل ٹریڈ کمیشن نے دھوکہ دہی، دھوکہ دہی، رازداری کی خلاف ورزیوں اور دیگر غیر منصفانہ طریقوں سے خبردار کیا ہے جو AI پر مبنی مواد بنانے میں آسانی کی وجہ سے پیدا ہوسکتے ہیں۔ یوٹیوب جیسے ڈیجیٹل پلیٹ فارمز نے AI سے تیار کردہ مواد کو ظاہر کرنے کے لیے پالیسیاں قائم کی ہیں، لیکن FTC اور US ڈیٹا پرائیویسی قوانین جیسے پرائیویسی ذہن رکھنے والے ریگولیٹرز کو الگورتھمک نقصان کی جانچ کرنی چاہیے۔
کانگریس سے پہلے ایک نیا دو طرفہ بل ڈیجیٹل خواندگی کے بنیادی جزو کے طور پر الگورتھمک خواندگی کو کوڈفائی کرنے کی کوشش کرتا ہے۔ جیسا کہ مصنوعی ذہانت زیادہ سے زیادہ لوگوں کے ہر کام کے ساتھ جڑی ہوتی ہے، یہ واضح ہو گیا ہے کہ وقت آگیا ہے کہ الگورتھم کے بارے میں ٹیکنالوجی کے حصے کے طور پر نہیں، بلکہ اس تناظر میں سوچا جائے جس میں وہ کام کرتے ہیں: لوگ، عمل اور معاشرہ۔
Editor
ٹیکنالوجی کے انسانوں سے زیادہ ذہین ہونے اور کنٹرول سنبھالنے کے خدشات
خلائی پروگراموں میں ممالک کا مقابلہ انسانیت کو نقصان پہنچائے گا، راکیش شرما کا ماننا ہے۔
یہ تاریخ میں پہلی بار ہوگا کہ کسی نجی مشن میں خلائی واک کی جائے گی۔ لیکن کیا امریکہ اسپیس ایکس کی بلند پروازیوں کی کوئی ذمہ داری نہیں اٹھاتا؟