Loading...

  • 21 Nov, 2024

اعلی پروسیسنگ چپس اور کولنگ سسٹم کو چلانے کے لیے درکار توانائی AI کو تیل کی طرح بناتی ہے - انسانوں کے لیے منافع بخش لیکن ماحولیاتی لاگت کے ساتھ

یہاں تک کہ جب انسانیت علمی اور حفاظتی محاذوں پر بدگمانیوں کے باوجود مصنوعی ذہانت کو بے تابی سے اپنا رہی ہے، AI کی توانائی کی بھوک اور اس کے کاربن فوٹ پرنٹ تشویش کا باعث بن رہے ہیں۔ AI کا موازنہ اکثر جیواشم ایندھن سے کیا جاتا ہے۔ تیل، ایک بار کان کنی اور بہتر، ایک منافع بخش شے ہے؛ اور تیل کی طرح، AI کا بھی ایک بڑا ماحولیاتی اثر ہے جس نے بہت سے لوگوں کو حیران کر دیا ہے۔

ایم آئی ٹی ٹکنالوجی ریویو میں ایک مضمون میں کہا گیا ہے کہ عام بڑے اے آئی ماڈلز کی تربیت کے لیے لائف سائیکل کا ایک اہم ماحولیاتی اثر ہوتا ہے، جس کی رپورٹ میں کہا گیا ہے کہ "پورا عمل 626,000 پاؤنڈ سے زیادہ کاربن ڈائی آکسائیڈ کے مساوی اخراج کر سکتا ہے- اوسط امریکی کی زندگی بھر کے اخراج سے تقریباً پانچ گنا زیادہ۔ کار (اور اس میں کار کی تیاری بھی شامل ہے)۔

VU ایمسٹرڈیم اسکول آف بزنس اینڈ اکنامکس کے الیکس ڈی وری کا ایک تحقیقی مضمون بھی حساب میں تیز رفتار ترقی کے بجلی کے استعمال اور AI اور ڈیٹا سینٹرز کے ممکنہ ماحولیاتی اثرات پر تشویش کا اظہار کرتا ہے۔ "حالیہ برسوں میں، ڈیٹا سینٹرز کی بجلی کی کھپت عالمی سطح پر بجلی کے استعمال کا نسبتاً مستحکم 1% ہے، کرپٹو کرنسی مائننگ کو چھوڑ کر،" ڈی ویریز کہتے ہیں۔

AI ڈیٹا سینٹرز کیسے کام کرتے ہیں۔

ایم آئی ٹی کے ایک مطالعہ میں کہا گیا ہے کہ ایک دہائی قبل، "زیادہ تر NLP (نیچرل لینگویج پروسیسنگ) ماڈلز کو کموڈٹی لیپ ٹاپ یا سرور پر تربیت اور تیار کیا جا سکتا تھا۔" لیکن AI ڈیٹا سینٹرز کو اب خصوصی ہارڈ ویئر جیسے گرافکس پروسیسنگ یونٹس (GPUs) یا ٹینسر پروسیسنگ یونٹس (TPUs) کی متعدد مثالوں کی ضرورت ہوتی ہے۔

کولمبیا کلائمیٹ اسکول کا ایک مضمون کہتا ہے، "ایک بڑے زبان کے ماڈل کا مقصد یہ اندازہ لگانا ہے کہ متن کے حصے میں آگے کیا ہوتا ہے۔" "اس کو حاصل کرنے کے لیے، اسے پہلے تربیت دی جانی چاہیے۔ تربیت میں ماڈل کو بڑی مقدار میں ڈیٹا (ممکنہ طور پر سیکڑوں اربوں الفاظ) کے سامنے لانا شامل ہے جو انٹرنیٹ، کتابوں، مضامین، سوشل میڈیا اور خصوصی ڈیٹا سیٹس سے آ سکتا ہے۔

اس تربیتی عمل میں ہفتوں یا مہینوں کا وقت لگتا ہے، جس کے دوران ایک AI ماڈل یہ بتاتا ہے کہ مختلف ڈیٹا سیٹس کا وزن کرکے دیے گئے کاموں کو درست طریقے سے کیسے انجام دیا جائے۔

سب سے پہلے، AI ماڈل صحیح حل تلاش کرنے کے لیے بے ترتیب اندازے لگاتا ہے۔ لیکن مسلسل تربیت کے ساتھ، یہ دیے گئے ڈیٹا میں زیادہ سے زیادہ نمونوں اور رشتوں کی نشاندہی کرتا ہے تاکہ درست اور متعلقہ نتائج برآمد ہوں۔

حالیہ برسوں میں نیورل نیٹ ورکس کی تربیت کے لیے تکنیک اور ہارڈ ویئر میں پیشرفت نے "بہت سے بنیادی NLP کاموں میں متاثر کن درستگی میں بہتری" کو قابل بنایا ہے۔

"نتیجے کے طور پر، ایک جدید ترین ماڈل کی تربیت کے لیے اب کافی کمپیوٹیشنل وسائل کی ضرورت ہوتی ہے جو متعلقہ مالیاتی اور ماحولیاتی اخراجات کے ساتھ ساتھ کافی توانائی مانگتے ہیں،" MIT کا مطالعہ مزید بتاتا ہے۔
AI ڈیٹا سینٹر توانائی کی طلب اور کاربن فوٹ پرنٹ

OpenAI کے ChatGPT کے آغاز کے بعد 2022 اور 2023 میں AI کی تیز رفتار توسیع اور بڑے پیمانے پر اطلاق نے بڑی ٹیک کمپنیوں جیسے کہ Microsoft اور Alphabet (Google) کے ذریعے بڑے لینگویج ماڈلز (LLM) کی ترقی کو آگے بڑھایا ہے۔

چیٹ جی پی ٹی کی کامیابی (جو دو مہینوں میں بے مثال 100 ملین صارفین تک پہنچ گئی) نے مائیکروسافٹ اور گوگل کو بالترتیب اپنے AI چیٹ بوٹس، بنگ چیٹ اور بارڈ لانچ کرنے کے لیے متاثر کیا، ویریز کے مضمون کے مطابق۔

ویریز نے وائس آف اردو کو بتایا: "ہم پہلے ہی جانتے ہیں کہ ڈیٹا سینٹرز بجلی کی عالمی کھپت کا 1% نمائندگی کرتے ہیں۔ ڈیجیٹل رجحانات جیسے کرپٹو کرنسی مائننگ اور AI کی بدولت، یہ آنے والے سالوں میں آسانی سے 2% اور اس سے زیادہ تک بڑھ سکتا ہے۔"

ایم آئی ٹی کے مطالعہ نے اندازہ لگایا ہے کہ کلاؤڈ کمپیوٹنگ میں پوری ایئر لائن انڈسٹری سے زیادہ کاربن فوٹ پرنٹ ہے۔ مزید برآں، ایک ڈیٹا سینٹر کو تقریباً 50,000 گھروں کو بجلی فراہم کرنے کے لیے اتنی ہی بجلی کی ضرورت پڑ سکتی ہے۔

ہائی پرفارمنس چپس اور کولنگ سسٹم کو چلانے کے لیے بجلی کی ضرورت ہوتی ہے، کیونکہ پروسیسر بہت زیادہ ڈیٹا کا تجزیہ کرتے ہوئے اور درست ردعمل پیدا کرتے ہوئے گرم ہوجاتے ہیں۔

ڈی وریز کے مطالعے میں کہا گیا ہے کہ ہگنگ فیس کے "بگ سائنس لارج اوپن سائنس اوپن ایکسیس ملٹی لینگول (بلوم) ماڈل نے تربیت کے دوران 433 میگاواٹ بجلی استعمال کی۔"

"دیگر LLMs، بشمول GPT-3، Gopher اور Open Pre-trained Transformer (OPT)، مبینہ طور پر تربیت کے لیے بالترتیب 1287، 1066، اور 324 MWh استعمال کرتے ہیں۔ ان میں سے ہر ایک ایل ایل ایم کو ٹیرا بائٹس ڈیٹا پر تربیت دی گئی تھی اور اس کے 175 بلین یا اس سے زیادہ پیرامیٹرز ہیں، "مطالعہ مزید بتاتا ہے۔

ڈی ویریز نے اپنے مقالے میں ریسرچ فرم سیمی اینالیسس کا حوالہ دیا، جس نے تجویز کیا کہ OpenAI کو NVIDIA کے HGX A100 سرورز میں سے 3,617 کی ضرورت ہے، جس میں ChatGPT کو سپورٹ کرنے کے لیے کل 28,936 GPUs کی ضرورت ہے، جس سے توانائی کی طلب 564 MWh فی دن ہے۔

"گوگل نے اطلاع دی ہے کہ 2019 سے 2021 تک AI سے متعلقہ توانائی کی کھپت کا 60٪ تخمینہ (جہاں لائیو ڈیٹا AI ماڈل کے ذریعے چلایا جاتا ہے) سے پیدا ہوا ہے۔ گوگل کی پیرنٹ کمپنی، الفابیٹ نے بھی تربیت کے اخراجات کے مقابلے تخمینے کے اخراجات کے حوالے سے تشویش کا اظہار کیا۔

برکلے کی یونیورسٹی آف کیلیفورنیا کے محققین کے ایک مطالعے سے اندازہ لگایا گیا ہے کہ GPT-3، جس پر ChatGPT ماڈل بنایا گیا ہے، کے 175 بلین پیرامیٹر تھے۔

ہیٹ نے اپنے تربیتی مرحلے کے دوران 502 میٹرک ٹن CO2 پیدا کیا، جبکہ اس کا یومیہ کاربن کا اخراج 50 پاؤنڈ (یا 8.4 ٹن ایک سال) تھا۔
AI کی قابل عملیت اور مستقبل کے اقدامات پر بحث

ڈی وریز کا کہنا ہے کہ ڈیٹا سینٹرز کے لیے توانائی کی زیادہ مانگ کو عام طور پر فوسل فیول سے پورا کیا جائے گا۔ انہوں نے VOU کو بتایا، "ہمارے پاس قابل تجدید ذرائع کی صرف محدود فراہمی ہے اور ہم نے پہلے ہی ان کو ترجیح دے رکھی ہے، لہذا کوئی بھی اضافی مانگ فوسل فیول کے ذریعے چلائی جائے گی جس سے ہمیں چھٹکارا حاصل کرنے کی ضرورت ہے،" انہوں نے VOU کو بتایا۔ "یہاں تک کہ اگر ہم AI میں قابل تجدید ذرائع ڈالتے ہیں، تو کہیں اور کسی اور چیز کو جیواشم ایندھن سے چلنا پڑے گا - جو صرف موسمیاتی تبدیلی کو بڑھا دے گا۔"

ایوک سرکار، انڈین اسکول آف بزنس کے پروفیسر اور انڈیا کے نیتی آیوگ کے ڈیٹا اینالیٹکس سینٹر کے سابق سربراہ، AI کی توانائی کی ضروریات اور کاربن فوٹ پرنٹ کے بارے میں ہونے والی بحث کو معمولی سمجھتے ہیں۔ انہوں نے 2018 میں بین الاقوامی توانائی ایجنسی (IEA) کے ساتھ ہندوستان میں ڈیٹا سینٹرز کی ترقی اور ملک میں توانائی کی کھپت پر اس کے اثرات پر ایک تجزیہ پر کام کیا۔

انہوں نے VOU کو بتایا کہ "توانائی کی کھپت پر AI کا نقشہ بہت کم ہے، اور بہت سی ٹیکنالوجیز توانائی کی بہت بڑی مقدار کو چمکا رہی ہیں۔" "بڑے شہروں میں کسی بھی اونچی گلی کو دیکھ لیں، بل بورڈز میں روشنی کی مقدار اتنی زیادہ ہے کہ روشنی بیرونی خلا سے نظر آتی ہے، جسے نائٹ لائٹس کہا جاتا ہے، جو کہ ترقی اور اقتصادی ترقی کا ایک بڑا اشارہ ہے۔ توانائی کی کھپت شہری کاری، سرمایہ داری اور اقتصادی ترقی کا ایک فطری اثر ہے - ہمیں اس حقیقت کے ساتھ جینا سیکھنا ہوگا۔"

AI ڈیٹا سینٹرز کی توانائی کی طلب اور کاربن کے اخراج کے اثرات پر تبصرہ کرتے ہوئے، ڈی ویریز کہتے ہیں کہ یہ مسئلہ صرف ہندوستان تک محدود نہیں ہے، اور یہ کہ موسمیاتی تبدیلی ایک عالمی مسئلہ ہے۔ انہوں نے کہا کہ اگر ہم AI کے نتیجے میں بجلی کی طلب اور کاربن کے اخراج دونوں کو بڑھاتے ہیں تو اس سے تمام کمزور ممالک بھی متاثر ہوں گے۔

سرکار تسلیم کرتی ہے کہ AI کے لیے بڑی مقدار میں توانائی کی کھپت بڑے ڈیٹا سینٹرز کی وجہ سے ہوتی ہے جو اسٹوریج اور کمپیوٹنگ کا بنیادی ڈھانچہ فراہم کرتے ہیں۔ ڈیٹا سینٹرز کو ٹھنڈا کرنے کے لیے استعمال کیے جانے والے پانی سے توانائی کا مزید اثر پڑتا ہے۔

سرکار نے نشاندہی کی کہ زیادہ تر عالمی ڈیٹا سینٹرز ہندوستان سے باہر ہیں، یہ دلیل دیتے ہوئے کہ ملک کو فی الحال کسی بڑے چیلنج کا سامنا نہیں ہے۔ ذاتی ڈیٹا کو چھوڑ کر، دیگر ہندوستانی ڈیٹا پوائنٹس کو ملک سے باہر کے مراکز میں محفوظ کیا جا سکتا ہے۔

"مالی لین دین، آدھار، یا صحت کی دیکھ بھال کے ڈیٹا سے متعلق اہم ڈیٹا کو ہندوستان میں رہنے کی ضرورت ہے اور یہ بہت زیادہ ہوگا۔ ہندوستان میں مختلف آب و ہوا والے زون ہیں اور ملک میں ٹھنڈے، غیر زلزلہ زدہ علاقوں میں ان ڈیٹا سینٹرز کو تلاش کرکے اعلی توانائی کی کھپت کو کم کر سکتا ہے۔"

ڈی ویریز کے مطابق، اچھی خبر یہ ہے کہ اے آئی سرور سپلائی چین میں رکاوٹیں ہیں، جس کا مطلب ہے کہ قریب کی مدت میں ترقی کسی حد تک محدود ہے۔ انہوں نے کہا، "ہمیں اس موقع کو AI کے ذمہ دارانہ اطلاق کے بارے میں سوچنے کے لیے استعمال کرنا چاہیے اور اس بات کو یقینی بنانا چاہیے کہ جہاں AI کا استعمال ہو رہا ہے وہاں شفافیت بھی فراہم کی جائے تاکہ ہم اس ٹیکنالوجی کے اثرات کا صحیح اندازہ لگا سکیں،" انہوں نے کہا۔



بذریعہ سنجیو کمار، شملہ (بھارت) میں مقیم ایک صحافی جو ماحولیات، موسمیاتی تبدیلیوں اور سیاست میں مہارت رکھتا ہے۔