
كشف أليكس دي فريس جاو، طالب دكتوراه في معهد الدراسات البيئية بجامعة أمستردام، نتائج دراسة أجراها حول كمية الكهرباء المُحتملة التي تستخدمها شركات الذكاء الاصطناعي للإجابة على استفسارات المستخدمين، وفي ورقته البحثية المنشورة في مجلة جول، يصف كيف حسب استهلاك مراكز بيانات الذكاء الاصطناعي العالمي للكهرباء في الماضي والحاضر، وكيف وضع تقديراته للمستقبل.
وفقًا لما ذكره موقع "techxplore"، أفادت وكالة الطاقة الدولية مؤخرًا، أن مراكز البيانات مسئولة عن ما يصل إلى 1.5% من استهلاك الطاقة العالمي في عام 2024، وهو رقم آخذ في الارتفاع بسرعة، وتُستخدم مراكز البيانات لأغراض أخرى غير معالجة استفسارات الذكاء الاصطناعي، كما يشير دي فريس غاو، قُستخدم أيضًا لمعالجة وتخزين بيانات السحابة، لا سيما كجزء من تعدين البيتكوين.
وعلى مدار السنوات القليلة الماضية، أقر مطورو الذكاء الاصطناعي بأن تشغيل برامج إدارة التعلم (LLM) مثل ChatGPT يتطلب طاقة حوسبة هائلة، لدرجة أن بعضهم بدأ بتوليد الكهرباء بنفسه لضمان تلبية احتياجاته.
بدأ دي فريس جاو بدراسة الرقائق التي تُصنعها شركة تايوان لتصنيع أشباه الموصلات، وهي الشركة التي تُصنّع مُعظم الرقائق لشركات مثل إنفيديا، ثم استخدم تقديرات مُحللين، وتقارير الأرباح، وتفاصيل مُتعلقة بالأجهزة المُشتراة والمُباعة والمُستخدمة في بناء مراكز بيانات الذكاء الاصطناعي، ثم اطّلع على تقارير استهلاك الكهرباء المُتاحة للعامة للأجهزة المُستخدمة في تشغيل تطبيقات الذكاء الاصطناعي، بالإضافة إلى مُعدلات استخدامها.
واستخدم دي فريس-غاو جميع البيانات التي جمعها لوضع تقديرات تقريبية لاستخدام الكهرباء من جانب مُختلف مُزوّدي الذكاء الاصطناعي، ثم جمعها جميعًا، مُتوصّلًا إلى تقدير 82 تيراواط/ساعة من الكهرباء المُستهلكة لهذا العام بأكمله، بناءً على الطلب الحالي، وهو ما يُعادل تقريبًا إجمالي الطاقة المُستخدمة في دولة مثل سويسرا.
كما أجرى العملية الحسابية نفسها بافتراض أن الطلب على الذكاء الاصطناعي سيتضاعف خلال الفترة المتبقية من هذا العام، إذا سارت الأمور على هذا النحو، فقد تستهلك تطبيقات الذكاء الاصطناعي ما يقرب من نصف إجمالي الطاقة التي تستخدمها مراكز البيانات حول العالم.