به گزارش همشهری آنلاین به نقل از بی بی سی، از سال گذشته که چتبات ChatGPT وارد صحنه شد، شرکتهای بزرگ فناوری تلاش کردند تا خدمات مبتنی بر هوش مصنوعی را به سیستم خود اضافه کنند. هوش مصنوعی مولد نسبت به برنامههای معمولی انرژی بسیار زیادی مصرف میکنند و همین امر باعث میشود تا آنلاین شدن بسیار انرژی بر باشد.
با این حال، این مطالعه میگوید اگر روند رشد فعلی هوش مصنوعی کند شود، تأثیر زیستمحیطی هوش مصنوعی میتواند کمتر از حد نگران کننده باشد. بسیاری از کارشناسان، معتقدند چنین تحقیقاتی حدس و گمان است زیرا شرکتهای فناوری اطلاعات کافی برای پیشبینی دقیق را فاش نمیکنند.
با این حال، هیچ شکی وجود ندارد که هوش مصنوعی به سختافزار قدرتمندتری نسبت به کارهای محاسباتی سنتی نیاز دارد. این مطالعه توسط الکس دی وریس، کاندیدای دکترا در دانشکده تجارت و اقتصاد VU آمستردام، بر اساس برخی پارامترها که بدون تغییر ماندند مانند سرعت رشد هوش مصنوعی، در دسترس بودن تراشههای هوش مصنوعی و ادامه کار سرورها انجام شده است.
دی وریس معتقد است که طراح تراشه Nvidia حدود ۹۵ درصد از کیت پردازش هوش مصنوعی مورد نیاز این بخش را تامین میکند. او توانست محدوده مصرف انرژی هوش مصنوعی را بین ۸۵ تا ۱۳۴ تراوات ساعت برق در سال تخمین بزند چیزی حدود میزان برق مصرفی سالانه یک کشور کوچک مانند هلند است. او گفت: ما در مورد اندازه کشوری مانند هلند از نظر مصرف برق صحبت میکنید که نیم درصد کل مصرف برق جهانی است.
بیشتر بخوانید:
- آیا شارژ باتری بیش از ۱۰۰ درصد خطرناک است؟ | با این روشهای باتری موبایلتان را نجات دهید
سیستمهای هوش مصنوعی مانند مدلهای زبان بزرگ که به رباتهای گفتگوی محبوب قدرت میدهند مانندChatGPT از شرکت OpenAI و Bard از شرکت گوگل، برای کار کردن به انبارهایی پر از رایانههای تخصصی به نام مراکز داده نیاز دارند. این یعنی که تجهیزات انرژی بیشتری دارند و مانند کیتهای سنتی، باید با استفاده از سیستمهای آب فشرده خنک نگه داشته شوند.
در این تحقیق انرژی مورد نیاز برای خنکسازی در نظر گرفته نشده است. دی وریس از جمله کسانی است که خواستار شفافیت بیشتر این بخش است. اما بدون شک تقاضا برای رایانههایی که هوش مصنوعی را تقویت میکنند در حال افزایش است و به همراه آن میزان انرژی مورد نیاز برای خنک نگه داشتن سرورها نیز متعاقبا بالا میرود.