گروه معیارگذاری هوش مصنوعی MLCommons روز چهارشنبه مجموعه‌ای جدید از تست‌ها و نتایجی را منتشر کرد که سرعت اجرای برنامه‌های هوش مصنوعی توسط سخت‌افزارهای پیشرفته و پاسخ به کاربران را ارزیابی می‌کند.

به گزارش همشهری آنلاین و به نقل از خبرگزاری رویترز، دو معیار جدید اضافه شده توسط MLCommons، سرعت تولید پاسخ‌ها توسط تراشه‌ها و سیستم‌های هوش مصنوعی از مدل‌های قدرتمند هوش مصنوعی که با داده‌های زیاد بسته‌بندی شده‌اند، را اندازه‌گیری می‌کنند. نتایج به طور تقریبی نشان می‌دهند که چگونه یک برنامه هوش مصنوعی مانند ChatGPT می‌تواند پاسخی را به یک پرسش کاربر ارائه دهد.

یکی از معیارهای جدید اضافه شده، توانایی اندازه‌گیری سرعت سناریوی پرسش و پاسخ برای مدل‌های زبان بزرگ را دارد. به نام Llama ۲، که شامل ۷۰ میلیارد پارامتر است و توسط Meta Platforms (META.O)، با بازکردن یک تب جدید، توسعه یافته است.

مقامات MLCommons همچنین یک مولد دوم متن به تصویر را به مجموعه ابزارهای معیارگذاری، به نام MLPerf، بر اساس مدل Stable Diffusion XL توسط Stability AI، اضافه کردند.

سازنده سرور Krai طرحی را برای معیار تولید تصویر با تراشه هوش مصنوعی کوالکام ارائه داد که برق قابل توجه‌ای کمتری نسبت به پردازنده‌های پیشرفته Nvidia مصرف می‌کند.

اینتل نیز نیز طرحی را بر اساس تراشه‌های شتاب‌دهنده Gaudi۲ خود ارائه داد. این شرکت نتایج را قابل اعتماد توصیف کرد.

بیشتر بخوانید:

عملکرد خام تنها معیار مهم هنگام استقرار برنامه‌های هوش مصنوعی نیست. تراشه‌های پیشرفته هوش مصنوعی مقادیر عظیمی از انرژی را مصرف می‌کنند و یکی از چالش‌های بزرگ برای شرکت‌های هوش مصنوعی، استقرار تراشه‌هایی است که حداکثر عملکرد را با حداقل مصرف انرژی ارائه می‌دهند.