اخبار, بلاگ

 مراکز دادهٔ هوش مصنوعی در سال ۲۰۲۵  قواعد بازی را عوض کردند

مراکز دادهٔ هوش مصنوعی در سال ۲۰۲۵

در ۲۰۲۵، «مرکز دادهٔ هوش مصنوعی» اصطلاح داغ صنعت بود؛ از بازطراحی زیرساخت و نرم‌افزار گرفته تا بحث‌های عمومی دربارهٔ پایداری و اثرات اقتصادی. گزارش‌ها می‌گویند حدود ۷۵٪ مراکز دادهٔ جدید با نگاه به بارهای کاری هوش مصنوعی طراحی می‌شوند؛ تغییری سریع در اولویت‌ها.

امسال مفاهیمی مثل «کارخانه‌های هوش مصنوعی»، استفاده از مدل/وظیفه‌ٔ تقطیرشده (AI distillation) برای بهینه‌سازی زیرساخت و پروژه‌های تازه‌ مثل Project Rainier آمازون مطرح شدند. هم‌زمان، حساسیت افکار عمومی نسبت به مراکز دادهٔ AI بالا رفت—به‌خاطر نگرانی‌های زیست‌محیطی و اقتصادی—و در مقابل، راه‌حل‌های نوآورانه‌ای برای مدیریت این چالش‌ها روی میز آمد. از «برنامه اقدام هوش مصنوعی» بریتانیا با اهداف بلندپروازانه اما ایرادهای اجرایی، تا موج تغییراتی که نسل مولد هوش مصنوعی در اکوسیستم نرم‌افزار ایجاد کرد؛ ۲۰۲۵ برای صنعت مراکز داده سالی کاملاً دگرگون‌کننده بود.

میان این تحولات، چند محور پررنگ بود: ضرورت پایداری، توازن بین نوآوری و تنظیم‌گری، و نقش رو‌به‌افزایش هوش مصنوعی در شکل‌دهی دوبارهٔ سخت‌افزار و نرم‌افزار. این‌ها تصویری روشن از صنعتی می‌سازند که خودش را برای آینده‌ای مبتنی بر AI آماده می‌کند.

در ادامه، یک بخش از ۱۰ داستان پربازدید مراکز دادهٔ AI در ۲۰۲۵ را می‌خوانید و می‌بینید این روندها چگونه آیندهٔ زیرساخت دیجیتال را می‌سازند.

۱) «مرکز دادهٔ هوش مصنوعی»: اصطلاحی محبوب اما سخت‌تعریف

به‌طور ساده، «مرکز دادهٔ هوش مصنوعی» به سایتی می‌گویند که بارهای کاری AI را اجرا می‌کند؛ اما مرزهایش دقیق نیست. بله، بارهای AI معمولاً به ظرفیت برق بالاتر، سرورهای مجهز به GPU، شبکه‌ٔ بهینه‌شده و خنک‌سازی پیشرفته نیاز دارند—اما این ویژگی‌ها منحصر به مراکز دادهٔ AI نیستند و پیش از موج AI مولد هم در مراکز دادهٔ سنتی یا هایپراسکیل دیده می‌شدند.

نتیجهٔ عملی؟ بهتر است «مرکز دادهٔ AI» را با هدف بشناسیم نه با لیست قطعات. در بسیاری از موارد، به‌روزرسانی و انطباق مراکز دادهٔ موجود برای پشتیبانی از بارهای AI، منطقی‌تر و کم‌هزینه‌تر از ساخت سایتی کاملاً جدید است؛ پیچیدگی و هزینهٔ اضافی هم ایجاد نمی‌کند.

نکتهٔ کلیدی: مراکز دادهٔ AI بیش از آن‌که یک معماری کاملاً مجزا باشند، هدف‌محور هستند. برای بسیاری از سازمان‌ها، ارتقا و سازگارکردن سایت‌های فعلی با نیازهای AI، عملی‌تر و مقرون‌به‌صرفه‌تر از ساخت مرکز جدید خواهد بود.

۲) کارخانه‌های هوش مصنوعی؛ مرز واقعیت و هیاهو

احتمالاً اصطلاح «کارخانهٔ هوش مصنوعی» را زیاد شنیده‌ای. منظور، دیتاسنتری است که بیشتر برای پردازش‌های AI ساخته شده و پر از GPU و شبکهٔ پرسرعت است. ایده جذاب است، اما هزینهٔ GPU، خنک‌سازی مایع و شبکه آن‌قدر بالاست—و نیاز بسیاری از سازمان‌ها به آموزش ۲۴ساعته آن‌قدر کم—که ساختِ یک مرکز کاملاً اختصاصی برای AI معمولاً توجیه اقتصادی ندارد. منطقی‌تر این است که دیتاسنترها «چندمنظوره» باشند و فقط «زون‌های AI» داخلشان تعریف شود.

برخی متخصصان می‌گویند مسیرِ واقعیِ این ایده احتمالاً «هوش مصنوعی به‌عنوان سرویس» است؛ شرکت‌ها به‌جای خرید و نگه‌داری سخت‌افزارِ روز، از ابرها ظرفیت اجاره می‌کنند. بااین‌همه موانعی مثل فرسودگی سریع سخت‌افزار، هزینه‌های شبکه و کم‌بودن نمونه‌های عملی بزرگ، نشان می‌دهد این مفهوم هنوز در ابتدای راه است و فعلاً فقط یک پروژهٔ جدیِ «کارخانهٔ AI» در دست توسعه شناخته می‌شود.

جمع‌بندی: کارخانه‌های کاملاً اختصاصیِ AI احتمالاً به‌دلیل هزینهٔ بالا و استفادهٔ نه‌چندان پیوسته، فراگیر نمی‌شوند. دیتاسنترهای چندمنظوره با زون‌های AI و مدل‌های اجارهٔ ظرفیت (AI-as-a-Service) محتمل‌ترند که دست بالا را پیدا کنند.

۳) ظرف دو سال، بارهای AI در دیتاسنترها غالب می‌شوند

گزارش Turner & Townsend از رشد تند بارهای AI خبر می‌دهد؛ رشدی که طراحی و بهره‌برداری دیتاسنترها را عوض کرده است. ۴۷٪ پاسخ‌دهندگان انتظار دارند ظرف دو سال آینده، دیتاسنترهای متمرکز بر AI بیش از نیمی از کل بارها را میزبانی کنند و تا ۲۰۲۷ مراکز «بهینه‌شده برای AI» حدود ۲۸٪ بازار جهانی را بسازند.

برای پاسخ به توان و گرمای شدیدِ بارهای AI، حرکت به‌سمت رک‌های پُرتراکم و خنک‌سازی مایع جدی‌تر شده است. هرچند امروز خنک‌سازی مایع حدود ۷ تا ۱۰٪ گران‌تر از هواست، مزیت‌های محیط‌زیستی و الزامی—مثل حلقه‌های بسته با مصرف آب ناچیز—پذیرشش را بالا برده است.

اما مهم‌ترین گلوگاه همچنان «دسترسی به برق» است. تأخیر در اتصال به شبکه، پروژه‌ها را عقب می‌اندازد. برای جبران، برخی اپراتورها سراغ تولید در محل با منابع تجدیدپذیر، توربین گاز و فناوری میکروگرید می‌روند تا وابستگی به شبکه‌های تحت فشار را کم کنند.

چالش زنجیرهٔ تأمین هم پابرجاست و اطمینان به تحویل به‌موقعِ تجهیزات پیشرفتهٔ برق و خنک‌سازی پایین است. بااین‌حال صنعت دارد خود را وفق می‌دهد؛ از راهکارهایی مثل برق موقتِ پل‌زن (bridging power) تا استقرار سریع تجدیدپذیرها برای پاسخ به تقاضا استفاده می‌شود.

جمع‌بندی: بارهای AI دارند طراحی دیتاسنتر را از پایه تغییر می‌دهند. خنک‌سازی مایع و تضمین دسترسی به برق، به عوامل حیاتی تبدیل شده‌اند. اپراتورها باید نوآوری کنند تا هم پاسخگوی تقاضا باشند و هم محدودیت‌های محیط‌زیستی و شبکهٔ برق را مدیریت کنند.

بیشتر بخوانید: طراحی دیتاسنترها برای آینده 

۴) قوانین جدید آمریکا، ترمزِ صنعت تندروِ دیتاسنترهای AI نمی‌شود

قوانین تازه‌ای مثل «One Big Beautiful Bill» و «برنامه اقدام هوش مصنوعی» احتمالاً نه رشد این صنعت را خیلی تندتر می‌کنند و نه جلویش را می‌گیرند. حذف تدریجی معافیت‌های مالیاتی انرژی‌های تجدیدپذیر می‌تواند هزینه‌ها را بالا ببرد، اما مشوق‌های تحقیق‌وتوسعه و سرمایه‌گذاری‌های فدرال در زیرساخت—مثل نوسازی شبکه برق و پیشبرد فناوری‌هایی مثل راکتورهای ماژولار کوچک (SMR) و سامانه‌های ذخیره‌سازی باتری (BESS)—می‌تواند در بلندمدت کمک‌کننده باشد.
به‌گفتهٔ کارشناسان، محرک اصلی رشد «سرمایه‌ خصوصی» است؛ تا امروز حدود ۹۲ میلیارد دلار برای زیرساخت‌های AI اعلام شده. البته چالش‌هایی مثل کمبود برق، طولانی‌بودن ساخت‌وساز و مقاومت جوامع محلی سر جایشان هستند. اصلاح فرایندهای صدور مجوز و ارتقای شبکه می‌تواند کمک کند، اما اثرشان زمان‌بر است.
جمع‌بندی: سیاست‌های فدرال نقش پشتیبان دارند؛ موتور محرک، همان سرمایهٔ خصوصی است. رشد پایدار نیاز به تعادل بین نوآوری، تنظیم‌گری و توسعهٔ زیرساخت دارد.

بیشتر بخوانید: بازار ۱۰۰ میلیارد دلاری خدمات فضای ابری

۵) پروژهٔ «رینیِر» AWS: خوشهٔ عظیم ابررایانهٔ AI برای Anthropic تکمیل شد

AWS پروژهٔ Rainier را با بودجهٔ ۸ میلیارد دلار برای ساخت خوشهٔ عظیم ابررایانهٔ AI به‌منظور پشتیبانی از مدل‌های Claude تکمیل کرده است. این خوشه اکنون از ۵۰۰هزار+ تراشهٔ Trainium 2 در چند دیتاسنتر آمریکایی استفاده می‌کند و برنامه این است که تا پایان ۲۰۲۵ به ۱ میلیون تراشه برسد. در ایالت ایندیانا یک پردیس بزرگ شامل ۳۰ دیتاسنتر (هرکدام حدود ۲۰۰هزار فوت مربع) برای آموزش و استنتاج در مقیاس خیلی بزرگ به‌هم متصل می‌شوند.
تمرکز پروژه روی بهره‌وری و پایداری است: طراحی کم‌مصرف تراشه، تحویل عمودی توان برق و کولینگ هیبرید (هوا + مایع حلقه‌بسته) برای کاهش مصرف آب و انرژی. این نوآوری‌ها به AWS اجازه داده سریع مقیاس بدهد و بخشی از صرفه‌جویی را به مشتریان سازمانی منتقل کند.
برای کسب‌وکارها، رینیِر یعنی هزینهٔ کمتر، آموزش سریع‌تر مدل و تاب‌آوری بالاتر. بهینه‌سازی تراشه و زیرساخت داخلیِ AWS، کارایی بهتر و بازگشت سرمایهٔ بالاتری برای بارهای AI به‌دنبال دارد.
جمع‌بندی: رینیِر یک استاندارد تازه در ابررایانه‌های AI می‌گذارد؛ مقیاس عظیم، بهره‌وری انرژی و صرفهٔ اقتصادی در کنار هم.

۶) نگرانی‌های عمومی از دیتاسنترهای AI هم‌زمان با جهش تقاضا

با وجود جهش تقاضا، پذیرش عمومی یکدست نیست. در یک نظرسنجی، ۹۳٪ آمریکایی‌ها اهمیت دیتاسنترهای AI را پذیرفته‌اند، اما فقط ۳۵٪ با ساخت آن‌ها در محلهٔ خود موافق‌اند. نگرانی‌ها بیشتر دربارهٔ محیط‌زیست، مصرف انرژی و آب، و تخصیص زمین است. اپراتورها با بهینه‌سازی انرژی مبتنی بر AI، استفاده از انرژی‌های تجدیدپذیر و فناوری‌های کاهش مصرف آب تلاش می‌کنند پاسخ دهند؛ بااین‌حال، تردید دربارهٔ منافع اقتصادی محلی پابرجاست و فقط ۹٪ معتقدند مزایای محلی بر نگرانی‌های زیست‌محیطی می‌چربد.
جمع‌بندی: جلب حمایت عمومی بدون پایداری واقعی، شفافیت و گفت‌وگوی فعال با جامعه ممکن نیست. توضیح روشن دربارهٔ منافع اقتصادی و زیست‌محیطی و اقدامات پیشگیرانه کلیدی است.

۷) «اولین دیتاسنترِ طراحی‌شده تماماً با هوش مصنوعی»

استودیو Cove Architecture با تکیه بر یک پلتفرم هوش مصنوعی، طراحی یک دیتاسنتر ۱۰هزار فوت‌مربعی در هارتسلِ کلرادو را تنها در ۳۰ روز به پایان رسانده؛ کاری که معمولاً چند ماه زمان می‌برد.
در این طرح، تمرکز جدی روی پایداری بوده: آرایهٔ خورشیدی که حدود ۴۰٪ انرژی سایت را تأمین می‌کند، سامانهٔ هوشمندِ بازاستفادهٔ آب که مصرف آبِ شرب را تا ۹۰٪ پایین می‌آورد، و استقرار «اگروولتائیک» برای استفادهٔ دوگانه از زمین (تولید برق خورشیدی در کنار چراگاه گوسفند). پلتفرم AI به‌سرعت چیدمان‌ها را با در نظر گرفتن ضوابط شهری، اقلیم و اهداف سرمایه‌گذاری ESG بهینه کرده تا امکان تأمین مالی سبز فراهم شود.
به‌گفتهٔ ساندیپ آهوجا، مدیرعامل Cove، واردکردن تیم‌های «AI-محور» به فرایند طراحی، راندمان، ارزش اقتصادی و پایداری را به‌طور چشمگیری بالا می‌برد. عدد PUE سایت ۱.۲ اعلام شده و تیم با کمک AI توانسته تحلیل‌هایی را که هفته‌ها طول می‌کشید در چند دقیقه انجام دهد.
جمع‌بندی: طراحی معماریِ مبتنی بر AI، مسیر توسعهٔ دیتاسنترها را با بهینه‌سازی سریع‌تر، پایداری بیشتر و صرفهٔ اقتصادی بهتر متحول می‌کند؛ نقش انسان همچنان کلیدی است، اما توان هم‌زمانِ AI در بهینه‌سازی انرژی، محاسبه و محیط‌زیست، یک گام تغییر‌دهنده برای صنعت است.

بیشتر بخوانید: بزرگ‌ترین مرکز دادهٔ هوش مصنوعی با ۴۵۰هزار GPU

۸) تقطیر هوش مصنوعی؛ وقتی اقتصاد دیتاسنتر دوباره‌نویسی می‌شود

«تقطیر مدل» راهی است برای کوچک‌کردن مدل‌های خیلی بزرگ بدون ازدست‌دادن کارایی اصلی‌شان. در این روش، یک «مدل دانش‌آموز» با انتقال دانش از «مدل معلم» آموزش می‌بیند—از پاسخ‌محور گرفته تا ویژگی‌محور و رابطه‌محور—تا همان توانمندی‌ها را با منابع کمتر ارائه کند.
خروجیِ این کار چیست؟ کاهش نیاز محاسباتی و برقی، پایین‌آمدن هزینه‌های عملیاتی، و دسترس‌پذیرتر شدن AI. در ادامهٔ مسیر، همین بهبودِ بهره‌وری می‌تواند راه را برای «AI توزیع‌شده» باز کند؛ یعنی بخشی از پردازش از دیتاسنترهای بزرگ به دستگاه‌های شخصی منتقل شود.
جمع‌بندی: تقطیر AI با کم‌کردن هزینهٔ محاسبه و برق، اقتصاد را به نفع پذیرش گسترده تغییر می‌دهد و زمینهٔ حرکت به‌سمت AI سبک‌تر و توزیع‌شده را فراهم می‌کند.

۹) برنامهٔ اقدام هوش مصنوعیِ بریتانیا؛ جاه‌طلبانه اما پر از ابهام

برنامهٔ «AI Opportunities Action Plan» دولت بریتانیا هدف دارد کشور را به یکی از قطب‌های جهانی نوآوری AI تبدیل کند؛ از رشد اقتصادی و جذب سرمایه تا برطرف‌کردن شکاف مهارت. سند با ۵۰ توصیه، حوزه‌های عمومی و خصوصی، تنظیم‌گری، داده، محاسبات و نیازهای انرژی را دربر می‌گیرد.
اما چالش‌ها کم نیستند: شکاف‌های تأمین مالی، نگرانی‌های محیط‌زیستی ناشی از توسعهٔ دیتاسنترها، و ریسک‌های ناشی از سیاست‌های بیش‌ازحد «نوآوری‌محور». منتقدان می‌گویند تکلیف منابع مالیِ فراتر از سرمایهٔ خصوصی روشن نیست و بین «حاکمیت ملیِ AI» و «کنترل بخش خصوصی» تنش وجود دارد.
جمع‌بندی: نقشهٔ راه بلندپروازانه است، اما موفقیت به رفع خلأهای مالی، مدیریت ریسک‌های محیط‌زیستی و شفافیتِ تنظیم‌گری گره خورده تا توسعهٔ AI مسئولانه و پایدار بماند.

۱۰) هوش مصنوعی مولد، نرم‌افزار دیتاسنتر را زیرورو می‌کند

وقتی همه از رک‌های پُرتراکم GPU، کولینگ مایع و توان عظیم حرف می‌زنند، در لایهٔ نرم‌افزار تحول عمیقی در جریان است. GenAI شیوهٔ توسعه، استقرار و نگه‌داری نرم‌افزار را تغییر داده و موجی از اختلال در نرم‌افزار سازمانی و امنیت سایبری به‌راه انداخته است.
تاریخ IT نشان می‌دهد هر تغییر زیرساختی—از مین‌فریم تا مجازی‌سازی و ابر—اکوسیستم نرم‌افزار را دگرگون کرده؛ حالا مدل‌های زبانیِ بزرگ این روند را شتاب داده‌اند. ابزارهایی مثل GitHub Copilot و ChatGPT بخش‌هایی از کدنویسی را خودکار می‌کنند و تولید اپلیکیشن سفارشی را ارزان‌تر. البته کدِ تولیدشده با AI نیازمند آزمون و اعتبارسنجی سخت‌گیرانه است.
در بازار سازمانی، مهاجمانِ «AI-مبنا» وارد قلمرو ERP، CRM و پایگاه‌داده شده‌اند و با کارایی بیشتر و هزینهٔ کمتر، پلتفرم‌های قدیمی—به‌ویژه ERPهای سنتی و دیتابیس‌های کلاسیک—را زیر فشار نیازهای تحلیل بلادرنگ و اتوماسیون گذاشته‌اند؛ نتیجه روشن است: یا نوسازی کنید، یا به حاشیه بروید.
در ذخیره‌سازی هم نیازهای LLMها به سرعت و مقیاس، NVMe و آبجکت‌استوریج را به استانداردِ ضروری تبدیل کرده. هم‌زمان، امنیت و مدل‌های SaaS در حال پوست‌اندازی‌اند؛ استارتاپ‌های AI-محور با افزودن ایجنت‌ها و منطق تجاری پویا، قواعد بازی را برای فروشندگان سنتی عوض می‌کنند.
جمع‌بندی: GenAI ستون نرم‌افزار دیتاسنتر را بازتعریف کرده—از اتوماسیون تا امنیت و ذخیره‌سازی. برای رقابت در دنیای «AI-اول»، باید نوسازی کنید و راهکارهای AI-بومی را بپذیرید؛ انعطاف و نوآوری، شرط بقاست.

0/5 (0 نظر)