در ۲۰۲۵، «مرکز دادهٔ هوش مصنوعی» اصطلاح داغ صنعت بود؛ از بازطراحی زیرساخت و نرمافزار گرفته تا بحثهای عمومی دربارهٔ پایداری و اثرات اقتصادی. گزارشها میگویند حدود ۷۵٪ مراکز دادهٔ جدید با نگاه به بارهای کاری هوش مصنوعی طراحی میشوند؛ تغییری سریع در اولویتها.
امسال مفاهیمی مثل «کارخانههای هوش مصنوعی»، استفاده از مدل/وظیفهٔ تقطیرشده (AI distillation) برای بهینهسازی زیرساخت و پروژههای تازه مثل Project Rainier آمازون مطرح شدند. همزمان، حساسیت افکار عمومی نسبت به مراکز دادهٔ AI بالا رفت—بهخاطر نگرانیهای زیستمحیطی و اقتصادی—و در مقابل، راهحلهای نوآورانهای برای مدیریت این چالشها روی میز آمد. از «برنامه اقدام هوش مصنوعی» بریتانیا با اهداف بلندپروازانه اما ایرادهای اجرایی، تا موج تغییراتی که نسل مولد هوش مصنوعی در اکوسیستم نرمافزار ایجاد کرد؛ ۲۰۲۵ برای صنعت مراکز داده سالی کاملاً دگرگونکننده بود.
میان این تحولات، چند محور پررنگ بود: ضرورت پایداری، توازن بین نوآوری و تنظیمگری، و نقش روبهافزایش هوش مصنوعی در شکلدهی دوبارهٔ سختافزار و نرمافزار. اینها تصویری روشن از صنعتی میسازند که خودش را برای آیندهای مبتنی بر AI آماده میکند.
در ادامه، یک بخش از ۱۰ داستان پربازدید مراکز دادهٔ AI در ۲۰۲۵ را میخوانید و میبینید این روندها چگونه آیندهٔ زیرساخت دیجیتال را میسازند.
۱) «مرکز دادهٔ هوش مصنوعی»: اصطلاحی محبوب اما سختتعریف
بهطور ساده، «مرکز دادهٔ هوش مصنوعی» به سایتی میگویند که بارهای کاری AI را اجرا میکند؛ اما مرزهایش دقیق نیست. بله، بارهای AI معمولاً به ظرفیت برق بالاتر، سرورهای مجهز به GPU، شبکهٔ بهینهشده و خنکسازی پیشرفته نیاز دارند—اما این ویژگیها منحصر به مراکز دادهٔ AI نیستند و پیش از موج AI مولد هم در مراکز دادهٔ سنتی یا هایپراسکیل دیده میشدند.
نتیجهٔ عملی؟ بهتر است «مرکز دادهٔ AI» را با هدف بشناسیم نه با لیست قطعات. در بسیاری از موارد، بهروزرسانی و انطباق مراکز دادهٔ موجود برای پشتیبانی از بارهای AI، منطقیتر و کمهزینهتر از ساخت سایتی کاملاً جدید است؛ پیچیدگی و هزینهٔ اضافی هم ایجاد نمیکند.
نکتهٔ کلیدی: مراکز دادهٔ AI بیش از آنکه یک معماری کاملاً مجزا باشند، هدفمحور هستند. برای بسیاری از سازمانها، ارتقا و سازگارکردن سایتهای فعلی با نیازهای AI، عملیتر و مقرونبهصرفهتر از ساخت مرکز جدید خواهد بود.
۲) کارخانههای هوش مصنوعی؛ مرز واقعیت و هیاهو
احتمالاً اصطلاح «کارخانهٔ هوش مصنوعی» را زیاد شنیدهای. منظور، دیتاسنتری است که بیشتر برای پردازشهای AI ساخته شده و پر از GPU و شبکهٔ پرسرعت است. ایده جذاب است، اما هزینهٔ GPU، خنکسازی مایع و شبکه آنقدر بالاست—و نیاز بسیاری از سازمانها به آموزش ۲۴ساعته آنقدر کم—که ساختِ یک مرکز کاملاً اختصاصی برای AI معمولاً توجیه اقتصادی ندارد. منطقیتر این است که دیتاسنترها «چندمنظوره» باشند و فقط «زونهای AI» داخلشان تعریف شود.
برخی متخصصان میگویند مسیرِ واقعیِ این ایده احتمالاً «هوش مصنوعی بهعنوان سرویس» است؛ شرکتها بهجای خرید و نگهداری سختافزارِ روز، از ابرها ظرفیت اجاره میکنند. بااینهمه موانعی مثل فرسودگی سریع سختافزار، هزینههای شبکه و کمبودن نمونههای عملی بزرگ، نشان میدهد این مفهوم هنوز در ابتدای راه است و فعلاً فقط یک پروژهٔ جدیِ «کارخانهٔ AI» در دست توسعه شناخته میشود.
جمعبندی: کارخانههای کاملاً اختصاصیِ AI احتمالاً بهدلیل هزینهٔ بالا و استفادهٔ نهچندان پیوسته، فراگیر نمیشوند. دیتاسنترهای چندمنظوره با زونهای AI و مدلهای اجارهٔ ظرفیت (AI-as-a-Service) محتملترند که دست بالا را پیدا کنند.
۳) ظرف دو سال، بارهای AI در دیتاسنترها غالب میشوند
گزارش Turner & Townsend از رشد تند بارهای AI خبر میدهد؛ رشدی که طراحی و بهرهبرداری دیتاسنترها را عوض کرده است. ۴۷٪ پاسخدهندگان انتظار دارند ظرف دو سال آینده، دیتاسنترهای متمرکز بر AI بیش از نیمی از کل بارها را میزبانی کنند و تا ۲۰۲۷ مراکز «بهینهشده برای AI» حدود ۲۸٪ بازار جهانی را بسازند.
برای پاسخ به توان و گرمای شدیدِ بارهای AI، حرکت بهسمت رکهای پُرتراکم و خنکسازی مایع جدیتر شده است. هرچند امروز خنکسازی مایع حدود ۷ تا ۱۰٪ گرانتر از هواست، مزیتهای محیطزیستی و الزامی—مثل حلقههای بسته با مصرف آب ناچیز—پذیرشش را بالا برده است.
اما مهمترین گلوگاه همچنان «دسترسی به برق» است. تأخیر در اتصال به شبکه، پروژهها را عقب میاندازد. برای جبران، برخی اپراتورها سراغ تولید در محل با منابع تجدیدپذیر، توربین گاز و فناوری میکروگرید میروند تا وابستگی به شبکههای تحت فشار را کم کنند.
چالش زنجیرهٔ تأمین هم پابرجاست و اطمینان به تحویل بهموقعِ تجهیزات پیشرفتهٔ برق و خنکسازی پایین است. بااینحال صنعت دارد خود را وفق میدهد؛ از راهکارهایی مثل برق موقتِ پلزن (bridging power) تا استقرار سریع تجدیدپذیرها برای پاسخ به تقاضا استفاده میشود.
جمعبندی: بارهای AI دارند طراحی دیتاسنتر را از پایه تغییر میدهند. خنکسازی مایع و تضمین دسترسی به برق، به عوامل حیاتی تبدیل شدهاند. اپراتورها باید نوآوری کنند تا هم پاسخگوی تقاضا باشند و هم محدودیتهای محیطزیستی و شبکهٔ برق را مدیریت کنند.
بیشتر بخوانید: طراحی دیتاسنترها برای آینده
۴) قوانین جدید آمریکا، ترمزِ صنعت تندروِ دیتاسنترهای AI نمیشود
قوانین تازهای مثل «One Big Beautiful Bill» و «برنامه اقدام هوش مصنوعی» احتمالاً نه رشد این صنعت را خیلی تندتر میکنند و نه جلویش را میگیرند. حذف تدریجی معافیتهای مالیاتی انرژیهای تجدیدپذیر میتواند هزینهها را بالا ببرد، اما مشوقهای تحقیقوتوسعه و سرمایهگذاریهای فدرال در زیرساخت—مثل نوسازی شبکه برق و پیشبرد فناوریهایی مثل راکتورهای ماژولار کوچک (SMR) و سامانههای ذخیرهسازی باتری (BESS)—میتواند در بلندمدت کمککننده باشد.
بهگفتهٔ کارشناسان، محرک اصلی رشد «سرمایه خصوصی» است؛ تا امروز حدود ۹۲ میلیارد دلار برای زیرساختهای AI اعلام شده. البته چالشهایی مثل کمبود برق، طولانیبودن ساختوساز و مقاومت جوامع محلی سر جایشان هستند. اصلاح فرایندهای صدور مجوز و ارتقای شبکه میتواند کمک کند، اما اثرشان زمانبر است.
جمعبندی: سیاستهای فدرال نقش پشتیبان دارند؛ موتور محرک، همان سرمایهٔ خصوصی است. رشد پایدار نیاز به تعادل بین نوآوری، تنظیمگری و توسعهٔ زیرساخت دارد.
بیشتر بخوانید: بازار ۱۰۰ میلیارد دلاری خدمات فضای ابری
۵) پروژهٔ «رینیِر» AWS: خوشهٔ عظیم ابررایانهٔ AI برای Anthropic تکمیل شد
AWS پروژهٔ Rainier را با بودجهٔ ۸ میلیارد دلار برای ساخت خوشهٔ عظیم ابررایانهٔ AI بهمنظور پشتیبانی از مدلهای Claude تکمیل کرده است. این خوشه اکنون از ۵۰۰هزار+ تراشهٔ Trainium 2 در چند دیتاسنتر آمریکایی استفاده میکند و برنامه این است که تا پایان ۲۰۲۵ به ۱ میلیون تراشه برسد. در ایالت ایندیانا یک پردیس بزرگ شامل ۳۰ دیتاسنتر (هرکدام حدود ۲۰۰هزار فوت مربع) برای آموزش و استنتاج در مقیاس خیلی بزرگ بههم متصل میشوند.
تمرکز پروژه روی بهرهوری و پایداری است: طراحی کممصرف تراشه، تحویل عمودی توان برق و کولینگ هیبرید (هوا + مایع حلقهبسته) برای کاهش مصرف آب و انرژی. این نوآوریها به AWS اجازه داده سریع مقیاس بدهد و بخشی از صرفهجویی را به مشتریان سازمانی منتقل کند.
برای کسبوکارها، رینیِر یعنی هزینهٔ کمتر، آموزش سریعتر مدل و تابآوری بالاتر. بهینهسازی تراشه و زیرساخت داخلیِ AWS، کارایی بهتر و بازگشت سرمایهٔ بالاتری برای بارهای AI بهدنبال دارد.
جمعبندی: رینیِر یک استاندارد تازه در ابررایانههای AI میگذارد؛ مقیاس عظیم، بهرهوری انرژی و صرفهٔ اقتصادی در کنار هم.
۶) نگرانیهای عمومی از دیتاسنترهای AI همزمان با جهش تقاضا
با وجود جهش تقاضا، پذیرش عمومی یکدست نیست. در یک نظرسنجی، ۹۳٪ آمریکاییها اهمیت دیتاسنترهای AI را پذیرفتهاند، اما فقط ۳۵٪ با ساخت آنها در محلهٔ خود موافقاند. نگرانیها بیشتر دربارهٔ محیطزیست، مصرف انرژی و آب، و تخصیص زمین است. اپراتورها با بهینهسازی انرژی مبتنی بر AI، استفاده از انرژیهای تجدیدپذیر و فناوریهای کاهش مصرف آب تلاش میکنند پاسخ دهند؛ بااینحال، تردید دربارهٔ منافع اقتصادی محلی پابرجاست و فقط ۹٪ معتقدند مزایای محلی بر نگرانیهای زیستمحیطی میچربد.
جمعبندی: جلب حمایت عمومی بدون پایداری واقعی، شفافیت و گفتوگوی فعال با جامعه ممکن نیست. توضیح روشن دربارهٔ منافع اقتصادی و زیستمحیطی و اقدامات پیشگیرانه کلیدی است.
۷) «اولین دیتاسنترِ طراحیشده تماماً با هوش مصنوعی»
استودیو Cove Architecture با تکیه بر یک پلتفرم هوش مصنوعی، طراحی یک دیتاسنتر ۱۰هزار فوتمربعی در هارتسلِ کلرادو را تنها در ۳۰ روز به پایان رسانده؛ کاری که معمولاً چند ماه زمان میبرد.
در این طرح، تمرکز جدی روی پایداری بوده: آرایهٔ خورشیدی که حدود ۴۰٪ انرژی سایت را تأمین میکند، سامانهٔ هوشمندِ بازاستفادهٔ آب که مصرف آبِ شرب را تا ۹۰٪ پایین میآورد، و استقرار «اگروولتائیک» برای استفادهٔ دوگانه از زمین (تولید برق خورشیدی در کنار چراگاه گوسفند). پلتفرم AI بهسرعت چیدمانها را با در نظر گرفتن ضوابط شهری، اقلیم و اهداف سرمایهگذاری ESG بهینه کرده تا امکان تأمین مالی سبز فراهم شود.
بهگفتهٔ ساندیپ آهوجا، مدیرعامل Cove، واردکردن تیمهای «AI-محور» به فرایند طراحی، راندمان، ارزش اقتصادی و پایداری را بهطور چشمگیری بالا میبرد. عدد PUE سایت ۱.۲ اعلام شده و تیم با کمک AI توانسته تحلیلهایی را که هفتهها طول میکشید در چند دقیقه انجام دهد.
جمعبندی: طراحی معماریِ مبتنی بر AI، مسیر توسعهٔ دیتاسنترها را با بهینهسازی سریعتر، پایداری بیشتر و صرفهٔ اقتصادی بهتر متحول میکند؛ نقش انسان همچنان کلیدی است، اما توان همزمانِ AI در بهینهسازی انرژی، محاسبه و محیطزیست، یک گام تغییردهنده برای صنعت است.
بیشتر بخوانید: بزرگترین مرکز دادهٔ هوش مصنوعی با ۴۵۰هزار GPU
۸) تقطیر هوش مصنوعی؛ وقتی اقتصاد دیتاسنتر دوبارهنویسی میشود
«تقطیر مدل» راهی است برای کوچککردن مدلهای خیلی بزرگ بدون ازدستدادن کارایی اصلیشان. در این روش، یک «مدل دانشآموز» با انتقال دانش از «مدل معلم» آموزش میبیند—از پاسخمحور گرفته تا ویژگیمحور و رابطهمحور—تا همان توانمندیها را با منابع کمتر ارائه کند.
خروجیِ این کار چیست؟ کاهش نیاز محاسباتی و برقی، پایینآمدن هزینههای عملیاتی، و دسترسپذیرتر شدن AI. در ادامهٔ مسیر، همین بهبودِ بهرهوری میتواند راه را برای «AI توزیعشده» باز کند؛ یعنی بخشی از پردازش از دیتاسنترهای بزرگ به دستگاههای شخصی منتقل شود.
جمعبندی: تقطیر AI با کمکردن هزینهٔ محاسبه و برق، اقتصاد را به نفع پذیرش گسترده تغییر میدهد و زمینهٔ حرکت بهسمت AI سبکتر و توزیعشده را فراهم میکند.
۹) برنامهٔ اقدام هوش مصنوعیِ بریتانیا؛ جاهطلبانه اما پر از ابهام
برنامهٔ «AI Opportunities Action Plan» دولت بریتانیا هدف دارد کشور را به یکی از قطبهای جهانی نوآوری AI تبدیل کند؛ از رشد اقتصادی و جذب سرمایه تا برطرفکردن شکاف مهارت. سند با ۵۰ توصیه، حوزههای عمومی و خصوصی، تنظیمگری، داده، محاسبات و نیازهای انرژی را دربر میگیرد.
اما چالشها کم نیستند: شکافهای تأمین مالی، نگرانیهای محیطزیستی ناشی از توسعهٔ دیتاسنترها، و ریسکهای ناشی از سیاستهای بیشازحد «نوآوریمحور». منتقدان میگویند تکلیف منابع مالیِ فراتر از سرمایهٔ خصوصی روشن نیست و بین «حاکمیت ملیِ AI» و «کنترل بخش خصوصی» تنش وجود دارد.
جمعبندی: نقشهٔ راه بلندپروازانه است، اما موفقیت به رفع خلأهای مالی، مدیریت ریسکهای محیطزیستی و شفافیتِ تنظیمگری گره خورده تا توسعهٔ AI مسئولانه و پایدار بماند.
۱۰) هوش مصنوعی مولد، نرمافزار دیتاسنتر را زیرورو میکند
وقتی همه از رکهای پُرتراکم GPU، کولینگ مایع و توان عظیم حرف میزنند، در لایهٔ نرمافزار تحول عمیقی در جریان است. GenAI شیوهٔ توسعه، استقرار و نگهداری نرمافزار را تغییر داده و موجی از اختلال در نرمافزار سازمانی و امنیت سایبری بهراه انداخته است.
تاریخ IT نشان میدهد هر تغییر زیرساختی—از مینفریم تا مجازیسازی و ابر—اکوسیستم نرمافزار را دگرگون کرده؛ حالا مدلهای زبانیِ بزرگ این روند را شتاب دادهاند. ابزارهایی مثل GitHub Copilot و ChatGPT بخشهایی از کدنویسی را خودکار میکنند و تولید اپلیکیشن سفارشی را ارزانتر. البته کدِ تولیدشده با AI نیازمند آزمون و اعتبارسنجی سختگیرانه است.
در بازار سازمانی، مهاجمانِ «AI-مبنا» وارد قلمرو ERP، CRM و پایگاهداده شدهاند و با کارایی بیشتر و هزینهٔ کمتر، پلتفرمهای قدیمی—بهویژه ERPهای سنتی و دیتابیسهای کلاسیک—را زیر فشار نیازهای تحلیل بلادرنگ و اتوماسیون گذاشتهاند؛ نتیجه روشن است: یا نوسازی کنید، یا به حاشیه بروید.
در ذخیرهسازی هم نیازهای LLMها به سرعت و مقیاس، NVMe و آبجکتاستوریج را به استانداردِ ضروری تبدیل کرده. همزمان، امنیت و مدلهای SaaS در حال پوستاندازیاند؛ استارتاپهای AI-محور با افزودن ایجنتها و منطق تجاری پویا، قواعد بازی را برای فروشندگان سنتی عوض میکنند.
جمعبندی: GenAI ستون نرمافزار دیتاسنتر را بازتعریف کرده—از اتوماسیون تا امنیت و ذخیرهسازی. برای رقابت در دنیای «AI-اول»، باید نوسازی کنید و راهکارهای AI-بومی را بپذیرید؛ انعطاف و نوآوری، شرط بقاست.
عضویت
ورود