معرفی ۱۸ مرکزدادهٔ پیشروی جهان معرفی مراکز داده

مرکزداده IO

مرکز داده IO در ایالت آریزونا در شهر فینیکس
معرفی ۱۸ مرکزدادهٔ پیشروی جهان:
مرکزدادهٔ IO در ایالت آریزونا در شهر فینیکس

مرکزداده IO ـ[1]

آنچه می‌خوانید

شرکت IO این مرکزداده پیشرو را در ساختمان کارخانهٔ تولید آب معدنی ساخته است؛ بخش اول به‌شکل سنتی، بخش دوم به‌‌شیوهٔ مدرن و ماژولار. مقیاس‌پذیری، بهبودپذیری، اطمینان‌پذیری از ویژگی‌های آن است. آن‌ها از فناوری ویژهٔ Thermo Cabinet بهره می‌برند که هم ظرفیت را بیشتر کرده و هم سریع‌تر راه‌اندازی می‌شود.

این تاسیسات از سرمایش زمان‌محور استفاده می‌کند. یعنی سرما را در زمانی که برق ارزان‌تر است ذخیره می‌کنند، هنگامی که گران‌تر است در تاسیسات به کار می‌برند. دمای عملیاتی این مرکزداده به‌‌جای ۱۶ درجه ۲۷ درجه است.

آن‌ها کف کاذب به کار برده‌‌اند. نه به‌دلیل اینکه کف کاذب را بهتر از کف سازه می‌دانند؛ بلکه چون کف کاذب را برای خدمات اشتراک مکانی مناسب‌تر دیده‌اند.

این شرکت ابتدا فقط خدمات اشتراک مکانی ارائه می‌داد؛ ولی بعد خودش تولیدکنندهٔ اجزای ماژولار مرکزداده شد. مدیر عامل IO در این مصاحبه تاکید دارد که هرگز دیگر مرکزداده را با فناوری سنتی و قدیمی نخواهد ساخت…

آشنایی با مرکزدادهٔ IO در شهر فینیکس آریزونا

مرکز داده اشتراک مکانی IO در ایالت آریزونا در شهر فینیکس
مرکزداده اشتراک مکانی IO

تصویر: مرکزدادهٔ اشتراک مکانی IO در ایالت آریزونا در شهر فینیکس. این مرکزداده از سرمایش زمان‌محور بهره می‌گیرد که بر اساس نرخ برق شبانه‌روز است. با این روش سالیانه میلیون‌ها دلار در هزینهٔ عملیاتی صرفه‌جویی می‌کند.

هر موجودی در وضعیت دشوار زندگی ‏کند، می‌باید برای بقای خود توانایی تطابق با محیط [2] داشته باشد. باید توانایی‏‌های جدید و مفید کسب کند؛ در عین حال توانایی‌هایی را که دیگر به دردش نمی‌خورد کنار بگذارد. این اصلِ تکامل را می‌توان به‌روشنی در مرکزدادهٔ IO در فینیکس دید.

شرکت IO که خدمات اشتراک مکانی (Co-location Facility) عرضه می‌کند، در پاییز ۲۰۰۸ ساختمان کارخانه‌ای را خرید که پیش‌تر آب بطری تولید و توزیع می‌کرد. سپس در یکی از دو انبار آن مرکزداده‌ای سنتی ساخت. این تاسیسات از مزیت نرخ متغیرِ برق آریزونا بهره می‌برد. یعنی شب‌ها که برق ارزان‌تر است، چیلرها را به کار می‌اندازد و گوی‌های پلاستیکیِ حاوی آب را در محلول گلیکول و آب منجمد می‌کند. این گوی‌های یخی که هم‌اندازهٔ توپ بیسبال ۱۰ سانتی‌متری هستند، در طول روز محلول ترکیبی گلیکول را سرد می‌کنند. سپس این محلول به درون مبدل برودتی می‌رود تا آب سیستم سرمایشی مرکزداده را خنک کند.

شرکت IO در سال ۲۰۰۹، پلنوم تحت فشار خود را تا رک سرور ساختهٔ خودش که حق امتیاز انحصاری آن را دارد توسعه داد. این از جمله اولین کارهایی است که IO برای «تطابق» در این مرکزداده اجرا کرد. با این کار ظرفیت برق در هر رک ۳ برابر شد و به ۳۲ کیلووات رسید. در سال ۲۰۱۱ دومین کار را برای «تطابق با محیط» انجام داد. یعنی برای ساختن مرکزداده در انبار دوم، به‌جای شیوهٔ سنتی از ماژول‏ استفاده کرد و بدین ترتیب بهره‌وری عملیاتی مرکزداده را بهبود بخشید. در این فاصله مدل کسب‌وکار IO نیز تکامل یافت. این شرکت افزون بر عرضهٔ خدمات اشتراک مکانی، به تولید اجزای ماژولار نیز روی آورد.

«حتی شاید موفق‌ترین گونه‌ها نیز تکامل خود را اشتباه آغاز کرده باشند.» در سال ۲۰۰۹ شرکت IO اعلام کرد می‌خواهد مجموعه‌ای عظیم از پنل‌های خورشیدی در این مرکزداده بسازد که برای تاسیساتش ۴٫۵ مگاوات برق تولید کند. البته آن‌ها از انجام این کار پشیمان شدند.

آقای «جورج اسلسمن» (George Slessman) مدیر عامل IO درباره سِیر تکاملی مرکز‌دادهٔ فینیکس و دلیل کنار گذاشتن طرح پنل‌های خورشیدی صحبت می‌کند و توضیح می‌دهد چرا طراحی‌های سنتی مرکزداده از فسیل هم قدیمی‌تر شده‌اند!

مشخصات تاسیسات

نشان Iron Mountain Data Centers

  • نام سازمان: IO
  • مکان: ایالت آریزونا، شهر فینیکس
  • شروع‌به‌کار: افتتاح ساختمان کارخانهٔ تهیه و توزیع آب بطری در سال ۲۰۰۶، تملک توسط شرکت IO در دسامبر ۲۰۰۸، افتتاح ساختمان برای تاسیسات اشتراک مکانی در ژوئن ۲۰۰۹
  • ویژگی‌های چشمگیر: سرمایش زمان‌محور بر اساس نرخ برق شبانه‌روز، ذخیره‌سازی سرما در توپ‌های پلی‌اتیلن حاوی یخ و نیز محلول آب و گلیکول، رک‌های محصور دارای حق امتیاز انحصاری برای IO، نورپردازی LED، سیستم رطوبت‌ساز فراصوت [3]، اجزای ماژولار
  • مدت زمان طراحی و ساخت: فاز اول ۶ ماه
  • اندازه: ۵۰ هزار متر مربع مساحت کل که تقسیم شده به دو انبار کارخانه، شامل تقریبا ۳۴ هزار متر مربع سالن سرور
  • برق: ۱۲۰ مگاوات
  • رتبه‌بندی: کلاس سه (Tier 3)
  • تعداد رک‌ها: حدود ۳ هزار دستگاه
  • ظرفیت برق: هر قسمت متفاوت
  • زیرساخت‌ها: توزیع سرمایش از کف کاذب به‌عمق ۹۰ سانتی‌متر، توزیع برق و کابل‌کشی ساخت‌یافته سقفی و از بالا
  • بار سازه‌ای: حدود ۳٬۴۰۰ کیلوگرم بر متر مربع
  • سیستم اطفای حریق: سیستم بسیار حساس تشخیص دود، سیستم لولهٔ خشک پیش‌عملگر

متن مصاحبه

الگر: شرکت IO کار خود را با عرضهٔ سنتی خدمات اشتراک مکانی آغاز کرد؛ سپس به یکی از تولید‌کنندگان اجزای ماژولار مرکز‌داده تبدیل شد. ماژولار بودن چگونه در راهبرد مرکزدادهٔ شما جای خود را باز کرد و به نظر شما در پیشرفت مراکز‌داده چه نقشی دارد؟

اسلسمن: این از آنجا می‌آید که ما معتقدیم مدت‌ها مراکز‌داده را اساسا با سه مشکل ساخته‌اند. من با همین دیدگاه به این نظریه رسیده‌ام که در حدود ۴۰ سال گذشته، نوآوریِ تدریجی در صنعت مرکزداده وجود داشته است. یعنی از زمان ساختنِ اولین اتاق‌های پردازش داده برای مین‌فریم‌ها (Mainframe) تا حدود یک سال و نیم پیش. در این دوره در واقع همهٔ مراکزداده را به‌شیوهٔ یکسان ساخته‌اند.

هم اتاق‌های قدیمی و هم مراکزدادهٔ امروزی، در هر حال همهٔ مولفه‌‏های سیستم سرمایش و توزیع برق را دارند. اتاق یا سالن هستند، بخشی از ساختمان‌اند با قالب یا شکل مانند هم. بله درست است که از آن زمان تاکنون بهره‌وری هرکدام از اجزا بهتر شده است: بزرگ‌تر، با ظرفیت و تعداد بیشتر، تعداد هواسازهای بیشتر، چیلرهای بزرگ‌تر. درایوهای سرعت‌متغیر را هم داریم. با همهٔ این‌ها، معماری کلی مراکزداده با گذشت زمانی چنین طولانی، چندان تغییری نکرد. اگر معماری آنچه را که ما «مرکز‌داده ۱٫۰» می‌نامیم در نظر بگیرید، معتقدیم این معماری چهار ایراد دارد.

اول اینکه این معماری در بیشتر موارد امنیت فیزیکی و منطقی ندارد. بدین معنا که نرم‏‌افزار‌ها و ابزارهای کنترلی که بیشتر مراکزدادهٔ سنتی از آن‌ها استفاده می‌کنند، ویژهٔ حفظ امنیت مرکزداده ساخته نشده‌اند. همان طور که خودتان می‌دانید، بیشتر این‌‏ مشکلات ناشی از آن است که اغلبِ این سیستم‌ها «اتوماسیون ساختمان» یا «مدیریت ساختمان» هستند و از صنعت سیستم‌های امنیتی و کنترل صنعتی نیامده‌اند که ویژهٔ ماموریت در چنین مراکزداده‌ای باشد. این سیستم‌ها از صنعت ساختمان‌های تجاری آمده‌اند تا سیستم‌های HVAC و تهویهٔ هوای محیط‌های اداری را مدیریت کنند.

همچنین طراحی فیزیکی خود مرکزداده هم به‌دلیل پیچیدگی و زیاد بودن تعداد اجزایی که در آن وجود دارد، به‌گونه‌ای است که حفظ امنیت در آن بسیار دشوار است. مرکزداده درها و ورودی‌های زیادی دارد که تعداد آن‌ها در هر تاسیسات متفاوت است. بعضی اوقات مرکزداده را در ساختمانی می‌سازند که کاربریِ دیگری هم دارد. در نتیجه کسانی غیر از کارکنان مرکزداده هم در آن رفت‌وآمد می‌کنند. به‌طور کلی به‌نظر ما مرکزدادهٔ سنتی از نظر امنیتِ محیط خوب نیست.

دومین ایراد مهم مرکزدادهٔ سنتی این است که ساختن آن خیلی طول می‌کشد. زیرساخت فاوای مرکزداده، چه در لایهٔ فیزیکی چه در لایهٔ نرم‌افزاری چه در لایهٔ مجازی‌سازی تا برسد به کاربران، پیشرفت فاوا ماهیانه است نه سالیانه. مطابق تجربهٔ ما مدت ساخت مراکزدادهٔ سنتی برای سازمان‌ها بیش از اندازه طول می‌کشد.

«ما معتقدیم مدت‌ها مرکز‌داده را اساسا با سه مشکل ساخته‌اند.»

راه‌اندازی مرکزداده حتی برای دولت و خدمات‌دهندگانی که می‌خواهند سریع‌تر کار کنند و چالاکی بیشتری داشته باشند، به‌طور معمول بیشتر از دو سال طول می‌کشد. این مدت از فکر اولیهٔ ایجاد مرکزدادهٔ جدید شروع می‌شود تا روزی که تجهیزات فاوا را در رک‏‌ها نصب می‌کنند و شامل همهٔ فرایندهای کار است: از تدارکات، تصمیم‌‏گیری، تجزیه‌وتحلیل، مهندسی، تست و تصدیق کیفیت تا جادادن تجهیزات فاوا در مرکزداده. به‌دلیل طولانی‌بودن زمان ساخت، ناچارید تجهیزاتی را انتخاب کنید که می‌توانید مدت بیشتری از آن‌ها استفاده کنید. چون وقتی عمر مفید آن‌ها تمام شد باید از دور خارج شوند. باید کارایی مرکزداده را با آیند‌ه‌نگریِ ۱۰ یا ۱۵ یا حتی ۲۰ ساله در نظر بگیرید. این هم هست که در دنیای فاوا، سال‌به‌سال متغیر‌ها و پیچیدگی‌های این آینده‌نگری بیشتر می‌شود و محاسبهٔ این را دشوارتر می‌کند که مرکزداده در سال بعد یا دو سه سال دیگر چگونه خواهد بود. حالا می‌خواهیم تصور کنیم که ۱۰ یا ۱۵ سال دیگر چه می‌شود. دراین‌باره همیشه به‌شوخی می‌گویم: «تلفن همراه ده سال پیش چه شکلی بود؟!» چنین تصوری باعث می‌شود بهتر درک کنید که چه چالشی پیش روی پیشرفت فناوری است.

سومین ایرادی که الگوی مرکزدادهٔ سنتی دارد، گران‌بودن آن است. اگر به کل فرایند آماده‌سازی مرکزدادهٔ سنتی توجه کنید، متوجه می‌شوید که بسیار پر‏هزینه است: از ایدهٔ ساخت تا تملک تا ساختن همهٔ بخش‏‌های غیر مرتبط با فاوا و سپس بخش‌های مرتبط با فاوا. دلیلش این است که مرکزدادهٔ سنتی مبتنی بر صنعت ساخت‌وساز است؛ صنعتی که چندی است بهره‌دهی آن پس‌رفت می‌کند. به عقیدهٔ من امروز ساخت‌وساز تنها صنعتی است که بهره‌دهی‌اش نسبت به ۲۰ سال پیش کمتر شده است. علاوه بر این، ساخت‌وساز به‌خودی‌خود متاثر از تورم دستمزد و تورم قیمت مواد خام و چنین چیزهایی است. بدین ترتیب می‌بینید که خواه‌ناخواه واحد هزینه با گذشت زمان افزایش می‌یابد.

اکنون اگر وضعیت صنعت ساخت‌وساز را با صنعت فاوا مقایسه کنید، می‌بینید که واحد هزینهٔ تک‌تک اجزای تجهیزات فاوا کاهش می‌یابد و پیش‌بینی می‌شود این کاهش همچنان ادامه یابد. سیستم‌های ذخیره‌سازی و CPU و ظرفیت شبکه همگی به‌تدریج ارزان خواهد شد. در واقع بهره‌دهیِ بخش فاوا در جهان امروز، موتور محرک بهره‌دهی در اقتصاد کل جهان است. موسساتی همانند IDC ـ[4] یا گارتنر [5] را در نظر بگیرید که در مقایسه با حدود ۱۰ سال پیش فرقی نکرده‌اند. ولی حجم کار رایانشی‌ای که اکنون انجام می‌دهند نسبت به گذشته افزایش بسیار زیادی یافته است. در این مسئله هماهنگی متناسبی وجود ندارد.

نمایی از داخل اولین فاز مرکز داده IO در شهر فنیکس در ایالت آریزونا
داخل اولین فاز مرکزداده IO

تصویر: نمایی از داخل اولین فاز مرکزدادهٔ IO در شهر فنیکس در ایالت آریزونا

آخرین ایراد ما به الگوی مرکزدادهٔ ۱٫۰ که تلاش کرده‌ایم در پلتفرم فناوری خودمان آن را برطرف کنیم، نداشتن مقیاس‌پذیری (Scalability) است. پرداختن به دیگر مسائل چندان سخت نیست؛ آن چیزی که واقعا دل‌مان می‌خواهد در تجهیزات فاوا داشته باشیم مقیاس‌پذیری است. این ویژگی به‌شکل طراحی ماژولارِ تجهیزات فاوا، اجزای ماژولار، اجزای قابل ارتقا در محل، همچنین استقرار سریع و به‌موقع نمود پیدا می‌کند. این ویژگی‏‌هایی را که در ذخیره‌سازهای EMC‌ ـ[6] یا پلتفرم روتر سیسکو یا سایر سیستم‌‏های تشکیل‌دهندهٔ تجهیزات فاوا می‌بینیم، یا مزایای دستگاه‌هایی که ما در جایگاه مصرف‌کنندهٔ فاوا به بهره‌گرفتن از آن‌ها عادت کرده‌ایم، مرکزدادهٔ سنتی ندارند.

می‌خواهم کل مسئلهٔ مقیاس‌پذیری را خلاصه و ساده بیان کنم. امروزه به همهٔ تجهیزات فاوا، فضای مجازی اختصاص می‌دهند که اصطلاحا به این کار Thin Provisioning می‌گویند. شما ‏با این کار امکان تصمیم‌گیری سریع دارید، می‌توانید منابع فیزیکی تخصیص بدهید، می‌توانید دربارهٔ تخصیص آن منابع تجدید نظر کنید، ظرفیت آن را به‌سرعت تغییر بدهید و آن را دوباره به همان کاربر قبلی برگردانید. در حالی که مرکزدادهٔ سنتی اغلب مجموعه‌ای از منابع فیزیکیِ از پیش اختصاص‌یافته است که نمی‌توان در آن تغییری داد. برای ساختن مرکزدادهٔ سنتی، از پیش تصمیم‌های مهندسی محتاطانهٔ گوناگونی می‌گیرند، اصول مهندسی محتاطانه‌ای را به‌کار می‌برند، تجهیزاتی را مستقر می‌کنند که… اصلا بگذارید آن را در قالب مثالی بیان کنم: ظرفیت برق را در نظر بگیرید که در حقیقت معیار بارز هر مرکزدادهٔ مجازی‌سازی نشده (Thick Provisioned) است. اگر در طراحی مرکزداده‌ای ظرفیت برق به‌فرض ۱٫۶ وات بر متر مربع تعیین شود، همه‌چیز در آن تحت تاثیر این تصمیم قرار خواهد داشت؛ تصمیمی که در واقع در همان ابتدای ساخت مرکزداده گرفته‌اند.

این هم بخشی از کار است که بیشتر اوقات به آن توجه نمی‌شود. به نظر من عامل بسیاری از گرفتاری‌های مراکزداده همین است. با این حال مهندسان فاوا این‌طور فکر نمی‌کنند. آن‌ها بر این باورند همان طور که برای توسعهٔ شبکه روتر اضافه می‌کنند، برای پردازش هم به همین شکل می‌توانند برای رسیدن به ظرفیت بیشتر، در همان رک‌های قبلی با ارتقا یا افزایش سرورهای خشابی قوی‌تر، به‌آسانی به توانی برسند که نیاز دارند. به‌عبارت دیگر وقتی مرکزداده‌ای را می‌خرند یا مرکزداده‌ای را در اختیار دارند که به آن‌ها گفته‌اند حدود ۱٬۱۰۰ وات بر متر مربع است، با خودشان خیال می‌کنند که: «چند سال بعد هم وقتی به ۱٬۶۰۰ وات بر متر مربع نیاز پیدا کنم، این سرور خشابی را درمی‌آورم و سرور خشابی جدیدی را جایگزینش می‌کنم که ظرفیت لازم را برایم مهیا می‌کند». در حالی که در مرکزدادهٔ مبتنی بر روش طرح ـ اجرا نمی‌توان چنین کاری کرد؛ چون سیستم یکپارچه است. به همین شکل سرمایش شما برابر همان میزان از توزیع برق است که در طراحی تعیین کرده‌اند. افزونگی شما هم فقط همان مقداری است که اول کار در طراحی تصمیم گرفته‌اید داشته باشید! تغییر دادن چنین زیرساختی به این سادگی‌ها نیست و روشن است که چرا خیلی طول می‌کشد.

دومین جنبه از مقیاس‌پذیری که ما تلاش کرده‌ایم به آن بپردازیم، توانایی هماهنگ‌کردن اهداف سطحِ خدمات کاربر با منابعی است که در مرکزداده وجود دارد. از تصمیم‌های بسیار چالش‌برانگیزی که این روزها در مراکز‏داده می‌گیرند و بر مقیاس‏‌پذیری هم اثر می‌گذارد، این است که باید تصمیم بگیرند در کل مرکزداده تا چقدر بهبودپذیری داشته باشند. همان طور که می‌دانیم در «مرکزداده ۱٫۰» خیلی سخت است افزونگی در بخشی از تاسیسات N+1 باشد، بخشی دیگر افزونگی کامل 2N داشته باشد، بخش دیگری افزونگی دیگری. یا از آن مهم‏‌تر اطمینان‌پذیری در بخشی از تاسیسات ۹۹٫۹۹۹ درصد باشد، در بخش دیگری ۹۹٫۹۹ درصد باشد، در بخش دیگر هم اصلا مهم نباشد که چقدر است.

بدین ترتیب معتقدیم اکنون وضعیت مراکزداده این چهار ایراد را دارد. ما تجربهٔ ده ساله‌ای در صنعت مرکز‏داده داشتیم، با پانزده سال سابقهٔ کار در زمینهٔ فاوا و فناوری. چند سال پیش یعنی پس از به‌پایان‌رساندن ساخت اولین فاز مرکزدادهٔ فینیکس، به این نتیجه رسیدیم که با این شیوهٔ ساختن مراکزداده تا ۲۰ سال آینده دوامی نخواهد آورد؛ حتی اگر بسیار بزرگ‌تر بسازیم و ظرفیت آن‌ها را توسعه بدهیم و از این کارها. اگر نتوان این چهار مشکل را مهار کرد، تاثیرشان بسیار بیشتر می‌شود و اگر کمتر نشوند، با رشد تقاضا برای خدمات این مشکل گسترش می‌یابد و دامن‌گیر کاربران فاوا هم خواهد شد. تقاضا برای چرخه‏‌های فاوا با سرعت بسیار زیادی افزایش می‌یابد. این رشد پایانی ندارد و در واقع سریع‌تر هم می‌شود. به این معنا که مراکزداده پی‌درپی بیشتر و بیشتر می‌شوند و اگر به ساختن آن‌ها به همان شیوهٔ همیشگی و سنتی ادامه بدهیم، سرانجام خود را در وضعیت دشواری خواهیم یافت.

ما جهان را با چنین دورنمایی می‌بینیم. کاری که سعی کرده‌ایم بکنیم و کاری که به نظر خودمان در محصول ماژولار ساخت خودمان هم انجام داده‌ایم، این بود که با دو قاعدهٔ اساسی آن چهار ایراد را برطرف کردیم. اول تبدیل کل مرکزداده به یک مولفهٔ ماژولار واحد و جامع که از پیش طراحی و ساخته شده است؛ ماژولار بودن هم از نظر وضعیت فیزیکی و هم از نظر سیستمی. توسعهٔ این ماژول‌ها هم در مقیاس عمودی و هم در مقیاس افقی امکان‌پذیر است. می‌توانید وارد ماژول بشوید و اجزا را ارتقا بدهید؛ یعنی می‌توانید سیستم توزیع برق و زیرساخت سرمایش را درجا در داخل ماژول سرمایشی ارتقا بدهید. همچنین اگر به ظرفیت بیشتر نیاز شود می‌توانید ماژول اضافه کنید. می‌توانید خودتان ماژول را تولید کنید و بدین ترتیب از مزایای داشتن زنجیرهٔ تامین و استفادهٔ چندباره از چرخهٔ نوآوری بهره‌مند بشوید. برعکسِ حالت قبل دیگر لازم نخواهد بود همهٔ مهارت‌های مهندسی لازم را روی یک مرکزداده متمرکز کنید و بعد بروید سراغ شرکت مهندسی یا ساخت‌وساز دیگری تا بتوانید مرحلهٔ بعدی کار را آغاز کنید. واقعا در چنین شیوه‌ای هیچ انگیزه‌ای برای به‌کار گرفتن چندبارهٔ چرخهٔ نوآوری وجود ندارد.

انگیزهٔ واقعی بیشتر شرکت‏‌های مهندسی این است که از پلان‌ها‌یی که پیش‌تر برای طراحی‌شان هزینه کرده‌اند چندبار استفاده کنند؛ همان‌ها را به مشتری‌های بعدی بدهند و پول طراحی پلان جدید را بگیرند. در روند تولید ماژول، هم ما خودمان این انگیزه را پیدا می‌کنیم و هم مشتریان این انگیزه را در ما به وجود می‌آورند که تولید را بهتر و سریع‌تر و ارزان‌تر انجام بدهیم. درست همان طوری که در زمینه‌های دیگر انتظار می‌رود. برای نمونه قیمت خودروهای امروزی همان قیمت ۱۵ یا ۲۰ سال پیش است؛ اما کارایی آن‌ها سه برابر شده است. امکانات از کیسه‌های هوا گرفته تا ترمز ABS و مانند آن همگی نوآوری‌هایی هستند که ظهور کرده‌اند و کیفیت آن‌ها و چرخه‌های نوآوری‌شان بهتر شده است.

دومین قاعده‌ای که سعی کرده‌ایم برای حل آن چهار ایراد اساسی در رویکرد ماژولار به کار بگیریم، بهره‌گرفتن از لایهٔ اتوماسیون نرم‌افزاری یا لایهٔ کنترل است که روی هر ماژولی که تولید می‌شود قرار می‌گیرد. ما در IO آن را «سیستم عامل زیرساخت مرکزداده» می‌نامیم. چنین چیزی به شما امکان می‌دهد که آن لایهٔ فیزیکی را مدیریت و کنترل کنید و در نهایت هوشمندانه بهینه‌سازی‌اش کنید تا با فاوا هماهنگ شود.

بدین ترتیب با در نظر گرفتن آن چهار ایراد، تصمیم گرفتیم با ساختن اجزای مرکزداده و سپس مجهز کردن آن‌ها به اتوماسیون نرم‌افزاری، ایرادها را برطرف کنیم. این راه ما را به جایی رسانده است که اکنون کارخانهٔ ۲۸ هزار متر مربعی داریم و این ماژول‌ها را در آن تولید می‌کنیم. ظرفیت برق هر ماژول تقریبا ۲۰۰ کیلووات است. اکنون ما بیش از ۱۰۰ فریم در دست تولید داریم. بیش از ۷۰ ماژول را هم به مشتریان در مراکز‌دادهٔ خودمان در فینیکس و نیوجرسی تحویل داده‌ایم و آن‌ها را در این دو مرکز نگهداری می‌کنیم.

نتیجه این شده که اکنون مشتریان ما از هرجایی که باشند، در مقایسه با ظرفیت همانند به‌شیوهٔ سنتی، برای ساختن مرکزداده ۵۰ تا ۶۰ درصد هزینهٔ سرمایه‌ای کمتری صرف می‌کنند. همچنین می‌بینیم که هزینه‏ٔ جاری در حدود ۲۵ تا ۳۰ درصد کاهش یافته است. علاوه بر آن می‌توانیم مرکزداده را به‌سرعت تحویل بدهیم. برای بیان نمونهٔ بارز اشاره می‌کنم به یکی از مشتریان‌مان که شرکت بیمهٔ آلمانی Allianz است. پس از امضای قرارداد فقط ۹۱ روز طول کشید تا مرکزدادهٔ ۳٫۶ مگاواتی‌اش را تحویل دادیم. بدین ترتیب ما امروز به‌خوبی شاهد نتایج مثبت این شیوه برای حل آن چهار ایراد اساسی هستیم.

فاز یک مرکز داده IO با ساخت سنتی دارد
فاز یک مرکزداده IO با ساخت سنتی

تصویر: فاز یک مرکزدادهٔ IO ساخت سنتی دارد. برق و کابل‌کشی آن سقفی است و سرمایش از طریق کف کاذب مهیا می‌شود.

الگر: اکنون بیایید دربارهٔ مرکزدادهٔ فینیکس صحبت کنیم. به نظر می‌رسد این مرکزداده کار خود را با شکل مرکز‌دادهٔ متداول آغاز کرد و سپس سراغ استفاده از رویکرد ماژولار رفت. چه زمانی افتتاح شد؟

اسلسمن: ما در دسامبر ۲۰۰۸ مالک این سایت شدیم. سایت جالبی بود که کاربری‌اش را تغییر دادیم. اینجا ساختمانِ کارخانهٔ تولید و توزیع آب بطری بوده است. سازه و سایت آن را در سال ۲۰۰۶ ساخته‌اند و کاملا آمادهٔ استفاده به شرکت تولید آب بطری تحویل داده‌اند. ما در دسامبر ۲۰۰۸ آن را خریدم و فاز یک را ساختیم که در واقع نیمهٔ اول سایت محسوب می‌شود. تاسیسات ۵۰ هزار متر مربعی است که در محوطهٔ ۱۶ هکتاری قرار دارد. یک پست برق در این سایت هست که آن را شرکت برق منطقه در اختیارمان گذاشته است.

فاز یک را که به آن «مرکزدادهٔ ۱٫۵» می‌گوییم، طوری ساخته‌ایم که اجرایِ مقیاس‌بندی‌شدهٔ ظرفیت است. در این فاز همهٔ چیزهایی را که فکر کردیم برای برطرف‌کردن آن چهار ایراد اساسی لازم است، مقیاس‌بندی‌شده و در قالب معماریِ فناوری سنتی‌تر به کار گرفتیم. فضای سالن حدود ۲۳٬۲۰۰ متر مربع کف کاذب دارد. همه‌چیز درون یک سالن است. چنین ویژگی‌ای را که به‌نوعی بی‌مانند است، معمولا زیاد نمی‌بینید. ارتفاع سالن از کف تا سقف بسیار زیاد است و به حدود ۹ متر می‌رسد. در فاز یک، ۲۴٫۵ مگاوات برق افزونه با UPS داریم. ما اولین مشتری خودمان را در ژوئن ۲۰۰۹ به مرکزداده آوردیم. 

ظرفیت چیلر ما ۸٬۰۰۰ تن تبرید است که شامل دو تاسیسات ۴٬۰۰۰ تنی است. البته فقط دربارهٔ فاز یک صحبت می‌کنم. ما دو ژنراتور ۱۶مگاواتی کاترپیلار [7] و دو مجموعهٔ تجهیزات موازی‌ساز ۲۰ مگاواتی داریم که فقط برق فاز یک را تامین می‌کند. فاز یک به چهار فضای اختصاصی مجزا (PoD) تقسیم می‏‌شود که بازهم همگی در همان سالن قرار دارند. هر PoD حدود ۴٬۰۰۰ متر مربع کف کاذبِ آمادهٔ استفاده دارد. بنابراین مساحت کف کاذبِ آمادهٔ استفادهٔ برای فاوا، در آن سالنِ فاز یکِ ۲۳٬۲۰۰ متر مربعی، ۱۶٬۷۰۰ متر مربع است.

زیرساخت سرمایشی برای ماژول مرکز ‌داده IO
زیرساخت سرمایشی ماژول مرکز‌داده IO

تصویر: زیرساخت سرمایشی برای ماژول مرکز‌داده

ما بخش‌های تاسیسات را در ضلع‌های شمالی و جنوبی و مرکز سالن قرار داده‌ایم که واحدهای توزیع برق و واحد‏های هواساز CRAH در آن هستند. این مرکزداده دارای سیستم کامل آب سرد با حلقه‌های دو جهتهٔ گردش آب است. ما گواهینامهٔ طراحی کلاس ۳ موسسهٔ Uptime را برای فاز ۱ این مرکزداده گرفته‌ایم. در کل معماری، امکان تعمیر و نگهداری بدون نیاز به ازکارانداختن سیستم‌ها وجود دارد. یعنی به‌شکل صد درصدی؛ هم در زیرساخت سرمایش و هم در زیرساخت توزیع برق. ما ۲ محیط MMR‌ ـ[8] داریم که خودمان اداره می‌کنیم. امروزه حدود بیست خدمات‌دهندهٔ مخابراتی مختلف داریم که با فیبر به این سایت متصل هستند. می‌بینید که مقیاس آن بسیار عظیم است. اینجا در واقع نوعی مرکزدادهٔ سنتی با امکانات بیشتر است که تکمیل کرده‌ایم.

الگر: تغییر کاربری این ساختمان از تولید آب بطری به مرکزداده چقدر طول کشید؟

اسلسمن: نکتهٔ جالب این است که برای این کار لازم نبود تغییرات بسیار زیادی در فضا ایجاد کنیم تا برای مرکزداده مناسب شود. وقتی مالک این سایت شدیم، صاحبان قبلی همه‌چیز را تمیز کرده بودند. تحویل که گرفتیم، دو انبار به‌مساحت ۲۳٬۲۰۰ متر مربع و مقداری فضای اداری داشت. رفتیم و در آن انبار خالی فاز اول مرکز‏داده را ساختیم. تکمیل سایت از روزی که فضا را در اختیار گرفتیم تا روزی که تجهیزات اولین مشتری را در مرکزداده قرار دادیم، تقریبا شش ماه طول کشید.

الگر: اعتراف می‌کنم که انتظار داشتم بعضی از زیرساخت‏‌های کارخانهٔ تولید آب بطری را نگه می‌داشتید. برای اینکه کسانی که در سالن مرکزداده کار می‌کنند هروقت هوس کردند آب بخورند بتوانند به‌راحتی یک بطری از روی نوار نقاله بردارند.

اسلسمن: همه وقتی دربارهٔ این کارخانهٔ تولید آب بطری می‌شنوند تعجب می‌کنند و می‌گویند: «تولید آب بطری در آریزونا؟!» نکتهٔ خنده‌دار این است که هم آب و هم برق در آریزونا ارزان است. به همین دلیل این سایت برای مرکزداده بسیار مناسب بود. ما در اینجا بر مبنای راهبرد سرمایشِ آب‌محور و هیدرونیک خود، از مقادیر زیادی سرمایش تبخیری استفاده می‌کنیم و به همین دلیل مقدار آب مصرفی ما زیاد است.

علاوه بر آن اینجا برق ارزان و بسیار بهبودپذیر دارد که خیلی ارزشمند است. آریزونا برای مراکزداده جای خیلی خوبی از آب درآمده است.

الگر: اتفاقا می‌خواستم بپرسم چی باعث شد که مرکزداده را در فینیکس بسازید؟

اسلسمن: روشن است که جاهای زیاد و گوناگونی را بررسی کردیم. سرانجام فینیکس را برگزیدیم چون در ایالت آریزونا و همسایهٔ ایالت کالیفرنیا است. این از نظر تجاری برای ما مزیت است؛ چون در کالیفرنیا کسب‌وکارها و مشتریانِ مرکزداده زیاد هستند و از آریزونا و به‌ویژه فینیکس تا لس‌آنجلس راهی نیست.

علاوه بر آن از نظر زیست‏‌محیطی یا بلایای طبیعی، آریزونا از آن چیزهایی که کالیفرنیا را تهدید می‌کند در امان است. اول از همه زلزله و بعد خطرات ساحلی و چیزهایی همانند این‌ها. آریزونا وضعیت زیست‌محیطیِ بسیار بسیار باثبات و پایداری دارد. همچنین هوای آن در بیشتر سال بسیار خشک است؛ همین باعث می‌شود شیوه‌های پیش‌سرمایش و سرمایش مستقیم هیدرونیک در اینجا بسیار موثر باشد.

هزینهٔ برق هم در اینجا متغیر نیست. در آریزونا مقررات توزیع برق را هنوز دولت ایالتی تنظیم می‌کند. اگرچه ممکن است قیمت به‌اندازهٔ قیمت بازارِ رقابتی نباشد، بازهم خیلی ارزان است. چون مقدار انرژی برق‌آبی و هسته‌ای در آریزونا زیاد است. همچنین به‌دلیل وجود مقررات برای قیمت‌گذاری، نرخ برق ثبات زیادی دارد. چون تغییر قیمت نیازمند اقدام دولت است. همین است که نرخ‌ ثبات دارد.

تنها چیز بدی که مردم به آن اشاره می‌‏کنند و می‌پرسند چه‌کارش می‌کنیم، گرم‌بودن هوا در بیشتر طول سال است. با این حال بار اضافی یعنی بار ناشی از گرمای هوای بیرون که به سرمایش تحمیل می‌شود، در مرکزداده‏‌ای با این اندازه مشکلی به‌شمار نمی‌آيد. هرچه مرکزداده بزرگ‌تر باشد، این مسئله کم‌اهمیت‌تر می‌شود. آن هزینهٔ اضافی را که تابستان به بار سرمایشی مرکزداده می‌افزاید، آب‌وهوای خشک کاملا جبران می‌کند. همان طور که می‌دانیم برای مراکزدادهٔ با ۲۴ مگاوات بار فاوا، فرقی نمی‌کند دمای بیرون چقدر باشد. چون اگر سیستم سرمایش خاموش بشود، به هر حال همه‌چیز به‌سرعت و بیش از حد گرم خواهد شد. 

الگر: دمای عملیاتی سخت‌افزارها را در چه میزانی نگه می‌دارید؟

اسلسمن: ما خودمان در چندین سال رویکرد بسیار پیشگیرانه‌ای به کار برده‌ایم و روشن است که در این تصمیم‌گیری‌ها به نظرِ مشتریان هم بسیار توجه کرده‌ایم. با این حال معتقدیم که دیگر خیلی وقت است دمای مراکزداده را بیش از حد پائین نگه می‌دارند. تجهیزات فاوا به دمای هوای ورودیِ ۱۶ درجهٔ سانتی‌گراد که حتی در بعضی جاها پایین‌تر از این هم به کار می‌برند، نیازی ندارند. دمای ما برای هوای ورودی، کمابیش میان ۲۳ تا ۲۵ درجه سانتی‌گراد است. بسیار خوش‌حال هستیم که اکنون مرکزداده‌ای را با دمای ورودی ۲۷ درجه سانتی‌گراد اداره می‌کنیم. راستش به نظر من می‏‌توان بیش از این هم پیش رفت. مراکز‌داده چه‌بسا که باید در بازهٔ دمای ورودی ۲۹ تا ۳۲ درجه سانتی‌گراد کار کنند.

الگر: بی‌شک مراکزداده به کار کردن در هوای گرم‌تر گرایش پیدا کرده‌اند. استاندارد‏ها هم کم‌کم دارند دماهایی را می‌پذیرند که مدتی است تولید‌کنندگان بازه‌ٔ دمای قابل قبول می‌شناسند.

اسلسمن: تولیدکننده‌‏ها سال‏‌ها با پافشاری دراین‌باره حرف می‌زدند؛ اما موفق نمی‌شدند نظر ASHRAE ـ[9] و دیگر سازمان‏‌ها را جلب کنند. آن‌ها حساسیت‌های ویژهٔ خودشان دارند و به همین دلیل هم نتایج متفاوتی به دست می‌آورند. به نظر من این طرز فکر قدیمی شده که بگوییم: «استاندارد می‌گوید دما باید این باشد.» همهٔ ما تجهیزات فاوایی را دیده‌ایم که نه در رک‌هایی مثل رک فاوا بلکه در کیس و زیر میز هستند؛ در دمای ۴۹ درجهٔ سانتی‌گراد کار می‌کنند و خیلی هم سر حال‌اند!

الگر: مردم از لپ‌تاپ‌های‌شان در وضعیت بدی استفاده می‌کنند. این نشان می‌دهد سخت‌افزارهای مرکزداده هم می‌توانند وضعیت سخت‌تر از آنچه معمولا برای‌شان فراهم می‌شود تحمل کنند.

اسلسمن: بله و توجه کنید که بیشتر تجهیزاتِ درون لپتاپ و مرکزداده درست مانند هم هستند. دست‌کم درون محیط سرور کامپیوتر شخصی شما یعنی کیس‌های وینتل [10]، فرق چندانی با آنچه در درون کامپیوتر رومیزی یا لپ‌تاپ است ندارد. اساسا همانند هستند. شاید فقط سرعت پردازنده فرق داشته باشد؛ اما به هر حال محصولِ همان تولیدکننده است و همان معماری را دارد.

با این حال منشأ این مسئله یکی از آن چیزهایی است که سعی کرده‌ایم در پلتفرم فناوری خود به آن بپردازیم. در ساخت سنتی بین تجهیزات فاوا و مرکز‌داده، پیوستگی و ارتباط درستی وجود ندارد؛ منظورم از نظر مدیریت برنامه‌ای و نرم‌افزاری است. کمتر مراکزداده‌ای هست که بتوان در آن بین عملکرد سخت‌افزارهای فاوا و عملکرد مرکز‌داده، پیوستگی و ارتباط درستی ایجاد کرد. اینکه دمای این CPU چقدر است و دمای سالن چقدر است.

کاری که سعی کرده‌ایم در زیرساخت ماژولاری که خودمان ساخته‌ایم (IO Anywhere) و سیستم عامل IO OS روی آن نصب است انجام بدهیم و انجام هم داده‌ایم، این است که می‌توان وارد یکی از ماژول‌ها شد و در آن برای مادربرد دمای میانگین تنظیم کرد که نقطهٔ تعیین‌شده برای سرمایش باشد. این‌طوری به‌جای اینکه محیط را خنک کنید CPU را خنک می‌کنید؛ چون در واقع می‌خواهید دمای CPU را ثابت نگه دارید.

الگر: دربارهٔ طرحی که برای این مرکزداده داشتید و می‌خواستید مجموعهٔ بسیار بزرگ ۲۸٬۰۰۰ متر مربعی از پنل‌های خورشیدی بسازید، مطالبی خوانده‌ام. این پنل‌ها نصب شدند؟

اسلسمن: راستش را بخواهید نه. هیچ‌کدام از این پنل‌ها نصب نشدند. ایالت آریزونا طرح‌های تشویقیِ انرژی خورشیدی را متوقف کرد؛ بدون آن طرح‌ها این کار شدنی نبود.

میزان تولید برقِ آن بام ۴٫۵ هکتاریِ پوشیده از پنل‌های خورشیدی که در نظر داشتیم، در بهترین وضعیت عملیاتی حداکثر کمتر از ۳ مگاوات بود. مصرف برق سایت ما، ۲۴ ساعته، ۷ روز هفته، ۳۶۵ روز سال، بیش از ۱۵ مگاوات است. اگر کل این برق را برای همین سایت نگه می‌داشتیم، برقی را که پنل‌های خورشیدی برحسب کیلووات‌ساعت تولید می‌کردند، کمتر از ۸ درصد از میزان کل برقی بود که ما در اینجا نیاز داریم. وقتی برای اطلاع دربارهٔ هزینهٔ اجرای این طرح به میزان بازگشت سرمایه نگاه می‌کنید، می‌بینید اگر می‌خواستیم این کار را بدون طرح‌های تشویقیِ ایالتی انجام بدهیم، از طرح اولیه خیلی به‌دور می‌بود. به‌ویژه در ایالتی که می‌توانیم برق را ۵ سنت بر کیلووات‌ساعت از شرکت برق شهری بخریم. اگر فناوریِ پنل‌های خورشیدی بخواهد پابه‌پای برق هسته‌ای و انرژی برق‌آبی پیش برود و از آن‌ها عقب نماند، با دشواری و چالش بسیاری روبه‌رو است.

الگر: به نظر می‌رسد این سایت نمونهٔ بسیار خوبی برای سنجش استفادهٔ گسترده از انرژی خورشیدی باشد. شما این گزینه را دارید که از انرژی خورشیدی استفاده چشمگیری بکنید. در فینیکس تابش آفتاب بسیار خوب است. بدین ترتیب اگر این کار برای شما عملی و معقول نباشد، آیا می‌توان گفت به‌طور کلی استفاده از انرژی خورشیدی راهکار عملی برای تامین انرژی مراکز‌داده نیست؟

اسلسمن: مشکل اصلی به نظر من ظرفیت انرژی است. فراهم‌کردن تعداد ضروری پنل خورشیدی برای تولید برق، به آن اندازه‌ای که جایگزین قابل اعتمادی برای سایر منابع تولید برق باشد، در عمل ممکن نیست. تازه این جدا از تحلیل هزینه است. اگر سطح ۴٫۵ هکتار پنل خورشیدی ۳ مگاوات برق تولید کند، ما برای مهیاکردن برقی که نیاز داریم باید ۵ برابر آن داشته باشیم. یعنی برای تامین اوج مصرف برق این مرکزداده، حدود ۲۰ هکتار سطحِ پوشیده از پنل خورشیدی لازم است! این مسئله از نظر ظرفیت انرژی به‌لحاظ فیزیکی امکان‌پذیر نیست.

هزینهٔ پنل‌های خورشیدی شامل نصب و تعمیرات و نگهداری هم می‌شود. با در نظر گرفتن این هزینه‌ها، اگر قیمت هر کیلووات‌ساعت برق تولیدشده با پنل‌های خورشیدی را در دورهٔ زمانی معینی اندازه‌گیری کنیم، خواهیم دید تفاوت چندانی با هر کیلووات‌ساعت برقی که از شرکت برق می‌خریم ندارد.

موضوع دیگر داشتن برآورد درست از میزان آسیب‌پذیری پنل‌ها است. دربارهٔ استفاده از پنل‌ها و سلول‌های خورشیدیِ جدیدتر باید به نکته‌ای توجه کرد. از رایج‌شدن این فناوری‌ها زمان زیادی نگذشته است و در نتیجه هنوز نمی‌دانیم با گذشت زمان، میزان استهلاک و خرابی آن‌ها چقدر خواهد بود. بدین ترتیب شاید تولید برق مفید شما امروز ۱۰۰ گیگاوات ساعت در سال باشد؛ ولی اگر میزان استهلاک و خرابی با گذشت زمان به‌جای ۳ درصد ۱۲ یا ۱۵ درصد از کار درآید، تولید برق در ۱۰ تا ۱۵ سال بعد کاهش ۱۵ تا ۲۰ درصدی خواهد داشت. چنین کاهشی محاسبات میزان بازگشت سرمایه را به‌شدت بر هم خواهد زد. می‌توان فناوری جدیدتر سلول خورشیدی را که ظرفیت بیشتر و هزینهٔ کمتری دارد کنار گذاشت و سراغ فناوری سلول خورشیدی سنتی‌تر رفت. فناوری سنتی امتحانش را پس داده و دربارهٔ میزان استهلاک و خرابی آن در طول زمان، آنالیزهای کمّی و آماری قطعی و مطمئنی وجود دارد. با این حال در این حالت هم بیش از اندازه هزینه خواهید کرد و دارید از فناوری‌های قدیمی‌تر استفاده می‌کنید. من زمان زیادی را صرف این کار کرده‌ام تا فهمیدم هرچه بیشتر در این نوع آنالیز کندوکاو می‌کنید، بیشتر چالش‌برانگیز بودن آن روشن می‌شود. 

به نظر من سنجش و ارزیابی شما بی‌نتیجه می‌ماند. اگر این روش در سایت مرکزدادهٔ ما موفق نبوده است، در جای دیگر هم موفق نخواهد بود. این در حالی است که نمی‌خواستیم هیچ بخشی از برق تولیدی را به خارج از سایت بفرستیم. ما تصمیم داشتیم تمام برق تولیدی را تبدیل کنیم و خودمان از آن در این سایت استفاده کنیم. به این ترتیب بهره‌گرفتن از پنل‌های خورشیدی، بدون داشتن مقدار نسبتا زیادی یارانهٔ مالیاتی فایده‌ای ندارد.

الگر: من دیده‌ام که در برخی مراکز‌داده پنل‌های خورشیدی نصب کرده‌اند؛ اما فقط برای تامین بخشی از کل برق مرکزداده به کار رفته است.

اسلسمن: بله. خوب است به آن را هم بگوییم. فناوری خوبی است. به‌گمانم حداقل بد نیست بررسی شود و آن را در نظر بگیرند. خوب است که از انرژی‌های تجدیدپذیر و این‌جور چیزها در مرکزداده استفاده کنند. با این حال به نظر من مهیاکردن ظرفیت برقی که در صنعت نیاز است، با بهره‌گرفتن از این شیوه دشوار و چالش‌برانگیز خواهد بود. می‌دانید که مراکزداده نیز از انرژی صنعتی استفاده می‌کنند. تراشه‌های سیلیکونی به‌ازای هر میلی‌متر مربع، برق بسیار زیادی مصرف می‌کنند. پس زیاد منطقی به نظر نمی‌آید که برای تهیهٔ این میزان از برق، فناوری‌هایی را به کار بگیریم که تولید برق‌شان به‌ازای چندین متر مربع چنین کم است.

الگر: من متوجه هستم که شما از ذخیره‌سازیِ سرمایی، هوشمندانه استفاده می‌کنید تا هزینهٔ تامین انرژی را کاهش بدهید.

اسلسمن: ما می‌توانیم در خود سایت نزدیک به ۲۷٬۰۰۰ تن تبرید بر ساعت سرما ذخیره کنیم. بهای برق آریزونا در شب و روز فرق می‌کند. رفتیم و دربارهٔ میزان برقی که در ساعات غیر اوج مصرف به‌ویژه در گرم‌ترین اوقات سال در فصل تابستان نیاز داریم با شرکت برق مذاکره کردیم و به توافق رسیدیم. حالا می‌توانیم در شب یخ تولید کنیم و این یخ را در ساعات اوج مصرف که هزینهٔ برق به حداکثر می‌رسد، برای تقویت سرمایش یا تامین کل بار سرمایش استفاده کنیم. این کار در بهبود هزینهٔ کل انرژی ما تاثیر چشمگیری داشته و از نظر سرمایش بی‌وقفه هم بهبودپذیریِ مرکزداده را افزایش داده است.

این راهکاری است که همه باید به آن توجه کنند. با این حال شرایطی دارد. یکی اینکه فقط در مقیاس بزرگ نتیجه می‌دهد. بهره‌گیری موثر از این راهکار برای تولید برق کمتر از ۱۰ مگاوات بسیار دشوار است؛ به‌دلیل جاگیر بودن تجهیزات آن و هزینهٔ اجرای زیادی که دارد. این روش برای بیشتر از ۱۰ مگاوات راهکار بسیار خوبی است. دیگر اینکه اجرای این کار تنها وقتی منطقی به نظر می‌رسد که در منطقهٔ شما، هزینهٔ برق در ساعات شبانه‌روز متفاوت باشد. یا اینکه بشود دربارهٔ حقوق و شرایط خرید برق با شرکت برق منطقه توافق کنید و در نتیجه بتوانید زمان ارزان‌تری را برای مصرف برق انتخاب کنید. در هر حالت میزان کل انرژی مصرف‌شده در هر زمانی که باشد، دقیقا هم‌اندازه خواهد بود و فرقی نخواهد داشت.

شرکت IO شب‌ها که هزینه برق کمتر است گوی‌هایی یخی می‌سازد و روز از آن‌ها برای سرمایش مرکز داده استفاده می‌کند.
IO شب گوی‌های یخی می‌سازد…

تصویر: شرکت IO شب‌ها که هزینهٔ برق کمتر است، گوی‌هایی یخی می‌سازد و روز از آن‌ها برای سرمایش مرکزداده استفاده می‌کند. با این شیوهٔ ذخیره‌سازی سرمایش، سالانه میلیون‌ها دلار صرفه‌جویی می‌کند.

الگر: اختلاف بهای برق میان ساعات اوج مصرف و ساعات معمول شبانه‌روز چقدر باید باشد تا این راهکار ارزش اجرا پیدا کند؟

اسلسمن: اختلاف میان بیشترین و کمترین بهای برق باید دست‌کم ۱۵ درصد باشد. روشن است که هرچه این اختلاف بیشتر باشد، صرفه‌جویی هزینه هم بیشتر خواهد بود. البته این رقم مربوط به اوج مصرف است.

قبض برق را که نگاه می‌کنید می‌بینید که شرکت برق برای به‌دست‌آوردن مبلغ قابل پرداخت، محاسبات نسبتا پیچیده‌ای انجام می‌دهد. فرق نمی‌کند مصرف شما چقدر باشد؛ به هر حال قیمت برق در ساعات اوج مصرف از با ساعات کم‌باری بیشتر است. باید در محاسبه بین گران‌ترین و ارزان‌ترین برقی که مصرف می‌کنید، به اختلاف کل ۱۵ درصد برسید.

طول دوره‌های زمانی نیز در این بین اثرگذار است. روشن است که باید بتوانید دوباره گوی‌ها را منجمد کنید. هرچه ساعات کم‌باری شما بیشتر باشد، زمانی که برای تولید دوبارهٔ یخ در اختیار دارید بیشتر می‌شود که در نتیجه بارِ وارد به کنترتان هم کمتر می‌شود.

مسئلهٔ دیگری که اجرای این راهکار را کمی دشوار می‌کند، این است که برای عملیاتی‌کردن آن واقعا باید مصمم باشید. باید برای ایجاد اتوماسیونی که لازم است تا بیشترین بهره‌گیری را از این راهکار به دست بیاورید، زمان و منابع صرف کنید. باید برای این کار در سازمان خود مهارت‌های مهندسی و تحلیلی داشته باشید تا آگاهی لازم را دربارهٔ همهٔ ابعاد این راهکار به دست آورید. به هر حال اگر این روش به‌درستی اجرا بشود، همهٔ هزینهٔ خود را جبران خواهد کرد. ما با اجرای این شیوه میلیون‌ها دلار در دو سال گذشته صرفه‌جویی کرده‌ایم.

الگر: پیش‌تر به کف کاذب در مرکزداده اشاره کردید. کدام زیرساخت‌ها را از زیر کف کاذب توزیع کرده‌اید و کدام را سقفی؟

اسلسمن: معماری این مرکز‌داده به‌گونه‌ای است که کف کاذب آن ۹۰ سانتیمتر عمق دارد. کف کاذب در سرتاسر سالنِ ۱۶٬۷۰۰ متر مربعی، به‌طور مشترک وجود دارد. به همین دلیل تعداد پلنوم‌های مشترک زیاد است. کابل‌کشی‌ها شامل توزیع برق و کابل‌کشی شبکه و فیبر نوری، همگی سقفی انجام شده است.

دسته‌های کابل‌کشی ساخت‌یافته سقفی در مرکز داده IO در فینیکس
کابل‌کشی ساخت‌یافته سقفی در IO

تصویر: دسته‌های کابل در کابل‌کشی ساخت‌یافتهٔ سقفی در مرکزدادهٔ IO در فینیکس

توزیع هوای سرد کمی فرق دارد. در این کار از رویکرد فشار استاتیک استفاده کرده‌ایم. در همگی هواسازهای سالن سرور، پلاگ‌فن‌های سرعت‌متغیر کار گذاشته‌ایم که با تغییر فشار قطع و وصل می‌شوند. ما زمان روشن‌شدن هواساز را از روشن‌شدن کویل جدا کرده‌ایم. بدین ترتیب پیش از اینکه فن روشن بشود، کویل روشن می‌شود تا مایع سرمایش به درون آن بیاید. ما ۱۰۰ درصد ظرفیت کویل را باز نگه می‌داریم؛ برای اینکه بتوانیم برای پمپاژ چرخهٔ آب سرد، از حداقل میزان انرژی استفاده کنیم و بهینه‌ترین حالت ممکن را داشته باشیم.

سپس فن‌ها بر اثر اختلاف فشار استاتیکِ بین فضای فاوا و پلنوم زیر کف کاذب به کار می‌افتند. به‌طور کلی یعنی به‌جای اینکه هوا مثل پنکه‌های رومیزی دمیده بشود، همانند بادکنک که درون آن پرفشارتر از بیرون است، فضای زیر کف کاذب را پرفشارتر از سالن می‌کنیم. بادکنک را که سوراخ می‌کنید فرقی نمی‌کند این سوراخ کجای آن باشد، هوا از همان جا بیرون می‌زند. دلیل به‌جریان افتادن هوا از درون بادکنک، اختلاف فشار هوای بین داخل با خارج آن است نه دمیدن هوا. با این شیوه می‌توان جریان هوای یکنواخت‌تری برای سالن فراهم کرد.

این راهکار به ما امکان داده است از فناوری رک Thermo Cabinet استفاده کنیم که امتیاز انحصاری آن برای خود شرکت IO است. ما پلنوم تحت فشار را تا درون رک Thermo Cabinet آورده‌ایم. با این کار اختلاف فشار به‌جای اینکه بین کف کاذب و سالن سرور باشد، در درون رک و در دو سوی سرور رخ می‌دهد. مقدار آن را در حد چند میلی بار نگه می‌داریم. در برابر این اختلاف فشار، به‌سادگی فن همه هواسازها به کار می‌افتند. ما این اختلاف فشار را در جای‌جای کل سالن و در شبکه‌ای منظم اندازه‌گیری می‌کنیم؛ سپس فن‌های نزدیک‌تر به اخلاف فشار به کار می‌افتند. فشار در سرتاسر سالن متغیر است.

الگر: بعضی مراکزداده که طراحی جدیدتر دارند، از کف کاذب استفاده نکرده‌اند. چه شد که در مقایسه با گزینه‌های دیگر، از کف کاذب و این شیوهٔ توزیع سرمایش استفاده کردید؟

اسلسمن: معیار‌های تصمیم‌گیری ما نسبت به دیگران کمی فرق داشت. چون اینجا مرکزدادهٔ خدمات اشتراک مکانی است و ما پیشاپیش نمی‌دانیم نیازهای مشتریان‌مان چیست. بهره‌گرفتن از کف کاذب انعطاف و تغییرپذیری زیادی به مرکز‌داده می‌دهد. ما در هرجایی که بخواهیم می‌توانیم یکی از کف‌پوش‌ها را برداریم یا یک کف‌پوش بگذاریم، تا جریان هوا را به جایی هدایت کنیم. به این ترتیب تغییرپذیری زیادی در انتخاب مکان و نحوهٔ چیدمان ردیف‌های مجزایِ رک‌ها و تجهیزات فاوا داریم. من مراکز‌دادهٔ بدون کف کاذب ساخته‌ام و راه‌اندازی کرده‌ام که خوب کار می‌کنند. گمان نمی‌کنم کف کاذب مزیت عملیاتی چشمگیری داشته باشد، غیر از تغییرپذیری‌ای که در زمینهٔ جریان و توزیع هوا به وجود می‌آورد. در سالن بدون کف کاذب برای اینکه هوا را به جریان بیندازید و توزیع کنید، باید چیدمان تجهیزات فاوا را از ابتدا تعیین کرده باشید. در حالی که در محیط‌هایی مثل اینجا که پلنوم کف کاذب دارد، می‌توانید دربارهٔ مکان چیدمان تجهیزات فاوا، بسته به وضعیت و موقعیت‌های مختلف تصمیم‌گیری کنید.

تغییرپذیری بسیار ارزشمند است. هرگاه دیگر ناچار نباشید در درون تاسیسات ساخت‌وساز بکنید، در مرکزداده ریسک بسیار بالایی را از بین برده‌اید.

برق پشتیبان مرکز داده کلاس سه IO را ژنراتورهای آماده‌به‌کار فراهم می‌کنند.
ژنراتورهای برق پشتیبان مرکزداده کلاس سه IO

تصویر: برق پشتیبان این مرکزدادهٔ کلاس سه را ژنراتورهای آماده‌به‌کار فراهم می‌کنند.

الگر: این مرکزداده از چه مقدار ظرفیت برق پشتیبانی می‌کند؟

اسلسمن: ظرفیت برای مشتریانی که از Thermo Cabinet استفاده نمی‌کنند، ۱۰ کیلووات به‌ازای هر رک است. این آستانهٔ طبیعی ظرفیت است. با Thermo Cabinet از آنجایی که این نوع رک کاملا بسته و از نظر گرما و سرمایش به‌خوبی عایق‌بندی شده است، ظرفیت بسیار بیشتر از ۲۴ کیلووات بر رک ممکن می‌شود. وقتی مشتریانی سراغ ما می‌آیند که ظرفیت برق بسیار زیاد یعنی بیشتر از ۱۵ یا ۲۰ کیلووات بر رک می‌خواهند، معماری Thermo Cabinet را برای آن‌ها فراهم می‌کنیم.

الگر: بسیار خوب! دربارهٔ فاز یک این مرکزداده خیلی صحبت کردیم. حالا بیایید دربارهٔ فاز دوم آن و استفاده از طراحی ماژولار صحبت کنیم.

اسلسمن: فاز دوم مرکزداده را در انبار دوم کارخانه برپا کردیم که مساحت آن هم مانند انبار اول که فاز یک را در آن کار کرده بودیم، ۲۳٬۲۰۰ متر مربع است. در حال حاضر شبکهٔ توزیع دو جهتهٔ آب سرد در امتداد دیوار غربی انبار دوم قرار دارد. همین سیستم به ماژول‌هایی که نصب می‌کنیم، سرمایش می‌رساند. همچنین در کنار آن‌ها مجموعه‌ای از پست‌های برق ولتاژ متوسط داریم که به محوطهٔ ژنراتور مجموعا ۲۰ مگاواتی متصل است. ظرفیت چیلر به ظرفیت تاسیسات چیلر ۴٬۰۰۰ تنی در فاز دو وابسته است که کار چیلر سنتی آب سرد را می‌کند و سرمایش هیدرونیکِ بی‌نیاز از فعالیت چیلر هم انجام می‌دهد. شبکهٔ توزیع برق و شبکهٔ توزیع آب سرد به ماژول‌های برق یا ماژول‌های شبکه یا داده متصل می‌شوند. ماژول‌های برق ماژول‌هایی هستند ۲ مگاواتی، کامل، از پیش تولیدشده، با قابلیت ذخیرهٔ انرژی و توزیع. UPS و باتری و پنل‌های توزیعی همه در قالب یک ماژول قرار دارند. از هریک از این ماژول‌ها دو دستگاه نصب می‌شود تا افزونگی 2N ایجاد کند. یک ماژول شبکه نصب می‌شود که محیط MMR یا محل ورود و اتصال کابل‌های مخابراتی به سیستم است. سپس ماژول داده به انتهای آن سه ماژول متصل می‌شود. یک ردیف به این شکل کامل می‌شود و می‌رویم برای نصب ردیف بعدی. این رویکردی بسیار متفاوت است.

مونتاژ ماژول‌های مرکز داده IO
مونتاژ ماژول‌های مرکزداده IO

تصویر: مونتاژ ماژول‌های مرکزدادهٔ IO

بازدید از این مرکزداده برای مشتریان خیلی جالب است. به این ترتیب که اول آن‌ها را می‌بریم به مرکزدادهٔ با طراحی سنتی، بعد می‌رویم به جایی بین طراحی سنتی و مدرن با آن معماری Thermo Cabinet، سپس وارد DC6 و DC7 می‌شویم که ماژولار هستند. این تجربهٔ جالبی است.

اطفای حریق در سالن سرور دوم از نوع سیستم سنتی اطفای حریق EFSR ـ[11] با لولهٔ تر است. لازم نیست از سیستم اطفای حریق با لولهٔ خشک استفاده کنیم؛ به این علت که این ماژول‌ها ضد آب و ضد آتش هستند. بدنهٔ این ماژول‌ها فولادی است و رتبه‌بندی مقاومت در برابر آتش (Fire-Resistance Rating) دارد. هریک از ماژول‌ها سیستم اعلام و اطفای حریق جداگانه دارد که گازی است.

چیزی که بلافاصله پس از ورود به سالن مرکزدادهٔ ماژولار توجه‌تان را جلب می‌کند، سکوت است. چون کار سرمایش و هواسازی در درون خود ماژول‌ها انجام می‌شود، در سالن صدایی نمی‌شنوید. وارد ماژول که می‌شوید در درون آن‌ها ظرفیت سرمایشی ماژولار را می‌بینید. واحد‌های توزیع برق یا PDU‌ها هم در داخل ماژول‌ها هستند. در هریک تا حداکثر ۲۰ رک تجهیزات فاوا وجود دارد. برق هر ماژول بسته به نیازهای هر مشتری ۲۰۰ تا بیش از ۵۰۰ کیلووات است. کمترین میزان ظرفیت ۱۰ کیلووات بر رک است و بسته به نیازهای مشتری می‌توان آن را تا بیش از ۲۰ یا ۳۰ کیلووات بر هر رک هم رساند.

کاهش هزینه، سرعت استقرار تجهیزات، همچنین مقیاس‌پذیری بهتر نتیجهٔ بهره‌گیری مرکز داده IO از قطعات ماژولار
ماژولاریتی در مرکزداده IO

تصویر: کاهش هزینه، سرعت نصب تجهیزات، همچنین مقیاس‌پذیریِ بهتر، نتیجهٔ بهره‌گیری IO از قطعات ماژولار است.

الگر: هنگام ساخت و راه‌اندازی فازهای این مرکزداده با مسئلهٔ غافل‌گیرکننده‌ای هم مواجه شدید؟

اسلسمن: متاسفانه برای کسانی که مدت زیادی در این حرفه هستند، رویداد غافل‌گیرکننده دیگر غافل‌گیرکننده نیست! چون از پیش انتظار رخ‌دادن آن را دارند. به نظرم شاید فقط شکل رخ‌دادن حادثه گاهی باعث غافل‌گیری بشود.

همیشه وقتی می‌خواهید فناوری جدیدی اجرا کنید و شیوه‌های نو به کار بگیرید، با مسائل غافل‌گیرکننده مواجه می‌شوید. این مشکل به‌ویژه برای کارشناسان فاوا است که بازار کارشان می‌خواهد از ریسک به‌دور باشد. کارشناسان معمولا بسیار با دوراندیشی عمل می‌کنند؛ گرچه وظیفهٔ آن‌ها کار با فناوری است که چیزی است همیشه نوآورانه و جدید. از زمان شروع به ساختن مرکزدادهٔ ماژولار یک چیزی مرا غافل‌گیر کرده است. وقتی به مشتریانِ مرکزداده شیوهٔ سنتی و شیوهٔ ماژولار را نشان می‌دهیم، به‌سرعت خواستار شیوه جدید و ماژولار می‌شوند.

این میزان از کارایی عملیاتی که با رویکرد ماژولار به دست آورده‌ایم نیز من را غافل‌گیر کرد. پیش از این به این اندازهٔ چشمگیر از بهره‌وریِ شیوهٔ ماژولار، در مقایسه با طراحی سنتی چندان پی نبرده بودم. مهم‌ترین نکتهٔ استفاده از رویکرد ماژولار، یکسان‌سازی و استانداردسازی است. همهٔ اجزا همانند هستند؛ هیچ تفاوتی با هم ندارند و با روش یکسان تولید می‌شوند.

طوری است اگر چشم تکنسین را ببندید و او را از یک ماژول به ماژول دیگر ببرید، متوجه هیچ تفاوتی نمی‌شود؛ چون همه‌چیز درست مثل هم است. یکسان‌بودن ماژول‌ها باعث غافل‌گیری من نشد؛ این را که خودمان هنگام ساختن ماژول‌ها ایجاد کرده‌ایم! موضوع غافل‌گیرکننده آن نتیجه‌ای است که از این همسان‌سازی به دست آمد؛ یعنی افزایش بسیار زیادِ کارایی عملیاتیِ کارکنان فنی در عملیات مرکزداده است.

موضوع دیگری که باعث تعجبم شد این بود که چطور مرکزداده‌ای به این بزرگی با این سرعت پر شد. بی‌شک این مسئله بیشتر مرا خوش‌حال می‌کند تا غافل‌گیر. پیش‌تر در این‌چنین مواردی، قدرت در دست کسب‌وکار‌ها بود، اما گمان می‌کنم امروزه فرمان را مشتریان و مصرف‌کنندگان در دست دارند. اکنون کسب‌وکارها مرکزداده می‌سازند؛ اما در حقیقت مشتریان قدرت را در دست دارند. فناوری‌هایی همچون iPad و iPhone و تجربه کاربری (User Experience) مصرف‌کننده در کسب‌وکار و تجارت، عوامل پیش‌برنده هستند. نتیجه‌ای که این موضوع در پی دارد این است که به‌سرعت و در اندازهٔ بسیار زیاد، ظرفیت مرکزداده افزوده می‌شود. ما در فاز یک این مرکزداده توانستیم حدود ۱۶٬۷۰۰ متر مربع کف کاذب و ۲۴ مگاوات UPS را در عرض ۱۶ ماه به بهره‌برداری کامل برسانیم. به نظرم مجموع ظرفیت مراکزداده که در فاصلهٔ زمانی بین ۵ تا ۳ دهه پیش ایجاد شده، از ظرفیت فقط همین یک مرکزداده کمتر است! ظرفیت این تاسیسات واقعا زیاد است. گذشته از این، ظرفیت رایانشی ۲۴ مگاوات را تصویر کنید؛ خارق‌العاده است. تازه این تنها یک مرکزداده از مراکزداده موجود در دنیا است.

«فناوری‌هایی همچون iPad و iPhone و تجربه کاربری (User Experience) مصرف‌کننده در کسب‌وکار و تجارت، عوامل پیش‌برنده هستند. نتیجه‌ای که این موضوع در پی دارد این است که به‌سرعت و در اندازهٔ بسیار زیاد، ظرفیت مرکزداده افزوده می‌شود.»

الگر: نکتهٔ جالبی است. بسیاری از شرکت‌ها برای افزایش بهره‌وریِ مراکزدادهٔ خود، از مجازی‌سازی و سایر فناوری‌ها استفاده می‌کنند. با این حال پی‌درپی نیاز آن‌ها به ظرفیت بیشتر می‌شود. من به‌شوخی این قضیه را سندرم نوشابهٔ رژیمی می‌نامم. کالری این نوشابه‌ها نصف نوشابه‌های معمولی است؛ به همین دلیل مردم به‌جای یکی دو تا می‌نوشند! در مرکز‌داده هم بهره‌وری باعث آزادشدن بخشی از ظرفیت می‌شود. با این حال شرکت‌ها به‌سرعت این ظرفیت صرفه‌جویی‌شده را مصرف می‌کنند. در این وضعیت صدها و حتی هزارها برابر بیشتر از قبل عملیات رایانشی انجام می‌دهند؛ اما مصرف ظرفیت خود را کاهش نمی‌دهند.

اسلسمن: جملهٔ معروفی هست از دورهٔ انقلاب صنعتی در قرن نوزدهم میلادی که می‌گوید: «برای انسان‌ها از پیش مقدر شده که قابلیت تولید و بهره‌وری را بگیرند و آن را به کار بیشتری تبدیل ‌کنند.» بهره‌وری هیچ‌گاه موجب کاهش استفاده نمی‌شود؛ بلکه دقیقا همان طور که شما گفتید استفاده را بیشتر می‌کند.

اسم آن کسی که این جمله را گفته یادم نیست ولی گمان می‌کنم پروفسور بود. او به‌طور کلی می‌گوید با اینکه همه‌چیز را مکانیزه کرده‌ایم و کارها را سریع‌تر انجام می‌دهیم، بیشتر هم کار می‌کنیم. کسی از تلفن استفاده نمی‌کند تا کمتر با دیگران حرف بزند؛ بلکه برعکس بیشتر حرف می‌زند. این‌طور نیست؟ این نکته را من همیشه به همه می‌گویم. شبیه این مسئله در مرکزداده هم وجود دارد.

اوایل که در بخش فاوا خیلی تازه‌کار بودم، چیزی با نام سرور ویژهٔ برنامه‌نویسی رایج بود که بیشتر شوخی بود؛ چون چنین چیزی اصلا نمی‌شود. همین که این سرور را به کار می‌اندازید وارد مرحلهٔ استفاده و پردازش می‌شود. درست از همان لحظه که شما به برنامه‌نویس دسترسی به سروری را می‌دهید که کاربران می‌توانند به آن متصل بشوند، قبل از اینکه حتی خودتان بفهمید، ظرفیت آن استفاده می‌شود. به‌عبارت دیگر پا‌به‌پای توسعهٔ ظرفیت، حجم مصرف هم افزایش پیدا می‌کند. به عقیدهٔ من این همان وضعیتی است که در مراکزداده هم بوده است.

الگر: بدیهی است که اجزای طراحی در این مرکزداده با گذشت زمان تکامل یافته‌اند. اگر می‌توانستید از اول طراحی این مرکز‌داده را شروع کنید، کاری بود که بخواهید جور دیگری انجام بدهید؟

اسلسمن: دیگر محال است مرکزدادهٔ سنتی بسازیم؛ کاملا ماژولار کار می‌کنیم. پس از اینکه روش ماژولار را اجرا و عملیاتی کردیم و جنبه‌های اقتصادی آن را شناختیم و دیدیم که از نظر تجاری برای ما چه نتیجهٔ خوبی به بار آورد، من که دیگر ساختن مرکزدادهٔ سنتی را برای همیشه کنار گذاشتم.

کارت‌خوان و کلیدهای سیستم اطفای حریق در یک طرف ماژول مرکز داده IO
کارت‌خوان و کلیدهای اطفای حریق روی ماژول

تصویر: کارت‌خوان و کلیدهای سیستم اطفای حریق در یک طرف ماژول مرکزداده

الگر: در پایان برای کسانی که می‌خواهند پروژهٔ مرکزداده شروع کنند چه توصیه‌ای دارید؟

اسلسمن: توصیه‌ام این است که نروید نوار کاست بخرید؛ الان دیگر iPod آمده است! با این‌همه فناوری جدید دیگر قدیمی‌ها را بگذارید کنار. شرکت‌هایی هستند که فناوری ماژولار دارند؛ از جمله خود ما. من حالا بعد از اجرا و عملیاتی‌کردن فناوری ماژولار، آن‌قدر به این فناوری باور دارم و طرف‌دارش هستم که توصیه می‌کنم پیش از آنکه وارد مسیر ساخت مرکزدادهٔ سنتی مبتنی بر ساخت‌وساز بشوید، دراین‌باره حسابی فکر کنید. در این مرحله بهتر است به‌جای آغاز ساخت‌وساز که خرج بسیار زیادی روی دست‌تان می‌گذارد و وقتی ساختن آن تمام می‌شود شاید ۲ یا ۳ نسل قدیمی شده باشد، ۶ تا ۸ ماه دیگر هم صبر کنید و ببینید این شیوهٔ ماژولار چطور جواب می‌دهد و به کجا می‌رسد.

پانویس

[1] این مطلب ترجمهٔ بخش چهاردهم از کتاب «The Art of the Data Center» است. گفت‌وگوکننده داگلاس الگر (Douglas Alger)، مترجم پرواز خیّر، ویراستار پرهام غدیری‌پور، به‌کوشش دکتر بابک نیکفام، تهیه‌شده در باشگاه مراکزداده.

[2] اشاره به «فرگشت» یا «نظریهٔ تکامل» چارلز داروین زیست‌شناس بریتانیایی

[3] سیستم رطوبت‌ساز فراصوت: این سیستم بر مبنای تغییر فرکانس کار می‌کند و با تغییر مداوم فرکانس فراصوت، آب را از حالت مایع به حالت گاز یا همان بخار تبدیل می‌کند. کلیهٔ سیستم‌های این نوع دستگاه رطوبت‌ساز، الکترونیکی هستند و هیچ‌نوع قطعهٔ مکانیکی از جمله پروانه و یا نازل در آن وجود ندارد. بخار تولیدشده در این دستگاه سفید و یکنواخت و سرد است.

[4] شرکت آمریکایی International Data Corporation: تخصص این شرکت تحقیق و تحلیل و مشاورهٔ بازار در حوزهٔ صنعت فاوا است.

[5] شرکت آمریکایی Gartner: متخصص تحقیق و مشاوره در صنعت فناوری اطلاعات

[6] شرکت آمریکایی EMC: پیشروی عرضهٔ راهکارهای فاوا و ابرداده و رایانش ابر

[7] شرکت آمریکایی Caterpillar: تولیدکنندهٔ موتور‌ها و ماشین‌آلات سنگین صنعتی

[8] MMR یا Meet Me Room: فضایی است در مرکز اشتراک مکانی که در آن شرکت‌های مخابراتی می‌توانند به‌شکل فیزیکی به یکدیگر متصل شوند و بدون پرداختن هزینهٔ اتصال به تبادل داده بپردازند. سرویس‌های عرضه‌شده از طریق اتصالات در محیط MMR، شامل مدارهای مخابراتی و مدارهای الکترونیکی و پروتکل اینترنت است.

[9] انجمن مهندسین گرمایش، سرمایش و تهویهٔ مطبوع آمریکا

[10] کیس وینتل (Wintel): ترکیبی از دو واژه Windows و Intel. به کامپیوترهایی می‌گویند که از پردازنده‌های اینتل و سیستم‌عامل ویندوز استفاده می‌کنند.

[11] سیستم سنتی اطفای حریق (Early Suppression, Fast Response fire sprinklers): افشانه‌های واکنش و اطفای سریع آتش

درج دیدگاه

برای درج دیدگاه کلیک کنید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سوال امنیتی *