در داخل آزمایشگاهی در مقر گوگل در Mountain View، کالیفرنیا، صدها قفسه سرور در چندین مسیر در حال اجرا هستند و وظایفی بسیار کمتر از کارهای مرتبط با موتور جستجوی اصلی جهان انجام میدهند. در عوض، این سرورهای رک تست هایی را روی ریزتراشه های خود گوگل به نام … واحد پردازش کششی (TPU) ما هستیم
واحدهای پردازش تانسور گوگل آنها که در ابتدا برای مدیریت حجم کار داخلی آموزش دیده بودند، از سال 2018 در دسترس مشتریان ابری قرار گرفتند. اپل در ماه جولای واحدهای پردازش تنسور را برای آموزش مدل های هوش مصنوعی این پایه و اساس پلتفرم هوش مصنوعی است هوش اپل از گوگل برای آموزش و پیاده سازی نیز استفاده می شود ربات چت جیمنا این بر اساس واحدهای پردازش تانسور است.
دانیل نیومن، مدیرعامل گروه Futurum، در مورد رقابت انویدیا و گوگل در زمینه آموزش هوش مصنوعی گفت:
یک باور اساسی در سراسر جهان وجود دارد که تمام مدلهای اصلی زبان هوش مصنوعی در Nvidia آموزش داده شدهاند. بدون شک Nvidia مسئول بخش بزرگی از حجم آموزش هوش مصنوعی است. اما گوگل نیز مسیر خود را در این زمینه انتخاب کرده و از زمان عرضه تراشه های سفارشی Google Cloud در سال 2015 روی آن کار کرده است.
موقعیت گوگل در تولید تراشه های ابری AI سفارشی
گوگل اولین ارائه دهنده ابری بود که تراشه های هوش مصنوعی سفارشی ساخت. سه سال بعد، اولین وب سرویس آمازون ظاهر شد تراشه هوش مصنوعی ابری خودش را معرفی کرد، یعنی استنباط. اولین تراشه هوش مصنوعی سفارشی مایکروسافت، Maia، تا پایان سال 2023 معرفی نخواهد شد.
اما اولین بودن در زمینه تراشه های هوش مصنوعی به معنای دستیابی به جایگاه برتر در رقابت کلی است هوش مصنوعی مولد گوگل هرگز به دلیل عرضه ناموفق محصولات مورد انتقاد قرار نگرفت و به دنبال این اتفاق، Gemina بیش از یک سال پس از ChatGPT منتشر شد.
با این حال، Google Cloud به دلیل ارائه محصول خود در فضای هوش مصنوعی مورد توجه قرار گرفته است. آلفابت، شرکت مادر گوگل، گزارش داد که درآمد ابری آن در سه ماهه گذشته 29 درصد افزایش یافته است و برای اولین بار از 10 میلیارد دلار درآمد سه ماهه فراتر رفته است.
نیومن در این مورد چنین گفت:
«عصر هوش مصنوعی ابری نحوه نگرش به کسبوکارها را کاملاً تغییر داده است و این تمایز سیلیکونی (تمایز در ساخت تراشه) یا به عبارت دیگر خود واحد پردازش، ممکن است یکی از بزرگترین دلایل رتبه سوم گوگل به دلیل قابلیتهایش باشد. در زمینه هوش مصنوعی، شرکت ارائه دهنده خدمات ابری باید به سطحی برابر با دو شرکت ابری دیگر یا حتی به جایگاه بالاتری دست یابد.»
در ماه جولای، CNBC اولین تور ضبط شده روی دوربین از آزمایشگاه تراشه گوگل را انجام داد و با امین وحدت، رئیس تراشه های ابری سفارشی مصاحبه کرد. زمانی که گوگل برای اولین بار در سال 2014 به فکر ساخت تراشه بود، او در این شرکت بود.
واحدت در مصاحبه خود در این سفر گفت:
“همه چیز با یک آزمایش فکری ساده اما قدرتمند شروع شد. تعدادی از مدیران شرکت این سوال را مطرح کردند: اگر کاربران گوگل فقط 30 ثانیه در روز از طریق صدا با گوگل تعامل داشته باشند چه اتفاقی می افتد؟ چقدر قدرت محاسباتی برای پشتیبانی از کاربران خود نیاز داریم. ؟”
در آن زمان، طبق برآوردهای کارشناسان، گوگل باید تعداد رایانه های موجود در مراکز داده خود را دو برابر می کرد. بنابراین آنها به دنبال یک راه حل اساسی برای ارائه قدرت پردازشی مورد نیاز گوگل بودند.
وحدت در خصوص این موضوع گفت:
ما متوجه شدیم که میتوانیم سختافزار سفارشی بسازیم، نه سختافزار عمومی، بلکه سختافزار سفارشی (در این مورد واحدهای پردازش تانسور) برای پشتیبانی بهتر از کاربران؛ در واقع ۱۰۰ برابر کارآمدتر از پشتیبانی تحت شرایط دیگر.»
مراکز داده گوگل همچنان به واحدهای پردازش مرکزی عمومی (CPU) و واحدهای پردازش گرافیکی انویدیا وابستگی (GPU) واحدهای پردازش تانسور گوگل نوع دیگری از تراشه به نام هستند مدار مجتمع مخصوص برنامه (ASIC) برای اهداف خاص در نظر گرفته شده است. TPU بر هوش مصنوعی تمرکز دارد. گوگل همچنین یک ASIC دیگر با تمرکز بر ویدئو به نام واحد کدگذاری ویدئو (VCU) ساخته است.
گوگل همچنین تراشه های سفارشی را برای دستگاه های خود به روشی مشابه استراتژی سیلیکونی سفارشی اپل تولید می کند. اسلاید کشنده G4 پیکسل 9 جدید گوگل با قابلیت های هوش مصنوعی و تراشه جدید A1 نیروی محرکه Pixel Buds Pro 2 است.
با این حال، مواد TPU گوگل را متمایز می کند. طبق گزارش FutureChrome Group، این واحد پردازش اولین واحد از نوع خود بود که در سال 2015 منتشر شد.
گوگل اصطلاح واحد پردازش تانسور را بر اساس عبارت جبر تانسور ابداع کرد که به ضرب ماتریس در مقیاس بزرگ اشاره دارد که برای برنامه های کاربردی سریع هوش مصنوعی پیشرفته رخ می دهد.
با عرضه دومین دستگاه TPU در سال 2018، گوگل تمرکز خود را از استنتاج به آموزش مدل های هوش مصنوعی تغییر داد.
Stacey Rossjohn، تحلیلگر ارشد نیمه هادی در Bernstein Research، گفت:
پردازندههای گرافیکی قابل برنامهریزی و انعطافپذیری بیشتری هستند، اما عرضه آنها محدود بوده است.»
رونق هوش مصنوعی ارزش سهام انویدیا را به شدت افزایش داده است. ارزش بازار این شرکت در ژوئن گذشته به 3 تریلیون دلار رسید که بیشتر از ارزش بازار آلفابت است. این در حالی بود که گوگل با اپل و مایکروسافت برای کسب جایگاه ارزشمندترین شرکت جهان رقابت می کرد.
نیومن در این مورد چنین گفت:
صادقانه بگویم، این شتابدهندههای تخصصی هوش مصنوعی به اندازه پلتفرم انویدیا انعطافپذیر یا قدرتمند نیستند، و این چیزی است که بازار منتظر دیدن آن است: آیا کسی میتواند در این فضا رقابت کند؟
اکنون که می دانیم اپل از واحدهای پردازش تنسور گوگل برای آموزش مدل های هوش مصنوعی خود استفاده می کند، آزمایش واقعی زمانی خواهد بود که ویژگی های هوش مصنوعی گفته شده در سال آینده به طور کامل برای آیفون و مک عرضه شود.
گوگل با Broadcom و TSMC همکاری می کند
توسعه جایگزین های مناسب برای موتورهای هوش مصنوعی انویدیا کار ساده ای نیست. نسل ششم TPU گوگل با نام Trillium قرار است اواخر امسال عرضه شود.
راسگون در مورد این موضوع چنین گفت:
«توسعه جایگزینهای مناسب برای موتورهای هوش مصنوعی پرهزینه و دشوار است؛ این کاری نیست که همه بتوانند انجام دهند؛ اما این مراکز داده بزرگ قابلیتها، بودجه و منابع لازم برای طی کردن این مسیر را دارند.»
این فرآیند به قدری پیچیده و پرهزینه است که حتی مراکز داده بزرگ نیز نمی توانند آن را به تنهایی انجام دهند. گوگل از زمان عرضه اولین مواد TPU خود با Broadcom، یک توسعه دهنده تراشه که به Meta Hamm در طراحی تراشه های هوش مصنوعی کمک می کند، شریک شده است. بارداکام مدعی است بیش از 3 میلیارد دلار برای این همکاری هزینه کرده است.
راسگون در مورد این موضوع چنین گفت:
Broadcom تمام تجهیزات جانبی را انجام می دهد، مدارهای فرستنده و گیرنده که داده های موازی را به داده های سریال تبدیل می کنند و دیگر فعالیت های محاسباتی را بر عهده دارد.
در مرحله بعد طرح نهایی برای تولید به کارخانه ها ارسال می شود. این کارخانه ها متعلق به بزرگترین سازنده تراشه جهان، TSMC است که 92 درصد از پیشرفته ترین قطعات نیمه هادی جهان را تولید می کند.
واحدت در پاسخ به این سوال که آیا گوگل در حال بررسی اقداماتی برای محافظت در برابر بدترین رویدادهای ژئوپلیتیکی بین چین و تایوان است، گفت: “ما قطعا برای چنین رویدادهایی آماده هستیم و در مورد آنها فکر می کنیم، اما امیدواریم در این مورد نیازی به اقدام نباشد. ” “.” نباید مستقیم باشد.
محافظت در برابر این خطرات دلیل اصلی اختصاص 52 میلیارد دلار از پول قانون CHIP توسط کاخ سفید به شرکت هایی است که کارخانه های تولید تراشه در ایالات متحده را می سازند. تاکنون اینتل، TSMC و سامسونگ بیشترین بودجه را دریافت کرده اند.
آیا گوگل در کار خود موفق خواهد شد؟
همه خطرات را کنار بگذاریم، گوگل یک حرکت بزرگ دیگر در تجارت تراشه انجام داده و اعلام کرده است که اولین پردازنده این شرکت برای کاربردهای عمومی، به نام Axion، تا پایان سال در دسترس خواهد بود.
گوگل دیر وارد رقابت CPU شده است. آمازون پردازنده Graviton خود را در سال 2018 و علی بابا تراشه سرور خود را در سال 2021 منتشر کردند. مایکروسافت همچنین CPU خود را در نوامبر اعلام کرد.
وقتی از وحدت پرسیده شد که چرا گوگل زودتر شروع به تولید CPU نکرده است، او گفت:
ما روی جایی تمرکز کردیم که میتوانیم بیشترین ارزش را به مشتریان خود ارائه دهیم و با TPU، رمزگذارهای ویدیویی و شبکهسازی شروع کردیم.
تمامی این پردازنده های شرکت های غیرتراشه ای، از جمله گوگل، با استفاده از معماری تراشه ARM امکان پذیر شده اند. معماری فوق یک جایگزین قابل تنظیم تر و کم مصرف تر است که توانسته توجه بیشتری را نسبت به معماری x86 سنتی مورد استفاده اینتل و AMD به خود جلب کند. بهره وری انرژی بسیار مهم است. زیرا انتظار می رود تا سال 2027 سرورهای هوش مصنوعی به اندازه مصرف برق کشوری مانند آرژانتین در سال مصرف کنند. گزارش زیست محیطی اخیر گوگل نشان داد که انتشار گازهای گلخانه ای از سال 2019 تا 2023 نزدیک به 50 درصد افزایش یافته است که بخشی از آن به دلیل رشد مراکز داده برای تقویت هوش مصنوعی است.
اگر تراشههایی که برای استفاده از هوش مصنوعی طراحی شدهاند، کم قدرت نیستند. ارقام گزارش شده مربوط به خسارات زیست محیطی بسیار بیشتر از مقادیر اعلام شده بود. وحدت در این باره چنین گفت:
ما شبانه روز برای کاهش انتشار کربن از فعالیتهای زیرساختی خود کار میکنیم و برای دستیابی به انتشار صفر تلاش میکنیم.»
خنک کردن سرورهای آموزش و اجرای هوش مصنوعی به آب زیادی نیاز دارد. به همین دلیل، TPU نسل سوم گوگل شروع به استفاده از خنک کننده مستقیم به تراشه کرده است که آب کمتری مصرف می کند. این روش، جایی که کولر مستقیماً در اطراف برد چیپست حرکت می کند، روشی است که انویدیا برای خنک کردن پردازنده های گرافیکی Blackwell خود استفاده می کند.
علیرغم چالش های متعدد، از ژئوپلیتیک گرفته تا برق و آب، گوگل همچنان متعهد به ارائه ابزارهای مولد هوش مصنوعی و تولید تراشه های خود است.
وحدت در این باره گفت:
من هرگز چیزی شبیه طراحی گوگل ندیدهام و شتاب این شرکت هرگز کاهش نیافته است و سختافزار نقش بزرگی در آن بازی خواهد کرد.
منبع خبر: https://digiato.com/computers-hardware/how-google-makes-custom-cloud-chips-that-power-apple-ai-and-gemini
تحریریه ABS NEWS | ای بی اس نیوز