<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>GPU Archives - SupermicroSunucu Blog</title>
	<atom:link href="https://supermicrosunucu.com/blog/category/gpu/feed" rel="self" type="application/rss+xml" />
	<link>https://supermicrosunucu.com/blog/category/gpu</link>
	<description>Supermicro Sunucu, QSAN Storage, Magnetar Storage, NVIDIA Workstation, Mellanox Hakkında Herşey</description>
	<lastBuildDate>Wed, 05 Jun 2024 11:34:49 +0000</lastBuildDate>
	<language>tr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>
	<item>
		<title>Yapay Zeka için Nvidia H100 NVL</title>
		<link>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html</link>
					<comments>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Wed, 05 Jun 2024 11:02:55 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[H100 NVL]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1903</guid>

					<description><![CDATA[Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü &#160; Yapay Zeka için Nvidia H100 NVL NVIDIA H100]]></description>
										<content:encoded><![CDATA[<h1 class="entry-title">Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü</h1>
<p>&nbsp;</p>
<p>Yapay Zeka için Nvidia H100 NVL</p>
<figure id="attachment_1905" aria-describedby="caption-attachment-1905" style="width: 300px" class="wp-caption alignnone"><img fetchpriority="high" decoding="async" class="size-medium wp-image-1905" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2-300x225.jpg" alt="" width="300" height="225" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2-300x225.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-1905" class="wp-caption-text">NVIDIA H100 HVL</figcaption></figure>
<p>NVIDIA H100 HVL daha önce gördüğümüz bir şeye benzeyebilir ancak arada büyük bir fark var. NVIDIA&#8217;ya sorduk ve şirket mantıksal olarak bunun işletim sistemi için iki GPU olduğunu ancak NVLink&#8217;in 188 GB belleğin tamamının sistem tarafından kullanılmasına izin vereceğini söyledi.<span id="more-68131"></span></p>
<h2>Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü</h2>
<p>Yeni NVIDIA H100 NVL, iki NVIDIA H100 PCIe&#8217;yi NVLink ile bir araya getiriyor ve bir yenilik getiriyor. Yeni NVL sürümünde GPU başına 94 GB, toplam 188 GB HBM3 bellek bulunuyor. Bu muhtemelen altıncı 16GB&#8217;lık yığının etkinleştirildiği, ancak 96GB&#8217;lık aktif alanın 94GB&#8217;ı için yalnızca 14GB&#8217;ın mevcut olduğu anlamına geliyor.</p>
<figure id="attachment_1906" aria-describedby="caption-attachment-1906" style="width: 300px" class="wp-caption alignnone"><img decoding="async" class="size-medium wp-image-1906" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1-300x225.jpg" alt="" width="300" height="225" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1-300x225.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-1906" class="wp-caption-text">NVIDIA H100 HVL</figcaption></figure>
<p>Gerçekten ilginç olan da TDP&#8217;dir. Bunlar 350W ila 400W TDP PCIe kartlarıdır. Genel olarak, çoğu sunucu PCIe form faktörlerinde 400W&#8217;ı işleyemediğinden, PCIe kartlarındaki diğer satıcıların çoğunda gördüğümüz en üst seviye 300W&#8217;tır. Bu, üst düzey OAM/SXM form faktörleri için büyük bir etkendir.</p>
<table cellspacing="0" cellpadding="0">
<thead>
<tr>
<th></th>
<th>H100SXM</th>
<th>H100 PCIe</th>
<th>H100NVL</th>
</tr>
</thead>
<tbody>
<tr>
<td>FP64</td>
<td>34 teraFLOPS</td>
<td>26 teraFLOPS</td>
<td>68 teraFLOP</td>
</tr>
<tr>
<td>FP64 Tensör Çekirdeği</td>
<td>67 teraFLOPS</td>
<td>51 teraFLOPS</td>
<td>134 teraFLOP</td>
</tr>
<tr>
<td>FP32</td>
<td>67 teraFLOPS</td>
<td>51 teraFLOPS</td>
<td>134 teraFLOP</td>
</tr>
<tr>
<td>TF32 Tensör Çekirdeği</td>
<td>989 teraFLOPS <sup>1</sup></td>
<td>756teraFLOPS <sup>1</sup></td>
<td>1.979 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>BFLOAT16 Tensör Çekirdeği</td>
<td>1.979 teraFLOPS <sup>1</sup></td>
<td>1.513 teraFLOPS <sup>1</sup></td>
<td>3.958 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>FP16 Tensör Çekirdeği</td>
<td>1.979 teraFLOPS <sup>1</sup></td>
<td>1.513 teraFLOPS <sup>1</sup></td>
<td>3.958 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>FP8 Tensör Çekirdeği</td>
<td>3.958 teraFLOPS <sup>1</sup></td>
<td>3.026 teraFLOPS <sup>1</sup></td>
<td>7.916 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>INT8 Tensör Çekirdeği</td>
<td>3.958 ÜST <sup>1</sup></td>
<td>3.026 ÜST <sup>1</sup></td>
<td>7.916 ÜST <sup>1</sup></td>
</tr>
<tr>
<td>GPU belleği</td>
<td>80 GB</td>
<td>80 GB</td>
<td>188GB</td>
</tr>
<tr>
<td>GPU bellek bant genişliği</td>
<td>3,35 TB/sn</td>
<td>2 TB/sn</td>
<td>7,8 TB/sn</td>
</tr>
<tr>
<td>Kod çözücüler</td>
<td>7 NVDEC<br />
7 JPEG</td>
<td>7 NVDEC<br />
7 JPEG</td>
<td>14 NVDEC<br />
14 JPEG</td>
</tr>
<tr>
<td>Maksimum termal tasarım gücü (TDP)</td>
<td>700W&#8217;a kadar (yapılandırılabilir)</td>
<td>300-350W (yapılandırılabilir)</td>
<td>2x 350-400W<br />
(yapılandırılabilir)</td>
</tr>
<tr>
<td>Çoklu Örnek GPU&#8217;lar</td>
<td colspan="2">Her biri 10 GB&#8217;ta 7 MIGS&#8217;ye kadar</td>
<td>Her biri 12 GB&#8217;ta 14 MIGS&#8217;ye kadar</td>
</tr>
<tr>
<td>Form faktörü</td>
<td>SXM</td>
<td>PCIe<br />
Çift yuvalı hava soğutmalı</td>
<td>2x PCIe<br />
Çift yuvalı hava soğutmalı</td>
</tr>
<tr>
<td>Ara bağlantı</td>
<td>NVLink: 900 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
<td>NVLink: 600 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
<td>NVLink: 600 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
</tr>
</tbody>
</table>
<p>Spesifikasyonlara dayanarak, NVIDIA H100 NVL spesifikasyonlarının 400W için olduğunu varsayarsak, PCIe versiyonlarının H100 SXM5 versiyonlarından çok daha üstün olduğu ancak üst seviye 900GB/s NVLINK arayüzleri olmadığı görülüyor. Hesaplama özellikleri H100 SXM&#8217;nin 2 katıdır, ancak NVL sürümü daha fazla belleğe, daha yüksek bellek bant genişliğine sahiptir ve performans için benzer gücü kullanır.</p>
<h2>Son sözler</h2>
<p>Bizim düşüncemiz, NVL&#8217;nin değerinin düşürülmesi gerektiği veya H100 SXM5&#8217;in yakın zamanda eşleşmesi için spesifikasyon artışına ihtiyaç duyacağı yönünde. Bu çok garip bir konumlandırma. Yine de NVIDIA, ChatGPT için artık DGX A100&#8217;leri kullanan OpenAI&#8217;nin, çıkarımını yapmak için 10x&#8217;e kadar DGX A100 sistemini dört set NVIDIA H100 NVL çiftiyle değiştirebileceğini söylüyor. Zamanla bunların değerinin düşürülüp düşürülmeyeceğini veya H100 SXM5&#8217;in güncellenip güncellenmeyeceğini görmek ilginç olacak.</p>
<p>&nbsp;</p>
<h3>Daha fazla bilgi edinmek için <a href="http://www.gtmteknoloji.com/teklif-talep">bizimle iletişime geçin!</a></h3>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Supermicro AMD EPYC GPU Sunucuları</title>
		<link>https://supermicrosunucu.com/blog/supermicro-amd-epyc-gpu-sunuculari.html</link>
					<comments>https://supermicrosunucu.com/blog/supermicro-amd-epyc-gpu-sunuculari.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Tue, 04 Jun 2024 15:10:39 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[4U]]></category>
		<category><![CDATA[amd]]></category>
		<category><![CDATA[AMD EPYC]]></category>
		<category><![CDATA[AS-4125GS-TNRT]]></category>
		<category><![CDATA[server]]></category>
		<category><![CDATA[sunucu]]></category>
		<category><![CDATA[supermicro]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1860</guid>

					<description><![CDATA[Supermicro 4U AMD EPYC GPU Sunucuları Yapay Zeka Esnekliği Sunuyor (AS-4125GS-TNRT) Supermicro  AMD EPYC GPU Sunucuları yapay zeka esnekliği sunuyor. Bugün,]]></description>
										<content:encoded><![CDATA[<div class="header-standard header-classic single-header">
<h1 class="post-title single-post-title entry-title"><span>Supermicro 4U AMD EPYC GPU Sunucuları Yapay Zeka Esnekliği Sunuyor (AS-4125GS-TNRT)</span></h1>
<div class="post-box-meta-single"></div>
</div>
<div class="post-entry blockquote-style-2">
<div id="penci-post-entry-inner" class="inner-post-entry entry-content">
<p><span id="more-128432">Supermicro </span><span id="more-128432"> AMD EPYC GPU Sunucuları yapay zeka esnekliği sunuyor.</span><span> Bugün, iki AMD EPYC 9004 Serisi CPU&#8217;yu, PCIe Gen5&#8217;i ve sekiz adet çift genişlikli veya 12 adet tek genişlikli ek GPU kartı seçeneğini destekleyen nispeten yeni 4U hava soğutmalı GPU sunucusuna bakıyoruz. Supermicro, bu sunucuların Intel tabanlı çeşitlerini de sunarken, AMD tabanlı AS-4125GS-TNRT ailesi, bu sınıftaki NVIDIA H100 ve AMD Instinct Mi210 GPU&#8217;ları destekleyen tek sunuculardır.</span></p>
<p><img decoding="async" class="alignnone size-medium wp-image-1861" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-GPU-Server-H100-1-1024x590-1-300x173.jpg" alt="" width="300" height="173" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-GPU-Server-H100-1-1024x590-1-300x173.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-GPU-Server-H100-1-1024x590-1-768x443.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-GPU-Server-H100-1-1024x590-1.jpg 1024w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p><span>Supermicro AS-4125GS-TNRT GPU sunucusu, yerleşik 10GbE ağ bağlantısı, bant dışı yönetim, 9 FHFL PCIe Gen5 yuvası, dördü NVMe ve geri kalanı SATA/SAS olmak üzere 24 2,5″ yuva gibi birkaç donanım özelliğine daha sahiptir. Ayrıca 4x yedekli titanyum düzeyinde 2000W güç kaynakları da bulunmaktadır. Anakartta önyükleme için tek bir M.2 NVMe yuvası bulunur.</span></p>
<p><span>Bu yolda çok ileri gitmeden önce, Supermicro&#8217;nun AS-4125GS-TNRT sunucu yapılandırmasının iki çeşidini daha sunduğunu belirtmekte fayda var. Aynı anakartı kullanmalarına rağmen AS-4125GS-TNRT1, 10 adede kadar çift genişlikli GPU&#8217;yu ve 8 NVMe SSD yuvasını destekleyen PCIe anahtarına sahip tek soketli bir yapılandırmadır. AS -4125GS-TNRT2, yine PCIe anahtarıyla aşağı yukarı aynı olan çift işlemcili bir konfigürasyondur.</span></p>
<p><span>Yapılandırma ne olursa olsun, Supermicro AS-4125GS-TNRT, tasarımı ve PCIe anahtarıyla model seçebilme yeteneği sayesinde inanılmaz derecede esnektir. Bu tarz GPU sunucusu popülerdir çünkü kuruluşların küçükten başlayıp genişletmelerine, farklı ihtiyaçlar için GPU&#8217;ları karıştırıp eşleştirmelerine veya istedikleri herhangi bir şeyi yapmalarına olanak tanır. Soketli GPU sistemleri, büyük yapay zeka iş yükleri için GPU&#8217;ları daha iyi bir araya getirme olanağı sağlar, ancak iş yükü esnekliği açısından eklenti kart sistemlerine rakip olamaz.</span></p>
<div id="attachment_128439" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1862" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-AS-4125GS-TNRT-GPU-1024x625-1-300x183.jpg" alt="" width="300" height="183" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-AS-4125GS-TNRT-GPU-1024x625-1-300x183.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-AS-4125GS-TNRT-GPU-1024x625-1-768x469.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-AS-4125GS-TNRT-GPU-1024x625-1.jpg 1024w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p id="caption-attachment-128439" class="wp-caption-text"><span>SC23&#8217;ten AMD ve NVIDIA GPU&#8217;lara sahip Supermicro AS-4125GS-TNRT</span></p>
</div>
<p><span>Dahası, bu bazılarına küfür gibi gelse de, Supermicro eklenti kartı GPU sunucuları, aynı kutuda AMD ve NVIDIA kartlarıyla bile kullanılabilir! Diyeceksiniz ama pek çok müşteri bazı iş yüklerinin Instinct&#8217;i, diğer iş yüklerinin ise NVIDIA GPU&#8217;yu tercih ettiğini fark etti. Son olarak, her ne kadar tıka basa doldurulmuş GPU sunucularına göre daha az popüler olsa da, bu yuvaların yalnızca PCIe yuvaları olduğunu belirtmekte fayda var; Müşterilerin bu donanımda FPGA&#8217;leri, DPU&#8217;ları veya başka bir tür hızlandırıcıyı tercih edebileceği senaryoları hayal etmek mantıksız değil. Yine esneklik bu tasarımın en önemli faydasıdır.</span></p>
<p><span>İnceleme amaçlarımız doğrultusunda, Supermicro AS-4125GS-TNRT, CPU, DRAM, depolama ve tabii ki GPU&#8217;ları eklememize hazır, barebone olarak geldi. Bu inceleme için 4x NVIDIA H100 GPU ödünç almak üzere Supermicro ile çalıştık.</span></p>
<h2><span>Supermicro AS-4125GS-TNRT Özellikleri</span></h2>
<table>
<thead>
<tr>
<td colspan="2"><strong><span>Özellikler</span></strong></td>
</tr>
</thead>
<tbody>
<tr>
<td><strong><span>İşlemci</span></strong></td>
<td><span>Her Biri 128C / 256T&#8217;ye kadar Çift Soketli SP5 CPU&#8217;lar</span></td>
</tr>
<tr>
<td><strong><span>Hafıza</span></strong></td>
<td><span>24x&#8217;e kadar 256 GB 4800 MHz ECC DDR5 RDIMM/LRDIMM </span><em><span>(Toplam 6 TB Bellek)</span></em></td>
</tr>
<tr>
<td><strong><span>GPU</span></strong></td>
<td>
<ul>
<li><span>8&#8217;e kadar Çift genişlikli veya 12&#8217;ye kadar Tek Genişlikli GPU.</span></li>
<li><span>AMD MI210 ve NVIDIA H100&#8217;ü destekler</span></li>
</ul>
</td>
</tr>
<tr>
<td><strong><span>Genişleme yuvaları</span></strong></td>
<td><span>9x PCIE 5.0 x16 FHFL Yuvası</span></td>
</tr>
<tr>
<td><strong><span>Güç kaynakları</span></strong></td>
<td><span>4x 2000W Yedekli Güç Kaynağı</span></td>
</tr>
<tr>
<td><strong><span>Ağ oluşturma</span></strong></td>
<td><span>2x 10GbE</span></td>
</tr>
<tr>
<td><strong><span>Depolamak</span></strong></td>
<td>
<ul>
<li><span>1 adet M.2 NVME</span></li>
<li><span>24x 2,5&#8243; çalışırken değiştirilebilir NVMe/SATA/SAS sürücü bölmeleri (4x 2,5&#8243; NVMe ayrılmış)</span></li>
</ul>
</td>
</tr>
<tr>
<td><strong><span>Anakart</span></strong></td>
<td><span>Süper H13DSG-O-CPU</span></td>
</tr>
<tr>
<td><strong><span>Yönetmek</span></strong></td>
<td>
<ul>
<li><span>IPMI 2.0</span></li>
<li><span>Özel LAN&#8217;lı KVM</span></li>
</ul>
</td>
</tr>
<tr>
<td><strong><span>Güvenlik</span></strong></td>
<td>
<ul>
<li><span>TPM 2.0</span></li>
<li><span>Silikon RoT-NIST 800-193 Uyumlu</span></li>
</ul>
</td>
</tr>
<tr>
<td><strong><span>Şasi Boyutu</span></strong></td>
<td><span>4U</span></td>
</tr>
</tbody>
</table>
<h2><span>Supermicro AS-4125GS-TNRT Yapılandırmayı İnceleme</span></h2>
<p><span>Sistemimizi Supermicro&#8217;dan barebone olarak yapılandırdık, ancak onlar bunu büyük ölçüde yapılandırılmış bir sistem olarak satıyorlar. Laboratuvara vardığımızda yaptığımız ilk şey onu bir çift AMD EPYC 9374F 32c 64t CPU ile doldurmak oldu. Bunlar, yüksek saat hızları ve saygın çok çekirdekli performansları nedeniyle seçildi.</span></p>
<p><span>Hızlandırıcılar için, eski Intel Phi Yardımcı İşlemcilerinden en yeni H100 PCIe kartlarına ve üst seviye RTX 6000 iş istasyonu GPU&#8217;larına kadar geniş bir yelpazede seçim yapabileceğimiz oldukça fazla ürünümüz vardı. Ham hesaplama gücünü verimlilik ve çok yönlülükle dengelemeyi amaçladık. Sonuçta dört adet NVIDIA RTX A6000 GPU ile başlamaya ve ardından ilk testlerimiz için dört adet NVIDIA H100 PCIe kartına geçmeye karar verdik. Bu kombinasyon Supermicro platformunun esnekliğini ve NVIDIA hızlandırıcı kartlarını gösterir.</span></p>
<p><span>Öncelikle grafik ağırlıklı iş yüklerinde performans için tasarlanan RTX A6000, Ampere mimarisiyle yapay zeka ve HPC uygulamalarında da öne çıkıyor. 48 GB GDDR6 bellek sunarak büyük veri kümelerinin ve karmaşık simülasyonların işlenmesi için idealdir. 10.752 CUDA ve 336 Tensor çekirdeği, yapay zeka ve derin öğrenme testlerimiz için çok önemli olan hızlandırılmış hesaplamayı mümkün kılıyor.</span></p>
<p><span>Öte yandan NVIDIA H100 PCIe kartları, öncelikle yapay zeka iş yükleri için tasarlanan Hopper mimarisi serisinin en yeni nakliye kartlarıdır. Her kartta etkileyici 80 milyar transistör, 80 GB HBM3 bellek ve GPT-4 gibi yapay zeka modelleri için özel olarak tasarlanmış çığır açan Transformer Engine bulunuyor. H100&#8217;ün 4. nesil Tensör Çekirdekleri ve DPX talimatları, yapay zeka çıkarımını ve eğitim görevlerini önemli ölçüde artırır.</span></p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1863" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-GPU-Server-H100-2-1024x550-1-300x161.jpg" alt="" width="300" height="161" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-GPU-Server-H100-2-1024x550-1-300x161.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-GPU-Server-H100-2-1024x550-1-768x413.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-Supermicro-GPU-Server-H100-2-1024x550-1.jpg 1024w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p><span>Bu GPU&#8217;ları Supermicro barebone sistemimize entegre ederek, bu üst düzey bileşenlerden önemli miktarda güç çekimi ve ısı üretimi göz önüne alındığında, optimum termal yönetim ve güç dağıtımını sağlamaya odaklandık. Supermicro şasisi, resmi olarak böyle bir konfigürasyonu desteklemese de kurulumumuza uyum sağlayacak kadar çok yönlü olduğunu kanıtladı. A6000&#8217;lerin termallerini kontrol altında tutmak için, sincap kafesli fan tasarımından dolayı onları bir kart genişliğinde aralık bırakmak zorunda kaldık, ancak H100&#8217;ler geçişli, pasif soğutma kanatlarıyla paketlenebilir.</span></p>
<p><span>Karşılaştırma paketimiz, HPC ve yapay zekaya özgü kullanım senaryolarının bir karışımını içeriyordu. Bunlar, geleneksel kıyaslama iş yüklerinden yapay zeka eğitimine ve evrişimsel sinir ağı modellerini kullanan çıkarım görevlerine kadar uzanıyordu. Ham performanslarını ve verimliliklerini, ölçeklenebilirliklerini ve Supermicro A+ sunucumuzla entegrasyon kolaylığını değerlendirerek bu hızlandırıcıların sınırlarını zorlamayı hedefledik.</span></p>
<h2><span>Supermicro AS-4125GS-TNRT GPU Testi</span></h2>
<p><span>Laboratuvarda bir CNN temel modeli üzerinde çalışırken NVIDIA&#8217;nın amiral gemisi GPU&#8217;larını incelerken, bir çift daha eski ama son derece yetenekli </span><a href="https://www.storagereview.com/review/meta-llama-and-alpacas-loose-in-the-lab-running-large-language-models-locally"><span>RTX8000</span></a><span> GPU üzerinde iş istasyonu düzeyinde bazı eğitimlerle başladık.</span></p>
<p><span>Yapay zeka performans analizimiz sırasında, NVIDIA RTX 8000&#8217;den dört RTX A6000 GPU&#8217;ya ve son olarak dört NVIDIA H100 PCIe kartına geçerek yeteneklerde dikkat çekici ancak beklenen bir ilerleme gözlemledik. Bu ilerleme, yapay zeka iş yüklerine giderek daha fazla odaklanıldıkça, bu hızlandırıcıların saf gücünü ve NVIDIA hızlandırıcılarının son birkaç yıldaki evrimini gözler önüne serdi.</span></p>
<p><span>RTX 8000&#8217;den başlayarak iyi performans seviyelerine dikkat çektik. Bu kurulumla, 6,36 GB&#8217;lık bir görüntü veri kümesi üzerinde yapay zeka modeli eğitimimiz dönem başına yaklaşık 45 dakika sürdü. Ancak parti boyutu ve üstesinden gelebileceği görevlerin karmaşıklığı açısından RTX 8000&#8217;in sınırlamaları açıkça görülüyordu. Daha küçük parti boyutlarıyla sınırlıydık ve etkili bir şekilde eğitebileceğimiz sinir ağı modellerinin karmaşıklığı sınırlıydı.</span></p>
<p><span>Dört RTX A6000 GPU&#8217;ya geçiş, performansta önemli bir sıçramaya işaret etti. A6000&#8217;in üstün bellek bant genişliği ve daha büyük GDDR6 belleği, aynı dönem süresini ve model karmaşıklığını korurken toplu iş boyutunu dört katına çıkarmamıza olanak sağladı. Bu iyileştirme, eğitim sürecini iyileştirdi ve eğitim süresini uzatmadan daha karmaşık modelleri denememize olanak sağladı.</span></p>
<p><span>Ancak en çarpıcı gelişme dört adet NVIDIA H100 PCIe kartının piyasaya sürülmesiyle geldi. Hopper mimarisinin gelişmiş yapay zeka özelliklerinden yararlanan bu kartlar, parti boyutunu yeniden ikiye katlamamıza olanak sağladı. Daha etkileyici bir şekilde, çağ süresinde kayda değer bir değişiklik olmadan yapay zeka modellerimizin karmaşıklığını önemli ölçüde artırabildik. Bu yetenek, H100&#8217;ün, karmaşık yapay zeka operasyonlarını verimli bir şekilde yönetmek için optimize edilmiş Transformer Engine ve 4. nesil Tensör Çekirdekleri gibi gelişmiş yapay zekaya özgü özelliklerinin bir kanıtıdır.</span></p>
<p><span>Bu testler boyunca, 6,36 GB görüntü veri kümesi ve model parametreleri tutarlı bir kıyaslama görevi görerek farklı GPU yapılandırmalarındaki performansı doğrudan karşılaştırmamıza olanak sağladı. RTX 8000&#8217;den A6000&#8217;lere ve ardından H100&#8217;lere geçiş, ham işlem gücündeki gelişmelerin ve GPU&#8217;ların hız veya verimlilikten ödün vermeden daha büyük, daha karmaşık yapay zeka iş yüklerini yönetebilme becerisinin altını çizdi. Bu, bu GPU&#8217;ları özellikle son teknoloji yapay zeka araştırmaları ve büyük ölçekli derin öğrenme uygulamaları için uygun hale getiriyor.</span></p>
<p><span>Testlerimizde kullanılan Supermicro sunucu, PCIe anahtarı ihtiyacını ortadan kaldırarak CPU&#8217;lara doğrudan PCIe bağlantısı sunuyor. Bu doğrudan bağlantı, her GPU&#8217;nun CPU&#8217;ya özel bir yola sahip olmasını sağlayarak hızlı ve verimli veri aktarımını kolaylaştırır. Bu mimari, yapay zeka ve HPC&#8217;deki bazı iş yüklerinde gecikmeyi en aza indirmek ve bant genişliği kullanımını en üst düzeye çıkarmak açısından çok önemlidir; özellikle tüm işlerin sunucuda yerel olduğu yapay zeka modeli eğitimi veya karmaşık VDI ortamları gibi yüksek verimli görevlerle uğraşırken faydalıdır.</span></p>
<h2><span>Çözüm</span></h2>
<p><span>Supermicro AMD EPYC GPU Sunucuları Supermicro GPU A+ Sunucu AS-4125GS-TNRT sunucusunun ölçeklenebilirliği ve esnekliği buradaki en önemli özelliklerdir. Yapay zeka, VDI veya diğer yüksek performanslı görevlerde gelişen iş yükü taleplerine uyum sağlama ihtiyacı duyan müşteriler için özellikle faydalıdır. Mütevazı bir yapılandırmayla başlayan kullanıcılar, giriş seviyesi yapay zeka veya VDI görevlerini etkili bir şekilde gerçekleştirebilir, böylece daha küçük iş yükleri veya yapay zeka ve sanal masaüstü altyapısına yeni girmeye başlayanlar için uygun maliyetli bir çözüm sunulur. Bu ilk kurulum, sağlam ve ölçeklenebilir bir temel sağlayarak kullanıcıların temel ancak gerekli yapay zeka ve VDI uygulamalarıyla etkileşime geçmesine olanak tanır.</span></p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1864" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-supermicro-4U-GPU-server-1024x580-1-300x170.jpeg" alt="" width="300" height="170" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-supermicro-4U-GPU-server-1024x580-1-300x170.jpeg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-supermicro-4U-GPU-server-1024x580-1-768x435.jpeg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/SupermicroSunucu-supermicro-4U-GPU-server-1024x580-1.jpeg 1024w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p><span>Ayrıca pek çok işletmenin soketli H100 GPU&#8217;lardan yararlanmak istediğini bilsek de bu platformlar için bekleme süreleri çok uzun, birçok kaynak bize bu bekleme süresinin neredeyse bir yıl olduğunu söyledi. Tedarik zinciri lojistiği bu sunucunun harika yanının altını çiziyor: Her şeyin üstesinden gelebilir. L40S GPU&#8217;lar &#8220;şimdi&#8221; kullanıma sunuldu, böylece müşteriler bu kombinasyonla birlikte en azından yapay zeka iş yüklerini daha geç değil, daha erken harekete geçirebilirler. İhtiyaçlar değiştikçe müşteriler kartları kolayca değiştirebilir. Bu, Supermicro GPU A+ Sunucu AS-4125GS-TNRT sunucusunun yalnızca acil ihtiyaçlara yönelik olmasını değil, aynı zamanda gelişen teknolojik ortama uyum sağlayarak geleceğe hazır olmasını sağlar.</span></p>
</div>
</div>
<p><a href="https://supermicrosunucu.com/product/supermicro-as-4125gs-tnrt-4u-8-gpu-dp-server">supermicrosunucu.com</a> üzerinden ürünü konfigüre edebilirsiniz.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/supermicro-amd-epyc-gpu-sunuculari.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Dünyanın En Güçlü GPU&#8217;su</title>
		<link>https://supermicrosunucu.com/blog/dunyanin-en-guclu-gpusu-nvidia-h200.html</link>
					<comments>https://supermicrosunucu.com/blog/dunyanin-en-guclu-gpusu-nvidia-h200.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Thu, 21 Mar 2024 22:18:11 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[H200 GPU]]></category>
		<category><![CDATA[Nvidia]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1656</guid>

					<description><![CDATA[Yapay zeka ve HPC iş yüklerini güçlendirmek için dünyanın en güçlü GPU&#8217;su NVIDIA H200 Tensor Core GPU, oyunun kurallarını değiştiren]]></description>
										<content:encoded><![CDATA[<h3>Yapay zeka ve HPC iş yüklerini güçlendirmek için dünyanın en güçlü GPU&#8217;su</h3>
<p>NVIDIA H200 Tensor Core GPU, oyunun kurallarını değiştiren performans ve bellek özellikleriyle üretken yapay zeka ve yüksek performanslı bilgi işlem (HPC) iş yüklerini güçlendirir. HBM3e&#8217;ye sahip ilk GPU olan H200&#8217;ün daha büyük ve daha hızlı belleği, üretken yapay zeka ve büyük dil modellerinin (LLM&#8217;ler) hızlandırılmasını sağlarken HPC iş yükleri için bilimsel bilgi işlemi geliştirir.</p>
<p><img loading="lazy" decoding="async" class="alignnone  wp-image-1661" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU-1024x944.jpg" alt="" width="424" height="391" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU-1024x944.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU-300x277.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU-768x708.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU.jpg 1158w" sizes="(max-width: 424px) 100vw, 424px" /></p>
<div class="nv-container container responsivegrid aem-GridColumn aem-GridColumn--default--12">
<div id="container-3a785f44cc" class="p-t-30 p-b-0 lap-p-t-30 lap-p-b-0 tab-p-t-30 tab-p-b-0 mob-p-t-30 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container">
<div class="general-container nv-flexbox d-col-3 l-col-3 t-col-2 p-col-1 d-justify-center l-justify-center t-justify-center p-justify-center flex-align-stretch ">
<div class="nv-container container responsivegrid">
<div id="container-57c79467c2" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-5abf9c6a1c" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3 class="title ">Llama2 70B Çıkarım  &#8211; 1,9 Kat <span style="font-size: 16px;">Daha Hızlı</span></h3>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-964a0d9802" class="p-t-0 p-b-0 lap-p-t-0 lap-p-b-0 tab-p-t-0 tab-p-b-0 mob-p-t-30 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container" data-cmp-breadcrumbcolor="none">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-b2efc2bebd" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3 class="title ">GPT-3 175B Çıkarım &#8211; 1,6 Kat <span style="font-size: 16px;">Daha Hızlı</span></h3>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-df03b36c44" class="p-t-0 p-b-0 lap-p-t-0 lap-p-b-0 tab-p-t-30 tab-p-b-0 mob-p-t-30 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container" data-cmp-breadcrumbcolor="none">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-f0e71b5c98" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3 class="title ">Yüksek Performanslı Bilgi İşlem &#8211; 110X <span style="font-size: 16px;">Daha Hızlı</span></h3>
<p>&nbsp;</p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-title text h--medium aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-16d49bc250" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h2 class="title ">Daha Yüksek Performans ve Daha Büyük, Daha Hızlı Bellek</h2>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn--tablet--10 aem-GridColumn--default--none aem-GridColumn--phone--none aem-GridColumn--phone--12 aem-GridColumn--tablet--none aem-GridColumn aem-GridColumn--default--8 aem-GridColumn--offset--default--2 aem-GridColumn--offset--phone--0 aem-GridColumn--offset--tablet--1">
<div id="nv-text-d661bae86f" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<div class="description ">
<p><a href="https://www.nvidia.com/en-us/data-center/technologies/hopper-architecture/">NVIDIA Hopper mimarisini</a> temel alan NVIDIA H200, saniyede 4,8 terabayt (TB/s) hızında 141 gigabayt (GB) HBM3e bellek sunan ilk GPU&#8217;dur; bu, NVIDIA <a href="https://www.nvidia.com/en-us/data-center/h100/">H100 Tensor Core GPU&#8217;nun</a> 1,4X kapasitesinin neredeyse iki katıdır. daha fazla bellek bant genişliği. H200&#8217;ün daha büyük ve daha hızlı belleği, üretken AI ve LLM&#8217;leri hızlandırırken, daha iyi enerji verimliliği ve daha düşük toplam sahip olma maliyetiyle HPC iş yükleri için bilimsel bilgi işlemi geliştirir.</p>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid aem-GridColumn aem-GridColumn--default--12">
<div id="container-5da33bc9c2" class="p-t-30 p-b-30 lap-p-t-30 lap-p-b-30 tab-p-t-15 tab-p-b-15 mob-p-t-15 mob-p-b-15 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container">
<div class="general-container nv-flexbox d-col-2 l-col-2 t-col-2 p-col-1 d-justify-center l-justify-center t-justify-center p-justify-center flex-align-stretch ">
<div class="nv-container container responsivegrid">
<div id="container-fbf8f6313c" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-image image nv-no-bottom-padding aem-GridColumn aem-GridColumn--default--12">
<div id="nv-image-09d1e5afa0" class="cmp-image d-align-left l-align-left t-align-left m-align-left" data-cmp-lazy="" data-cmp-lazythreshold="300" data-cmp-src="/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_511474119/nv_container_1494459889/nv_image.coreimg{.width}.svg/1699701485833/llm-inference-chart.svg" data-asset="/content/dam/en-zz/Solutions/Data-Center/h200/LLM-inference-chart.svg" data-title="Up to 1.6 Higher Inference Performance with NVIDIA H200" data-cmp-type="renditionUpload"><img decoding="async" class="cmp-image__image" title="NVIDIA H200 ile 1,6'ya Kadar Daha Yüksek Çıkarım Performansı" src="https://www.nvidia.com/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_511474119/nv_container_1494459889/nv_image.coreimg.svg/1699701485833/llm-inference-chart.svg" alt="NVIDIA H200 ile 1,6'ya Kadar Daha Yüksek Çıkarım Performansı" data-cmp-hook-image="image" data-analytics="nv-image-09d1e5afa0" /></div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-2c0f4ec1c2" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p><span class="p--small">Ön ölçülen performans, değişikliğe tabidir.<br />
Llama2 13B: ISL 128, OSL 2K | Verim | H100 1x GPU BS 64 | H200 1x GPU BS 128<br />
GPT-3 175B: ISL 80, OSL 200 | x8 H100 GPU&#8217;lar BS 64 | x8 H200 GPU&#8217;lar BS 128<br />
Llama2 70B: ISL 2K, OSL 128 | Verim | H100 1x GPU BS 8 | H200 1x GPU BS 32.</span></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-2329dd9c76" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--small aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-f3495724d0" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<h3 class="title ">Yüksek Performanslı Yüksek Lisans Çıkarımıyla İçgörülerin Kilidini Açın</h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-7b44f0782f" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p>Yapay zekanın sürekli gelişen ortamında işletmeler, çeşitli çıkarım ihtiyaçlarını karşılamak için Yüksek Lisans&#8217;lara güveniyor. Bir yapay zeka çıkarım hızlandırıcısı, geniş bir kullanıcı tabanına uygun ölçekte dağıtıldığında en yüksek verimi en düşük toplam sahip olma maliyetiyle sunmalıdır.</p>
<p>H200, Llama2 gibi LLM&#8217;leri işlerken H100 GPU&#8217;lara kıyasla çıkarım hızını 2 kata kadar artırır.</p>
<div class="nv-container container responsivegrid">
<div id="container-c77c549d4e" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--small aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-a0957106c3" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<h3 class="title ">Yüksek Performanslı Bilgi İşlemi Güçlendirin</h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-3f6240e321" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p>Bellek bant genişliği, daha hızlı veri aktarımı sağlayarak karmaşık işlem darboğazlarını azalttığından HPC uygulamaları için çok önemlidir. Simülasyonlar, bilimsel araştırmalar ve yapay zeka gibi yoğun bellek kullanan HPC uygulamaları için H200&#8217;ün daha yüksek bellek bant genişliği, verilere verimli bir şekilde erişilmesini ve işlenmesini sağlar ve CPU&#8217;lara kıyasla sonuçlara 110 kat daha hızlı ulaşmayı sağlar.</p>
</div>
</div>
</div>
</div>
<div class="nv-button button nv-button-text nv-button-caret aem-GridColumn aem-GridColumn--default--12">
<div class="nv-button-standard button-left button-lap-left button-tab-left button-mob-left"><a id="nv-button-068fee6f34" class="btn-content btncta" href="https://www.nvidia.com/en-us/high-performance-computing/" target="_self" rel="noopener"><span class="btn-text">Yüksek Performanslı Bilgi İşlem Hakkında Daha Fazla Bilgi Edinin</span></a></div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-44723cd34f" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-image image nv-no-bottom-padding aem-GridColumn aem-GridColumn--default--12">
<div id="nv-image-b7b88074b8" class="cmp-image d-align-left l-align-left t-align-left m-align-left" data-cmp-lazy="" data-cmp-lazythreshold="300" data-cmp-src="/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_co/nv_container_276551332/nv_image.coreimg{.width}.svg/1705561928634/high-performance-computing-chart.svg" data-asset="/content/dam/en-zz/Solutions/Data-Center/h200/high-performance-computing-chart.svg" data-title="Supercharge High-Performance Computing with NVIDIA H200" data-cmp-type="renditionUpload"><img decoding="async" class="cmp-image__image" title="NVIDIA H200 ile Yüksek Performanslı Bilgi İşlemi Güçlendirin" src="https://www.nvidia.com/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_co/nv_container_276551332/nv_image.coreimg.svg/1705561928634/high-performance-computing-chart.svg" alt="NVIDIA H200 ile Yüksek Performanslı Bilgi İşlemi Güçlendirin" data-cmp-hook-image="image" data-analytics="nv-image-b7b88074b8" /></div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-3c3d04d3c8" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p><span class="p--small">Tahmini performans değişebilir.<br />
HPC MILC-veri kümesi NERSC Apex Medium | HGX H200 4-GPU | çift ​​Sapphire Rapids 8480<br />
HPC Uygulamaları- CP2K: veri kümesi H2O-32-RI-dRPA-96points | GROMACS: STMV veri kümesi | SİMGE: veri kümesi r2b5 | MILC: veri kümesi NERSC Apex Medium | Chroma: veri kümesi HMC Medium | Quantum Espresso: AUSURF112 veri kümesi | 1x H100 | 1x H200.</span></p>
<div class="nv-container container responsivegrid aem-GridColumn aem-GridColumn--default--12">
<div id="container-365bd49bd8" class="p-t-30 p-b-30 lap-p-t-30 lap-p-b-30 tab-p-t-15 tab-p-b-0 mob-p-t-15 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container">
<div class="general-container nv-flexbox d-col-2 l-col-2 t-col-2 p-col-1 d-justify-center l-justify-center t-justify-center p-justify-center flex-align-stretch p-column-reverse ">
<div class="nv-container container responsivegrid">
<div id="container-44723cd34f" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-image image nv-no-bottom-padding aem-GridColumn aem-GridColumn--default--12">
<div id="nv-image-b7b88074b8" class="cmp-image d-align-left l-align-left t-align-left m-align-left" data-cmp-lazy="" data-cmp-lazythreshold="300" data-cmp-src="/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_co/nv_container_276551332/nv_image.coreimg{.width}.svg/1705561928634/high-performance-computing-chart.svg" data-asset="/content/dam/en-zz/Solutions/Data-Center/h200/high-performance-computing-chart.svg" data-title="Supercharge High-Performance Computing with NVIDIA H200" data-cmp-type="renditionUpload"><img decoding="async" class="cmp-image__image" title="NVIDIA H200 ile Yüksek Performanslı Bilgi İşlemi Güçlendirin" src="https://www.nvidia.com/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_co/nv_container_276551332/nv_image.coreimg.svg/1705561928634/high-performance-computing-chart.svg" alt="NVIDIA H200 ile Yüksek Performanslı Bilgi İşlemi Güçlendirin" data-cmp-hook-image="image" data-analytics="nv-image-b7b88074b8" /></div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-3c3d04d3c8" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p><span class="p--small">Tahmini performans değişebilir.<br />
HPC MILC-veri kümesi NERSC Apex Medium | HGX H200 4-GPU | çift ​​Sapphire Rapids 8480<br />
HPC Uygulamaları- CP2K: veri kümesi H2O-32-RI-dRPA-96points | GROMACS: STMV veri kümesi | SİMGE: veri kümesi r2b5 | MILC: veri kümesi NERSC Apex Medium | Chroma: veri kümesi HMC Medium | Quantum Espresso: AUSURF112 veri kümesi | 1x H100 | 1x H200.</span></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid aem-GridColumn aem-GridColumn--default--12">
<div id="teaser-img" class="p-t-30 p-b-0 lap-p-t-30 lap-p-b-0 tab-p-t-15 tab-p-b-0 mob-p-t-15 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container">
<div class="general-container nv-flexbox d-col-2 l-col-2 t-col-2 p-col-1 d-justify-center l-justify-center t-justify-center p-justify-center flex-align-stretch ">
<div class="nv-container container responsivegrid">
<div id="container-88ae61bd65" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-image image nv-no-bottom-padding aem-GridColumn aem-GridColumn--default--12">
<div id="nv-image-b93d10ea3a" class="cmp-image d-align-left l-align-left t-align-left m-align-left" data-cmp-lazy="" data-cmp-lazythreshold="300" data-cmp-src="/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_51/nv_container_458340181/nv_image.coreimg{.width}.svg/1699701486156/energy-tco-chart.svg" data-asset="/content/dam/en-zz/Solutions/Data-Center/h200/energy-tco-chart.svg" data-title="Better Energy Efficiency and Cost with NVIDIA H200" data-cmp-type="renditionUpload"><img decoding="async" class="cmp-image__image" title="NVIDIA H200 ile Daha İyi Enerji Verimliliği ve Maliyet" src="https://www.nvidia.com/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_51/nv_container_458340181/nv_image.coreimg.svg/1699701486156/energy-tco-chart.svg" alt="NVIDIA H200 ile Daha İyi Enerji Verimliliği ve Maliyet" data-cmp-hook-image="image" data-analytics="nv-image-b93d10ea3a" /></div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-4ce3899438" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p><span class="p--small">Ön ölçülen performans, değişikliğe tabidir.<br />
Llama2 70B: ISL 2K, OSL 128 | Verim | H100 1x GPU BS 8 | H200 1x GPU BS 32</span></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-038a267c8b" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--small aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-51a401f278" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<h3 class="title ">Enerjiyi ve Toplam Sahip Olma Maliyetini Azaltın</h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-f499612792" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p>H200&#8217;ün piyasaya sürülmesiyle enerji verimliliği ve toplam sahip olma maliyeti yeni seviyelere ulaşıyor. Bu son teknoloji, tümü H100 ile aynı güç profilinde olmak üzere benzersiz bir performans sunar. Yalnızca daha hızlı değil, aynı zamanda daha çevre dostu olan yapay zeka fabrikaları ve süper bilgi işlem sistemleri, yapay zekayı ve bilim topluluğunu ileriye taşıyan ekonomik bir avantaj sağlıyor.</p>
</div>
</div>
</div>
</div>
<div class="nv-button button nv-button-text nv-button-caret aem-GridColumn aem-GridColumn--default--12">
<div class="nv-button-standard button-left button-lap-left button-tab-left button-mob-left"><a id="nv-button-62b50a4ed8" class="btn-content btncta" href="https://www.nvidia.com/en-us/data-center/sustainable-computing/" target="_self" rel="noopener"><span class="btn-text">Sürdürülebilir Bilgi İşlem Hakkında Daha Fazla Bilgi Edinin</span></a></div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-button button nv-button-text nv-button-caret aem-GridColumn aem-GridColumn--default--12">
<div class="nv-button-standard button-left button-lap-left button-tab-left button-mob-left"></div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/dunyanin-en-guclu-gpusu-nvidia-h200.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA AIOps İş Ortağı Ekosistemi İşletmeler için Yapay Zekayı Harmanlıyor</title>
		<link>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Thu, 21 Mar 2024 22:05:16 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[Generative AI]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[Nvidia]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1652</guid>

					<description><![CDATA[Sağlayıcılar, NVIDIA AI Enterprise yazılımını ve hızlandırılmış bilgi işlemi kullanarak BT operasyonlarını ve siber güvenliği güçlendiriyor. Günümüzün karmaşık iş ortamlarında]]></description>
										<content:encoded><![CDATA[<h4>Sağlayıcılar, NVIDIA AI Enterprise yazılımını ve hızlandırılmış bilgi işlemi kullanarak BT operasyonlarını ve siber güvenliği güçlendiriyor.</h4>
<p><img loading="lazy" decoding="async" class="alignnone size-large wp-image-1653" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1024x542.jpg" alt="" width="800" height="423" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1024x542.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-300x159.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-768x406.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1536x812.jpg 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-390x205.jpg 390w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps.jpg 1902w" sizes="(max-width: 800px) 100vw, 800px" /></p>
<p><span>Günümüzün karmaşık iş ortamlarında BT ekipleri, çalışan hesaplarının kilitlenmesi gibi basit sorunlardan kritik güvenlik tehditlerine kadar sürekli bir dizi zorlukla karşı karşıyadır. Bu durumlar hem hızlı düzeltmeler hem de stratejik savunmalar gerektirir, bu da operasyonların sorunsuz ve güvenli bir şekilde sürdürülmesini daha da zorlaştırır.</span></p>
<p><span>Yapay zekayı BT operasyonlarıyla harmanlayarak yalnızca rutin görevleri otomatikleştirmekle kalmayıp aynı zamanda güvenlik önlemlerini de geliştiren AIOps tam da bu noktada devreye giriyor. Bu etkili yaklaşım, ekiplerin küçük sorunlarla hızlı bir şekilde ilgilenmesine ve daha da önemlisi, güvenlik tehditlerini eskisinden daha hızlı ve daha doğru bir şekilde tanımlayıp yanıt vermesine olanak tanır.</span></p>
<p><span>AIOps, makine öğrenimini kullanarak yalnızca operasyonları kolaylaştırmada değil, aynı zamanda genel olarak güvenliği güçlendirmede de önemli bir araç haline geliyor. Gelişmiş yapay zekayı ekiplerine entegre etmek isteyen işletmeler için oyunun kurallarını değiştirecek ve potansiyel güvenlik risklerinin bir adım önünde kalmalarına yardımcı olacak.</span></p>
<p><span>IDC&#8217;ye</span><span> göre , BT operasyon yönetimi yazılım pazarının yıllık %10,3 oranında büyüyerek 2027 yılına kadar tahmini 28,4 milyar dolar gelire ulaşması bekleniyor. Bu büyüme, operasyonel verimlilik ve modern iletişimin kritik bir bileşeni olarak AIOps&#8217;a artan güvenin altını çiziyor. siber güvenlik stratejileri.</span></p>
<p><span>Makine öğrenimi operasyonlarındaki hızlı büyüme, üretken yapay zeka çağını dönüştürmeye devam ederken, NVIDIA iş ortaklarından oluşan geniş bir ekosistem, BT operasyonlarını iyileştirmek için NVIDIA yapay zekadan yararlanan AIOps çözümleri sunuyor.</span></p>
<p><span>NVIDIA, hızlandırılmış bilgi işlem ve yapay zeka yazılımıyla AIOps iş ortaklarından oluşan geniş bir ekosisteme yardımcı oluyor. Buna , her yerde çalışabilen ve yapay zeka modlarının hızlandırılmış çıkarımı için NVIDIA NIM, yapay zeka tabanlı siber güvenlik için <a href="https://developer.nvidia.com/morpheus-cybersecurity">NVIDIA Morpheus</a> ve özel üretken yapay zeka için <a href="https://www.nvidia.com/en-us/ai-data-science/generative-ai/nemo-framework/">NVIDIA NeMo gibi yazılımlar aracılığıyla AIOps için temel sağlayan, bulutta yerel bir yığın olan </a></span><a href="https://www.nvidia.com/en-us/data-center/products/ai-enterprise/"><span>NVIDIA AI Enterprise</span></a><span> dahildir . Bu yazılım, GenAI tabanlı sohbet robotu, özetleme ve arama işlevlerini kolaylaştırır.</span></p>
<p><span>NVIDIA AI kullanan AIOps sağlayıcıları şunları içerir:</span></p>
<ul>
<li>
<p class="x_MsoNormal"><strong><span>Dynatrace </span></strong><a title="https://nam11.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.dynatrace.com%2Fplatform%2Fartificial-intelligence%2F&amp;data=05%7C02%7Ckyee%40nvidia.com%7Ce4328bc6511f4bcff98b08dc4838e462%7C 43083d15727340c1b7db39efd9ccc17a %7C0%7C0%7C638464656432041971%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C0%7C%7C%7C&amp;sdata=YLynb7 v2FCfwP3vtxEY%2BIxjt10zG8NRVjk0O617lj2U%3D&amp;reserved=0" href="https://www.dynatrace.com/platform/artificial-intelligence/" data-outlook-id="a9a7bdfc-c629-4e03-8303-21af2b8f0843"><span>Davis hipermodal yapay zeka,</span></a><span> Davis CoPilot&#8217;un eklenmesiyle nedensel, öngörücü ve üretken yapay zeka tekniklerini entegre ederek AIOps&#8217;u geliştiriyor. Bu kombinasyon, hassas ve eyleme geçirilebilir, yapay zeka odaklı yanıtlar ve otomasyon sunarak BT, geliştirme, güvenlik ve iş operasyonlarında gözlemlenebilirliği ve güvenliği artırır.</span></p>
</li>
<li><b><span>Elastic,</span></b><span> semantik ve vektör arama için GPT-4 gibi popüler LLM&#8217;lerle entegre olarak Yapay Zeka Asistanlarını Gözlemlenebilirlik ve Güvenlik çözümlerinde destekleyen </span><a href="https://www.elastic.co/elasticsearch/elasticsearch-relevance-engine"><span>Elasticsearch Relevance Engine&#8217;i (ESRE)</span></a><span> sunar . Observability AI Assistant, BT ekiplerinin karmaşık sistemleri anlamasına, sağlığı izlemesine ve operasyonel sorunların iyileştirilmesini otomatikleştirmesine yardımcı olan yeni nesil bir AI Ops yeteneğidir </span><b><span>.</span></b></li>
<li><b><span>New Relic, </span></b><a href="https://newrelic.com/platform/applied-intelligence"><span>makine öğreniminden</span></a><span> , </span><a href="https://newrelic.com/platform/new-relic-ai"><span>üretken yapay zeka yardımcı çerçevelerinden</span></a><span> ve gözlemlenebilirlik konusundaki uzun yıllara dayanan uzmanlığından yararlanarak AIOps&#8217;u geliştiriyor . Makine öğrenimi ve gelişmiş mantığı, BT ekiplerinin uyarı gürültüsünü azaltmasına, ortalama tespit süresini ve ortalama onarım süresini iyileştirmesine, temel neden analizini otomatikleştirmesine ve geçmişe yönelik değerlendirmeler oluşturmasına yardımcı olur. GenAI asistanı New Relic AI, kullanıcıların bağlamları değiştirmeden hataları tanımlamasına, açıklamasına ve çözmesine olanak tanıyarak sorun çözümünü hızlandırıyor ve kod düzeltmelerini doğrudan geliştiricinin entegre geliştirme ortamında öneriyor ve uyguluyor. Aynı zamanda otomatik olarak üst düzey sistem sağlık raporları üreterek, kontrol panellerini analiz edip özetleyerek ve kullanıcının uygulamaları, altyapısı ve hizmetleri hakkındaki sade dildeki soruları yanıtlayarak olay görünürlüğünü ve önlemeyi teknik olmayan ekiplere de genişletir. New Relic ayrıca NVIDIA GPU&#8217;lardan yararlanan yapay zeka destekli uygulamalar için tam yığın gözlemlenebilirlik sağlıyor.</span></li>
<li><b><span>PagerDuty, </span></b><a href="https://www.pagerduty.com/platform/generative-ai/"><span>PagerDuty Copilot&#8217;a</span></a><span> , olayın başlangıcından çözümlenmesine kadar içgörüler sunmak, olay yaşam döngüsünü kolaylaştırmak ve BT ekipleri için manuel görev yüklerini azaltmak üzere üretken bir yapay zeka asistanını Slack&#8217;e entegre eden yeni bir özelliği tanıttı .</span></li>
<li><b><span>ServiceNow&#8217;un </span></b><a href="https://www.servicenow.com/products/predictive-aiops.html"><span>proaktif bir BT operasyonları yaratma taahhüdü,</span></a><span> olaylara hızlı müdahale için içgörülerin otomatikleştirilmesini, hizmet yönetiminin optimize edilmesini ve anormalliklerin tespit edilmesini kapsar. Şimdi NVIDIA ile işbirliği içinde, teknoloji hizmetlerinde ve operasyonlarında daha fazla yenilik yapmak için üretken yapay zekaya yöneliyor.</span></li>
<li><b><span>Splunk&#8217;un</span></b><span> teknoloji platformu, operasyonel sorunları ve tehditleri tanımlama, teşhis etme ve çözme süreçlerini otomatikleştirmek için </span><a href="https://www.splunk.com/en_us/solutions/splunk-artificial-intelligence.html"><span>yapay zeka ve makine öğrenimini uygulayarak</span></a><span> BT verimliliğini ve güvenlik duruşunu geliştirir. Splunk </span><a href="https://www.splunk.com/en_us/products/it-service-intelligence.html"><span>BT Hizmet İstihbaratı</span></a><span> , Splunk&#8217;un birincil AIOps teklifi olarak hizmet eder ve yerleşik yapay zeka odaklı olay tahmini, tespiti ve çözümünü tek bir yerden sağlar.</span></li>
</ul>
<p><span>Amazon Web Services (AWS), Google Cloud ve Microsoft Azure gibi bulut hizmet sağlayıcıları, bulut kaynaklarının ölçeğinden ve esnekliğinden yararlanarak kuruluşların BT operasyonlarını otomatikleştirmesine ve optimize etmesine olanak tanır.</span></p>
<ul>
<li><b><span>AWS</span></b><span> , izleme ve gözlemlenebilirlik için Amazon CloudWatch; Kullanıcı etkinliğini ve API kullanımını izlemek için AWS CloudTrail; Tekrarlanabilir ve sorumlu makine öğrenimi iş akışları oluşturmak için Amazon SageMaker; ve sunucusuz bilgi işlem için AWS Lambda, tetikleyicilere dayalı yanıt eylemlerinin otomasyonuna olanak tanır.</span></li>
<li><b><span>Google Cloud,</span></b><span> buluttaki ve şirket içi uygulamalarda izleme, günlük kaydı ve teşhis sağlayan Google Cloud Operations gibi hizmetler aracılığıyla AIOps&#8217;u destekler. Google Cloud&#8217;un yapay zeka ve makine öğrenimi ürünleri arasında, model eğitimi ve tahmin için Vertex AI ile Google altyapısının işlem gücünü kullanan hızlı SQL sorguları için BigQuery yer alıyor.</span></li>
<li><b><span>Microsoft Azure,</span></b><span> uygulamaların, hizmetlerin ve altyapının kapsamlı bir şekilde izlenmesi için Azure Monitor ile AIOps&#8217;u kolaylaştırır. Azure Monitor&#8217;ün yerleşik AIOps yetenekleri, kapasite kullanımını tahmin etmeye, otomatik ölçeklendirmeyi etkinleştirmeye, uygulama performansı sorunlarını tanımlamaya ve sanal makineler, kapsayıcılar ve diğer kaynaklardaki anormal davranışları algılamaya yardımcı olur. Microsoft Azure Machine Learning (AzureML), makine öğrenimi modellerini sorumlu, güvenli ve uygun ölçekte eğitmek, dağıtmak ve yönetmek için bulut tabanlı bir MLOps ortamı sunar.</span></li>
</ul>
<p><span>MLOps konusunda uzmanlaşmış platformlar öncelikle makine öğrenimi modellerinin geliştirmeden dağıtıma ve izlemeye kadar yaşam döngüsünü kolaylaştırmaya odaklanır. Temel misyon, makine öğrenimini daha erişilebilir, verimli ve ölçeklenebilir hale getirmeye odaklansa da teknolojileri ve metodolojileri, BT operasyonlarındaki yapay zeka yeteneklerini geliştirerek AIOps&#8217;u dolaylı olarak destekliyor: </span><b></b></p>
<ul>
<li><b><span>Anyscale&#8217;in</span></b><span> Ray tabanlı platformu, AIOps&#8217;ta anormallik tespiti ve otomatik iyileştirme gibi görevlerde kullanılanlar da dahil olmak üzere yapay zeka ve makine öğrenimi uygulamalarının kolayca ölçeklendirilmesine olanak tanıyor. Anyscale, dağıtılmış bilgi işlemi kolaylaştırarak AIOps sistemlerinin büyük hacimli operasyonel verileri daha verimli bir şekilde işlemesine yardımcı olarak gerçek zamanlı analiz ve karar almayı mümkün kılar.</span></li>
<li><b><span>Dataiku,</span></b><span> BT ekiplerinin bu modelleri üretim ortamlarında hızlı bir şekilde devreye almasına ve yinelemesine olanak tanıyan özelliklerle, BT sistem arızalarını tahmin eden veya kaynak tahsisini optimize eden modeller oluşturmak için kullanılabilir.</span></li>
<li><b><span>Dataloop&#8217;un</span></b><span> platformu, tam veri yaşam döngüsü yönetimi ve uçtan uca iş akışı için yapay zeka modellerini bağlamanın esnek bir yolunu sunarak kullanıcıların verilerini kullanarak yapay zeka uygulamaları geliştirmelerine olanak tanıyor.</span></li>
<li><b><span>DataRobot,</span></b><span> BT operasyon ekiplerinin yapay zeka çözümlerini hızlı bir şekilde oluşturmasına, dağıtmasına ve yönetmesine olanak tanıyan, operasyonel verimliliği ve performansı artıran tam bir yapay zeka yaşam döngüsü platformudur.</span></li>
<li><b><span>Domino Data Lab&#8217;in</span></b><span> platformu, işletmelerin ve veri bilimcilerinin yapay zekayı birleşik, uçtan uca bir platformda oluşturmasına, dağıtmasına ve yönetmesine olanak tanır. Tüm ortamlardaki veriler, araçlar, bilgi işlem, modeller ve projeler merkezi olarak yönetilir; böylece ekipler işbirliği yapabilir, üretim modellerini izleyebilir ve yönetilen yapay zeka inovasyonu için en iyi uygulamaları standartlaştırabilir. Bu yaklaşım, veri bilimi ekiplerinin ihtiyaç duyduğu self-servis hizmeti, BT operasyonel ihtiyaçları için tam tekrarlanabilirlik, ayrıntılı maliyet takibi ve proaktif yönetim ile dengelediği için AIOps için hayati öneme sahiptir.</span></li>
<li><b><span>Weights &amp; Biases,</span></b><span> AIOps&#8217;ta kullanılan yapay zeka modellerinin geliştirilmesi ve ince ayarının yapılması için çok önemli olan deney takibi, model optimizasyonu ve işbirliğine yönelik araçlar sağlar. Weights &amp; Biases, model performansına ilişkin ayrıntılı bilgiler sunarak ve ekipler arasında işbirliğini kolaylaştırarak, BT operasyonları için dağıtılan yapay zeka modellerinin hem etkili hem de şeffaf olmasını sağlamaya yardımcı olur.</span></li>
</ul>
<p><span>NVIDIA&#8217;nın iş ortağı ekosistemi ve çalışmaları hakkında daha fazlasını </span><a href="https://gtmteknoloji.com"><span>GTM Teknoloji</span></a> &#8216;den<span> öğrenin .</span></p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor</title>
		<link>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Thu, 21 Mar 2024 21:49:38 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[Generative AI]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Nvidia Blackwell]]></category>
		<category><![CDATA[supermicro]]></category>
		<category><![CDATA[TensorRT-LLM]]></category>
		<category><![CDATA[Üretken Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1646</guid>

					<description><![CDATA[NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor Yeni Blackwell GPU, NVLink ve Resilience Teknolojileri Trilyon Parametre Ölçeğinde]]></description>
										<content:encoded><![CDATA[<h1 class="article-title">NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor</h1>
<p><img loading="lazy" decoding="async" class="alignnone size-large wp-image-1647" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-1024x576.jpeg" alt="" width="800" height="450" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-1024x576.jpeg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-300x169.jpeg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-768x432.jpeg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72.jpeg 1280w" sizes="(max-width: 800px) 100vw, 800px" /></p>
<ul>
<li><em>Yeni Blackwell GPU, NVLink ve Resilience Teknolojileri Trilyon Parametre Ölçeğinde Yapay Zeka Modellerine Olanak Sağlıyor</em></li>
<li><em>Yeni Tensor Çekirdekleri ve TensorRT-LLM Derleyicisi, Yüksek Lisans Çıkarımı İşletim Maliyetini ve Enerjiyi 25 Kata Kadar Azaltır</em></li>
<li><em>Yeni Hızlandırıcılar Veri İşleme, Mühendislik Simülasyonu, Elektronik Tasarım Otomasyonu, Bilgisayar Destekli İlaç Tasarımı ve Kuantum Hesaplamada Çığır Açıyor</em></li>
<li><em>Tüm Büyük Bulut Sağlayıcıları, Sunucu Oluşturucuları ve Lider Yapay Zeka Şirketleri Tarafından Yaygın Olarak Benimseniyor</em></li>
</ul>
<p>Yeni bir bilişim çağını güçlendirirken, NVIDIA bugün NVIDIA Blackwell platformunun geldiğini duyurdu &#8211; organizasyonlara her yerde, önceki nesline göre enerji tüketiminde %25&#8217;e kadar daha az maliyetle ve enerji tüketimiyle trilyon parametreli büyük dil modelleri üzerinde gerçek zamanlı üretken yapay zeka inşa etme ve çalıştırma imkanı sunuyor.</p>
<p>Blackwell GPU mimarisi, hızlandırılmış hesaplama için altı devrim niteliğinde teknoloji içerir ve veri işleme, mühendislik simülasyonu, elektronik tasarım otomasyonu, bilgisayar destekli ilaç tasarımı, kuantum bilişim ve üretken yapay zeka gibi alanlarda çığır açacak yeniliklerin kilidini açmaya yardımcı olur &#8211; NVIDIA için gelişen endüstri fırsatları.</p>
<p>&#8220;NVIDIA olarak üç on yıldır derin öğrenme ve yapay zeka gibi dönüştürücü buluşları mümkün kılacak hızlandırılmış hesaplamayı sürdürüyoruz,&#8221; dedi NVIDIA&#8217;nın kurucusu ve CEO&#8217;su Jensen Huang. &#8220;Üretken yapay zeka, zamanımızın belirleyici teknolojisidir. Blackwell, bu yeni endüstri devrimini güçlendirecek motorumuzdur. Dünyanın en dinamik şirketleriyle çalışarak, yapay zekanın her endüstri için vaadini gerçekleştireceğiz.&#8221;</p>
<p>Blackwell&#8217;u benimseyecek birçok organizasyon arasında Supermicro, Amazon Web Services,  Google, Meta, Microsoft, OpenAI, Oracle, Tesla ve xAI gibi şirketler yer alıyor.</p>
<p><strong>Blackwell&#8217;in Hızlandırılmış Bilgi İşlemi ve Üretken Yapay Zekayı Güçlendirecek Yenilikleri</strong><br />
Blackwell&#8217;in, 10 trilyon parametreye kadar ölçeklenen modeller için yapay zeka eğitimini ve gerçek zamanlı LLM çıkarımını mümkün kılan devrim niteliğindeki altı teknolojisi şunları içerir:</p>
<ul type="disc">
<li><strong>Dünyanın En Güçlü Çipi</strong>  — 208 milyar transistörle paketlenmiş Blackwell mimarili GPU&#8217;lar, tek bir birleşik GPU&#8217;ya 10 TB/saniyelik çipten çipe bağlantıyla bağlanan, iki retikül limitli GPU kalıplarına sahip özel yapım 4NP TSMC işlemi kullanılarak üretilir .</li>
<li><strong>İkinci Nesil Transformatör Motoru</strong>  — Yeni mikro tensör ölçeklendirme desteği ve NVIDIA&#8217;nın NVIDIA TensorRT<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />-LLM ve NeMo Megatron çerçevelerine entegre edilmiş gelişmiş dinamik aralık yönetimi algoritmalarıyla desteklenen Blackwell, yeni 4 bit kayan noktalı yapay zeka ile iki kat daha fazla bilgi işlem ve model boyutunu destekleyecektir çıkarım yetenekleri.</li>
<li><strong>Beşinci Nesil NVLink</strong>  — Multitrilyon parametreli ve uzmanlardan oluşan karma yapay zeka modellerinin performansını hızlandırmak için NVIDIA NVLink®&#8217;in en son sürümü, GPU başına çığır açan 1,8 TB/s çift yönlü verim sunarak 576 GPU&#8217;ya kadar kesintisiz yüksek hızlı iletişim sağlar en karmaşık LLM&#8217;ler için.</li>
<li><strong>RAS Motoru</strong>  — Blackwell destekli GPU&#8217;lar güvenilirlik, kullanılabilirlik ve servis kolaylığı için özel bir motor içerir. Ek olarak Blackwell mimarisi, teşhisleri çalıştırmak ve güvenilirlik sorunlarını tahmin etmek için yapay zeka tabanlı önleyici bakımdan yararlanmak üzere çip düzeyinde yetenekler ekler. Bu, sistemin çalışma süresini en üst düzeye çıkarır ve büyük ölçekli yapay zeka dağıtımlarının haftalarca, hatta aylarca kesintisiz çalışması ve işletme maliyetlerini azaltması için esnekliği artırır.</li>
<li><strong>Güvenli Yapay Zeka</strong>  — Gelişmiş gizli bilgi işlem yetenekleri, sağlık hizmetleri ve finansal hizmetler gibi gizliliğe duyarlı endüstriler için kritik öneme sahip yeni yerel arayüz şifreleme protokollerini destekleyerek yapay zeka modellerini ve müşteri verilerini performanstan ödün vermeden korur.</li>
<li><strong>Sıkıştırmayı Açma Motoru</strong>  — Özel bir sıkıştırmayı açma motoru, veri analitiği ve veri biliminde en yüksek performansı sunmak için veritabanı sorgularını hızlandırarak en yeni formatları destekler. Şirketlerin yılda on milyarlarca dolar harcadığı veri işleme, önümüzdeki yıllarda giderek daha fazla GPU ile hızlandırılacak.</li>
</ul>
<p><strong>Devasa Bir Süper Çip</strong><br />
NVIDIA GB200 Grace Blackwell Süper Çipi, iki NVIDIA B200 Tensor Core GPU&#8217;yu  900 GB/s ultra düşük güçlü NVLink çipten çipe ara bağlantı üzerinden NVIDIA Grace CPU&#8217;ya bağlar</p>
<p>En yüksek yapay zeka performansı için GB200 destekli sistemler, yine bugün duyurulan ve 800 Gb/s&#8217;ye varan hızlarda gelişmiş ağ iletişimi sağlayan NVIDIA Quantum-X800 InfiniBand ve Spectrum<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />-X800 Ethernet platformlarına bağlanabilir  .</p>
<p>GB200,  bilgi işlem yoğunluklu iş yükleri için çok düğümlü, sıvı soğutmalı, raf ölçekli bir sistem olan NVIDIA GB200 NVL72&#8217;nin önemli bir bileşenidir. Beşinci nesil NVLink ile birbirine bağlanan 72 Blackwell GPU ve 36 Grace CPU içeren 36 Grace Blackwell Süper Çipini birleştiriyor. Ayrıca GB200 NVL72, hiper ölçekli yapay zeka bulutlarında bulut ağı hızlandırmayı, şekillendirilebilir depolamayı, sıfır güven güvenliğini ve GPU bilgi işlem esnekliğini etkinleştirmek için NVIDIA BlueField®-3 veri işleme birimlerini içerir. GB200 NVL72, LLM çıkarım iş yükleri için aynı sayıdaki NVIDIA H100 Tensor Core GPU&#8217;lara kıyasla 30 kata kadar performans artışı sağlar ve maliyet ile enerji tüketimini 25 kata kadar azaltır.</p>
<p>Platform, 1,4 exaflop yapay zeka performansı ve 30 TB hızlı belleğe sahip tek bir GPU görevi görüyor ve en yeni DGX SuperPOD için bir yapı taşı oluşturuyor.</p>
<p>NVIDIA  , x86 tabanlı üretken yapay zeka platformlarını desteklemek için sekiz B200 GPU&#8217;yu NVLink aracılığıyla bağlayan bir sunucu anakartı olan HGX B200&#8217;ü sunuyor. HGX B200, NVIDIA Quantum-2 InfiniBand ve Spectrum-X Ethernet ağ platformları aracılığıyla 400 Gb/s&#8217;ye kadar ağ oluşturma hızlarını destekler.</p>
<p>Nvidia Blackwell Üretken Yapay Zeka çözümleriyle ilgili detaylı bilgi için Nvidia Elite NPN Partner <a href="https://gtmteknoloji.com">GTM Teknoloji</a> ile iletişime geçebilirsiniz.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Geliri</title>
		<link>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-veri-merkezi-patlamasindan-gelen-geliri.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-veri-merkezi-patlamasindan-gelen-geliri.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Thu, 22 Feb 2024 13:12:07 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[5880 Ada]]></category>
		<category><![CDATA[amd]]></category>
		<category><![CDATA[MI300X]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[NVIDIA H100]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1623</guid>

					<description><![CDATA[NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Gelirin Yüzde 83&#8217;ünden Fazlasını Sağladı NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Geliri]]></description>
										<content:encoded><![CDATA[<div class="td-post-header">
<header class="td-post-title">
<h1 class="entry-title">NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Gelirin Yüzde 83&#8217;ünden Fazlasını Sağladı</h1>
</header>
</div>
<div class="td-post-sharing-top">
<div id="td_social_sharing_article_top" class="td-post-sharing td-ps-bg td-ps-notext td-post-sharing-style1 ">
<div class="td-post-sharing-visible">
<div class="td-social-but-icon">NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Geliri</div>
<div class="td-social-but-icon">
<div class="td-social-copy_url-check td-icon-check"></div>
</div>
</div>
</div>
</div>
<div class="td-post-content tagdiv-type">
<div class="td-post-featured-image">
<figure><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1744" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-696x464-3-300x200.jpg" alt="" width="300" height="200" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-696x464-3-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-696x464-3.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-caption-text">Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Kaydırmalı Çıkış Tepsisi 2</figcaption></figure>
</div>
<p>NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Geliri NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen GeliriNVIDIA daha önce bir oyun şirketi olarak biliniyor olabilir, ancak bugün kesinlikle öyle bir şirket olmaktan çok uzak. Şirketin 24. çeyrek sonuçlarında 22,1 milyar dolar gelir elde edildi. Bunun 18,4 milyar dolarlık kısmı veri merkezi segmentinden geldi. Bazı bağlamlarda oyun yalnızca 2,9 milyar dolardı. Profesyonel görselleştirme ve otomotiv dengeyi oluşturuyor. Bunlar çok büyük sonuçlar.<span id="more-76263"></span></p>
<h2>NVIDIA, Yapay Zeka Veri Merkezi Patlamasından Gelen Gelirin Yüzde 83&#8217;ünden Fazlasını Sağladı</h2>
<p>Sunucu sektöründe NVIDIA H100 sunucularının son derece iyi sattığı bir sır değil. Bu, Lenovo gibi büyük OEM&#8217;lerin ABD&#8217;de 8x H100 sunucularına bile sahip olmamasına rağmen. H100&#8217;e olan talep çok büyük ve sonuç olarak NVIDIA, parçaları satma kapasitesini arttırırken aynı zamanda önceki nesillere göre daha yüksek fiyatlar elde etmek zorunda kaldı.</p>
<figure id="attachment_74934" class="wp-caption alignnone" aria-describedby="caption-attachment-74934"><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1745" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/ASUS-ESC-N8A-E12-NVIDIA-HGX-H100-3-696x433-1-300x187.jpg" alt="" width="300" height="187" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/ASUS-ESC-N8A-E12-NVIDIA-HGX-H100-3-696x433-1-300x187.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/ASUS-ESC-N8A-E12-NVIDIA-HGX-H100-3-696x433-1.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-74934" class="wp-caption-text">ASUS ESC N8A E12 NVIDIA HGX H100 3</figcaption></figure>
<p>22,1 Milyar Dolarlık bir çeyreğin ne kadar büyük olduğuyla ilgili bir bağlam için Intel&#8217;in 2023 tam yıl geliri 53,2 Milyar Dolar civarındaydı. AMD&#8217;nin 2023 geliri 22,7 milyar dolar civarındaydı. NVIDIA&#8217;nın büyük bir çeyrek geçirdiğini söylemek yetersiz kalır.</p>
<h2>Son sözler</h2>
<p>Belki de sonuçların en çılgın kısmı bir sonraki adımdır. <a href="https://www.servethehome.com/nvidia-h200-launched-with-141gb-of-hbm3e-at-sc23/">NVIDIA, yalnızca H100 tasarımının bu yılki güncellemesi olan H200</a> hakkında değil , aynı zamanda yeni nesil B100 tasarımı hakkında da daha fazla konuşmaya başlayacak . Bu tıpkı NVIDIA&#8217;nın MI300X ile AMD&#8217;deki rakipleri <a href="https://www.servethehome.com/amd-instinct-mi300x-gpu-and-mi300a-apus-launched-for-ai-era/">, </a><a href="https://www.servethehome.com/intel-shows-gpu-max-1550-performance-and-gaudi3-ai-updates-at-sc23/">Gaudi3</a> ile Intel , çeşitli startuplar ve büyük bulut oynatıcılar gibi müşteri/rakiplerinin hepsinin AI eğitimi ve çıkarım pazarlarının bir kısmını ele geçirmeye çalışması gibi.</p>
<p><a href="https://www.servethehome.com/nvidia-grace-hopper-gh200-and-grace-superchip-arm-pictured-and-incompatible/">Ayrıca NVIDIA&#8217;nın AI sistemleri için dikey entegrasyonunu ilerletmeye devam etmesini, Grace Superchip/Grace Hopper</a> gibi Arm CPU&#8217;ları ve Mellanox satın alımından elde edilen ara bağlantı varlıklarını kullanarak AI yapısında cüzdan payını daha da artırmasını bekliyoruz .</p>
<figure id="attachment_70694" class="wp-caption alignnone" aria-describedby="caption-attachment-70694"><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1746" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/QCT-QuantaGrid-S74-2U-with-NVIDIA-Grace-Hopper-Installed-2-300x200.jpg" alt="" width="300" height="200" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/QCT-QuantaGrid-S74-2U-with-NVIDIA-Grace-Hopper-Installed-2-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/QCT-QuantaGrid-S74-2U-with-NVIDIA-Grace-Hopper-Installed-2-768x512.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/QCT-QuantaGrid-S74-2U-with-NVIDIA-Grace-Hopper-Installed-2.jpg 800w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-70694" class="wp-caption-text">QCT QuantaGrid S74 2U, NVIDIA Grace Haznesi Takılı 2</figcaption></figure>
<p>On yıl önce en çok oyun GPU&#8217;su şirketi olarak bilindiği dönemde çok az kişinin söylediği bir şey vardı: NVIDIA&#8217;nın gelecek yıl AMD ve Intel&#8217;in gelirlerini birleştirme konusunda iyi bir şansı var.</p>
<p>Bazıları bugün NVIDIA&#8217;nın oyun GPU&#8217;larından şikayet etse de, veri merkezi işinden büyük gelir elde ettiği ve bazı veri merkezi ürünlerinde ihracat lisansı zorlukları görülmesine rağmen bu gelirlerin artma yolunda olduğu açık.</p>
</div>
<p><span id="more-1623"></span></p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-veri-merkezi-patlamasindan-gelen-geliri.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Başarı için kritik öneme sahip gen yapay zeka teknoloji yığınında NVIDIA ve Supermicro</title>
		<link>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-gpu-tabanli-yapay-zeka-cozumleri.html</link>
					<comments>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-gpu-tabanli-yapay-zeka-cozumleri.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Tue, 13 Feb 2024 21:20:03 +0000</pubDate>
				<category><![CDATA[AMD EPYC Sunucu]]></category>
		<category><![CDATA[Blade Şasi Sunucu]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Sanallaştırma]]></category>
		<category><![CDATA[Sunucular]]></category>
		<category><![CDATA[Workstation - İş İstasyonu]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Deep Learning]]></category>
		<category><![CDATA[derin öğrenme]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[hpc cluster]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Nvidia AI Enterprise]]></category>
		<category><![CDATA[supermicro]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1545</guid>

					<description><![CDATA[Üretken yapay zeka, sektörlere yıllık olarak 2,6 trilyon ila 4,4 trilyon dolar eşdeğeri katkı sağlayabilir . Ama aynı zamanda kaynaklara da aç; daha]]></description>
										<content:encoded><![CDATA[<p>Üretken yapay zeka, sektörlere yıllık olarak 2,6 trilyon ila 4,4 trilyon dolar eşdeğeri katkı sağlayabilir . Ama aynı zamanda kaynaklara da aç; daha önce gelen tüm teknolojilerden katlanarak daha fazla bilgi işlem, kaynak, ağ ve depolama tüketiyor. Verilere erişmek ve bunları işlemek, önceden eğitilmiş modelleri özelleştirmek ve bunları optimum düzeyde ve uygun ölçekte çalıştırmak, yeni teknik uzmanlığın yanı sıra eksiksiz bir yapay zekaya hazır donanım ve yazılım yığını gerektirir.</p>
<p>NVIDIA&#8217;nın kıdemli ürün pazarlama müdürü Anthony Larijani ve Supermicro&#8217;nun kıdemli ürün pazarlama müdürü Yusuke Kondo, OctoML&#8217;in kurucu ortağı ve CEO&#8217;su Luis Ceze ile üretken yapay zekanın bir kuruluşa nerede fayda sağlayabileceğinin nasıl belirleneceği ve kullanımıyla nasıl denemeler yapılabileceği hakkında konuştu. vakalar ve bir gen yapay zeka stratejisini desteklemek için kritik olan teknoloji.</p>
<h2 id="h-infrastructure-decisions-and-workload-considerations" class="wp-block-heading"><strong>Altyapı kararları ve iş yükü hususları</strong></h2>
<p>Laricani, ihtiyaçların altyapıyla eşleştirilmesinin ilk önemli gereklilik olduğunu söylüyor.</p>
<p>&#8220;Bunu yapmanın yolu nihai hedefi akılda tutarak başlamaktır&#8221; diye açıklıyor. &#8220;Bu altyapının ne için kullanılacağını hayal ettiğinizi, üzerinde çalışan iş yükü türlerini nasıl gördüğünüzü görselleştirmeye çalışın. Örneğin, çok büyük ölçekli bir temel modelin eğitimi doğrultusundaysa, çok sayıda kullanıcıya gerçek zamanlı performans sunması gereken bir çıkarım uygulaması sunmak için farklı hesaplama gereksinimlerine sahip olacaktır.&#8221;</p>
<p>Ölçeklenebilirlik de bu noktada devreye giriyor. Yalnızca modelin iş yükünü değerlendirmeniz gerekmez, aynı zamanda çalıştırıyor olabileceğiniz uygulamadaki talep türünü de tahmin etmeniz gerekir. Bu, ister toplu tipte bir kullanım durumu, ister sohbet robotu gibi gerçek zamanlı bir kullanım durumu olsun, çalıştıracağınız çıkarım iş yükü türleriyle ilgili diğer hususlarla örtüşmektedir.</p>
<h2 id="h-cloud-versus-on-prem-considerations" class="wp-block-heading"><strong>Bulut ve şirket içi hususlar</strong></h2>
<p>Nesil AI uygulamaları genellikle ölçek gerektirir ve bu, bulut ve şirket içi değerlendirmelerin konuşmaya dahil olduğu anlamına gelir. Kondo, bunun açıkça ihtiyaç duyulan kullanım senaryosuna ve ölçeğe bağlı olduğunu ancak bunun yine de kritik ve temel bir karar olduğunu açıklıyor.</p>
<p>&#8220;Bulutu kullandığınızda elbette daha fazla esnekliğe ve kapsama alanına sahip olursunuz. Ölçek büyütmeniz gerektiğinde bunu yapabilirsiniz” diyor. &#8220;Şirket içi çalışmaya başladığınızda, kendiniz için bilişime ne kadar yatırım yapmanız gerektiğine karar vermeden önce bunu planlamanız ve nasıl ölçeklendireceğinizi tahmin etmeniz gerekir. Bu büyük bir başlangıç ​​maliyeti gerektirecek.”</p>
<p>Ancak üretken yapay zeka, özellikle ChatGPT gibi halka açık bir API&#8217;ye veri beslerken ve kontrol sorunlarını da beraberinde getirirken tamamen yeni bir düzeyde veri gizliliği hususları getiriyor; iş yükünü uçtan uca kontrol etmek mi istiyorsunuz, yoksa yalnızca API&#8217;den yeterince yararlanmak mı istiyorsunuz? Ve tabii ki, üretken yapay zeka yolculuğunuzda nerede olduğunuza bağlı olarak bir maliyet de var; bazı küçük deneylerle yeni başlıyorsunuz veya ölçeklendirmeye başlamaya isteklisiniz.</p>
<p>“Baktığınız projenin büyüklüğüne karar vermelisiniz. Sadece GPU bulutunu kullanmak mantıklı mı?” diyor. “Maliyet düşerken, hesaplama yeteneğinin arttığını tahmin ediyoruz. Altyapının mevcut fiyatına bakıldığında yalnızca GPU bulut örneklerini kullanmak mantıklı mı? Kendi yapay zeka altyapınıza çok fazla sermaye harcamak yerine, bunu GPU bulutunu kullanarak test etmek isteyebilirsiniz.&#8221;</p>
<h2 id="h-open-source-versus-proprietary-models" class="wp-block-heading"><strong>Açık kaynak ve tescilli modeller</strong></h2>
<p>Laricani, şu anda kuruluş içindeki kullanım durumlarına yönelik dağıtımlar için daha küçük ölçekli, daha özelleştirilmiş, özel model türlerine doğru bir eğilim olduğunu söylüyor. Artırılmış üretimin alınması gibi teknikler sayesinde, özel verileri kullanabilen LLM&#8217;lerden yararlanmanın etkili yolları ortaya çıkıyor ve bu, altyapı seçimini doğrudan etkiliyor. Bu özel modeller daha az eğitim gereksinimi içerir.</p>
<p>&#8220;Bu modelin yalnızca kullanım durumunuza uygun olan bir kısmını yeniden eğitebilmek, eğitim süresini ve maliyetini azaltır&#8221; diye açıklıyor. &#8220;Müşterilerin maliyet açısından engelleyici olan kaynak türlerini gerçekten bu tür performansı gerektiren iş yükleri için ayırmalarına ve bu tür iş yüklerini çalıştırmak için maliyeti daha optimize edilmiş çözümlerden yararlanmalarına olanak tanıyor.&#8221;</p>
<p>İster açık kaynak ister tescilli olun, modeli ihtiyaçlarınıza göre nasıl boyutlandırırsınız?</p>
<p>Kondo, &#8220;Açık kaynaklı modeller kullanıyorsanız, temel modellerin daha özel bir duruma getirilmesi için ince ayar yapılması gerekiyor&#8221; diyor. “Bu, maliyetinizin optimizasyonunu ve GPU&#8217;ların altyapı kullanımınızın optimizasyonunu etkileyecek. Yatırım yaptığınız şeyi boşa harcamak istemezsiniz.”</p>
<h2 id="h-maximizing-hardware-with-your-software-stack" class="wp-block-heading"><strong>Yazılım yığınınızla donanımı en üst düzeye çıkarma</strong></h2>
<p>Seçtiğiniz donanımdan en iyi şekilde yararlanmak aynı zamanda karmaşık bir sistem yazılımı yığını anlamına da gelir.</p>
<p>Kondo, &#8220;Bu yalnızca tek bir düzey değil; raf ölçeği ve ardından küme düzeyinde uygulama var&#8221; diyor. “Büyük ölçekli altyapı söz konusu olduğunda, açıkçası bu, açık kaynaklı bir modeli tek bir sistemle çalıştırmaktan çok daha karmaşık. Çoğu zaman gördüğümüz şey, NVIDIA konu uzmanlarını ilk aşamalardan itibaren dahil ettiğimiz, hatta rafları tasarladığımız, kümeyi NVIDIA&#8217;nın bir araya getirdiği yazılım kitaplıkları ve mimarisine dayalı olarak tasarladığımızdır. Müşteriler için doğru çözümü oluşturmak amacıyla NVIDIA ile yakın işbirliği içinde çalışarak rafları onların gereksinimlerine göre tasarlıyoruz.&#8221;</p>
<p>Laricani, eksiksiz bir yapay zeka yazılım yığını oluşturmanın karmaşık ve kaynak yoğun bir girişim olduğunu, bu nedenle NVIDIA&#8217;nın altyapıdan üzerinde çalışan yazılıma kadar tam kapsamlı bir bilgi işlem şirketi olmaya yatırım yaptığını ekliyor. Örneğin, NVIDIA AI kurumsal platformunun bir parçası olan Nemo çerçevesi, müşterilerin bir dizi üretken AI modeli ve uygulamasını oluşturmasına, özelleştirmesine ve dağıtmasına yardımcı olmak için uçtan uca bir çözüm sunuyor. Model eğitim sürecini optimize etmeye ve GPU kaynaklarını on binlerce düğüme verimli bir şekilde tahsis etmeye yardımcı olabilir. Modeller eğitildikten sonra, onları özelleştirerek belirli alanlardaki çeşitli görevlere uyum sağlayabilir.</p>
<p>&#8220;Bir kuruluş bunu geniş ölçekte uygulamaya hazır olduğunda Nemo çerçevesi, Triton çıkarım sunucumuz gibi birçok müşterimizin kullandığı ve aşina olduğu tanıdık araçlarla bütünleşir&#8221; diye ekliyor. &#8220;Müşterilerimizin yüksek verim ve düşük gecikmeyle verimli bir şekilde dağıtım yapmasına yardımcı olacak optimize edilmiş derleyici, bunların hepsi aynı tanıdık platform üzerinden yapılıyor ve hepsi NVIDIA sertifikalı Supermicro sistemlerinde mükemmel çalışacak şekilde optimize ediliyor.&#8221;</p>
<h2 id="h-future-proofing-against-the-growing-complexity-of-llms" class="wp-block-heading"><strong>Yüksek Lisans&#8217;ların artan karmaşıklığına karşı geleceğe yönelik hazırlıklar</strong></h2>
<p>Kondo, LLM&#8217;lerin her geçen gün büyüdüğünü ve bu büyümenin yavaşlayacak gibi görünmediğini söylüyor. En büyük sorun sürdürülebilirliktir ve bu sunucuların güç gereksinimleri endişe vericidir.</p>
<p>“HGXH100&#8217;e bakarsanız GPU başına 700 watt olduğuna inanıyorum. Bunun sonunda GPU başına 1000 watt&#8217;a ulaşmasını bekliyoruz&#8221; diyor. “Bunu 10 yıl öncesiyle karşılaştırdığınızda, bu çok çılgınca. Bunu nasıl ele alacağız? Tamamen sıvı soğutmalı entegre çözümümüz üzerinde çalışmamızın nedenlerinden biri de budur. Güç kullanımı açısından, sıvı soğutma altyapısı tek başına size yüzde 40&#8217;ın üzerinde güç tasarrufu sağlayacaktır. Yeşil bilişim bizim girişimlerimizden biri ve bunun inovasyonumuzu kolaylaştıracağına gerçekten inanıyoruz.”</p>
<p>Paralel tarafta, ister model eğitimi ister müşterilere çıkarım hizmeti olsun, dağıtımları optimize etmeye yönelik yazılımın geliştirilmesi açısından devam eden verimlilikler de mevcut. Laricani, kuruluşların bu yeteneklerden uygun maliyetli ve sürdürülebilir bir şekilde yararlanmasına yardımcı olmak için yeni tekniklerin ortaya çıktığını söylüyor.</p>
<p>&#8220;Elbette, bu tür modelleri eğitmek için daha optimize edilmiş, yüksek kapasiteli sistemlere yönelik artan bir ihtiyaç olduğunu görüyoruz, ancak bunlara erişme ve bunları uygulama konusunda yeni yöntemlerin ortaya çıktığını da görüyoruz&#8221; diyor. &#8220;Her hafta olduğu gibi sık sık yapay zeka için yeni bir kullanım örneği görüyoruz. Uzayda kesinlikle çok ilginç şeyler oluyor. Yazılım açısından da ileriye dönük olarak bunları optimize etmek ve daha verimli hale getirmek için çalışacağız.&#8221;</p>
<p>&nbsp;</p>
<p>Supermicro ve Nvidia AI Yapay Zeka çözümleri ile alakalı danışmanlığa ihtiyaç duyarsanız<a href="https://gtmteknoloji.com"> GTM Teknoloji</a> ile irtibat kurabilirsiniz.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-gpu-tabanli-yapay-zeka-cozumleri.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Supermicro X13 SuperBlade İncelemesi: Her Şeyi Yapabilen Yapay Zeka Cihazı</title>
		<link>https://supermicrosunucu.com/blog/supermicro-x13-superblade-yapay-zeka-cihazi-ai.html</link>
					<comments>https://supermicrosunucu.com/blog/supermicro-x13-superblade-yapay-zeka-cihazi-ai.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Tue, 13 Feb 2024 21:02:05 +0000</pubDate>
				<category><![CDATA[Blade Şasi Sunucu]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Sunucular]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[blade]]></category>
		<category><![CDATA[supermicro]]></category>
		<category><![CDATA[Supermicro superblade]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1517</guid>

					<description><![CDATA[Supermicro, blade sunucu teknolojisinde öncü olmuştur ve SuperBlade sistemleri bunun bir kanıtıdır. Supermicro X13 SuperBlade kasa ve blade&#8217;lerin piyasaya sürülmesi, GPU]]></description>
										<content:encoded><![CDATA[<p>Supermicro, blade sunucu teknolojisinde öncü olmuştur ve SuperBlade sistemleri bunun bir kanıtıdır. Supermicro X13 SuperBlade kasa ve blade&#8217;lerin piyasaya sürülmesi, GPU özellikli blade&#8217;ler ve en yeni Emerald Rapids CPU&#8217;lar ile NVIDIA H100 GPU&#8217;ların entegrasyonu teknolojisinde yeni bir sayfa açıyor. Bu gelişmeler olağanüstü işlem gücü ve verimlilik sağlayarak X13&#8217;ü çeşitli üst düzey uygulamalar için ideal bir aday haline getiriyor.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1518" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-X13-20-300x231.jpg" alt="" width="479" height="369" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-X13-20-300x231.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-X13-20-1024x790.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-X13-20-768x592.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-X13-20-1536x1185.jpg 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-X13-20.jpg 1920w" sizes="(max-width: 479px) 100vw, 479px" /></p>
<h2>Tasarım ve Özellikler</h2>
<p>Supermicro X13 SuperBlade kasası, yüksek yoğunluğu ve esnekliğiyle bilinen tanıdık 8U kasa tasarımını koruyor. Her kasa 20&#8217;ye kadar blade&#8217;i destekler; en yeni teklif, Emerald Rapids CPU&#8217;ların ve NVIDIA H100 GPU&#8217;ların entegre edilmesiyle önemli ölçüde geliştirilmiştir. Bu güçlü kombinasyon, benzeri görülmemiş hesaplama yetenekleri sunmayı vaat ediyor. Ayrıca kasada 200G InfiniBand ve 25G Ethernet iletişimi bulunuyor ve bu da yüksek hızlı veri aktarımı ve ağ verimliliği sağlıyor.</p>
<p><strong>Popüler Kullanım Durumları:</strong></p>
<ol>
<li><strong>Veri Analizi</strong> : Emerald Rapids CPU&#8217;ların gelişmiş işlem gücü ve NVIDIA H100 GPU&#8217;ların hızlandırılmış bilgi işlem yetenekleri ile X13 SuperBlades, zorlu veri analizi görevleri için son derece uygundur. Bu görevler, günümüzün veri odaklı dünyasında giderek daha kritik hale gelen gerçek zamanlı veri işleme ve kapsamlı veri madenciliği operasyonlarını içerir.</li>
<li><strong>Yapay Zeka ve Makine Öğrenimi</strong> : X13 SuperBlade&#8217;ler, yapay zeka ve makine öğrenimi modelleri, özellikle de önemli hesaplama kaynakları gerektiren derin öğrenme algoritmaları için gerekli gücü sunar.</li>
<li><strong>Yüksek Performanslı Bilgi İşlem</strong> : Mühendislikteki bilimsel simülasyonlar, tıbbi araştırmalar ve ileri hesaplamalı görevler, X13&#8217;ün gelişmiş performansından önemli ölçüde faydalanacak ve bu da onu yüksek performanslı bilgi işlem uygulamaları için birincil seçim haline getirecek.</li>
<li><strong>Bulut Bilişim</strong> : Blade&#8217;lerin artan yoğunluğu ve performansı, onları bulut hizmeti sağlayıcıları için ideal kılmaktadır. Yoğun sanallaştırma ve konteynerleştirme gerektirenler de dahil olmak üzere birçok bulut tabanlı uygulama ve hizmeti yönetebilirler.</li>
<li><strong>Ağ İletişimi ve İletişim</strong> : 200G InfiniBand ve 25G Ethernet iletişimiyle donatılan X13, yüksek bant genişliği ve düşük gecikmeli uygulamalarda öne çıkıyor ve bu da onu zorlu ağ oluşturma ve iletişim görevleri için uygun hale getiriyor. SuperBlade, harici ağ bağlantısı sayesinde bir merkez görevi görerek aynı raf veya veri merkezindeki geleneksel blade olmayan sunucularla InfiniBand ve Ethernet iletişimleri sağlayabilir.</li>
</ol>
<p>Supermicro&#8217;nun sağladığı test donanımımızda toplam beş kanat vardı. Dördü tek bir işlemci ve PCIe hızlandırıcıyı alabilecek kapasiteyle donatılmıştı; bizim durumumuzda dört NVIDIA H100 ve bir çift işlemci kartı. Hesaplama blade&#8217;inin daha sonraki bir incelemesiyle devam edeceğiz; bu incelemenin uzunluğu, eklenmesinin biraz fazla olmasına neden oldu.</p>
<p><a title="Yeni bir pencerede açılır" href="https://www.supermicro.com/datasheet/datasheet_X13_SuperBlade.pdf" target="_blank" rel="noopener">Supermicro X13 SuperBlade Veri Sayfası</a></p>
<table>
<tbody>
<tr>
<th>Bileşen</th>
<th>Tanım</th>
</tr>
<tr>
<td><strong>Muhafaza</strong></td>
<td>1x SBE-820H2-630</td>
</tr>
<tr>
<td><strong>PSW</strong></td>
<td>6x PWS-3K01A-BR</td>
</tr>
<tr>
<td><strong>Fan</strong></td>
<td>2x PWS-DF006-2F</td>
</tr>
<tr>
<td><strong>BBP</strong></td>
<td>1x AOC-MB-BBP01-P</td>
</tr>
<tr>
<td><strong>CMM</strong></td>
<td>MBM-CMM-6</td>
</tr>
<tr>
<td><strong>IB Anahtarı</strong></td>
<td>1x SBM-IBS-H4020</td>
</tr>
<tr>
<td><strong>VE Anahtarı</strong></td>
<td>2x SBM-25G-200</td>
</tr>
<tr>
<td><strong>Bıçak Yapılandırması</strong></td>
<td>
<ul>
<li>SBI-411E-5G:
<ul>
<li>1x CPU 8562Y+</li>
<li>8x MEM-DR532L-CL01-ER48</li>
<li>2x HDS-SMN0-MZ1L23T8HBLAA7 (Samsung 3840G M.2 sürücüsü)</li>
<li>1x GPU-NVH100-80</li>
<li>1x SNK-P0088P</li>
<li>1x AOC-IBH-X6HS-P</li>
</ul>
</li>
<li>SBI-411E-5G: [Yukarıdakiyle aynı]</li>
<li>SBI-411E-5G: [Yukarıdakiyle aynı, Micron 480G M.2 sürücüsüyle]</li>
<li>SBI-411E-5G: [Yukarıdakiyle aynı, Micron 480G M.2 sürücüsüyle]</li>
<li>SBI-421E-5T3N:
<ul>
<li>2x8562Y+</li>
<li>512 Gb DDR5</li>
<li>1x HDS-MMN-MTFDKBA480TFR1BC (Micron 480G M.2 sürücü)</li>
<li>1x HDS-MUN-MTFDKCC3T8TDZ1AZ (Micron 3840G U.2 sürücüsü)</li>
<li>2x SNK-P0088P</li>
<li>1x AOC-IBH-X6HS-P</li>
</ul>
</li>
</ul>
</td>
</tr>
</tbody>
</table>
<h2>Supermicro X13 GPU SuperBlade&#8217;ler</h2>
<p>GPU blade&#8217;leri, ön tarafta bir giriş ile ve GPU yerine bazı 2,5 inç NVMe yuvalarına sahip olan çift işlemci blade&#8217;imiz ile ilk bakışta güçlerini gizler.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1521" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-07-300x137.jpg" alt="" width="506" height="231" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-07-300x137.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-07-1024x468.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-07-768x351.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-07.jpg 1500w" sizes="(max-width: 506px) 100vw, 506px" /></p>
<p>Arka tarafta, bıçağı kasaya bağlayan ve tüm gücü ve verileri taşıyan göz kamaştırıcı sayıda pin bulunur.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1522" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-06-300x169.jpg" alt="" width="508" height="286" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-06-300x169.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-06-1024x578.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-06-768x434.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-06.jpg 1500w" sizes="(max-width: 508px) 100vw, 508px" /></p>
<p>İçeriye baktığımızda GPU blade&#8217;inde m.2 önyükleme SSD&#8217;lerini görebiliyoruz.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1523" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-14-300x215.jpg" alt="" width="505" height="362" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-14-300x215.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-14-1024x735.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-14-768x551.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-14.jpg 1500w" sizes="(max-width: 505px) 100vw, 505px" /></p>
<p>Yukarıdan hava yönlendirici kılavuzları görebiliriz. GPU blade&#8217;i ile Çift CPU blade&#8217;i arasındaki farka dikkat edin. GPU blade anakartı Çift CPU ile aynıdır ancak yalnızca arka G/Ç yarısıdır.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1525" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-04-300x200.jpg" alt="" width="500" height="333" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-04-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-04-1024x683.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-04-768x512.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-04.jpg 1500w" sizes="(max-width: 500px) 100vw, 500px" /></p>
<p>Kasanın arkasından başlayarak PSU&#8217;ları ve ağ bağlantısını görebiliriz. En üstteki tam genişlikli anahtar 200 Gbit NVIDIA Quantum InfiniBand içindir. Alttaki iki anahtardan büyüğü 25G ethernet, ortadaki küçük modül ise Şasi Yönetim Modülü içindir.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1526" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-01-300x231.jpg" alt="" width="638" height="491" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-01-300x231.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-01-1024x790.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-01-768x592.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-01.jpg 1500w" sizes="(max-width: 638px) 100vw, 638px" /></p>
<h2>Supermicro X13 SuperBlade Kasa Yönetimi ve Dağıtımı</h2>
<p>Bir Şasi Yönetim Modülünün (CMM) Supermicro&#8217;nun SuperBlade X13 kasasına entegre edilmesi, bireysel blade&#8217;lerin ötesine geçerek tüm rafı kapsayan bir dizi avantaj sunarak veri merkezi operasyonlarının genel verimliliğini ve yönetilebilirliğini artırır. CMM, SuperBlade X13 sisteminin yönetimini kolaylaştıran merkezi bir kontrol noktası görevi görür.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1527" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-7-300x178.png" alt="" width="629" height="373" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-7-300x178.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-7-1024x608.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-7-768x456.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-7-1536x911.png 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-7.png 1660w" sizes="(max-width: 629px) 100vw, 629px" /></p>
<p>Tüm kasa işlevleri için tek bir cam panel, blade kasa gibi entegre platformlar için kritik öneme sahiptir. Her ne kadar bireysel blade&#8217;leri kapatıp açma yeteneği bazıları için önemli olsa da, diğer birçok işlev günlük yönetim rutinlerinde değerli bir rol oynar.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1528" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-6-300x178.png" alt="" width="625" height="371" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-6-300x178.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-6-1024x608.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-6-768x456.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-6-1536x911.png 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-6.png 1660w" sizes="(max-width: 625px) 100vw, 625px" /></p>
<p>Supermicro&#8217;nun CMM&#8217;si kasayı izlemek, takılı blade&#8217;leri görüntülemek ve kasanın arkasına takılı entegre anahtarları yönetmek için merkezi bir iniş noktası sunar. Bu bant dışı yönetim aynı zamanda cihazın IP adreslerini de alır, böylece bu merkezi noktadan bağlı her cihaza kolayca geçiş yapabilirsiniz.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1529" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-5-300x178.png" alt="" width="625" height="371" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-5-300x178.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-5-1024x608.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-5-768x456.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-5-1536x911.png 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-5.png 1660w" sizes="(max-width: 625px) 100vw, 625px" /></p>
<p>CMM, sunucu blade&#8217;lerini yönetmenin yanı sıra aynı tek arayüz üzerinden ağ yönetimini de yönetir. Bu, kullanıcıların her iki bağlı anahtarın anahtar yönetimi ekranlarına ilgili IP adresleri görüntülenerek kolayca erişmesine ve görüntülemesine olanak tanır. CMM ayrıca daha büyük dağıtımlar için komşu sistemlerle de iletişim kurarak kapsamlı bir yönetim paketi sağlayabilir.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1531" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-1-300x178.png" alt="" width="624" height="370" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-1-300x178.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-1-1024x608.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-1-768x456.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-1-1536x911.png 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-SuperBlade-CMM-1.png 1660w" sizes="(max-width: 624px) 100vw, 624px" /></p>
<h2>Supermicro SuperBlade SBI-411E-5G – NVIDIA H100 Performansı</h2>
<p>Yüksek performanslı bilgi işlemde, NVIDIA H100&#8217;e sahip SuperBlade SBI-411E-5G, dağıtılmış eğitim ve tek bıçaklı çıkarım için çok yönlü ve güçlü bir araçtır. Bu esneklik, özellikle değişen iş yüklerini yöneten veri merkezlerinde olduğu gibi, hesaplama taleplerinin önemli ölçüde dalgalandığı durumlarda belirgindir.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1532" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-09-300x167.jpg" alt="" width="640" height="356" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-09-300x167.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-09-1024x571.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-09-800x445.jpg 800w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-09.jpg 1500w" sizes="(max-width: 640px) 100vw, 640px" /></p>
<h4>Dağıtılmış Eğitim Senaryoları</h4>
<p>SuperBlade H100 düğümleri, karmaşık yapay zeka modelleri için hayati öneme sahip bir süreç olan dağıtılmış eğitimde öne çıkıyor. Büyük ölçekli bir sinir ağı modelinin geniş bir veri kümesi üzerinde eğitildiği bir senaryo hayal edin. Modelin eğitimi, her biri H100&#8217;ün gelişmiş GPU&#8217;larının gücünden yararlanan birden fazla blade&#8217;e dağıtılmıştır. Bu dağıtım, eğitim sürecini hızlandırır ve daha büyük modellerin ve pratik olmayan veri kümelerinin tek makinelerde işlenmesine olanak tanır.</p>
<p>200G InfiniBand burada kritik bir rol oynuyor. Yüksek bant genişliğine sahip, düşük gecikmeli iletişimi, blade&#8217;ler arasında hızlı ve verimli veri alışverişinin hayati önem taşıdığı dağıtılmış eğitim için çok önemlidir. Bu bağlantı, veri ve öğrenme parametrelerinin tüm blade&#8217;ler arasında tutarlı ve hızlı bir şekilde senkronize edilmesini sağlayarak yüksek hacimli veri işlemede sıklıkla karşılaşılan darboğazları en aza indirir.</p>
<h4>Laboratuvarda Dağıtılmış Eğitim</h4>
<p>Dağıtılmış eğitim, büyük ölçekli makine öğrenimi ve derin öğrenme görevlerine yaklaşımımızda devrim yarattı. Veri kraldır ve büyük miktardaki eğitim verisini verimli bir şekilde işleme yeteneği bir süredir darboğaz olmuştur. Burası açık kaynaklı kitaplıkların ve dört PCIe GPU&#8217;lu Supermicro SuperBlade X13 gibi güçlü donanımların, özellikle yüksek hızlı 200G InfiniBand ağı üzerinden bağlanıldığında oyunun kurallarını değiştirdiği yerdir.</p>
<p>TensorFlow ve PyTorch gibi açık kaynaklı kitaplıklar, her üreticinin desteği ve doğrulamasıyla makine öğrenimi topluluğunun temel öğeleri haline geldi. Makine öğrenimi modellerini geliştirmek ve ölçeklendirmek için sağlam, esnek ve sürekli gelişen çerçeveler sunarlar. Doğal dil işleme veya bilgisayarlı görmede kullanılanlar gibi karmaşık modelleri eğitirken hesaplama gereksinimi şaşırtıcı olabilir. SuperBlade X13&#8217;ün devreye girdiği yer burasıdır.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1533" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-18-300x185.jpg" alt="" width="653" height="403" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-18-300x185.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-18-1024x631.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-18-768x474.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-18.jpg 1500w" sizes="(max-width: 653px) 100vw, 653px" /></p>
<p>SuperBlade X13 platformu, yüksek yoğunluklu bilgi işlem yetenekleriyle tanınmaktadır ve bu da onu HPC ortamları için mükemmel bir seçim haline getirmektedir. H100 PCIe GPU&#8217;larla donatılmış iki kat genişlikte, yarım yükseklikte SBI-411E-5G blade&#8217;leri kullanan SuperBlade X13, çok büyük paralel işlem görevlerini gerçekleştirmek için hava soğutmalı 10&#8217;a kadar GPU&#8217;yu ve kasa başına sıvı soğutmalı 20&#8217;ye kadar GPU&#8217;yu destekler . Daha da önemlisi, blade&#8217;ler gerçekten herhangi bir zamanda yeniden yapılandırılabilir, bu da onları bir işletmenin yapay zeka iş yükleri değiştikçe son derece esnek hale getirir.</p>
<p>InfiniBand&#8217;in son derece düşük gecikme süresi ve yüksek verimle kasaya getirilmesi, veri ve model parametrelerinin düğümler arasında sürekli geçiş yapmasına yardımcı olur. Bu yüksek hızlı ağ, özellikle büyük ölçekli veri kümeleri ve karmaşık model mimarileriyle uğraşırken, dağıtılmış sistemlerde genellikle bir darboğaz olan veri aktarım süresini önemli ölçüde azaltır.</p>
<p>Bu kurulumda dağıtılmış eğitim için açık kaynak kitaplıkların entegre edilmesi birkaç önemli adımı içeriyordu. İlk olarak, GPU yeteneklerini tam olarak kullanabilmek için optimize edilmiş kapsayıcıları ve kitaplıkları seçmemiz gerekiyordu. Bu, bu kitaplıkların CUDA özellikli sürümlerini kullanarak GPU&#8217;nun işlem gücünden doğrudan yararlanabilmelerini sağlamaktan oluşur. İkincisi, InfiniBand&#8217;ın NCCL (NVIDIA Toplu İletişim Kütüphanesi) ile birlikte kullanılması ve toplu çoklu GPU/çok düğümlü iletişim için optimize edilmiş iletişim rutinleri sağlanması gerekir.</p>
<p>Uygulamada, bu platformda dağıtılmış bir eğitim görevi ayarlarken, her düğüm (bu durumda her SuperBlade) modelin bir bölümünü çalıştırır. Model parametreleri, InfiniBand ağının hızı ve düşük gecikme süresi sayesinde düğümler arasında gerçek zamanlı olarak senkronize edilir. Bu senkronizasyon, modelin yakınsaması ve doğruluğu açısından çok önemlidir.</p>
<h2>TensorRT ve LLM&#8217;ler</h2>
<p>NVIDIA&#8217;nın TensorRT Büyük Dil Modeli (LLM), yapay zeka ve makine öğreniminde önemli bir ilerlemeyi temsil ediyor. Verimlilik ve hız için tasarlanan TensorRT LLM, karmaşık yapay zeka görevlerini işlemedeki olağanüstü performansıyla bilinen Blade sunucu sistemleri ekosisteminin önemli bir bileşenidir. Tasarımı, teknik profesyonellerin ve BT karar vericilerinin ihtiyaçlarını karşılayarak modern veri merkezlerinin zorlu bilgi işlem gereksinimlerini karşılamak için sağlam bir çözüm sunar.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1534" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/sotragereview-supermicro-superblade-h100-nvidia-smi-300x138.png" alt="" width="642" height="295" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/sotragereview-supermicro-superblade-h100-nvidia-smi-300x138.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/sotragereview-supermicro-superblade-h100-nvidia-smi-1024x472.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/sotragereview-supermicro-superblade-h100-nvidia-smi-768x354.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/sotragereview-supermicro-superblade-h100-nvidia-smi.png 1028w" sizes="(max-width: 642px) 100vw, 642px" /></p>
<p>NVIDIA&#8217;nın TensorRT LLM&#8217;sinin teknik çerçevesi, yapay zeka ve derin öğrenmenin tüm potansiyelinden yararlanmak üzere tasarlanmıştır. Sinir ağı çıkarımını optimize etmek için tasarlandığı için yüksek performanslı bilgi işlem ortamları için ideal bir seçimdir. TensorRT LLM, eğitimli modelleri optimize edilmiş çalışma süresi motorlarına dönüştürme yeteneği sayesinde kayda değer bir verimlilik elde ederek gecikmeyi önemli ölçüde azaltır ve verimi artırır. Bu özellik esas olarak hızlı veri işlemenin ve minimum yanıt sürelerinin çok önemli olduğu Blade sunucu sistemlerine yarar sağlar. Ek olarak, NVIDIA&#8217;nın geniş GPU yelpazesiyle uyumluluğu, çok yönlülüğünü artırarak onu çeşitli BT ayarlarında ölçeklenebilir bir çözüm haline getiriyor.</p>
<p>NVIDIA TensorRT LLM&#8217;nin öne çıkan özelliklerinden biri de dağıtılmış eğitim kapasitesidir. Bu husus özellikle büyük ölçekli makine öğrenimi modellerinin norm olduğu ortamlarda çok önemlidir. Dağıtılmış eğitim, TensorRT LLM&#8217;nin birden fazla sistemden yararlanmasına olanak tanıyarak hesaplama yükünü verimli bir şekilde dağıtır. Bu, doğruluk veya performanstan ödün vermeden karmaşık modellerin eğitim süresinde önemli bir azalmaya yol açar. Çeşitli düğümler arasında dağıtılmış eğitim gerçekleştirme yeteneği, TensorRT LLM&#8217;yi genellikle büyük kuruluşlarda ve araştırma tesislerinde bulunan geniş BT altyapılarına son derece uyarlanabilir hale getirir. Ayrıca bu dağıtılmış yaklaşım, gelişmiş yapay zeka projelerinde ortak bir zorluk olan devasa veri kümelerinin işlenmesini kolaylaştırarak daha sağlam ve karmaşık yapay zeka modeli geliştirilmesine olanak tanıyor.</p>
<p>TensorRT LLM&#8217;nin optimizasyonu ve yüksek performanslı çıkarım yetenekleri, Blade sunucularının yoğun, birbirine bağlı doğasına idealdir. Blade sistemleri, TensorRT LLM&#8217;den yararlanarak karmaşık yapay zeka modellerini daha verimli bir şekilde yürütebilir, böylece daha hızlı işlem süreleri ve daha az gecikme elde edilebilir. Bu, özellikle finansal modelleme veya sağlık hizmetleri teşhisleri gibi gerçek zamanlı veri analizinin ve karar vermenin gerekli olduğu senaryolarda kritik öneme sahiptir.</p>
<p>Supermicro SuperBlade&#8217;i TensotRT LLM&#8217;nin dağıtılmış eğitim yetenekleri ve birden fazla sisteme uyarlanabilirliği ile birleştirmek, varlığın teknik profesyoneller ve BT karar vericileri için değerini artırır. Kuruluşlar, bu güçlü kombinasyondan yararlanarak büyük ölçekli yapay zeka projelerini verimli bir şekilde yönetebilir, böylece daha hızlı işlem, daha az gecikme ve ölçeklenebilir yapay zeka dağıtımları elde edebilir. Bunu kolaylaştırmak için kasa içerisinde Quantum InfiniBand ağını kullanıyoruz.</p>
<h4>MLPerf ile Tek Blade Çıkarım Performansı Karşılaştırması</h4>
<p>GPU blade&#8217;lerindeki düğüm başına bir CPU&#8217;dan bir GPU&#8217;ya mimari, özellikle tek blade çıkarım görevleri için yapay zeka ve veri analitiği iş yükleri için potansiyel faydalar sunar. Bu tasarım, dengeli bir işlem gücü oranı sağlayarak GPU&#8217;nun yeteneklerinin en iyi şekilde kullanılmasını sağlar.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1535" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-11-300x173.jpg" alt="" width="636" height="367" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-11-300x173.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-11-1024x591.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-11-768x443.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-11.jpg 1500w" sizes="(max-width: 636px) 100vw, 636px" /></p>
<p>Tek Blade Çıkarımı performansını test etmek için MLPerf 3.1 Inference&#8217;ı hem çevrimdışı hem de sunucuda çalıştırdık. BERT (Transformatörlerden Çift Yönlü Kodlayıcı Gösterimleri), öncelikle soru yanıtlama, dil anlama ve cümle sınıflandırma gibi doğal dil işleme görevleri için kullanılan transformatör tabanlı bir modeldir. ResNet-50, görüntü sınıflandırma görevleri için yaygın olarak kullanılan bir evrişimli sinir ağı (CNN) modelidir. Derin mimarisi ve verimli performansıyla bilinen ResNet modelinin 50 katmanlı bir çeşididir.</p>
<table width="308">
<tbody>
<tr>
<th colspan="2">Tek Düğümlü Çıkarım</th>
</tr>
<tr>
<td width="221">ResNet-50 – Çevrimdışı:</td>
<td width="87">46,326.6</td>
</tr>
<tr>
<td width="221">ResNet-50 – Sunucu:</td>
<td>47,717.4</td>
</tr>
<tr>
<td width="221">BERT K99 – Çevrimdışı:</td>
<td>3,702.4</td>
</tr>
<tr>
<td width="221">BERT K99 – Sunucu:</td>
<td>4,564.11</td>
</tr>
</tbody>
</table>
<ul>
<li>Çevrimdışı Mod: Bu mod, tüm veriler aynı anda işlenmeye uygun olduğunda sistemin performansını ölçer. Sistemin büyük bir veri kümesini tek bir toplu iş halinde işlediği toplu işleme benzer. Bu mod, gecikmenin birincil sorun olmadığı, ancak aktarım hızı ve verimliliğin önemli olduğu senaryolar için çok önemlidir.</li>
<li>Sunucu Modu: Buna karşılık, sunucu modu, isteklerin teker teker geldiği gerçek dünya sunucu ortamını taklit eden bir senaryoda sistemin performansını değerlendirir. Bu mod gecikmeye duyarlıdır ve sistemin her isteğe ne kadar hızlı yanıt verebileceğini ölçer. Web sunucuları veya etkileşimli uygulamalar gibi anında müdahalenin gerekli olduğu gerçek zamanlı uygulamalar için çok önemlidir.</li>
</ul>
<p>Çıkarım görevlerinde GPU, hesaplamanın ağır yükünden öncelikli olarak sorumludur. Sistem, onu özel bir CPU ile eşleştirerek, GPU&#8217;nun, paylaşılan CPU veya platform kaynakları tarafından tıkanmadan verimli bir şekilde çalışabilmesini sağlar. Bu, canlı video analizi veya anında dil çevirisi gibi gerçek zamanlı veri işleme senaryolarında çok önemlidir.</p>
<p>İlginç bir şekilde, bu 1:1 CPU-GPU oranının performansta daha fazla öngörülebilirlik sağladığını gözlemledik. Her düğüm bağımsız olarak çalışarak tutarlı işlem süreleri sağlar ve çıkarım görevlerindeki değişkenliği azaltır. Bu öngörülebilirlik, yanıt süresinin kritik olduğu ortamlarda hayati öneme sahiptir.</p>
<p>Genel olarak SuperBlade H100&#8217;deki bir CPU&#8217;dan bir GPU&#8217;ya yapılandırması her iki bileşenin etkinliğini en üst düzeye çıkarır. Bu, her düğümün bağımsız modelleri ve süreçleri çalıştırmasıyla, her düğümün çıkarım görevleri için en iyi performansı sunmasını sağlar. Bu mimari, sistemin gerçek zamanlı veri işleme taleplerini verimli ve güvenilir bir şekilde karşılama yeteneğini geliştirir.</p>
<h4>Uyarlanabilir İş Yükü Yönetimi</h4>
<p>Tüm bilgiler dikkate alındığında SuperBlade sisteminin son derece uyarlanabilir olduğu açıktır. Çıkarım talebinin yüksek olduğu yoğun saatlerde, bu görevleri yerine getirmek için daha fazla GPU özellikli blade dinamik olarak tahsis edilebilir ve böylece gerçek zamanlı isteklerin verimli bir şekilde ele alınması sağlanır. Bunun tersine, yoğun olmayan saatlerde bu kaynaklar, yapay zeka modellerinin ince ayarının yapılmasına veya zamana daha az duyarlı görevlerin işlenmesine odaklanacak şekilde kaydırılabilir. Bu esneklik, kaynakların optimum şekilde kullanılmasına olanak tanıyarak SuperBlade sisteminin değişen hesaplama yüklerini yönetmede sağlam ve verimli olmasını sağlar.</p>
<h4>Bu Senaryolarda 200G <b>NVIDIA Quantum</b> InfiniBand&#8217;ın Avantajları</h4>
<p>SuperBlade H100 sistemine 200G InfiniBand&#8217;ın dahil edilmesi, yüksek hızlı veri aktarımının omurgasını sağlayarak bu senaryoları geliştirir. Dağıtılmış eğitim, blade&#8217;ler arasında verilerin daha hızlı senkronize edilmesini sağlar; bu, eğitim sürecinin tutarlılığını ve hızını korumak için gereklidir. Tek kanatlı çıkarım, büyük veri kümelerinin işlenmek üzere blade&#8217;e hızlı bir şekilde taşınabilmesini sağlar, gecikmeyi azaltır ve verimi artırır.</p>
<h2>Quantum InfiniBand&#8217;da Neler Var?</h2>
<p>Yüksek performanslı bilgi işlemin temel taşı olan InfiniBand, başlangıçta süper bilgi işlem kümeleri içinde giderek artan veri aktarımı ve iletişim taleplerini karşılamak için geliştirilen yüksek hızlı bir ara bağlantı teknolojisidir. Bu son derece uzmanlaşmış ağ çözümü yıllar içinde gelişerek son derece düşük gecikme süresi ve yüksek bant genişliği sunarak HPC ortamlarındaki sunucuları, depolama sistemlerini ve diğer bileşenleri bağlamak için ideal hale getirdi.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1536" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-infiniband-promopackage-kv-1600x900-1-300x169.png" alt="" width="680" height="383" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-infiniband-promopackage-kv-1600x900-1-300x169.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-infiniband-promopackage-kv-1600x900-1-1024x576.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-infiniband-promopackage-kv-1600x900-1-768x432.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-infiniband-promopackage-kv-1600x900-1-1536x864.png 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-infiniband-promopackage-kv-1600x900-1.png 1600w" sizes="(max-width: 680px) 100vw, 680px" /></p>
<p>Gönderdiğimiz Supermicro X13 blade&#8217;ler 200G InfiniBand ağı ve 25G ethernet ile donatılmış olarak geldi. Bu, özellikle dağıtılmış eğitim ve diğer gecikmeli ve veri yoğunluklu görevler üzerinde çalışırken yararlı oldu. Yukarıda bahsedilen oldukça değişken (ve zaman alıcı) birkaç eğitim döneminden sonra, InfiniBand ağının blade kasasının sayısız pininde gizli olan gerçek dünya test ölçümlerini sağlamak için farklı bir ölçüme ihtiyacımız olduğunu belirledik. Çalıştırmadan çalıştırmaya ince ayarın aşırı değişkenliği göz önüne alındığında, bu görevler için bunun gibi çok düğümlü bir sistem kullanmanın etkisini veya etki eksikliğini ölçmeye çalışmak sorumsuzluk olacaktır. Sonuçlar şaşırtıcının da ötesindeydi.</p>
<p><a title="Yeni bir pencerede açılır" href="https://docs.nvidia.com/networking/display/hpcxv217/clusterkit" target="_blank" rel="noopener"> NVIDIA ClusterKit&#8217;e</a> girin . NVIDIA ClusterKit, çok düğümlü GPU kümelerinin tüm potansiyelini test etmek için tasarlanmış bir araç seti olup, yapay zeka ve HPC uygulayıcılarına iş yüklerinin performansını, verimliliğini ve ölçeklenebilirliğini ölçmek için ilginç bir araç paketi sunar.</p>
<p>ClusterKit&#8217;te iki temel araca odaklandık:</p>
<ul>
<li>Bant Genişliği Testi: Bant genişliği, HPC&#8217;de belirli bir zamanda ağ üzerinden iletilebilecek veri miktarını yansıtan kritik bir ölçümdür. Supermicro SuperBlade kurulumunda düğümler arasındaki çift yönlü (duplex) bant genişliğini ölçmek için NVIDIA ClusterKit&#8217;i kullandık. Çift yönlü ölçümler, verilerin her iki yönde aynı anda aktığı gerçek dünya senaryosunu yansıttıkları için önemlidir.</li>
<li>Gecikme Testi: Gecikme veya bir mesajın ağdaki bir noktadan diğerine gitmesi için geçen süre, bir diğer önemli performans ölçütüdür. Düşük gecikme, sıkı bir şekilde bağlı HPC uygulamalarında önemlidir. NVIDIA ClusterKit&#8217;in çift yönlü gecikme sürelerini doğru bir şekilde ölçme yeteneği, SuperBlade&#8217;lerdeki InfiniBand ağının yanıt verme hızına ilişkin değerli bilgiler sağladı.</li>
</ul>
<h4>ClusterKit ile SuperBlade InfiniBand ve H100 GPU Karşılaştırma Sonuçları</h4>
<p>Bu bölüme girerken, her düğümün benzersiz bir etiketle (örneğin, smci-a7, smci-a1, vb.) tanımlandığını anlamak önemlidir. -1, -3, -5 ve -7&#8217;nin gösterimi, blade&#8217;in kasadaki fiziksel konumunu yansıtan ana bilgisayar adıdır.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1537" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-smci-blade-logical-view-x13-superblade-e1706725612981-300x144.png" alt="" width="748" height="359" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-smci-blade-logical-view-x13-superblade-e1706725612981-300x144.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-smci-blade-logical-view-x13-superblade-e1706725612981-1024x492.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-smci-blade-logical-view-x13-superblade-e1706725612981-768x369.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-smci-blade-logical-view-x13-superblade-e1706725612981.png 1082w" sizes="(max-width: 748px) 100vw, 748px" /></p>
<p>İlk test, kümedeki çeşitli düğümler arasındaki çift yönlü bant genişliğini ölçmeye odaklandı. Test, 16 kez yinelenen 8.388.608 baytlık bir mesaj boyutunu içeriyordu.</p>
<h4>GPU Doğrudan Testleri</h4>
<p>İlk önce GPU Direct testlerine bir göz atıyoruz. Bu, bu yazının yazıldığı sırada mevcut olan en yeni ve en iyi SDK&#8217;ların ve araç takımlarının tümünü kullanarak blade platformunun mutlak maksimum verimini bildirir. Testin bant genişliğini çift yönlü olarak rapor ettiğini, yani bant genişliğinin her iki yönde de toplam olduğunu belirtmek önemlidir. Tek yön yaklaşık yarım olacaktır. Temel çıkarım, bant genişliğini sınırlayan faktörün 200G InfiniBand olduğudur, ancak daha sonra göreceğimiz gibi bu çok fazla endişe kaynağı değildir.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1538" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-superblade-nvidia-infiniband-cudakit-300x167.png" alt="" width="753" height="419" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-superblade-nvidia-infiniband-cudakit-300x167.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-superblade-nvidia-infiniband-cudakit-1024x569.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-superblade-nvidia-infiniband-cudakit-768x426.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-superblade-nvidia-infiniband-cudakit-1536x853.png 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-superblade-nvidia-infiniband-cudakit-800x445.png 800w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-superblade-nvidia-infiniband-cudakit.png 1920w" sizes="(max-width: 753px) 100vw, 753px" /></p>
<p>Aşağıdaki matris GPUDirect kullanılarak çift yönlü bant genişliğini göstermektedir.</p>
<h5>Bant Genişliği Matrisi MB/sn</h5>
<table>
<thead>
<tr>
<th>Sıra/Düğüm</th>
<th>smci-a7</th>
<th>smci-a1</th>
<th>smci-a3</th>
<th>smci-a5</th>
</tr>
</thead>
<tbody>
<tr>
<td><strong>0 (smci-a7)</strong></td>
<td>0.0</td>
<td>49,221.6</td>
<td>49,193.6</td>
<td>49,223.6</td>
</tr>
<tr>
<td><strong>1 (smci-a1)</strong></td>
<td>49,221.6</td>
<td>0.0</td>
<td>49,219.5</td>
<td>49,142.7</td>
</tr>
<tr>
<td><strong>2 (smci-a3)</strong></td>
<td>49,193.6</td>
<td>49,219.5</td>
<td>0.0</td>
<td>49,219.7</td>
</tr>
<tr>
<td><strong>3 (smci-a5)</strong></td>
<td>49,223.6</td>
<td>49,142.7</td>
<td>49,219.7</td>
<td>0.0</td>
</tr>
</tbody>
</table>
<h5>Gecikme kullanım süresi</h5>
<p>Sırada mikrosaniyelerle ölçülen dikkat çekici gecikme testi sonuçları vardı. GPU Direct testleri, birden fazla GPU&#8217;nun yerel olarak bir ana bilgisayara sahip olması kadar iyiydi.</p>
<table>
<thead>
<tr>
<th>Rütbe</th>
<th>smci-a7</th>
<th>smci-a1</th>
<th>smci-a3</th>
<th>smci-a5</th>
</tr>
</thead>
<tbody>
<tr>
<td><strong>0 (smci-a7)</strong></td>
<td>0.00</td>
<td>1.38</td>
<td>1.24</td>
<td>1.38</td>
</tr>
<tr>
<td><strong>1 (smci-a1)</strong></td>
<td>1.38</td>
<td>0.00</td>
<td>1.25</td>
<td>1.36</td>
</tr>
<tr>
<td><strong>2 (smci-a3)</strong></td>
<td>1.24</td>
<td>1.25</td>
<td>0.00</td>
<td>1.32</td>
</tr>
<tr>
<td><strong>3 (smci-a5)</strong></td>
<td>1.38</td>
<td>1.36</td>
<td>1.32</td>
<td>0.00</td>
</tr>
</tbody>
</table>
<h4>GPU Komşu Testleri</h4>
<p>GPU komşu testlerine geçersek, bant genişliği yine çift yönlü olarak raporlanır, yani bant genişliği her iki yönde de toplamdır. Tek yön yaklaşık yarım olacaktır. Aşağıdaki matris, dört düğümün her birindeki <strong>H100 kartları arasındaki çift yönlü bant genişliğini gösterir. </strong>Bu, GPUDirect kitaplıklarının hızlandırılmasını kullanmaz. 1, 3, 5 ve 7&#8217;nin gösterimi, blade&#8217;in kasadaki fiziksel konumunu yansıtan ana bilgisayar adıdır.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1539" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-SBM-IBS-H4020-SuperBlade-hdr-200g-infiniband-switch-300x51.png" alt="" width="735" height="125" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-SBM-IBS-H4020-SuperBlade-hdr-200g-infiniband-switch-300x51.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-SBM-IBS-H4020-SuperBlade-hdr-200g-infiniband-switch-1024x176.png 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-SBM-IBS-H4020-SuperBlade-hdr-200g-infiniband-switch-768x132.png 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-SBM-IBS-H4020-SuperBlade-hdr-200g-infiniband-switch.png 1283w" sizes="(max-width: 735px) 100vw, 735px" /></p>
<h5>GPU Komşu Bant Genişliği (MB/s)</h5>
<p>“GPU Komşu Bant Genişliği” testi, aynı sistem veya düğüm içindeki komşu GPU&#8217;lar arasındaki veri aktarım hızını ölçer. Bu ölçüm, çoklu GPU paralel işleme görevleri gibi birbirine yakın GPU&#8217;lar arasında sık veri alışverişi gerektiren uygulamalar için çok önemlidir. Bant genişliği ne kadar yüksek olursa veri aktarımı da o kadar hızlı olur ve bu da GPU&#8217;nun yoğun kullanıldığı uygulamalarda potansiyel olarak iyileştirilmiş performansa yol açar.</p>
<table>
<tbody>
<tr>
<th>GPU</th>
<th>Bant genişliği (MB/s)</th>
</tr>
<tr>
<td>smci-a1 ile smci-a7</td>
<td>30,653.9</td>
</tr>
<tr>
<td>smci-a5 ile smci-a3</td>
<td>30,866.7</td>
</tr>
<tr>
<td><strong>Ortalama</strong></td>
<td><strong>30,760.3</strong></td>
</tr>
</tbody>
</table>
<h5>GPU Bellek Bant Genişliği (MB/s)</h5>
<p>“GPU Bellek Bant Genişliği” testi, verilerin GPU&#8217;nun kendisi tarafından GPU belleğinden okunma veya burada saklanma hızını değerlendirir. Bu bant genişliği, özellikle büyük veri kümeleri içeren veya görüntü işleme, simülasyonlar veya derin öğrenme gibi görevler için yüksek verim gerektiren uygulamalar için kritik bir performans unsurudur. Daha yüksek bellek bant genişliği, GPU&#8217;nun büyük hacimli verileri verimli bir şekilde işleme yeteneğinin daha iyi olduğunu gösterir. Bu test bize X13 Blade&#8217;lerin H100 GPU&#8217;ları sürdürmede sorun yaşamadığını gösteriyor.</p>
<table>
<tbody>
<tr>
<th>GPU</th>
<th>Bant genişliği</th>
</tr>
<tr>
<td>smci-a7-GPU0</td>
<td>55,546.3</td>
</tr>
<tr>
<td>smci-a1-GPU0</td>
<td>55,544.9</td>
</tr>
<tr>
<td>smci-a3-GPU0</td>
<td>55,525.5</td>
</tr>
<tr>
<td>smci-a5-GPU0</td>
<td>55,549.8</td>
</tr>
<tr>
<td><strong>Ortalama</strong></td>
<td><strong>55,541.6</strong></td>
</tr>
</tbody>
</table>
<h5>GPU&#8217;dan GPU&#8217;ya Bant Genişliği (MB/s)</h5>
<p>Bu test, farklı GPU&#8217;lar arasındaki çift yönlü bant genişliğini ölçer. Birden fazla GPU&#8217;ya dağıtılmış karmaşık hesaplamalar içeren ve GPU&#8217;lar arasındaki veri aktarım hızının genel işlem süresini önemli ölçüde etkileyebildiği görevler için bu gereklidir. GPU&#8217;dan GPU&#8217;ya yüksek bant genişliği, çoklu GPU iş akışlarını ve paralel bilgi işlem görevlerini hızlandırmak için faydalıdır.</p>
<table>
<tbody>
<tr>
<th>GPU</th>
<th>smci-a7</th>
<th>smci-a1</th>
<th>smci-a3</th>
<th>smci-a5</th>
</tr>
<tr>
<td>smci-a7-GPU0</td>
<td>0.0</td>
<td>30,719.8</td>
<td>30,817.7</td>
<td>30,823.8</td>
</tr>
<tr>
<td>smci-a1-GPU0</td>
<td>30,719.8</td>
<td>0.0</td>
<td>30,710.0</td>
<td>30,670.9</td>
</tr>
<tr>
<td>smci-a3-GPU0</td>
<td>30,817.7</td>
<td>30,710.0</td>
<td>0.0</td>
<td>30,835.1</td>
</tr>
<tr>
<td>smci-a5-GPU0</td>
<td>30,823.8</td>
<td>30,670.9</td>
<td>30,835.1</td>
<td>0.0</td>
</tr>
<tr>
<td><strong>Ortalama</strong></td>
<td><strong>30,762.9</strong></td>
<td></td>
<td></td>
<td></td>
</tr>
</tbody>
</table>
<h5>GPU0 &#8211; Uzak Ana Bilgisayar Bant Genişliği (MB/s)</h5>
<p>“GPU0&#8217;dan Uzak Ana Bilgisayar Bant Genişliğine” testi, birincil GPU (GPU0) ile uzak ana bilgisayar sistemi arasındaki veri aktarım hızını ölçer. Bu, verilerin ana GPU ile ağ bağlantılı bir sistemin diğer bölümleri arasında sık sık taşınması gereken, dağıtılmış derin öğrenme eğitimi veya uzak sunuculardaki veri analizi gibi görevleri etkileyen dağıtılmış bilgi işlem ortamlarında hayati öneme sahiptir.</p>
<table>
<tbody>
<tr>
<th>GPU</th>
<th>smci-a7</th>
<th>smci-a1</th>
<th>smci-a3</th>
<th>smci-a5</th>
</tr>
<tr>
<td>smci-a7</td>
<td>0.0</td>
<td>30,804.3</td>
<td>30,753.5</td>
<td>30,768.1</td>
</tr>
<tr>
<td>smci-a1</td>
<td>30,804.3</td>
<td>0.0</td>
<td>30,732.9</td>
<td>30,679.7</td>
</tr>
<tr>
<td>smci-a3</td>
<td>30,753.5</td>
<td>30,732.9</td>
<td>0.0</td>
<td>30,970.8</td>
</tr>
<tr>
<td>smci-a5</td>
<td>30,768.1</td>
<td>30,679.7</td>
<td>30,970.8</td>
<td>0.0</td>
</tr>
</tbody>
</table>
<h5>GPU Komşu Gecikmesi (μsaniye)</h5>
<p>&#8220;GPU Komşu Gecikmesi&#8221; testi, küçük miktarda verinin bir GPU&#8217;dan komşu GPU&#8217;ya gitmesi için geçen süreyi ölçer. Özellikle gerçek zamanlı veri işleme veya GPU&#8217;lar arasında yüksek hızlı iletişim gerektiren, gerçek zamanlı işleme veya karmaşık bilimsel simülasyonlar gibi uygulamalarda gecikmenin daha düşük olması arzu edilir.</p>
<table>
<tbody>
<tr>
<th>GPU</th>
<th>Gecikme</th>
</tr>
<tr>
<td>smci-a1 ile smci-a7</td>
<td>11.03</td>
</tr>
<tr>
<td>smci-a5 ile smci-a3</td>
<td>11.01</td>
</tr>
</tbody>
</table>
<h5>GPU&#8217;dan Uzak Ana Bilgisayara Gecikme (μsaniye)</h5>
<p>“GPU0&#8217;dan Uzak Ana Bilgisayara Gecikme” testi, birincil GPU (GPU0) ile uzak ana bilgisayar sistemi arasındaki veri iletişimindeki gecikmeyi ölçer. Bu gecikme, dağıtılmış bilgi işlem ortamlarında kritik bir faktördür ve bulut tabanlı oyun veya uzaktan veri işleme gibi GPU ile uzak sistemler arasındaki etkileşime dayanan uygulamaların yanıt verme hızını ve verimliliğini etkiler.</p>
<table>
<tbody>
<tr>
<th>GPU</th>
<th>smci-a7</th>
<th>smci-a1</th>
<th>smci-a3</th>
<th>smci-a5</th>
</tr>
<tr>
<td>smci-a7</td>
<td>0.00</td>
<td>3.35</td>
<td>3.36</td>
<td>3.33</td>
</tr>
<tr>
<td>smci-a1</td>
<td>3.35</td>
<td>0.00</td>
<td>3.41</td>
<td>3.37</td>
</tr>
<tr>
<td>smci-a3</td>
<td>3.36</td>
<td>3.41</td>
<td>0.00</td>
<td>3.37</td>
</tr>
<tr>
<td>smci-a5</td>
<td>3.33</td>
<td>3.37</td>
<td>3.37</td>
<td>0.00</td>
</tr>
<tr>
<td><strong>Ortalama</strong></td>
<td><strong>3.37</strong></td>
<td></td>
<td></td>
<td></td>
</tr>
</tbody>
</table>
<p>NVIDIA ClusterKit testleri, Supermicro SuperBlades&#8217;teki InfiniBand ağı için etkileyici performans ölçümlerini ortaya çıkardı. Çift yönlü bant genişliği testleri, InfiniBand&#8217;ın yeteneklerinin verimli şekilde kullanıldığını gösteren yüksek veri aktarım hızlarını ortaya çıkardı. Benzer şekilde, gecikme testleri minimum gecikmeler göstererek ağın zorlu HPC görevleri için uygunluğunu ortaya koydu. Bu, bu platformun bağımsız sistemlerle aynı performansı gösterdiği ve çok daha yüksek yoğunlukta bilgi işlem ve ağ iletişimi sunduğu anlamına geliyor; hepsi birleştirilmiş bir çözümde.</p>
<h2>Bağımsız GPU Sunucu Testi</h2>
<p>Daha sonra, 4x NVIDIA H100&#8217;leri aynı anda 4&#8217;ünü de destekleyebilen bir <a href="https://www.storagereview.com/review/supermicro-4u-amd-epyc-gpu-servers-offer-ai-flexibility-as-4125gs-tnrt">Supermicro 4U AMD EPYC GPU Sunucusuna</a> taşıdık , GPU&#8217;yu GPU&#8217;ya ve gecikmeye kadar test etmeye baktık. Çapraz bıçak iletişimi olmadan, yalnızca bu sunucudaki kartların performans profilini anlamaya çalıştığımızı anlamak çok önemlidir. Bu 4U sunucu, destekleyebileceği kartlar açısından esnek olsa da, Supermicro X13 SuperBlade Kasasının sunduğu olağanüstü şekillendirilebilirliğe sahip değil. Elbette Supermicro her zamanki gibi sıvı soğutmalı soketli GPU&#8217;lar da dahil olmak üzere her uygulama için bir çözüm sunuyor.</p>
<p>Öncelikle tek platformdaki 4 GPU&#8217;nun eşler arası Bant Genişliğine bakalım.</p>
<h4> Yazma Bant Genişliği (GB/s) – Tek Yönlü</h4>
<table class="ui very compact celled definition table">
<thead>
<tr>
<th>GPU</th>
<th>GPU0</th>
<th>GPU1</th>
<th>GPU2</th>
<th>GPU3</th>
</tr>
</thead>
<tbody>
<tr>
<td class="">GPU0</td>
<td class="disabled">0.00</td>
<td class="">54.29</td>
<td class="">39.50</td>
<td class="">40.51</td>
</tr>
<tr>
<td class="">GPU1</td>
<td class="">54.60</td>
<td class="disabled">0.00</td>
<td class="">40.55</td>
<td class="">40.22</td>
</tr>
<tr>
<td class="">GPU2</td>
<td class="">40.60</td>
<td class="">38.73</td>
<td class="disabled">0.00</td>
<td class="">54.03</td>
</tr>
<tr>
<td class="">GPU3</td>
<td class="">40.99</td>
<td class="">40.33</td>
<td class="">53.79</td>
<td class="disabled">0.00</td>
</tr>
</tbody>
</table>
<h4>Okuma Bant Genişliği (GB/s) – Tek Yönlü</h4>
<table class="ui very compact celled definition table">
<thead>
<tr>
<th>GPU</th>
<th>GPU0</th>
<th>GPU1</th>
<th>GPU2</th>
<th>GPU3</th>
</tr>
</thead>
<tbody>
<tr>
<td class="">GPU0</td>
<td class="disabled">0.00</td>
<td class="">53.17</td>
<td class="">39.23</td>
<td class="">35.69</td>
</tr>
<tr>
<td class="">GPU1</td>
<td class="">53.70</td>
<td class="disabled">0.00</td>
<td class="">36.96</td>
<td class="">41.02</td>
</tr>
<tr>
<td class="">GPU2</td>
<td class="">36.28</td>
<td class="">39.88</td>
<td class="disabled">0.00</td>
<td class="">53.32</td>
</tr>
<tr>
<td class="">GPU3</td>
<td class="">40.40</td>
<td class="">37.08</td>
<td class="">53.68</td>
<td class="disabled">0.00</td>
</tr>
</tbody>
</table>
<p>Burada GPU0 ve GPU1 GPU&#8217;larının bir NUMA düğümünde, GPU2 ve GPU3&#8217;ün ise başka bir NUMA Düğümünde olduğunu unutmamak önemlidir. NUMA düğümünü geçmenin performans üzerindeki etkisini burada açıkça görebilirsiniz.</p>
<h4>Kopyalama Motoru (CE) – Yazma Gecikmesi (bize)</h4>
<p>Son olarak, GPU&#8217;dan GPU&#8217;ya olan gecikmeyi ölçüyoruz.</p>
<table class="ui very compact celled definition table">
<thead>
<tr>
<th>GPU</th>
<th>GPU0</th>
<th>GPU1</th>
<th>GPU2</th>
<th>GPU3</th>
</tr>
</thead>
<tbody>
<tr>
<td class="">GPU0</td>
<td class="disabled">0.00</td>
<td class="">1.67</td>
<td class="">1.64</td>
<td class="">1.64</td>
</tr>
<tr>
<td class="">GPU1</td>
<td class="">1.57</td>
<td class="disabled">0.00</td>
<td class="">1.61</td>
<td class="">1.61</td>
</tr>
<tr>
<td class="">GPU2</td>
<td class="">1.66</td>
<td class="">1.69</td>
<td class="disabled">0.00</td>
<td class="">1.65</td>
</tr>
<tr>
<td class="">GPU3</td>
<td class="">1.65</td>
<td class="">1.66</td>
<td class="">1.61</td>
<td class="disabled">0.00</td>
</tr>
</tbody>
</table>
<p>Beklendiği gibi, tüm GPU&#8217;ları tek bir platforma taşımak, Blade&#8217;in 200G IB bağlantılarına kıyasla bize 2 kat bant genişliği sağlıyor. Buradaki bant genişliği uygulama için dikkate alınması gereken bir husus olabilir, ancak mikrosaniye mertebesinde çalışan gecikme sayılarından bahsederken, hepsi tek bir kasadayken ortalama 1,6 us GPU&#8217;dan GPU&#8217;ya geçişin rapor edilmesinde büyük bir değişiklik yoktur. PCIe Veriyolunu geçmek zorunda kaldığınızda bıçaklarda 1,5us, IB anahtarı ve GPU&#8217;ya geri dönüş dikkat çekicidir. Ancak hikayenin tamamı bu <strong>değil  .</strong></p>
<h2>Çözüm</h2>
<p>Supermicro X13 SuperBlade, Emerald Rapids CPU&#8217;ları ve NVIDIA H100 GPU&#8217;ları ile blade&#8217;in hizmet edebileceğinin memnuniyetle karşılanan bir evrimidir. Yetenekleri çeşitli yoğun hesaplamalı görevlere uzanır ve bu da onu veri analitiğinden yapay zeka ve bulut bilişime kadar çeşitli endüstriler için çok yönlü ve sağlam bir çözüm haline getirir. Yüksek performanslı bilgi işlem talebi artmaya devam ederken X13, Supermicro&#8217;nun sunucu teknolojisinde yenilikçiliğe ve mükemmelliğe olan bağlılığını göstererek bu zorlukların üstesinden gelmeye hazırdır.</p>
<p>Testlerden elde edilen her şey dikkate alındığında, bütünsel bir bakış açısıyla benzersiz ve son derece uyarlanabilir doğası sayesinde bu platformla özellikle ilgileniyoruz. Platformun uygulamasını bağlamsallaştırmak önemlidir.</p>
<p>Tüm yüksek işlem gücünüz için rafınızda Supermicro X13 Blade sisteminin bulunduğu bir araştırma departmanındaki bir senaryoyu hayal edin. Platformda yerleşik olarak bulunan merkezi yönetim altyapısını yalnızca blade&#8217;leri ve platformu kontrol etmek için değil, aynı zamanda diğer ekipman parçalarının kontrolü, ağ iletişimi ve yönetimi için bir merkez olarak da kullanabilirsiniz. Veriye aç GPU&#8217;ları beslemek için SuperBlade&#8217;lere yeterince güçlü bir depolama sunucusu yuvası bağladığınızda, tüm bitleri hat hızında modellerinize alabilirsiniz. Bu hayali senaryoda, tüm GPU&#8217;larımızın gün içinde farklı araştırmacılar tarafından kullanılmasını sağlayabiliriz ve ardından zamanı geldiğinde tüm blade&#8217;leri InfiniBand üzerinden bağlayıp birlikte çalışmasını sağlayabiliriz.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1540" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-05-300x200.jpg" alt="" width="746" height="497" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-05-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-05-1024x683.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-05-768x512.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicron-SuperBlade-X13-05.jpg 1500w" sizes="(max-width: 746px) 100vw, 746px" /></p>
<p>CPU ile GPU arasındaki bire bir ilişkinin bant genişliği testi, tam yüklü bir blade kasası göz önüne alındığında, blade sistemiyle ek kart GPU&#8217;larına sahip tek bir sunucudan daha iyi performans gösterebileceğinizi de gösterdi. Düzgün tasarlanmış dağıtılmış bir eğitim iş akışıyla, aslında tüm GPU&#8217;ların tek bir düğümde olması kadar iyi veya bundan daha iyi bir performans görebilirsiniz, ancak artık çift görevi kolayca üstlenerek ön GPU maliyetini yarıya indiren bir platforma sahip oluyorsunuz . En yeni CPU&#8217;ların desteği sayesinde, uygulamaya konulduktan sonra HDR InfiniBand&#8217;dan NDR&#8217;ye geçmeyi sabırsızlıkla bekliyoruz; çünkü bu, SuperBlade&#8217;leri tek bir GPU sunucu platformunda alabileceğiniz performansın çok üstüne ve ötesine taşıyacaktır.</p>
<p>Supermicro X13 SuperBlade kasası ve GPU blade&#8217;leri, gelişen veya düzenli olarak değişen yapay zeka ihtiyaçları için son derece uyarlanabilir, sağlam bir seçimdir. Platformda geçirdiğimiz uzun süre boyunca, DRAM, CPU ve GPU değişiklikleri veya yapay zeka dünyasında bilindiği şekliyle &#8220;başka bir gün&#8221; ihtiyacıyla karşılaştık ve bunların tümü platform tarafından kolaylıkla karşılandı. Genel olarak, platform sağlamdır ve kendisinden istenecek çok fazla şey bırakmadan yapay zeka alanı için ilgi çekici ve güçlü bir cihaz olarak karşımıza çıkar. Rakip sistemlerin fiyat noktaları göz önüne alındığında, bir bıçağın esnekliğinden yararlanabiliyorsanız, bu neredeyse rakipsizdir.</p>
<p>Kaynak : <a href="http://StorageReview.com">StorageReview.com</a></p>
<p>Supermicro Super Blade Çözümleriyle ilgili olarak <a href="https://gtmteknoloji.com">Supermicro Türkiye Katma Değerli Resmi Distribütörü GTM Teknoloji</a> ile irtibat kurabilirsiniz.</p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/supermicro-x13-superblade-yapay-zeka-cihazi-ai.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Supermicro 4U AMD EPYC GPU Sunucuları</title>
		<link>https://supermicrosunucu.com/blog/supermicro-4u-amd-epyc-gpu-sunuculari.html</link>
					<comments>https://supermicrosunucu.com/blog/supermicro-4u-amd-epyc-gpu-sunuculari.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Tue, 13 Feb 2024 07:29:10 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[4U]]></category>
		<category><![CDATA[AMD EPYC]]></category>
		<category><![CDATA[server]]></category>
		<category><![CDATA[supermicro]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1468</guid>

					<description><![CDATA[Supermicro 4U AMD EPYC GPU Sunucuları Yapay Zeka Esnekliği Sunuyor (AS-4125GS-TNRT) Supermicro 4U AMD EPYC GPU Sunucuları Yapay Zeka Esnekliği]]></description>
										<content:encoded><![CDATA[<div class="header-standard header-classic single-header">
<h1 class="post-title single-post-title entry-title">Supermicro 4U AMD EPYC GPU Sunucuları Yapay Zeka Esnekliği Sunuyor (AS-4125GS-TNRT)</h1>
</div>
<div class="post-entry blockquote-style-2">
<div id="penci-post-entry-inner" class="inner-post-entry entry-content">
<p>Supermicro 4U AMD EPYC GPU Sunucuları Yapay Zeka Esnekliği Sunuyor (AS-4125GS-TNRT)<span id="more-128432">. </span>Supermicro, uzun süredir bu incelemede tartışacağımızdan daha fazla şekil ve boyutta GPU sunucuları sunuyor. Bugün, iki adet AMD EPYC 9004 Serisi CPU&#8217;yu, PCIe Gen5&#8217;i ve sekiz adet çift genişlikli veya 12 adet tek genişlikli ek GPU kartı seçeneğini destekleyen nispeten yeni 4U hava soğutmalı GPU sunucusuna bakıyoruz. Supermicro bu sunucuların Intel tabanlı çeşitlerini de sunarken, AMD tabanlı AS-4125GS-TNRT ailesi, bu sınıftaki NVIDIA H100 ve AMD Instinct Mi210 GPU&#8217;ları destekleyen tek sunuculardır.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1568" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-GPU-Server-H100-1-1024x590-1-300x173.jpg" alt="" width="300" height="173" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-GPU-Server-H100-1-1024x590-1-300x173.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-GPU-Server-H100-1-1024x590-1-768x443.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-GPU-Server-H100-1-1024x590-1.jpg 1024w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p>Supermicro 4U AMD EPYC GPU Sunucuları Yapay Zeka Esnekliği Sunuyor AS-4125GS-TNRT sunucusu , yerleşik 10GbE ağ bağlantısı, bant dışı yönetim, 9 FHFL PCIe Gen5 yuvası, dördü NVMe olmak üzere 24 2,5″ yuva ve geri kalanı SATA/SAS gibi birkaç donanım özelliğine daha sahiptir. Ayrıca 4x yedekli titanyum düzeyinde 2000W güç kaynakları da bulunmaktadır. Anakartta önyükleme için tek bir M.2 NVMe yuvası bulunur.</p>
<p>Bu yolda çok ileri gitmeden önce, Supermicro&#8217;nun AS-4125GS-TNRT sunucu yapılandırmasının iki çeşidini daha sunduğunu belirtmekte fayda var. Aynı anakartı kullanmalarına rağmen AS-4125GS-TNRT1, 10 adede kadar çift genişlikli GPU&#8217;yu ve 8 NVMe SSD yuvasını destekleyen PCIe anahtarına sahip tek soketli bir yapılandırmadır. AS -4125GS-TNRT2, yine PCIe anahtarıyla aşağı yukarı aynı olan çift işlemcili bir konfigürasyondur.</p>
<p>Yapılandırma ne olursa olsun, Supermicro AS-4125GS-TNRT, tasarımı ve PCIe anahtarıyla model seçebilme yeteneği sayesinde inanılmaz derecede esnektir. Bu tarz GPU sunucusu popülerdir çünkü kuruluşların küçükten başlayıp genişletmelerine, farklı ihtiyaçlar için GPU&#8217;ları karıştırıp eşleştirmelerine veya istedikleri herhangi bir şeyi yapmalarına olanak tanır. Soketli GPU sistemleri, büyük yapay zeka iş yükleri için GPU&#8217;ları daha iyi bir araya getirme olanağı sağlar, ancak iş yükü esnekliği açısından eklenti kart sistemlerine rakip olamaz.</p>
<div id="attachment_128439" class="wp-caption aligncenter">
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1570" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-AS-4125GS-TNRT-GPU-1024x625-1-300x183.jpg" alt="" width="300" height="183" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-AS-4125GS-TNRT-GPU-1024x625-1-300x183.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-AS-4125GS-TNRT-GPU-1024x625-1-768x469.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-AS-4125GS-TNRT-GPU-1024x625-1.jpg 1024w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p id="caption-attachment-128439" class="wp-caption-text">SC23&#8217;ten AMD ve NVIDIA GPU&#8217;lara sahip Supermicro AS-4125GS-TNRT</p>
</div>
<p>Dahası, bu bazılarına küfür gibi gelse de, Supermicro eklenti kartı GPU sunucuları, aynı kutuda AMD ve NVIDIA kartlarıyla bile kullanılabilir! Diyeceksiniz ama pek çok müşteri bazı iş yüklerinin Instinct&#8217;i, diğer iş yüklerinin ise NVIDIA GPU&#8217;yu tercih ettiğini fark etti. Son olarak, her ne kadar tıka basa doldurulmuş GPU sunucularına göre daha az popüler olsa da, bu yuvaların yalnızca PCIe yuvaları olduğunu belirtmekte fayda var; Müşterilerin bu donanımda FPGA&#8217;leri, DPU&#8217;ları veya başka bir tür hızlandırıcıyı tercih edebileceği senaryoları hayal etmek mantıksız değil. Yine esneklik bu tasarımın en önemli faydasıdır.</p>
<p>İnceleme amaçlarımız doğrultusunda, Supermicro AS-4125GS-TNRT, CPU, DRAM, depolama ve tabii ki GPU&#8217;ları eklememize hazır, barebone olarak geldi. Bu inceleme için 4x NVIDIA H100 GPU ödünç almak üzere Supermicro ile çalıştık.</p>
<h2>Supermicro AS-4125GS-TNRT Özellikleri</h2>
<table>
<thead>
<tr>
<td colspan="2"><strong>Özellikler</strong></td>
</tr>
</thead>
<tbody>
<tr>
<td><strong>İşlemci</strong></td>
<td>Her Biri 128C / 256T&#8217;ye kadar Çift Soketli SP5 CPU&#8217;lar</td>
</tr>
<tr>
<td><strong>Hafıza</strong></td>
<td>24x&#8217;e kadar 256 GB 4800 MHz ECC DDR5 RDIMM/LRDIMM <em>(Toplam 6 TB Bellek)</em></td>
</tr>
<tr>
<td><strong>GPU</strong></td>
<td>
<ul>
<li>8&#8217;e kadar Çift genişlikli veya 12&#8217;ye kadar Tek Genişlikli GPU.</li>
<li>AMD MI210 ve NVIDIA H100&#8217;ü destekler</li>
</ul>
</td>
</tr>
<tr>
<td><strong>Genişleme yuvaları</strong></td>
<td>9x PCIE 5.0 x16 FHFL Yuvası</td>
</tr>
<tr>
<td><strong>Güç kaynakları</strong></td>
<td>4x 2000W Yedekli Güç Kaynağı</td>
</tr>
<tr>
<td><strong>Ağ oluşturma</strong></td>
<td>2x 10GbE</td>
</tr>
<tr>
<td><strong>Depolamak</strong></td>
<td>
<ul>
<li>1 adet M.2 NVME</li>
<li>24x 2,5&#8243; çalışırken değiştirilebilir NVMe/SATA/SAS sürücü bölmeleri (4x 2,5&#8243; NVMe ayrılmış)</li>
</ul>
</td>
</tr>
<tr>
<td><strong>Anakart</strong></td>
<td>Süper H13DSG-O-CPU</td>
</tr>
<tr>
<td><strong>Yönetmek</strong></td>
<td>
<ul>
<li>IPMI 2.0</li>
<li>Özel LAN&#8217;lı KVM</li>
</ul>
</td>
</tr>
<tr>
<td><strong>Güvenlik</strong></td>
<td>
<ul>
<li>TPM 2.0</li>
<li>Silikon RoT-NIST 800-193 Uyumlu</li>
</ul>
</td>
</tr>
<tr>
<td><strong>Şasi Boyutu</strong></td>
<td>4U</td>
</tr>
</tbody>
</table>
<h2>Supermicro AS-4125GS-TNRT Yapılandırmayı İnceleme</h2>
<p>Sistemimizi Supermicro&#8217;dan barebone olarak yapılandırdık, ancak onlar bunu büyük ölçüde yapılandırılmış bir sistem olarak satıyorlar. Laboratuvara vardığımızda yaptığımız ilk şey onu bir çift AMD EPYC 9374F 32c 64t CPU ile doldurmak oldu. Bunlar, yüksek saat hızları ve saygın çok çekirdekli performansları nedeniyle seçildi.</p>
<p>Hızlandırıcılar için, eski Intel Phi Yardımcı İşlemcilerinden en yeni H100 PCIe kartlarına ve üst seviye RTX 6000 iş istasyonu GPU&#8217;larına kadar geniş bir yelpazede seçim yapabileceğimiz oldukça fazla ürünümüz vardı. Ham hesaplama gücünü verimlilik ve çok yönlülükle dengelemeyi amaçladık. Sonuçta dört adet NVIDIA RTX A6000 GPU ile başlamaya ve ardından ilk testlerimiz için dört adet NVIDIA H100 PCIe kartına geçmeye karar verdik. Bu kombinasyon Supermicro platformunun esnekliğini ve NVIDIA hızlandırıcı kartlarını gösterir.</p>
<p>Öncelikle grafik ağırlıklı iş yüklerinde performans için tasarlanan RTX A6000, Ampere mimarisiyle yapay zeka ve HPC uygulamalarında da öne çıkıyor. 48 GB GDDR6 bellek sunarak büyük veri kümelerinin ve karmaşık simülasyonların işlenmesi için idealdir. 10.752 CUDA ve 336 Tensor çekirdeği, yapay zeka ve derin öğrenme testlerimiz için çok önemli olan hızlandırılmış hesaplamayı mümkün kılıyor.</p>
<p>Öte yandan NVIDIA H100 PCIe kartları, öncelikle yapay zeka iş yükleri için tasarlanan Hopper mimarisi serisinin en yeni nakliye kartlarıdır. Her kartta etkileyici 80 milyar transistör, 80 GB HBM3 bellek ve GPT-4 gibi yapay zeka modelleri için özel olarak tasarlanmış çığır açan Transformer Engine bulunuyor. H100&#8217;ün 4. nesil Tensör Çekirdekleri ve DPX talimatları, yapay zeka çıkarımını ve eğitim görevlerini önemli ölçüde artırır.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1571" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-GPU-Server-H100-2-1024x550-1-300x161.jpg" alt="" width="300" height="161" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-GPU-Server-H100-2-1024x550-1-300x161.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-GPU-Server-H100-2-1024x550-1-768x413.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/StorageReview-Supermicro-GPU-Server-H100-2-1024x550-1.jpg 1024w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p>Bu GPU&#8217;ları Supermicro barebone sistemimize entegre ederek, bu üst düzey bileşenlerden elde edilen önemli miktarda güç çekimi ve ısı üretimi göz önüne alındığında, optimum termal yönetim ve güç dağıtımını sağlamaya odaklandık. Supermicro şasisi, resmi olarak böyle bir konfigürasyonu desteklemese de kurulumumuza uyum sağlayacak kadar çok yönlü olduğunu kanıtladı. A6000&#8217;lerin termallerini kontrol altında tutmak için, sincap kafesli fan tasarımından dolayı onları bir kart genişliğinde aralık bırakmak zorunda kaldık, ancak H100&#8217;ler geçişli, pasif soğutma kanatlarıyla paketlenebilir.</p>
<p>Karşılaştırma paketimiz, HPC ve yapay zekaya özgü kullanım senaryolarının bir karışımını içeriyordu. Bunlar, geleneksel kıyaslama iş yüklerinden yapay zeka eğitimine ve evrişimli sinir ağı modellerini kullanan çıkarım görevlerine kadar uzanıyordu. Ham performanslarını ve verimliliklerini, ölçeklenebilirliklerini ve Supermicro A+ sunucumuzla entegrasyon kolaylığını değerlendirerek bu hızlandırıcıların sınırlarını zorlamayı hedefledik.</p>
<h2>Supermicro AS-4125GS-TNRT GPU Testi</h2>
<p>Laboratuvarda temel bir CNN modeli üzerinde çalışırken NVIDIA&#8217;nın amiral gemisi GPU&#8217;larını incelerken, bir çift daha eski ama son derece yetenekli <a href="https://www.storagereview.com/review/meta-llama-and-alpacas-loose-in-the-lab-running-large-language-models-locally">RTX8000</a> GPU üzerinde iş istasyonu düzeyinde bazı eğitimlerle başladık.</p>
<p>Yapay zeka performans analizimiz sırasında, NVIDIA RTX 8000&#8217;den dört RTX A6000 GPU&#8217;ya ve son olarak dört NVIDIA H100 PCIe kartına geçerek yeteneklerde dikkat çekici ancak beklenen bir ilerleme gözlemledik. Bu ilerleme, yapay zeka iş yüklerine giderek daha fazla odaklanıldıkça, bu hızlandırıcıların ham gücünü ve son birkaç yılda NVIDIA hızlandırıcıların evrimini ortaya koydu.</p>
<p>RTX 8000&#8217;den başlayarak iyi performans seviyelerine dikkat çektik. Bu kurulumla, 6,36 GB&#8217;lık bir görüntü veri kümesi üzerinde yapay zeka modeli eğitimimiz dönem başına yaklaşık 45 dakika sürdü. Ancak parti boyutu ve üstesinden gelebileceği görevlerin karmaşıklığı açısından RTX 8000&#8217;in sınırlamaları açıkça görülüyordu. Daha küçük parti boyutlarıyla sınırlıydık ve etkili bir şekilde eğitebileceğimiz sinir ağı modellerinin karmaşıklığı sınırlıydı.</p>
<p>Dört RTX A6000 GPU&#8217;ya geçiş, performansta önemli bir sıçramaya işaret etti. A6000&#8217;in üstün bellek bant genişliği ve daha büyük GDDR6 belleği, aynı dönem süresini ve model karmaşıklığını korurken toplu iş boyutunu dört katına çıkarmamıza olanak sağladı. Bu iyileştirme, eğitim sürecini iyileştirdi ve eğitim süresini uzatmadan daha karmaşık modelleri denememize olanak sağladı.</p>
<p>Ancak en çarpıcı gelişme dört adet NVIDIA H100 PCIe kartının piyasaya sürülmesiyle geldi. Hopper mimarisinin gelişmiş yapay zeka özelliklerinden yararlanan bu kartlar, parti boyutunu yeniden ikiye katlamamıza olanak sağladı. Daha etkileyici bir şekilde, çağ süresinde kayda değer bir değişiklik olmadan yapay zeka modellerimizin karmaşıklığını önemli ölçüde artırabildik. Bu yetenek, H100&#8217;ün, karmaşık yapay zeka operasyonlarını verimli bir şekilde yönetmek için optimize edilmiş Transformer Engine ve 4. nesil Tensör Çekirdekleri gibi gelişmiş yapay zekaya özgü özelliklerinin bir kanıtıdır.</p>
<p>Bu testler boyunca, 6,36 GB görüntü veri kümesi ve model parametreleri tutarlı bir kıyaslama görevi görerek farklı GPU yapılandırmalarındaki performansı doğrudan karşılaştırmamıza olanak sağladı. RTX 8000&#8217;den A6000&#8217;lere ve ardından H100&#8217;lere geçiş, ham işlem gücündeki gelişmelerin ve GPU&#8217;ların hız veya verimlilikten ödün vermeden daha büyük, daha karmaşık yapay zeka iş yüklerini yönetebilme becerisinin altını çizdi. Bu, bu GPU&#8217;ları özellikle son teknoloji yapay zeka araştırmaları ve büyük ölçekli derin öğrenme uygulamaları için uygun hale getiriyor.</p>
<p>Testlerimizde kullanılan Supermicro sunucu, PCIe anahtarı ihtiyacını ortadan kaldırarak CPU&#8217;lara doğrudan PCIe bağlantısı sunuyor. Bu doğrudan bağlantı, her GPU&#8217;nun CPU&#8217;ya özel bir yola sahip olmasını sağlayarak hızlı ve verimli veri aktarımını kolaylaştırır. Bu mimari, yapay zeka ve HPC&#8217;deki bazı iş yüklerinde gecikmeyi en aza indirmek ve bant genişliği kullanımını en üst düzeye çıkarmak açısından çok önemlidir; özellikle tüm işlerin sunucuda yerel olduğu yapay zeka modeli eğitimi veya karmaşık VDI ortamları gibi yüksek verimli görevlerle uğraşırken faydalıdır.</p>
<h2>Çözüm</h2>
<p>Supermicro GPU A+ Sunucu AS-4125GS-TNRT sunucusunun ölçeklenebilirliği ve esnekliği buradaki en önemli özelliklerdir. Yapay zeka, VDI veya diğer yüksek performanslı görevlerde gelişen iş yükü taleplerine uyum sağlama ihtiyacı duyan müşteriler için özellikle faydalıdır. Mütevazı bir yapılandırmayla başlayan kullanıcılar, giriş düzeyindeki yapay zeka veya VDI görevlerini etkili bir şekilde gerçekleştirebilir, böylece daha küçük iş yükleri veya yapay zeka ve sanal masaüstü altyapısına yeni başlayan kişiler için uygun maliyetli bir çözüm sunulur. Bu ilk kurulum, sağlam ve ölçeklenebilir bir temel sağlayarak kullanıcıların temel ancak gerekli yapay zeka ve VDI uygulamalarıyla etkileşime geçmesine olanak tanır.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1572" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-4U-GPU-server-1024x580-1-300x170.jpeg" alt="" width="300" height="170" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-4U-GPU-server-1024x580-1-300x170.jpeg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-4U-GPU-server-1024x580-1-768x435.jpeg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/storagereview-supermicro-4U-GPU-server-1024x580-1.jpeg 1024w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p>Ayrıca pek çok işletmenin soketli H100 GPU&#8217;lardan yararlanmak istediğini bilsek de bu platformlar için bekleme süreleri çok uzun, birçok kaynak bize bu bekleme süresinin neredeyse bir yıl olduğunu söyledi. Tedarik zinciri lojistiği bu sunucunun harika yanının altını çiziyor: Her şeyin üstesinden gelebilir. L40S GPU&#8217;lar &#8220;şimdi&#8221; kullanıma sunuldu, böylece müşteriler bu kombinasyonla birlikte en azından yapay zeka iş yüklerini daha geç değil, daha erken harekete geçirebilirler. İhtiyaçlar değiştikçe müşteriler kartları kolayca değiştirebilir. Bu, Supermicro GPU A+ Sunucu AS-4125GS-TNRT sunucusunun yalnızca acil ihtiyaçlara yönelik olmasını değil, aynı zamanda gelişen teknolojik ortama uyum sağlayarak geleceğe hazır olmasını sağlar.</p>
</div>
<p>GTM Teknoloji Supermicro&#8217;nun Türkiye&#8217;deki 14 yıllık distribütörüdür. <a href="http://www.gtmteknoloji.com/teklif-talep">Bizimle iletişime geçin!</a></p>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/supermicro-4u-amd-epyc-gpu-sunuculari.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>SC23&#8217;te Büyük Gigabyte NVIDIA Yapay Zeka Sunucuları</title>
		<link>https://supermicrosunucu.com/blog/sc23te-buyuk-gigabyte-nvidia-yapay-zeka-sunuculari.html</link>
					<comments>https://supermicrosunucu.com/blog/sc23te-buyuk-gigabyte-nvidia-yapay-zeka-sunuculari.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Mon, 12 Feb 2024 10:47:36 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[Sunucular]]></category>
		<category><![CDATA[Gigabyte]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[SC23]]></category>
		<category><![CDATA[server]]></category>
		<category><![CDATA[sunucu]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1511</guid>

					<description><![CDATA[SC23&#8217;te Büyük Gigabyte NVIDIA Yapay Zeka Sunucuları SC23&#8217;te Büyük Gigabyte NVIDIA Yapay Zeka Sunucuları Gigabyte G593 SD0 NVIDIA HGX H100]]></description>
										<content:encoded><![CDATA[<div class="td-post-header">
<header class="td-post-title">
<h1 class="entry-title">SC23&#8217;te Büyük Gigabyte NVIDIA Yapay Zeka Sunucuları</h1>
<div class="td-module-meta-info">
<div class="td-post-author-name"></div>
</div>
</header>
</div>
<div class="td-post-sharing-top">
<div id="td_social_sharing_article_top" class="td-post-sharing td-ps-bg td-ps-notext td-post-sharing-style1 ">
<div class="td-post-sharing-visible">
<div class="td-social-copy_url-check td-icon-check">SC23&#8217;te Büyük Gigabyte NVIDIA Yapay Zeka Sunucuları</div>
</div>
</div>
</div>
<div class="td-post-content tagdiv-type">
<div class="td-post-featured-image">
<figure><img loading="lazy" decoding="async" class="entry-thumb" title="Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Kaydırmalı Çıkış Tepsisi 2" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-696x464.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-696x464.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-400x267.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-800x534.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-1068x713.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-629x420.jpg 629w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2.jpg 1199w" alt="Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Kaydırmalı Çıkış Tepsisi 2" width="696" height="464" /><figcaption class="wp-caption-text">Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Kaydırmalı Çıkış Tepsisi 2</figcaption></figure>
</div>
<p>Bunu SC23 için birkaç kez yaptığımız için, Giga Computing/Gigabyte&#8217;ın büyük NVIDIA AI sunucularını fuarda sergilemek istedik. Gösteriden ilk beşimizi seçtik, bu yüzden birkaç fotoğraf çektik ve üzerlerinde hızlı bir çalışma yapmak istedik.<span id="more-75080"></span></p>
<p>Ultra hızlı kısa video versiyonunu isteyenler için yeni kamera arkası kısa video kanalımız <a href="https://www.youtube.com/@STHLabs?sub_confirmation=1">STH Labs&#8217;ta</a> bu var .</p>
<div class="youtube-embed" data-video_id=""><iframe id="99735813" title="High end NVIDIA AI servers by Gigabyte" src="https://www.youtube.com/embed/s7_GRzh2KLQ?feature=oembed&amp;enablejsapi=1" width="100%" height="392" frameborder="0" allowfullscreen="allowfullscreen" data-gtm-yt-inspected-6="true" data-mce-fragment="1"></iframe></div>
<p>İşte ilk 5&#8217;imiz.</p>
<h2>Gigabyte G593-SD0 NVIDIA HGX H100 8-GPU Sunucusu</h2>
<p>Gigabyte G593-SD0 büyük olanıdır, eğer isterseniz büyük gösteri. Bu, Gigabyte&#8217;ın 8 GPU&#8217;lu NVIDIA HGX H100 platformudur.</p>
<figure id="attachment_75088" class="wp-caption alignnone" aria-describedby="caption-attachment-75088"><img loading="lazy" decoding="async" class="size-large wp-image-75088" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Front-800x489.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Front-800x489.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Front-400x244.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Front-696x425.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Front-1068x652.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Front-688x420.jpg 688w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Front.jpg 1200w" alt="Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Ön" width="696" height="425" /><figcaption id="caption-attachment-75088" class="wp-caption-text">Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Ön</figcaption></figure>
<p>Gigabyte&#8217;ın sahip olduğu benzersiz özelliklerden biri, öne monteli BMC ve arkadaki kart yuvalarına ek olarak depolama ve ağ kartı seçenekleridir.</p>
<figure id="attachment_75093" class="wp-caption alignnone" aria-describedby="caption-attachment-75093"><img loading="lazy" decoding="async" class="size-large wp-image-75093" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard-800x549.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard-800x549.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard-400x275.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard-218x150.jpg 218w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard-696x478.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard-1068x733.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard-612x420.jpg 612w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard-100x70.jpg 100w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-CPU-Motherboard.jpg 1165w" alt="Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU CPU Anakart" width="696" height="478" /><figcaption id="caption-attachment-75093" class="wp-caption-text">Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU CPU Anakart</figcaption></figure>
<p>Gigabyte, 4. veya yeni <a href="https://www.servethehome.com/5th-gen-intel-xeon-scalable-emerald-rapids-resets-servers-by-intel/">5. Nesil Intel Xeon</a> ailelerinden, her biri tam 16 DIMM setine (toplam 32) sahip çift işlemciye sahiptir.</p>
<p>Sekiz NVIDIA H100 GPU, dışarı kayan bir tepsiye yerleştirilmiştir.</p>
<figure id="attachment_75092" class="wp-caption alignnone" aria-describedby="caption-attachment-75092"><img loading="lazy" decoding="async" class="size-large wp-image-75092" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-Tray-800x540.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-Tray-800x540.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-Tray-400x270.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-Tray-696x469.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-Tray-1068x720.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-Tray-623x420.jpg 623w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-Tray.jpg 1186w" alt="Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Kaydırmalı Çıkış Tepsisi" width="696" height="470" /><figcaption id="caption-attachment-75092" class="wp-caption-text">Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Kaydırmalı Çıkış Tepsisi</figcaption></figure>
<p>İşte aydınlatmayı başardığımız sistemin içine harika bir bakış. Gigabyte, kasanın hem üst orta hem de alt taraflarında genişletme yuvalarına sahiptir.</p>
<figure id="attachment_75090" class="wp-caption alignnone" aria-describedby="caption-attachment-75090"><img loading="lazy" decoding="async" class="size-large wp-image-75090" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Rear-Lit-800x407.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Rear-Lit-800x407.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Rear-Lit-400x204.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Rear-Lit-696x354.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Rear-Lit-1068x544.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Rear-Lit-825x420.jpg 825w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Rear-Lit.jpg 1200w" alt="Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Arkadan Aydınlatmalı" width="696" height="354" /><figcaption id="caption-attachment-75090" class="wp-caption-text">Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Arkadan Aydınlatmalı</figcaption></figure>
<p>Bu, ilk 2 veya ilk 3 müşterisi nedeniyle pazarda çok önemli bir HGX H100 platformudur.</p>
<h2>Gigabyte G493-SB0 8x PCIe GPU Sunucusu</h2>
<p>Gigabyte G493-SB0&#8217;ın ön tarafı, NVMe SSD ve sabit sürücü depolaması, iki genişletme yuvası ve ardından yönetim ve kontrol düzlemi ağı için ön G/Ç ile gerçekten ilgi çekicidir.</p>
<figure id="attachment_75085" class="wp-caption alignnone" aria-describedby="caption-attachment-75085"><img loading="lazy" decoding="async" class="size-large wp-image-75085" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Front-800x490.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Front-800x490.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Front-400x245.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Front-696x426.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Front-1068x654.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Front-686x420.jpg 686w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Front.jpg 1200w" alt="Gigabyte G493 SB0 8x PCIe GPU Ön" width="696" height="426" /><figcaption id="caption-attachment-75085" class="wp-caption-text">Gigabyte G493 SB0 8x PCIe GPU Ön</figcaption></figure>
<p>Gigabyte G493-SB0, yine Intel Xeon işlemcileri temel alan 8x PCIe Gen5 çift genişlikli bir GPU sunucusudur.</p>
<figure id="attachment_75083" class="wp-caption alignnone" aria-describedby="caption-attachment-75083"><img loading="lazy" decoding="async" class="size-large wp-image-75083" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Intel-Xeon-Socket-800x534.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Intel-Xeon-Socket-800x534.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Intel-Xeon-Socket-400x267.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Intel-Xeon-Socket-696x464.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Intel-Xeon-Socket-1068x713.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Intel-Xeon-Socket-629x420.jpg 629w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Intel-Xeon-Socket.jpg 1199w" alt="Gigabyte G493 SB0 8x PCIe GPU Intel Xeon Soketi" width="696" height="465" /><figcaption id="caption-attachment-75083" class="wp-caption-text">Gigabyte G493 SB0 8x PCIe GPU Intel Xeon Soketi</figcaption></figure>
<p>Kasanın ortasındaki fanlar gerçekten eğlenceli çünkü bize 2018&#8217;de <a href="https://www.servethehome.com/gigabyte-g481-s80-8x-nvidia-tesla-gpu-server-review-the-dgx1-5/">incelediğimiz Gigabyte G481-S80 8x NVIDIA Tesla GPU sunucusunu</a> biraz hatırlatıyorlar . Bu soğutma tasarımı temalarının bu şekilde nesillere yayıldığını görmek harika.</p>
<figure id="attachment_75084" class="wp-caption alignnone" aria-describedby="caption-attachment-75084"><img loading="lazy" decoding="async" class="size-large wp-image-75084" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition-800x550.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition-800x550.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition-400x275.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition-218x150.jpg 218w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition-696x478.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition-1068x734.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition-611x420.jpg 611w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition-100x70.jpg 100w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Fan-Partition.jpg 1164w" alt="Gigabyte G493 SB0 8x PCIe GPU Fan Bölümü" width="696" height="479" /><figcaption id="caption-attachment-75084" class="wp-caption-text">Gigabyte G493 SB0 8x PCIe GPU Fan Bölümü</figcaption></figure>
<p>Arkada 4x 3kW güç kaynakları ve <a href="https://www.servethehome.com/nvidia-l40s-is-the-nvidia-h100-ai-alternative-with-a-big-benefit-supermicro/">NVIDIA L40S</a> gibi kartlar için sekiz adet çift genişlikli GPU yuvası bulunuyor .</p>
<figure id="attachment_75087" class="wp-caption alignnone" aria-describedby="caption-attachment-75087"><img loading="lazy" decoding="async" class="size-large wp-image-75087" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Slots-2-800x534.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Slots-2-800x534.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Slots-2-400x267.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Slots-2-696x464.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Slots-2-1068x713.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Slots-2-629x420.jpg 629w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-G493-SB0-8x-PCIe-GPU-Slots-2.jpg 1199w" alt="Gigabyte G493 SB0 8x PCIe GPU Yuvaları 2" width="696" height="465" /><figcaption id="caption-attachment-75087" class="wp-caption-text">Gigabyte G493 SB0 8x PCIe GPU Yuvaları 2</figcaption></figure>
<p>Bu, yarım on yılı aşkın bir süredir yapay zeka sistemleri için temel bir platform olmuştur.</p>
<h2>Gigabyte H223-V10 NVIDIA Grace Haznesi 2U 4 Düğümlü Sunucu</h2>
<p>Gigabyte H223-V10, 72 Arm çekirdeğine ve düğüm başına bir NVIDIA Hopper GPU&#8217;ya sahip bir NVIDIA Grace Hopper sistemidir.</p>
<figure id="attachment_75096" class="wp-caption alignnone" aria-describedby="caption-attachment-75096"><img loading="lazy" decoding="async" class="size-large wp-image-75096" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Overview-800x417.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Overview-800x417.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Overview-400x209.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Overview-696x363.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Overview-1068x557.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Overview-805x420.jpg 805w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Overview.jpg 1200w" alt="Gigabyte H223 V10 2U4N NVIDIA Grace Hazne Düğümüne Genel Bakış" width="696" height="363" /><figcaption id="caption-attachment-75096" class="wp-caption-text">Gigabyte H223 V10 2U4N NVIDIA Grace Hazne Düğümüne Genel Bakış</figcaption></figure>
<p>Her düğüm, arka G/Ç genişletme kartlarıyla birlikte bir kızak üzerinde bulunur. Bu, Gigabyte&#8217;ın 2U kasaya dört düğüm yerleştirmesine olanak tanır.</p>
<figure id="attachment_75094" class="wp-caption alignnone" aria-describedby="caption-attachment-75094"><img loading="lazy" decoding="async" class="size-large wp-image-75094" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Expansion-Slot-Area-800x534.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Expansion-Slot-Area-800x534.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Expansion-Slot-Area-400x267.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Expansion-Slot-Area-696x464.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Expansion-Slot-Area-1068x713.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Expansion-Slot-Area-629x420.jpg 629w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-Expansion-Slot-Area.jpg 1199w" alt="Gigabyte H223 V10 2U4N NVIDIA Grace Hazne Düğümü Genişletme Yuvası Alanı" width="696" height="465" /><figcaption id="caption-attachment-75094" class="wp-caption-text">Gigabyte H223 V10 2U4N NVIDIA Grace Hazne Düğümü Genişletme Yuvası Alanı</figcaption></figure>
<p>İşte NVIDIA Grace Hopper paketinin kısa bir görüntüsü.</p>
<figure id="attachment_75095" class="wp-caption alignnone" aria-describedby="caption-attachment-75095"><img loading="lazy" decoding="async" class="size-large wp-image-75095" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-GH100-800x505.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-GH100-800x505.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-GH100-400x252.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-GH100-696x439.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-GH100-1068x674.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-GH100-666x420.jpg 666w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H223-V10-2U4N-NVIDIA-Grace-Hopper-Node-GH100.jpg 1200w" alt="Gigabyte H223 V10 2U4N NVIDIA Grace Hazne Düğümü GH100" width="696" height="439" /><figcaption id="caption-attachment-75095" class="wp-caption-text">Gigabyte H223 V10 2U4N NVIDIA Grace Hazne Düğümü GH100</figcaption></figure>
<p>Bunun 1kW&#8217;lık bir paket olduğunu unutmayın; dolayısıyla bunlardan dördünü 2U&#8217;da soğutmak, güç tüketiminin 2kW/U&#8217;nun oldukça üzerinde olduğu anlamına gelir.</p>
<h2>Gigabyte H263-V60 NVIDIA Grace Superchip 2U 4 Düğümlü Sunucu</h2>
<p>Gigabyte H263-V60, şirketin NVIDIA Grace Superchip için 2U 4 düğümlü çözümüdür.</p>
<figure id="attachment_75097" class="wp-caption alignnone" aria-describedby="caption-attachment-75097"><img loading="lazy" decoding="async" class="size-large wp-image-75097" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Overview-800x345.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Overview-800x345.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Overview-400x173.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Overview-696x300.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Overview-1068x461.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Overview-973x420.jpg 973w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Overview.jpg 1200w" alt="Gigabyte H263 V60 2U4N NVIDIA Grace Süper Çip Düğümüne Genel Bakış" width="696" height="300" /><figcaption id="caption-attachment-75097" class="wp-caption-text">Gigabyte H263 V60 2U4N NVIDIA Grace Süper Çip Düğümüne Genel Bakış</figcaption></figure>
<p>Bu, 144  <a href="https://www.servethehome.com/arm-neoverse-v2-at-hot-chips-2023/">Arm Neoverse V2</a> çekirdeğini tek bir düğüme veya 572 çekirdeği 2U&#8217;ya yerleştirir.</p>
<figure id="attachment_75098" class="wp-caption alignnone" aria-describedby="caption-attachment-75098"><img loading="lazy" decoding="async" class="size-large wp-image-75098" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-144-Core-Module-800x534.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-144-Core-Module-800x534.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-144-Core-Module-400x267.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-144-Core-Module-696x464.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-144-Core-Module-1068x713.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-144-Core-Module-629x420.jpg 629w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-144-Core-Module.jpg 1199w" alt="Gigabyte H263 V60 2U4N NVIDIA Grace Superchip Düğümü 144 Çekirdek Modülü" width="696" height="465" /><figcaption id="caption-attachment-75098" class="wp-caption-text">Gigabyte H263 V60 2U4N NVIDIA Grace Superchip Düğümü 144 Çekirdek Modülü</figcaption></figure>
<p>Ayrıca PCIe I/O için yer ve GH200 düğümlerinden daha fazla genişletme yuvası vardır.</p>
<figure id="attachment_75099" class="wp-caption alignnone" aria-describedby="caption-attachment-75099"><img loading="lazy" decoding="async" class="size-large wp-image-75099" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Expansion-Area-800x474.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Expansion-Area-800x474.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Expansion-Area-400x237.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Expansion-Area-696x412.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Expansion-Area-1068x633.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Expansion-Area-709x420.jpg 709w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-H263-V60-2U4N-NVIDIA-Grace-Superchip-Node-Expansion-Area.jpg 1200w" alt="Gigabyte H263 V60 2U4N NVIDIA Grace Superchip Düğümü Genişletme Alanı" width="696" height="412" /><figcaption id="caption-attachment-75099" class="wp-caption-text">Gigabyte H263 V60 2U4N NVIDIA Grace Superchip Düğümü Genişletme Alanı</figcaption></figure>
<p>Bunlar GH100/GH200 düğümlerinden çok daha düşük güce sahiptir ancak aynı zamanda yerleşik GPU&#8217;ya da sahip değildir.</p>
<h2>Gigabyte XH23-VG0 NVIDIA Grace Haznesi 2U Sunucu</h2>
<p>Gigabyte XH23-VG0, şirketin Grace Hopper için geliştirdiği MGX tarzı 2U sistemidir.</p>
<figure id="attachment_75101" class="wp-caption alignnone" aria-describedby="caption-attachment-75101"><img loading="lazy" decoding="async" class="size-large wp-image-75101" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Front-800x355.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Front-800x355.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Front-400x178.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Front-696x309.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Front-1068x474.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Front-946x420.jpg 946w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Front.jpg 1200w" alt="Gigabyte XH23 VG0 NVIDIA GH200 2U Ön" width="696" height="309" /><figcaption id="caption-attachment-75101" class="wp-caption-text">Gigabyte XH23 VG0 NVIDIA GH200 2U Ön</figcaption></figure>
<p>Bu, 2U 4 düğümlü H233-V10 ile aynı yoğunluğa sahip değildir ancak daha fazla G/Ç genişletme olanağı sunar.</p>
<figure id="attachment_75102" class="wp-caption alignnone" aria-describedby="caption-attachment-75102"><img loading="lazy" decoding="async" class="size-large wp-image-75102" src="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Overview-800x411.jpg" sizes="(max-width: 696px) 100vw, 696px" srcset="https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Overview-800x411.jpg 800w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Overview-400x205.jpg 400w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Overview-696x357.jpg 696w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Overview-1068x548.jpg 1068w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Overview-818x420.jpg 818w, https://www.servethehome.com/wp-content/uploads/2023/12/Gigabyte-XH23-VG0-NVIDIA-GH200-2U-Overview.jpg 1200w" alt="Gigabyte XH23 VG0 NVIDIA GH200 2U Genel Bakış" width="696" height="358" /><figcaption id="caption-attachment-75102" class="wp-caption-text">Gigabyte XH23 VG0 NVIDIA GH200 2U Genel Bakış</figcaption></figure>
<p>Harika bir özellik, sistemin arkasındaki genişletme yuvalarının tamamıdır.</p>
<h2>Son sözler</h2>
<p>Genel olarak SC23&#8217;te bu sistemlerin hepsini görmek harikaydı. NVIDIA AI sistemlerinin bugünlerde sıcak bir konu olduğunu biliyoruz, bu yüzden Gigabyte&#8217;ın koleksiyonunu göstermek istedik. STH&#8217;de harika anakart ve sunucu incelemeleri yayınlanacağı için Ocak 2024&#8217;te NVIDIA olmayan sunucu çözümleri için bizi takip etmeye devam edin.</p>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/sc23te-buyuk-gigabyte-nvidia-yapay-zeka-sunuculari.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
