<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>H100 NVL Archives - SupermicroSunucu Blog</title>
	<atom:link href="https://supermicrosunucu.com/blog/tag/h100-nvl/feed" rel="self" type="application/rss+xml" />
	<link>https://supermicrosunucu.com/blog/tag/h100-nvl</link>
	<description>Supermicro Sunucu, QSAN Storage, Magnetar Storage, NVIDIA Workstation, Mellanox Hakkında Herşey</description>
	<lastBuildDate>Wed, 05 Jun 2024 11:34:49 +0000</lastBuildDate>
	<language>tr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>
	<item>
		<title>Yapay Zeka için Nvidia H100 NVL</title>
		<link>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html</link>
					<comments>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Wed, 05 Jun 2024 11:02:55 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[H100 NVL]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1903</guid>

					<description><![CDATA[Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü &#160; Yapay Zeka için Nvidia H100 NVL NVIDIA H100]]></description>
										<content:encoded><![CDATA[<h1 class="entry-title">Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü</h1>
<p>&nbsp;</p>
<p>Yapay Zeka için Nvidia H100 NVL</p>
<figure id="attachment_1905" aria-describedby="caption-attachment-1905" style="width: 300px" class="wp-caption alignnone"><img fetchpriority="high" decoding="async" class="size-medium wp-image-1905" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2-300x225.jpg" alt="" width="300" height="225" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2-300x225.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-1905" class="wp-caption-text">NVIDIA H100 HVL</figcaption></figure>
<p>NVIDIA H100 HVL daha önce gördüğümüz bir şeye benzeyebilir ancak arada büyük bir fark var. NVIDIA&#8217;ya sorduk ve şirket mantıksal olarak bunun işletim sistemi için iki GPU olduğunu ancak NVLink&#8217;in 188 GB belleğin tamamının sistem tarafından kullanılmasına izin vereceğini söyledi.<span id="more-68131"></span></p>
<h2>Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü</h2>
<p>Yeni NVIDIA H100 NVL, iki NVIDIA H100 PCIe&#8217;yi NVLink ile bir araya getiriyor ve bir yenilik getiriyor. Yeni NVL sürümünde GPU başına 94 GB, toplam 188 GB HBM3 bellek bulunuyor. Bu muhtemelen altıncı 16GB&#8217;lık yığının etkinleştirildiği, ancak 96GB&#8217;lık aktif alanın 94GB&#8217;ı için yalnızca 14GB&#8217;ın mevcut olduğu anlamına geliyor.</p>
<figure id="attachment_1906" aria-describedby="caption-attachment-1906" style="width: 300px" class="wp-caption alignnone"><img decoding="async" class="size-medium wp-image-1906" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1-300x225.jpg" alt="" width="300" height="225" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1-300x225.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-1906" class="wp-caption-text">NVIDIA H100 HVL</figcaption></figure>
<p>Gerçekten ilginç olan da TDP&#8217;dir. Bunlar 350W ila 400W TDP PCIe kartlarıdır. Genel olarak, çoğu sunucu PCIe form faktörlerinde 400W&#8217;ı işleyemediğinden, PCIe kartlarındaki diğer satıcıların çoğunda gördüğümüz en üst seviye 300W&#8217;tır. Bu, üst düzey OAM/SXM form faktörleri için büyük bir etkendir.</p>
<table cellspacing="0" cellpadding="0">
<thead>
<tr>
<th></th>
<th>H100SXM</th>
<th>H100 PCIe</th>
<th>H100NVL</th>
</tr>
</thead>
<tbody>
<tr>
<td>FP64</td>
<td>34 teraFLOPS</td>
<td>26 teraFLOPS</td>
<td>68 teraFLOP</td>
</tr>
<tr>
<td>FP64 Tensör Çekirdeği</td>
<td>67 teraFLOPS</td>
<td>51 teraFLOPS</td>
<td>134 teraFLOP</td>
</tr>
<tr>
<td>FP32</td>
<td>67 teraFLOPS</td>
<td>51 teraFLOPS</td>
<td>134 teraFLOP</td>
</tr>
<tr>
<td>TF32 Tensör Çekirdeği</td>
<td>989 teraFLOPS <sup>1</sup></td>
<td>756teraFLOPS <sup>1</sup></td>
<td>1.979 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>BFLOAT16 Tensör Çekirdeği</td>
<td>1.979 teraFLOPS <sup>1</sup></td>
<td>1.513 teraFLOPS <sup>1</sup></td>
<td>3.958 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>FP16 Tensör Çekirdeği</td>
<td>1.979 teraFLOPS <sup>1</sup></td>
<td>1.513 teraFLOPS <sup>1</sup></td>
<td>3.958 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>FP8 Tensör Çekirdeği</td>
<td>3.958 teraFLOPS <sup>1</sup></td>
<td>3.026 teraFLOPS <sup>1</sup></td>
<td>7.916 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>INT8 Tensör Çekirdeği</td>
<td>3.958 ÜST <sup>1</sup></td>
<td>3.026 ÜST <sup>1</sup></td>
<td>7.916 ÜST <sup>1</sup></td>
</tr>
<tr>
<td>GPU belleği</td>
<td>80 GB</td>
<td>80 GB</td>
<td>188GB</td>
</tr>
<tr>
<td>GPU bellek bant genişliği</td>
<td>3,35 TB/sn</td>
<td>2 TB/sn</td>
<td>7,8 TB/sn</td>
</tr>
<tr>
<td>Kod çözücüler</td>
<td>7 NVDEC<br />
7 JPEG</td>
<td>7 NVDEC<br />
7 JPEG</td>
<td>14 NVDEC<br />
14 JPEG</td>
</tr>
<tr>
<td>Maksimum termal tasarım gücü (TDP)</td>
<td>700W&#8217;a kadar (yapılandırılabilir)</td>
<td>300-350W (yapılandırılabilir)</td>
<td>2x 350-400W<br />
(yapılandırılabilir)</td>
</tr>
<tr>
<td>Çoklu Örnek GPU&#8217;lar</td>
<td colspan="2">Her biri 10 GB&#8217;ta 7 MIGS&#8217;ye kadar</td>
<td>Her biri 12 GB&#8217;ta 14 MIGS&#8217;ye kadar</td>
</tr>
<tr>
<td>Form faktörü</td>
<td>SXM</td>
<td>PCIe<br />
Çift yuvalı hava soğutmalı</td>
<td>2x PCIe<br />
Çift yuvalı hava soğutmalı</td>
</tr>
<tr>
<td>Ara bağlantı</td>
<td>NVLink: 900 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
<td>NVLink: 600 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
<td>NVLink: 600 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
</tr>
</tbody>
</table>
<p>Spesifikasyonlara dayanarak, NVIDIA H100 NVL spesifikasyonlarının 400W için olduğunu varsayarsak, PCIe versiyonlarının H100 SXM5 versiyonlarından çok daha üstün olduğu ancak üst seviye 900GB/s NVLINK arayüzleri olmadığı görülüyor. Hesaplama özellikleri H100 SXM&#8217;nin 2 katıdır, ancak NVL sürümü daha fazla belleğe, daha yüksek bellek bant genişliğine sahiptir ve performans için benzer gücü kullanır.</p>
<h2>Son sözler</h2>
<p>Bizim düşüncemiz, NVL&#8217;nin değerinin düşürülmesi gerektiği veya H100 SXM5&#8217;in yakın zamanda eşleşmesi için spesifikasyon artışına ihtiyaç duyacağı yönünde. Bu çok garip bir konumlandırma. Yine de NVIDIA, ChatGPT için artık DGX A100&#8217;leri kullanan OpenAI&#8217;nin, çıkarımını yapmak için 10x&#8217;e kadar DGX A100 sistemini dört set NVIDIA H100 NVL çiftiyle değiştirebileceğini söylüyor. Zamanla bunların değerinin düşürülüp düşürülmeyeceğini veya H100 SXM5&#8217;in güncellenip güncellenmeyeceğini görmek ilginç olacak.</p>
<p>&nbsp;</p>
<h3>Daha fazla bilgi edinmek için <a href="http://www.gtmteknoloji.com/teklif-talep">bizimle iletişime geçin!</a></h3>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
