<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Nvidia Archives - SupermicroSunucu Blog</title>
	<atom:link href="https://supermicrosunucu.com/blog/tag/nvidia/feed" rel="self" type="application/rss+xml" />
	<link>https://supermicrosunucu.com/blog/tag/nvidia</link>
	<description>Supermicro Sunucu, QSAN Storage, Magnetar Storage, NVIDIA Workstation, Mellanox Hakkında Herşey</description>
	<lastBuildDate>Thu, 13 Jun 2024 10:32:29 +0000</lastBuildDate>
	<language>tr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>
	<item>
		<title>Supermicro ve Nvidia Simülasyonlarını Hızlandıracak Çözümler Üretiyor</title>
		<link>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-simulasyonlarini-hizlandiracak-cozumler-uretiyor.html</link>
					<comments>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-simulasyonlarini-hizlandiracak-cozumler-uretiyor.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Wed, 12 Jun 2024 12:01:51 +0000</pubDate>
				<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Supermicro Sunucu]]></category>
		<category><![CDATA[Datacenter Solutions]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[Simülasyon]]></category>
		<category><![CDATA[supermicro]]></category>
		<category><![CDATA[Veri Merkezi GPU]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1965</guid>

					<description><![CDATA[Supermicro ve Nvidia Simülasyonlarını Hızlandıracak Çözümler Üretiyor &#160; Supermicro ve Nvidia Simülasyonlarını Hızlandıracak Çözümler Üretiyor. Nvidia Veri Merkezi GPU&#8217;larına sahip]]></description>
										<content:encoded><![CDATA[<h1><strong>Supermicro ve Nvidia Simülasyonlarını Hızlandıracak Çözümler Üretiyor</strong></h1>
<p>&nbsp;</p>
<p>Supermicro ve Nvidia Simülasyonlarını Hızlandıracak Çözümler Üretiyor.</p>
<p>Nvidia Veri Merkezi GPU&#8217;larına sahip Supermicro Sunucular, CFD Simülasyonları için Önemli Hızlandırma Sağlayarak Üretim İşletmelerinin Pazara Çıkış Süresini Kısaltıyor.</p>
<p>&nbsp;</p>
<h3><strong>Yönetici Özeti</strong></h3>
<p>Otomotiv şirketleri araç geliştirme süresini kısaltmaya ve yeni araçları pazara daha hızlı sunmaya çalıştıkça, otomotiv geliştirme için bilgisayar destekli mühendisliğe duyulan ihtiyaç da artmaktadır. Yüksek performanslı bilgi işlem (HPC) alanındaki son gelişmelerden biri, karbon ayak izini ve maliyeti azaltırken hesaplama süresini önemli ölçüde hızlandırmak için hesaplamalı akışkanlar dinamiği (CFD) için GPU&#8217;lardan yararlanmak olmuştur.<br />
Supermicro ve NVIDIA, optimum donanım yapılandırmalarına sahip HPC uygulamaları için bir referans mimari geliştirmek üzere ortaklık kurdu. Bu Çözüm Özeti&#8217;nde, Hesaplamalı Akışkanlar Dinamiği (CFD) için GPU hızlandırmadan en iyi şekilde yararlanmak için temel gereksinimleri gözden geçireceğiz.</p>
<p>&nbsp;</p>
<h3>Simülasyon Yoluyla Araç Tasarımının İyileştirilmesi</h3>
<p>Araç verimliliğini, maliyetini ve konforunu iyileştirme ihtiyacı otomotiv endüstrisinde kritik hedeflerdir. Hibrit ve elektrikli araçlara geçişle birlikte, araç menzilinin iyileştirilmesi özellikle önemli hale gelmiştir. Menzilin sürtünme ile doğru orantılı olduğu düşünüldüğünde, araç tasarımının erken aşamalarında sürtünmeyi anlamak ve azaltmak kritik önem taşımaktadır. Bilgisayar Destekli Mühendislik (CAE), mühendislerin pahalı ve zaman alıcı prototipler oluşturmaya gerek kalmadan değişiklikleri hızlı bir şekilde değerlendirmelerini sağlar. Siemens Simcenter STAR-CCM+ gibi Hesaplamalı Akışkanlar Dinamiği (CFD) araçları, mühendislik profesyonellerinin aerodinamik performansı hemen anlamalarına olanak tanır. GPU performansını değerlendirmek için standart bir otomotiv CFD kıyaslama vakası kullanılır</p>
<p>&nbsp;</p>
<h3>GPU&#8217;ları Kullanarak Simülasyonda Yeni Dönem</h3>
<p>2021 yılında araç mühendisleri arasında yapılan bir ankete katılanların %52&#8217;si, tasarım döngülerini tamamlamak için gereken süreyi azaltma taleplerinin işlerinin en zorlu yönlerinden biri olduğunu ifade etmiştir. Bu artan hızlandırma ihtiyacını karşılamak için NVIDIA, son 15 yılda GPU&#8217;ların devasa paralel işleme gücünün ve bellek ile GPU çekirdekleri arasındaki ışık hızındaki arayüzün avantajlarını araç simülasyonuna getirmek için simülasyon yazılımı liderleriyle yakın bir şekilde çalıştı. Önde gelen simülasyon yazılımı sağlayıcıları, araç simülasyonu uygulamalarını GPU&#8217;larda çalıştırarak uygulamalarının 30 kata kadar hızlandığını göstermiş, böylece mühendis üretkenliğini artırmış ve araçların piyasaya sürülme süresini kısaltmaya yardımcı olmuştur.</p>
<p>&nbsp;</p>
<h3>Daha Azıyla Daha Fazlasını Yapmak &#8211; Simülasyon için Sermaye Harcamalarının İyileştirilmesi</h3>
<p>Artan hesaplama verimliliği, iş yükü hızlandırmadan daha fazlası anlamına gelir, ancak aynı derecede önemli olarak, daha küçük bir sermaye harcaması ayak izi içermelidir. Bilgisayar destekli mühendislik için GPU&#8217;ların inanılmaz verimliliği, otomotiv müşterileri için büyük altyapı maliyeti tasarrufu sağlar. Modern sunuculara 10 adede kadar çift yuvalı GPU sığabildiğinden, hesaplama açısından ağır iş yüklerinin GPU&#8217;lara aktarılması, müşterilerin büyük miktarda sunucu konsolidasyonu elde etmesini sağlar. Supermicro ve NVIDIA arasındaki ortak çalışma sayesinde, 10 NVIDIA H100 GPU&#8217;lu tek bir sunucunun Siemens Simcenter STAR-CCM+ gibi CFD iş yükleri için her biri 2 x CPU&#8217;ya sahip 30 sunucunun yerini aldığını gösterdik. Eşdeğer performans için bu, 3 kat maliyet tasarrufu sağlar.</p>
<p>&nbsp;</p>
<h3>Hızlandırılmış Bilgi İşlem Sürdürülebilir Bilgi İşlemdir</h3>
<p>Her ne kadar dikkatler araç egzoz emisyonlarının ve elektrikli araç güç tüketiminin azaltılmasına odaklansa da, tüm araç tasarımı, test ve üretim iş akışları boyunca karbon ayak izinin azaltılması da aynı derecede önemlidir. Bilgisayar destekli mühendislik için NVIDIA GPU&#8217;lara sahip Supermicro sunucularının üçüncü değer önerisi, hesaplama açısından ağır olan bu iş yükleri için gerekli olan hesaplama gücünde sağladığı inanılmaz tasarruftur. Performans sonuçları bölümünde gösterildiği gibi, eşdeğer performans için NVIDIA GPU&#8217;lar üzerinde çalıştırıldığında 5 kat güç tasarrufu sağlanır.</p>
<p>&nbsp;</p>
<h3>İş Yükünüz için En Uygun Sunucuyu Yapılandırma</h3>
<p>Supermicro&#8217;nun sunucuları, destekledikleri GPU sayısındaki çok yönlülükleri nedeniyle CAE için idealdir. NVIDIA, çift hassasiyetli (FP64) hesaplama ve yüksek bellek bant genişliği ihtiyaçları nedeniyle CAE uygulamaları için 100 ve 200 sınıfı ürünlerin (NVIDIA A100, NVIDIA H100, NVIDIA H200, NVIDIA B100) kullanılmasını önermektedir.<br />
Sistem için doğru GPU sayısına karar vermek için GPU bellek boyutu kritik bir faktördür. CFD için, ağ boyutu genellikle bir simülasyonun boyutunun bir ölçüsü olarak kullanılır. Kullanılan toplam GPU belleği de kullanılan fiziğin karmaşıklığına göre belirlenir. Genel bir kural olarak, fiziğin karmaşıklığına bağlı olarak gerekli belleğin ağ boyutunun 1,2-5 katı arasında olabileceğini söyleyebiliriz. Örneğin, fizik açısından nispeten basit bir durum için, 100 milyon hücreli bir ağ (100&#215;1.5) için 150 GB belleğe ihtiyacımız olacaktır. A100 ve H100&#8217;ün 80 GB belleğe sahip olduğu göz önüne alındığında, en az iki GPU&#8217;ya ihtiyaç duyarlar, ancak 3 GPU tavsiye edilir. Yazılım satıcıları, yazılımları için bellek gereksinimleri konusunda ek rehberlik sağlayabilir.</p>
<p>&nbsp;</p>
<h3>Uygulama Desteği</h3>
<p>En önemli sorulardan biri, tercih ettiğiniz CFD aracının GPU hızlandırmayı destekleyip desteklemediğidir. Son birkaç yılda hem ana akım CAE yazılımlarından hem de yeni kurulan şirketlerden GPU çözücü desteğinin çoğaldığı görülmüştür. Simüle etmeyi düşündüğünüz fiziğin GPU hızlandırmalı olup olmadığını öğrenmek için yazılım satıcınıza danışın. Çözücünün büyük bir kısmı GPU üzerinde çalışır. CFD kodlarının çözücünün yalnızca bir kısmını hızlandırdığı birkaç yıl öncesine kıyasla çok iyi hızlanmanın nedeni, çözücüyü yüksek paralel GPU&#8217;larda çalıştırmaktır.</p>
<p>&nbsp;</p>
<h3>Supermicro Çözümü &#8211; Supermicro SYS-521GE-TNRT</h3>
<p>Supermicro SYS-521GE-TNRT Sunucu (2 CPU, 10 x NVIDIA H100 PCIe GPU)<br />
Supermicro SYS-521GE-TNRT sunucu, 10 adede kadar PCIe NVIDIA H100 GPU&#8217;yu barındıracak şekilde tasarlanmıştır. CPU&#8217;lar 4. veya 5. Nesil Intel Xeon işlemciler olabilir ve 8 TB&#8217;a kadar bellek tutabilir.</p>
<p><img fetchpriority="high" decoding="async" class="alignnone wp-image-1966" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia-300x207.jpg" alt="" width="730" height="504" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia-300x207.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia-392x272.jpg 392w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia-130x90.jpg 130w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia.jpg 578w" sizes="(max-width: 730px) 100vw, 730px" /></p>
<h3>Test Vakası Detayları</h3>
<ul>
<li>Standart AeroSUV dış aerodinamik test örneği (AeroSUV by FKFS, Stuttgart, Almanya https://www.sae.org/publications/technical-papers/content/2019-01-0646/)</li>
<li>Ağ boyutu &#8211; Sunucu: 57, 106, 320 milyon hücre</li>
<li>Karışık hassasiyet</li>
<li>Siemens Simcenter STAR-CCM+: Sürüm 23.06</li>
<li>Birleştirilmiş çözücü</li>
</ul>
<p><img decoding="async" class="alignnone wp-image-1967" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia1-300x97.jpg" alt="" width="1011" height="327" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia1-300x97.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia1-1024x331.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia1-768x248.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia1.jpg 1326w" sizes="(max-width: 1011px) 100vw, 1011px" /></p>
<p>&nbsp;</p>
<h3>Performans Sonuçları</h3>
<p>Aşağıdaki grafik, çeşitli ağ boyutlarındaki aynı AeroSUV test örneğinin sunucu yapılandırmasındaki farklı sayıda H100 GPU üzerinde çalıştırılmasına ilişkin sonuçları göstermektedir. Gerekirse 57 milyon hücre vakasının 4&#8217;ten az GPU üzerinde çalıştırılabileceğini unutmayın.</p>
<p>Önemli Sonuçlar:</p>
<ul>
<li>En küçük ağ boyutu (57 milyon hücre) için 4 NVIDIA H100 PCIe GPU, 94 CPU çekirdeğinden 6,6 kat daha hızlıdır</li>
<li>Orta ağ boyutu (106 milyon hücre) için 6 NVDIDIA H100 PCIe GPU, 94 CPU çekirdeğinden 9,5 kat daha hızlıdır</li>
<li>En büyük ağ boyutu (322 milyon hücre) için 10 NVIDIA H100 PCIe GPU, 94 CPU çekirdeğinden 29,3 kat daha hızlıdır<br />
Yukarıdaki sonuçlar, Supermicro donanımından yararlanan NVIDIA GPU&#8217;larda CFD simülasyonları çalıştırılarak elde edilebilecek geri dönüş süresindeki önemli iyileştirmeleri göstermektedir. GPU&#8217;ların kullanılması, daha kısa sürede daha fazla tasarımın değerlendirilmesine olanak tanıyarak daha optimize bir ürün elde edilmesini sağlar.</li>
</ul>
<p><img decoding="async" class="alignnone  wp-image-1968" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia2-300x219.jpg" alt="" width="577" height="421" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia2-300x219.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia2-768x560.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia2.jpg 941w" sizes="(max-width: 577px) 100vw, 577px" /></p>
<p><img loading="lazy" decoding="async" class="alignnone  wp-image-1969" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia3-300x219.jpg" alt="" width="574" height="419" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia3-300x219.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia3-768x560.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia3.jpg 942w" sizes="(max-width: 574px) 100vw, 574px" /></p>
<p><img loading="lazy" decoding="async" class="alignnone  wp-image-1970" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia4-300x219.jpg" alt="" width="571" height="417" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia4-300x219.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia4-768x560.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia4.jpg 942w" sizes="(max-width: 571px) 100vw, 571px" /></p>
<p>&nbsp;</p>
<h3>Fiyat Performansı ve Sürdürülebilirlik</h3>
<p>Bir sunucudaki saf performansı karşılaştırmanın yanı sıra, genel fiyat performansını da göz önünde bulundurmak önemlidir. Bir GPU sunucusu (8-10 H100 GPU) ve bir CPU sunucusuna kıyasla ~30 kat hız artışı varsayıldığında, müşterilerin bir GPU sunucusunun performansını eşleştirmek için 30 CPU sunucusuna yatırım yapması gerekecektir. Bu sonuçlar doğrusal ölçeklendirmeyi varsaymaktadır. Bu nedenle, GPU üzerinde çalıştırıldığında, eşdeğer performans için CPU&#8217;dan 3 kat daha ucuz olacağını tahmin edebiliriz. Alternatif olarak, CPU ile aynı bütçeyi GPU&#8217;ya harcamak iş hacminde 3 kat iyileşme sağlar.<br />
Benzer maliyet tasarrufları aynı performans için gereken güçte de görülebilir. Termal tasarım gücünden yola çıkarak, GPU performansını eşleştirmek için 30 sunucuya ihtiyaç duyulduğu düşünüldüğünde, bir GPU düğümü CPU düğümü başına ~500W&#8217;a kıyasla yaklaşık 3000W gerektirecektir. Bu da 5 kat güç tasarrufu anlamına gelmektedir.</p>
<p>&nbsp;</p>
<h3>Optimum Performans &#8211; Ölçeklendirme</h3>
<p>Önceki bölümlerde, simülasyonu çalıştırmak için gereken minimum GPU sayısını tartıştık, ancak optimum sayı nedir? Aşağıda, 57 milyon hücre aerodinamik vakası için hızlanma ve bellek kullanımını gösteren grafikler yer almaktadır. Performansın yaklaşık 8 GPU&#8217;ya kadar ölçeklendiğini görebiliriz. GPU başına bellek kullanımına baktığımızı varsayalım. 6 GPU&#8217;nun altında bellek kullanımı GPU başına 20 GB&#8217;ın altında, yani GPU&#8217;ların kullanılabilir belleğinin %25&#8217;inden daha az. Sonuç olarak, bir vakayı çalıştırmak GPU belleğinin yalnızca küçük bir yüzdesini kullanıyorsa ölçeklendirme zarar görecektir. Bu nedenle, GPU belleğinin en az %25&#8217;inin dolu olması makul ölçeklendirmeyi sürdürmek için iyidir.</p>
<h3>Hızlanma</h3>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1971" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia5-300x163.jpg" alt="" width="641" height="348" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia5-300x163.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia5-768x417.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia5.jpg 975w" sizes="(max-width: 641px) 100vw, 641px" /></p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-1972" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia6-300x169.jpg" alt="" width="596" height="336" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia6-300x169.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia6-768x432.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Solution_Brief_Supermicro_Nvidia6.jpg 914w" sizes="(max-width: 596px) 100vw, 596px" /></p>
<p>Supermicro ve Nvidia Simülasyonlarını Hızlandıracak Çözümler Üretiyor.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-simulasyonlarini-hizlandiracak-cozumler-uretiyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA Grace Hopper Superchip Murex MX.3</title>
		<link>https://supermicrosunucu.com/blog/nvidia-grace-hopper-superchip-murex-mx-3.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-grace-hopper-superchip-murex-mx-3.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Fri, 07 Jun 2024 10:46:47 +0000</pubDate>
				<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Grace Hopper]]></category>
		<category><![CDATA[Grace Hopper Superchip]]></category>
		<category><![CDATA[Murex MX.3]]></category>
		<category><![CDATA[NVIDIA Grace Hopper Superchip]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1933</guid>

					<description><![CDATA[NVIDIA Grace Hopper Superchip Murex MX.3 Analitik Performansını Hızlandırıyor, Güç Tüketimini Azaltıyor &#160; NVIDIA Grace Hopper Superchip Murex MX.3 Analitik]]></description>
										<content:encoded><![CDATA[<h1><span>NVIDIA Grace Hopper Superchip Murex MX.3 Analitik Performansını Hızlandırıyor, Güç Tüketimini Azaltıyor</span></h1>
<p>&nbsp;</p>
<p>NVIDIA Grace Hopper Superchip Murex MX.3 Analitik Performansını Hızlandırıyor, Güç Tüketimini Azaltıyor.</p>
<div class="nvb4-subtitle">
<div class="nvb4-subtitle-inner">Önde gelen bir finansal teknoloji şirketi olan Murex, ticaret ve risk platformunda süper çip mimarisini test ediyor.</div>
<div></div>
<div><img loading="lazy" decoding="async" class="alignnone  wp-image-1934" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/finance-tech-blog-murex-1920x1080-1-1280x720-1-300x169.jpg" alt="" width="801" height="451" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/finance-tech-blog-murex-1920x1080-1-1280x720-1-300x169.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/finance-tech-blog-murex-1920x1080-1-1280x720-1-1024x576.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/finance-tech-blog-murex-1920x1080-1-1280x720-1-768x432.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/finance-tech-blog-murex-1920x1080-1-1280x720-1.jpg 1280w" sizes="(max-width: 801px) 100vw, 801px" /></div>
<div></div>
<div>
<div class="entry-meta-social">
<div class="share-count-section">
<p>2008 mali krizinin ve bunu takip eden artan risk yönetimi düzenlemelerinin ardından Pierre Spatz, bankaların bilgi işlem giderlerini azaltmaya odaklanacağını öngördü.</p>
<p>Merkezi Paris&#8217;te bulunan bir ticaret ve risk yönetimi yazılım şirketi olan Murex&#8217;te niceliksel araştırma başkanı olarak Spatz, en yüksek performansı ve enerji verimliliğini hedefleyen NVIDIA&#8217;nın CUDA ve GPU hızlandırmalı bilgi işlem sistemini benimsedi.</p>
<p>Her zaman en son teknolojileri arayan şirketin ölçüm ekibi, <a href="https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/">NVIDIA Grace Hopper Superchip&#8217;in</a> denemelerine başladı . Bu çaba, müşterilerin türev sözleşmelerine ilişkin kredi ve piyasa riskini daha iyi fiyatlandırmalarına ve yönetmelerine yardımcı olmaya odaklanıyor.</p>
<p>65 ülkede 60.000&#8217;den fazla günlük kullanıcı Murex MX.3 platformuna güveniyor. MX.3 bankalara, varlık yöneticilerine, emeklilik fonlarına ve diğer finansal kuruluşlara varlık sınıfları genelinde alım satım, risk ve operasyonlarında yardımcı olur.</p>
<h2><b>Grace Hopper&#8217;ın Yönlendirdiği MX.3 ile Riski Yönetmek</b></h2>
<p>Finansal kurumların, fiyatlandırma ve risk hesaplamaları için büyük miktardaki veriler üzerinde risk modellerini çalıştırmak ve gerçek zamanlı karar verme yetenekleri sunmak için yüksek performanslı bilgi işlem altyapısına ihtiyacı vardır.</p>
<p>MX.3 kapsamı, hem kredi hem de piyasa riskini, BASEL sermaye standartlarını, alım satım defterinin temel incelemesini ve x-değerleme düzeltmesini (XVA) içerir. XVA, kredi değeri ayarlaması (CVA), marj değeri ayarlaması ve fonlama değerleme ayarlaması gibi türev sözleşmeleriyle ilgili farklı türde değerleme ayarlamaları için kullanılır.</p>
<p>Murex, XVA hesaplamalarının yanı sıra çeşitli varlık sınıflarında piyasa riski kalibrasyonu, fiyatlandırma değerlendirmesi, hassasiyet ve kar ve zarar hesaplamaları için MX.3 platformunda Grace Hopper&#8217;ı test ediyor.</p>
<p>Grace Hopper, Murex platformuna daha hızlı hesaplamanın yanı sıra güç tasarrufu da sunuyor.</p>
<p>Spatz, &#8220;CVA gibi karşı taraf kredi riski iş yüklerinde Grace Hopper, benzersiz bir CPU ve GPU hesaplama karışımıyla heterojen bir mimariden yararlanarak mükemmel uyum sağlıyor&#8221; dedi. &#8220;Risk hesaplamalarında Grace yalnızca en hızlı işlemci değil, aynı zamanda çok daha fazla güç verimliliğine sahip ve yeşil BT&#8217;yi ticaret dünyasında gerçeğe dönüştürüyor.&#8221;</p>
<p>Murex araştırma ve geliştirme laboratuvarı, XVA iş yüklerini MX.3&#8217;te çalıştırırken Grace Hopper&#8217;ın CPU tabanlı sistemlerle karşılaştırıldığında enerji tüketiminde 4 kat azalma ve 7 kat performans artışı sunabildiğini fark etti.</p>
<p><img loading="lazy" decoding="async" class="alignnone  wp-image-1935" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-1-002-400x270-1-300x203.jpg" alt="" width="482" height="326" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-1-002-400x270-1-300x203.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-1-002-400x270-1.jpg 400w" sizes="(max-width: 482px) 100vw, 482px" /></p>
<h2><b><span>Grace Hopper ile MX.3&#8217;te FX Bariyer Seçeneklerini Fiyatlandırma </span></b></h2>
<p><span>Döviz (FX) bariyer seçeneklerini fiyatlandırmak için Murex, amiral gemisi ve en yeni stokastik yerel oynaklık modelini kullandı ve ayrıca Grace Hopper&#8217;ı çalıştırırken etkileyici performans iyileştirmeleri fark etti. Bariyer opsiyonu, dayanak varlığın fiyatının, opsiyon sözleşmesi süresi boyunca belirli bir eşiğe ulaşıp ulaşmamasına veya onu geçmesine bağlı olan getirisi olan bir türevdir.</span></p>
<p><span>Fiyatlandırma değerlendirmesi, GH200&#8217;deki Arm tabanlı NVIDIA Grace CPU&#8217;da daha uygun maliyetli olan 2 boyutlu kısmi diferansiyel denklemle yapılır. Bu türevi Grace Hopper&#8217;da MX.3 ile fiyatlandırmak, Intel Xeon Gold 6148 ile karşılaştırıldığında 2,3 kat daha hızlıdır.</span></p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1936" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-2-002-400x253-1-300x190.jpg" alt="" width="300" height="190" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-2-002-400x253-1-300x190.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-2-002-400x253-1.jpg 400w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p>NVIDIA Grace CPU ayrıca sunucu başına watt bazında FX bariyeri hesaplamaları için önemli güç verimliliği sunar ve 5 kat daha iyidir.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1938" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-3-002-400x267-1-300x200.jpg" alt="" width="300" height="200" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-3-002-400x267-1-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/Murex-Blog_Figure-3-002-400x267-1.jpg 400w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p>Yukarıdaki sonuçlara işaret eden Murex, NVIDIA&#8217;nın yeni nesil hızlandırılmış bilgi işlem platformunun, sermaye piyasalarında niceliksel analizler için yüksek performanslı bilgi işlem için enerji verimliliği ve maliyet tasarrufu sağladığını söylüyor.</p>
<p>&nbsp;</p>
<p>NVIDIA Grace Hopper Superchip Murex MX.3 Analitik Performansını Hızlandırıyor, Güç Tüketimini Azaltıyor.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
</div>
<h3>Daha Fazla Bilgi Edinmek için <a href="http://www.gtmteknoloji.com/teklif-talep">Bizimle İletişime Geçin!</a></h3>
</div>
<div class="entry-content">
<p>&nbsp;</p>
</div>
</div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-grace-hopper-superchip-murex-mx-3.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Nvidia Yapay Zeka için Ethernet Ağını Güçlendiriyor</title>
		<link>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-icin-ethernet-agini-guclendiriyor.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-icin-ethernet-agini-guclendiriyor.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Thu, 06 Jun 2024 10:39:56 +0000</pubDate>
				<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Ethernet Ağı]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[Spectrum-X]]></category>
		<category><![CDATA[Üretken Yapay Zeka]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1925</guid>

					<description><![CDATA[NVIDIA Yapay Zeka için Ethernet Ağını Güçlendiriyor Nvidia Yapay Zeka için Ethernet Ağını Güçlendiriyor. Spectrum-X Bulut Hizmeti Sağlayıcıları, GPU Bulut]]></description>
										<content:encoded><![CDATA[<h1 class="article-title"><span>NVIDIA Yapay Zeka için Ethernet Ağını Güçlendiriyor</span></h1>
<div></div>
<div class="article-subtitle"><span>Nvidia Yapay Zeka için Ethernet Ağını Güçlendiriyor.</span></div>
<div class="article-subtitle"><span>Spectrum-X Bulut Hizmeti Sağlayıcıları, GPU Bulut Sağlayıcıları ve Kuruluşları Tarafından Benimsenmiştir; Geniş Sistem Oluşturucu Desteği, NVIDIA Networking&#8217;in Erişimini Tüm Pazarlara Genişletiyor.</span></div>
<div></div>
<div><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1926" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/spectrum-x_mid-300x168.jpg" alt="" width="300" height="168" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/spectrum-x_mid-300x168.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/spectrum-x_mid.jpg 700w" sizes="(max-width: 300px) 100vw, 300px" /></div>
<div></div>
<div>
<p style="font-weight: 400;"><b><strong>COMPUTEX</strong></b><a href="https://www.nvidia.com/en-us/networking/spectrumx/"><u> — NVIDIA bugün , NVIDIA Spectrum<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />-X Ethernet ağ platformunun</u></a> yaygın olarak benimsendiğinive hızlandırılmış ürün sürüm programını duyurdu.</p>
<p style="font-weight: 400;">Nvidia Yapay Zeka için Ethernet Ağını Güçlendiriyor. CoreWeave, GMO Internet Group, Lambda, Scaleway, STPX Global ve Yotta, yapay zeka altyapılarına olağanüstü ağ oluşturma performansı getirmek için NVIDIA Spectrum-X&#8217;i benimseyen ilk yapay zeka bulut hizmeti sağlayıcıları arasında yer alıyor. Ek olarak, ASRock Rack, ASUS, GIGABYTE, Ingrasys, Inventec, Pegatron, QCT, Wistron ve Wiwynn dahil olmak üzere birçok NVIDIA iş ortağı, platformu kendi bünyelerine dahil etme konusunda Dell Technologies, Hewlett Packard Enterprise, Lenovo ve Supermicro&#8217;ya katılan Spectrum tabanlı ürünleri duyurdu. teklifler.</p>
<p style="font-weight: 400;">NVIDIA ağ iletişiminden sorumlu kıdemli başkan yardımcısı Gilad Shainer, &#8220;Üretken yapay zeka gibi çığır açan teknolojilerdeki hızlı ilerlemeler, her işletmenin rekabet avantajı elde etmek için ağ oluşturma inovasyonuna öncelik vermesi gerektiğinin altını çiziyor&#8221; dedi. “NVIDIA Spectrum-X, işletmelerin operasyonlarını ve sektörlerini dönüştürmek için yapay zeka altyapılarının gücünden tam anlamıyla yararlanmasına olanak tanımak amacıyla Ethernet ağında devrim yaratıyor.”</p>
<p style="font-weight: 400;"><b><strong>Yıllık Sürüm Cadence</strong></b><br />
Spectrum-X, üretken yapay zeka ağ performansını geleneksel Ethernet yapılarına göre 1,6 kat hızlandıran dünyanın yapay zeka için tasarlanmış ilk Ethernet yapısıdır.</p>
<p style="font-weight: 400;">NVIDIA&#8217;nın kurucusu ve CEO&#8217;su Jensen Huang, sektörün Spectrum&#8217;un sağladığı performansa yönelik güçlü talebini karşılamak için bugün Tayvan&#8217;daki COMPUTEX açılış konuşmasında, NVIDIA&#8217;nın her yıl yeni Spectrum-X ürünlerini piyasaya sürmeyi planladığını, artırılmış bant genişliği ve bağlantı noktaları ile gelişmiş yazılım özellik setleri ve gelişmiş yazılım özellikleri sunmayı planladığını duyurdu. Lider AI Ethernet ağ performansını desteklemek için programlanabilirlik.</p>
<p style="font-weight: 400;">NVIDIA Spectrum SN5600 Ethernet anahtarına ve <a href="https://www.nvidia.com/en-us/networking/products/data-processing-unit/"><u>NVIDIA BlueField <sup>®</sup> -3 SuperNIC&#8217;e</u></a> sahip olan Spectrum-X, üretken yapay zeka bulutlarının gerektirdiği performans ve özelliklerle oluşturulmuş uçtan uca bir platformdur. Maksimum bant genişliği ve gürültü yalıtımı için uyarlanabilir yönlendirme ve tıkanıklık kontrolünden yararlanarak, yapay zeka için en yüksek performanslı Ethernet ağını sunarak her ölçekte binlerce eşzamanlı yapay zeka işi için öngörülebilir sonuçlar sağlar.</p>
<p style="font-weight: 400;">Platform, <a href="https://www.nvidia.com/en-us/networking/products/data-processing-unit/"><u>NVIDIA BlueField-3 DPU&#8217;larla</u></a> birleştiğinde gelişmiş bulut çoklu kiracılığı, GPU bilgi işlem esnekliği ve sıfır güven güvenliği sağlar. Bulut hizmeti sağlayıcıları bununla birlikte, yatırım getirilerini artırırken yapay zeka çözümlerinin geliştirilmesini ve devreye alınmasını hızlandırabilir.</p>
</div>
<p>&nbsp;</p>
<h3>Daha fazla bilgi edinmek için <a href="http://www.gtmteknoloji.com/teklif-talep">bizimle iletişime geçin!</a></h3>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-icin-ethernet-agini-guclendiriyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Bilgisayar Endüstrisi NVIDIA&#8217;ya Katılıyor</title>
		<link>https://supermicrosunucu.com/blog/bilgisayar-endustrisi-nvidiaya-katiliyor.html</link>
					<comments>https://supermicrosunucu.com/blog/bilgisayar-endustrisi-nvidiaya-katiliyor.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Wed, 05 Jun 2024 11:32:57 +0000</pubDate>
				<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[ASRock Rack]]></category>
		<category><![CDATA[ASUS]]></category>
		<category><![CDATA[Gigabyte]]></category>
		<category><![CDATA[Ingrasys]]></category>
		<category><![CDATA[Inventec]]></category>
		<category><![CDATA[Nvidia MGX]]></category>
		<category><![CDATA[Pegatron]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1919</guid>

					<description><![CDATA[Bilgisayar Endüstrisi, Sonraki Sanayi Devrimi için Yapay Zeka Fabrikaları ve Veri Merkezleri İnşa Etmek İçin NVIDIA&#8217;ya Katılıyor &#160; Bilgisayar Endüstrisi]]></description>
										<content:encoded><![CDATA[<h1>Bilgisayar Endüstrisi, Sonraki Sanayi Devrimi için Yapay Zeka Fabrikaları ve Veri Merkezleri İnşa Etmek İçin NVIDIA&#8217;ya Katılıyor</h1>
<p>&nbsp;</p>
<p style="font-weight: 400;"><img loading="lazy" decoding="async" class="alignnone wp-image-1920" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/blackwell-ai-factories_mid-300x168.png" alt="" width="645" height="361" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/blackwell-ai-factories_mid-300x168.png 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/blackwell-ai-factories_mid.png 700w" sizes="(max-width: 645px) 100vw, 645px" /></p>
<p>Bilgisayar Endüstrisi NVIDIA&#8217;ya Katılıyor.</p>
<ul style="font-weight: inherit;">
<li style="font-weight: inherit;"><em>En İyi Bilgisayar Üreticileri Grace CPU&#8217;lar, NVIDIA Ağ İletişimi ve Altyapıya Sahip Blackwell Destekli Sistem Dizisini Tanıtıyor</em></li>
<li style="font-weight: inherit;"><em>Geniş Portföyler Bulutu, Şirket İçi, Gömülü ve Uç Yapay Zeka Sistemlerini Kapsar</em></li>
<li style="font-weight: inherit;"><em>Teklifler Tekli GPU&#8217;lardan Çoklu GPU&#8217;lara, x86&#8217;dan Grace&#8217;e, Havadan Sıvı Soğutmaya kadar çeşitlilik gösterir</em></li>
</ul>
<p><b><strong>COMPUTEX —</strong></b> NVIDIA ve dünyanın en iyi bilgisayar üreticileri bugün, şirketlerin bir sonraki üretken yapay zeka atılımlarını desteklemek üzere yapay zeka fabrikaları ve veri merkezleri kurmalarına yönelik Grace CPU&#8217;lar, NVIDIA ağ iletişimi ve altyapı içeren, NVIDIA Blackwell mimarisiyle desteklenen bir dizi sistemi tanıttı.</p>
<p>NVIDIA kurucusu ve CEO&#8217;su Jensen Huang, COMPUTEX açılış konuşması sırasında <a href="https://www.asrockrack.com/general/news.asp?id=239"><u>ASRock Rack</u></a> , <a href="https://servers.asus.com/NEWS/ASUS-Presents-ESC-AI-POD-with-NVIDIA-GB200-NVL72-at-Computex-2024"><u>ASUS</u></a> , <a href="https://www.gigabyte.com/Press/News/2168"><u>GIGABYTE</u></a> , <a href="https://www.foxconn.com.tw/en-us/press-center/press-releases/latest-news"><u>Ingrasys</u></a> , <a href="https://ebg.inventec.com/en/news/Press%20Release/2024/85"><u>Inventec</u></a> , <a href="https://svr.pegatroncorp.com/News/6"><u>Pegatron</u></a> , QCT, Supermicro, Wistron ve Wiwynn&#8217;in NVIDIA GPU&#8217;ları kullanarak bulut, şirket içi, gömülü ve uç yapay zeka sistemleri sunacağını duyurdu. ağ oluşturma.</p>
<p>“Bir sonraki sanayi devrimi başladı. Huang, &#8220;Şirketler ve ülkeler, trilyon dolarlık geleneksel veri merkezlerini hızlandırılmış bilişime kaydırmak ve yeni bir tür veri merkezi (AI fabrikaları) inşa ederek yeni bir ürün olan yapay zekayı üretmek için NVIDIA ile ortaklık kuruyor&#8221; dedi. &#8220;Sunucu, ağ ve altyapı üreticilerinden yazılım geliştiricilere kadar tüm sektör, her alanda yapay zeka destekli inovasyonu hızlandırmak için Blackwell&#8217;e hazırlanıyor.&#8221;</p>
<p>Her türden uygulamaya yönelik teklifler, tekli GPU&#8217;lardan çoklu GPU&#8217;lara, x86&#8217;dan Grace tabanlı işlemcilere ve havadan sıvı soğutma teknolojisine kadar çeşitlilik gösterecek.</p>
<p>Ek olarak, farklı boyut ve konfigürasyonlardaki sistemlerin geliştirilmesini hızlandırmak için <a href="https://www.nvidia.com/en-us/data-center/products/mgx/"><u>NVIDIA MGX</u></a> <img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> modüler referans tasarım platformu artık NVIDIA Blackwell ürünlerini destekliyor. Buna, ana akım büyük dil modeli çıkarımı, erişimle artırılmış oluşturma ve veri işleme için benzersiz performans sunmak üzere tasarlanan yeni NVIDIA GB200 NVL2 platformu da dahildir.</p>
<p>GB200 NVL2, şirketlerin yılda on milyarlarca dolar harcadığı veri analitiği gibi gelişen pazar fırsatları için idealdir. Blackwell mimarisindeki NVLink <sup>®</sup> -C2C ara bağlantıları ve özel sıkıştırma açma motorları tarafından sağlanan yüksek bant genişliğine sahip bellek performansından yararlanmak, x86 CPU&#8217;ların kullanımına kıyasla 8 kat daha iyi enerji verimliliğiyle veri işlemeyi 18 kata kadar hızlandırır.</p>
<p><b><strong>Hızlandırılmış Bilgi İşlem için Modüler Referans Mimarisi</strong></b><br />
Dünyanın veri merkezlerinin çeşitli hızlandırılmış bilgi işlem ihtiyaçlarını karşılamak amacıyla NVIDIA MGX, bilgisayar üreticilerine 100&#8217;den fazla sistem tasarımı yapılandırmasını hızlı ve uygun maliyetli bir şekilde oluşturmaları için bir referans mimarisi sağlar.</p>
<p>Üreticiler, sunucu kasaları için temel bir sistem mimarisiyle başlar ve ardından farklı iş yüklerini karşılamak için GPU, DPU ve CPU&#8217;larını seçerler. Bugüne kadar, MGX referans mimarisini kullanan 25&#8217;ten fazla iş ortağından 90&#8217;dan fazla sistem piyasaya sürüldü veya geliştirilme aşamasında; geçen yıl altı iş ortağından gelen 14 sistem bu sayıya yükseldi. MGX&#8217;i kullanmak, geliştirme maliyetlerini dörtte üçe kadar azaltmaya ve geliştirme süresini üçte iki oranında yalnızca altı aya indirmeye yardımcı olabilir.</p>
<p>AMD ve Intel, ilk kez kendi CPU ana işlemci modülü tasarımlarını sunma planlarıyla MGX mimarisini destekliyor. Buna yeni nesil AMD Turin platformu ve P çekirdekli Intel <sup>®</sup> Xeon <sup>®</sup> 6 işlemci (eski adıyla Granite Rapids) dahildir. Herhangi bir sunucu sistemi oluşturucusu, tasarım ve performansta tutarlılığı sağlarken geliştirme süresinden tasarruf etmek için bu referans tasarımlarını kullanabilir.</p>
<p>NVIDIA&#8217;nın en yeni platformu GB200 NVL2 de MGX ve Blackwell&#8217;den yararlanıyor. Ölçeklenebilir, tek düğümlü tasarımı, hızlandırılmış bilgi işlemin mevcut veri merkezi altyapısına sorunsuz bir şekilde entegre edilmesi için çok çeşitli sistem yapılandırmalarına ve ağ oluşturma seçeneklerine olanak tanır.</p>
<p>GB200 NVL2, NVIDIA Blackwell Tensor Core GPU&#8217;ları, GB200 Grace Blackwell Superchips&#8217;i ve GB200 NVL72&#8217;yi de içeren Blackwell ürün serisine katılıyor.</p>
<p><b><strong>Bir Ekosistem Birleştirir</strong></b><br />
NVIDIA&#8217;nın kapsamlı iş ortağı ekosistemi, dünyanın önde gelen yarı iletken üreticisi ve NVIDIA dökümhane ortağı TSMC&#8217;nin yanı sıra yapay zeka fabrikaları oluşturmak için temel bileşenleri sağlayan küresel elektronik üreticilerini içerir. Bunlar arasında sunucu rafları, güç dağıtımı, soğutma çözümleri gibi üretim yenilikleri ve Amfenol, Asia Vital Components (AVC), Cooler Master, Colder Products Company (CPC), Danfoss, Delta Electronics ve LITEON gibi şirketlerin daha fazlası yer alıyor.</p>
<p>Sonuç olarak, yeni veri merkezi altyapısı dünya çapındaki işletmelerin ihtiyaçlarını karşılamak üzere hızlı bir şekilde geliştirilip dağıtılabilir ve Blackwell teknolojisi, <a href="https://www.nvidia.com/en-us/networking/quantum2/"><u>NVIDIA Quantum-2</u></a> veya <a href="https://www.nvidia.com/en-us/networking/products/infiniband/quantum-x800/"><u>Quantum-X800 InfiniBand ağı</u></a> , <a href="https://www.nvidia.com/en-us/networking/products/ethernet/"><u>NVIDIA Spectrum<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />-X Ethernet</u></a> ağı ve <a href="https://www.nvidia.com/en-us/networking/products/data-processing-unit/">NVIDIA tarafından daha da hızlandırılabilir. BlueField <sup>®</sup> -3 DPU&#8217;lar</a> — önde gelen sistem üreticileri Dell Technologies, Hewlett Packard Enterprise ve Lenovo&#8217;nun sunucularında.</p>
<p>Kuruluşlar ayrıca üretim düzeyinde üretken yapay zeka uygulamaları oluşturmak ve çalıştırmak için <a href="http://ai.nvidia.com/"><u>NVIDIA NIM<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> çıkarım mikro hizmetlerini</u></a> içeren <a href="https://www.nvidia.com/en-us/data-center/products/ai-enterprise/"><u>NVIDIA AI Enterprise yazılım platformuna</u></a> da erişebilir .</p>
<p><b><strong>Tayvan Blackwell&#8217;i Kucaklıyor</strong></b><br />
Huang ayrıca açılış konuşmasında Tayvan&#8217;ın önde gelen şirketlerinin yapay zekanın gücünü kendi işlerine taşımak için Blackwell&#8217;i hızla benimsediğini duyurdu.</p>
<p>Tayvan&#8217;ın önde gelen tıp merkezi Chang Gung Memorial Hastanesi, biyomedikal araştırmaları ilerletmek ve klinik iş akışlarını iyileştirmek ve sonuç olarak hasta bakımını iyileştirmek amacıyla görüntüleme ve dil uygulamalarını hızlandırmak için NVIDIA Blackwell bilgi işlem platformunu kullanmayı planlıyor.</p>
<p>Dünyanın en büyük elektronik üreticilerinden biri olan Foxconn, yapay zeka destekli elektrikli araç ve robot platformlarına yönelik akıllı çözüm platformlarının yanı sıra daha kişiselleştirilmiş hizmet sunmak amacıyla giderek artan sayıda dil tabanlı üretken yapay zeka hizmetleri geliştirmek için NVIDIA Grace Blackwell&#8217;i kullanmayı planlıyor deneyimlerini müşterilerine aktarıyor.</p>
<p><b><strong>Ek Destekleyici Alıntılar</strong></b></p>
<ul style="font-weight: inherit;">
<li style="font-weight: inherit;"><b><strong>Amfenol Başkanı ve CEO&#8217;su R. Adam Norwitt:</strong></b> “NVIDIA&#8217;nın çığır açan yapay zeka sistemleri, gelişmiş ara bağlantı çözümleri gerektiriyor ve Amfenol, kritik bileşenleri sağlamaktan gurur duyuyor. NVIDIA&#8217;nın zengin ekosisteminin önemli bir ortağı olarak, Blackwell hızlandırıcıları için son derece karmaşık ve verimli ara bağlantı ürünleri sunarak üstün performans sunabiliyoruz.”</li>
<li style="font-weight: inherit;"><b><strong>AVC Başkanı ve CEO&#8217;su Spencer Shen:</strong></b> “AVC, NVIDIA ürünlerinde önemli bir rol oynuyor ve en yeni Grace Blackwell Superchip de dahil olmak üzere AI donanımı için verimli soğutma sağlıyor. Yapay zeka modelleri ve iş yükleri büyümeye devam ettikçe, yoğun yapay zeka bilişiminin üstesinden gelmek için güvenilir termal yönetim önem taşıyor ve biz de yolun her adımında NVIDIA&#8217;nın yanındayız.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>ASUS Başkanı Jonney Shih:</strong></b> “ASUS, COMPUTEX&#8217;te sergileyeceğimiz güçlü sunucu serimizle kurumsal yapay zekayı yeni boyutlara taşımak için NVIDIA ile birlikte çalışıyor. NVIDIA&#8217;nın MGX ve Blackwell platformlarını kullanarak, eğitim, çıkarım, veri analitiği ve HPC genelinde müşteri iş yüklerini yönetmek için oluşturulmuş özel veri merkezi çözümleri üretebiliyoruz.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>Dover Corporation&#8217;ın CPC başkanı Janel Wittmayer</strong></b> : “CPC&#8217;nin yenilikçi, amaca yönelik tasarlanmış konnektör teknolojisi, sıvı soğutmalı NVIDIA GPU&#8217;ların yapay zeka sistemlerine kolay ve güvenilir şekilde bağlanmasını sağlıyor. Performans ve kalite konusunda ortak bir vizyona sahip olan CPC, NVIDIA&#8217;nın inanılmaz büyümesini ve ilerlemesini destekleyecek kritik teknolojik bileşenleri sağlama kapasitesine ve uzmanlığına sahiptir. Konektörlerimiz, sıcaklığa duyarlı ürünlerin bütünlüğünü korumanın merkezinde yer alır; bu, yapay zeka sistemleri yoğun bilgi işlem gerektiren görevleri çalıştırırken önemlidir. NVIDIA ekosisteminin bir parçası olmaktan ve teknolojimizi yeni uygulamalara taşımaktan heyecan duyuyoruz.”</li>
<li style="font-weight: inherit;"><b><strong>Cooler Master CEO&#8217;su Andy Lin</strong></b> : &#8220;Hızlandırılmış bilgi işlem talebi artmaya devam ettikçe, son teknoloji hızlandırıcılardan yararlanan kuruluşlar için enerji standartlarını etkili bir şekilde karşılayan çözümlere olan talep de artıyor. Termal yönetim çözümlerinde öncü olan Cooler Master, müşterilere inanılmaz performans sunacak olan NVIDIA Blackwell platformunun tüm potansiyelinin açığa çıkmasına yardımcı oluyor.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>Danfoss CEO&#8217;su Kim Fausing:</strong></b> “Danfoss&#8217;un yenilikçi, yüksek performanslı hızlı bağlantı kesme ve akışkan güç tasarımlarına odaklanması, kaplinlerimizi veri merkezlerinde verimli, güvenilir ve emniyetli bir çalışma sağlamak açısından değerli kılıyor. NVIDIA&#8217;nın yapay zeka ekosisteminin hayati bir parçası olarak birlikte çalışmamız, veri merkezlerinin çevresel etkiyi en aza indirirken artan yapay zeka taleplerini karşılamasını sağlıyor.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>Delta Electronics Yönetim Kurulu Başkanı ve CEO&#8217;su Ping Cheng şunları söyledi:</strong></b> “Bilgisayar gücüne yönelik her yerde bulunan talep, hızlandırılmış performans yeteneklerinde yeni bir çağ başlattı. Delta, gelişmiş soğutma ve güç sistemlerimiz aracılığıyla, enerji ve termal verimliliği korurken, NVIDIA&#8217;nın Blackwell platformunun en yüksek performans seviyelerinde çalışmasını sağlayan yenilikçi çözümler geliştirdi.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>GIGABYTE başkan yardımcısı ve genel müdürü Etay Lee:</strong></b> “Yaklaşık otuz yıla yayılan işbirliğimizle GIGABYTE, GPU&#8217;lar, CPU&#8217;lar, DPU&#8217;lar ve yüksek hızlı ağ iletişimi genelinde NVIDIA teknolojilerini destekleme konusunda derin bir kararlılığa sahiptir. Kuruluşların bilgi işlem yoğunluklu iş yüklerinde daha da yüksek performans ve enerji verimliliği elde edebilmeleri için, pazara geniş bir Blackwell tabanlı sistem yelpazesi sunuyoruz.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>Hon Hai Teknoloji Grubu Başkanı ve CEO&#8217;su Young Liu:</strong></b> &#8220;Üretken yapay zeka endüstrileri dönüştürürken, Foxconn da en çeşitli ve zorlu bilgi işlem ihtiyaçlarını karşılamak için en ileri çözümleri sunmaya hazır. Yalnızca kendi sunucularımızda en son Blackwell platformunu kullanmakla kalmıyoruz, aynı zamanda müşterilerimize pazara daha hızlı çıkış süresi sağlayarak NVIDIA&#8217;ya temel bileşenlerin sağlanmasına da yardımcı oluyoruz.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>Inventec Başkanı Jack Tsai:</strong></b> “Inventec, neredeyse yarım yüzyıldır işimizin can damarı olan elektronik ürünler ve bileşenler tasarlıyor ve üretiyor. NVIDIA Grace Blackwell Superchip tarafından desteklenen NVIDIA MGX raf tabanlı çözümümüz aracılığıyla, müşterilerimizin yeni bir yapay zeka yeteneği ve performansı alanına girmelerine yardımcı oluyoruz.”</li>
<li style="font-weight: inherit;"><b><strong>LITEON Technology Başkanı Anson Chiu:</strong></b> “Daha yeşil ve daha sürdürülebilir veri merkezleri arayışında, güç yönetimi ve soğutma çözümleri merkezde yer alıyor. NVIDIA Blackwell platformunun piyasaya sürülmesiyle LITEON, NVIDIA ortaklarının yüksek verimli, çevre dostu veri merkezlerinin geleceğinin kilidini açmasına olanak tanıyan çok sayıda sıvı soğutma çözümünü piyasaya sürüyor.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>Quanta Computer başkanı Barry Lam:</strong></b> “İnovasyonun daha önce hiç olmadığı kadar hızlandığı, yapay zeka odaklı bir dünyanın merkezinde duruyoruz. NVIDIA Blackwell yalnızca bir motor değildir; bu sanayi devrimini ateşleyen kıvılcımdır. Quanta, üretken yapay zekanın bir sonraki çağını tanımlarken bu muhteşem yolculukta gururla NVIDIA&#8217;ya katılıyor. Birlikte yapay zekanın yeni bir bölümünü şekillendirip tanımlayacağız.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>Supermicro Başkanı ve CEO&#8217;su Charles Liang:</strong></b> &#8220;Yapı taşı mimarimiz ve raf ölçeğindeki sıvı soğutma çözümlerimiz, şirket içi mühendisliğimiz ve ayda 5.000 raflık küresel üretim kapasitemizle birleştiğinde, geniş bir ürün yelpazesini hızlı bir şekilde sunmamızı sağlıyor. Oyunun kurallarını değiştiren NVIDIA AI platformu tabanlı ürünlerin dünya çapındaki AI fabrikalarına sunulması. NVIDIA Blackwell mimarisini temel alan tüm ürünler için optimize edilmiş, raf ölçeğinde tasarıma sahip sıvı soğutmalı veya hava soğutmalı yüksek performanslı sistemlerimiz, müşterilere sonraki düzey bilgi işlem ihtiyaçlarını karşılamak için inanılmaz bir platform seçeneği sunmanın yanı sıra, Yapay zekanın geleceğine doğru büyük bir adım.”</li>
<li style="font-weight: inherit;"><b><strong>TSMC CEO&#8217;su CC Wei:</strong></b>  “TSMC, AI vizyonlarını gerçekleştirmelerine olanak tanıyan yarı iletken inovasyonunun sınırlarını zorlamak için NVIDIA ile yakın işbirliği içinde çalışıyor. Sektör lideri yarı iletken üretim teknolojilerimiz, Blackwell mimarisine dayananlar da dahil olmak üzere NVIDIA&#8217;nın çığır açan GPU&#8217;larının şekillenmesine yardımcı oldu.”</li>
<li style="font-weight: inherit;"><b><strong>Wistron CEO&#8217;su Jeff Lin:</strong></b> “Önemli bir üretim ortağı olarak Wistron, NVIDIA&#8217;nın yanı sıra GPU bilgi işlem teknolojileri ve yapay zeka bulut çözümlerini müşterilere sunarak inanılmaz bir yolculuğa çıkıyor. Şimdi, muazzam yeni AI bilgi işlem ürünlerini hızlı bir şekilde pazara sunmak için NVIDIA&#8217;nın en yeni GPU mimarileri ve Blackwell ve MGX gibi referans tasarımlarıyla çalışıyoruz.&#8221;</li>
<li style="font-weight: inherit;"><b><strong>Wiwynn Başkanı William Lin:</strong></b> “Wiwynn, müşterilerin üretken yapay zeka çağında devasa bilgi işlem gücüne ve gelişmiş soğutma çözümlerine yönelik artan talebi karşılamalarına yardımcı olmaya odaklanıyor. NVIDIA Grace Blackwell ve MGX platformlarını temel alan en yeni serimizle, özellikle hiper ölçekli bulut sağlayıcılarının ve işletmelerin zorlu iş yükleri için özel olarak tasarlanmış, optimize edilmiş, raf düzeyinde, sıvı soğutmalı yapay zeka sunucuları oluşturuyoruz.”</li>
</ul>
<p>NVIDIA Blackwell ve MGX platformları hakkında daha fazla bilgi edinmek için <a href="https://www.nvidia.com/en-us/events/computex/"><u>Huang&#8217;ın COMPUTEX açılış konuşmasını</u></a> izleyin .</p>
<h3></h3>
<h3>Daha fazla bilgi edinmek için <a href="http://www.gtmteknoloji.com/teklif-talep">bizimle iletişime geçin!</a></h3>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/bilgisayar-endustrisi-nvidiaya-katiliyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA CEO&#8217;su Her Şeyi Hızlandırın Dedi</title>
		<link>https://supermicrosunucu.com/blog/nvidia-ceosu-her-seyi-hizlandirin-dedi.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-ceosu-her-seyi-hizlandirin-dedi.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Wed, 05 Jun 2024 11:20:27 +0000</pubDate>
				<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[ASRock]]></category>
		<category><![CDATA[COMPUTEX]]></category>
		<category><![CDATA[NVIDIA Inception]]></category>
		<category><![CDATA[NVIDIA NIM]]></category>
		<category><![CDATA[NVIDIA RTX]]></category>
		<category><![CDATA[supermicro]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1908</guid>

					<description><![CDATA[NVIDIA CEO&#8217;su COMPUTEX&#8217;ten Önce &#8216;Her Şeyi Hızlandırın&#8217; Dedi NVIDIA CEO&#8217;su Her Şeyi Hızlandırın Dedi Maliyet azaltma ve sürdürülebilirliği vurgulayan Huang,]]></description>
										<content:encoded><![CDATA[<h1>NVIDIA CEO&#8217;su COMPUTEX&#8217;ten Önce &#8216;Her Şeyi Hızlandırın&#8217; Dedi</h1>
<div class="nvb4-subtitle">
<div>NVIDIA CEO&#8217;su Her Şeyi Hızlandırın Dedi</div>
<div class="nvb4-subtitle-inner">Maliyet azaltma ve sürdürülebilirliği vurgulayan Huang, veri merkezlerine, fabrikalara, tüketici cihazlarına, robotlara ve daha fazlasına güç sağlayacak ve yeni bir sanayi devrimine öncülük edecek yeni yarı iletkenleri, yazılımları ve sistemleri ayrıntılı olarak anlattı.</div>
<div>
<p>NVIDIA&#8217;nın kurucusu ve CEO&#8217;su Jensen Huang, bu hafta Taipei&#8217;de yapılacak COMPUTEX teknoloji konferansı öncesinde yaptığı konuşmada, &#8220;Üretken yapay zeka endüstrileri yeniden şekillendiriyor ve yenilik ve büyüme için yeni fırsatlar açıyor&#8221; dedi.</p>
<p>Huang, kendine özgü siyah deri ceketiyle izleyicilere şunları söyledi: &#8220;Bugün, bilgisayar alanında büyük bir değişimin eşiğindeyiz.&#8221; &#8220;Yapay zeka ve hızlandırılmış bilgi işlemin kesişimi geleceği yeniden tanımlayacak.&#8221;</p>
<p>Huang, dünyanın önde gelen teknoloji konferanslarından biri öncesinde, Taipei&#8217;nin yemyeşil kalbinde yer alan cam kubbeli Ulusal Tayvan Üniversitesi Spor Merkezi&#8217;nde toplanan 6.500&#8217;den fazla endüstri lideri, basın, girişimci, oyuncu, yaratıcı ve yapay zeka meraklısından oluşan bir dinleyici kitlesine konuştu.</p>
<div class="entry-content">
<p>NVIDIA&#8217;nın kurucusu ve CEO&#8217;su Jensen Huang, bu hafta Taipei&#8217;de yapılacak COMPUTEX teknoloji konferansı öncesinde yaptığı konuşmada, &#8220;Üretken yapay zeka endüstrileri yeniden şekillendiriyor ve yenilik ve büyüme için yeni fırsatlar açıyor&#8221; dedi.</p>
<p>Huang, kendine özgü siyah deri ceketiyle izleyicilere şunları söyledi: &#8220;Bugün, bilgisayar alanında büyük bir değişimin eşiğindeyiz.&#8221; &#8220;Yapay zeka ve hızlandırılmış bilgi işlemin kesişimi geleceği yeniden tanımlayacak.&#8221;</p>
<p>Huang, dünyanın önde gelen teknoloji konferanslarından biri öncesinde, Taipei&#8217;nin yemyeşil kalbinde yer alan cam kubbeli Ulusal Tayvan Üniversitesi Spor Merkezi&#8217;nde toplanan 6.500&#8217;den fazla endüstri lideri, basın, girişimci, oyuncu, yaratıcı ve yapay zeka meraklısından oluşan bir dinleyici kitlesine konuştu.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1912" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/crowd-computex-2024-672x464-1-300x207.jpg" alt="" width="300" height="207" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/crowd-computex-2024-672x464-1-300x207.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/crowd-computex-2024-672x464-1-392x272.jpg 392w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/crowd-computex-2024-672x464-1-130x90.jpg 130w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/crowd-computex-2024-672x464-1.jpg 672w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p>Tema: NVIDIA ile hızlandırılmış platformlar, ister AI PC&#8217;ler ve bir dizi NVIDIA RTX destekli yetenek içeren tüketici cihazları, ister NVIDIA&#8217;nın tam yığın bilgi işlem platformuyla AI fabrikaları inşa eden ve dağıtan kuruluşlar aracılığıyla tam üretimdedir.</p>
<p>Huang, &#8220;Bilgisayarın geleceği hızlandırıldı&#8221; dedi. &#8220;Yapay zeka ve hızlandırılmış bilgi işlem alanındaki yeniliklerimizle, mümkün olanın sınırlarını zorluyoruz ve bir sonraki teknolojik ilerleme dalgasını destekliyoruz.&#8221;</p>
</div>
<h2>&#8216;Bir Yıllık Ritim&#8217;</h2>
<p>NVIDIA CEO&#8217;su Her Şeyi Hızlandırın Dedi . Huang&#8217;ın bir yıllık bir ritimle gelecek yeni yarı iletkenler için bir yol haritası açıklamasıyla birlikte daha fazlası da gelecek. İlk kez tanıtılan Rubin platformu, yeni GPU&#8217;lar, yeni Arm tabanlı CPU (Vera) ve NVLink 6, CX9 SuperNIC ve X1600 birleştirilmiş InfiniBand/Ethernet anahtarıyla gelişmiş ağ bağlantısı içeren yeni Blackwell platformunun yerini alacak.</p>
<p>“Şirketimizin bir yıllık bir ritmi var. Temel felsefemiz çok basit: tüm veri merkezi ölçeğini oluşturmak, parçaları bir yıllık bir ritimle parçalara ayırıp size satmak ve her şeyi teknolojinin sınırlarına kadar zorlamak,&#8221; diye açıkladı Huang.</p>
<p><a href="https://www.nvidia.com/en-us/ai/">NVIDIA&#8217;nın yaratıcı ekibi, COMPUTEX açılış konuşmasını oluşturmak için NVIDIA NIM</a> ve NVIDIA&#8217;nın hızlandırılmış bilgi işlemi üzerine inşa edilen <a href="https://www.nvidia.com/en-us/startups/">NVIDIA Inception</a> başlangıç ​​programı üyelerinin sunduğu yapay zeka araçlarını kullandı . Demolarla dolu bu sunumda, bu yenilikçi araçlar ve NVIDIA teknolojisinin dönüştürücü etkisi vurgulandı.</p>
<h2>&#8216;Hızlandırılmış Bilgi İşlem Sürdürülebilir Bilgi İşlemdir&#8217;</h2>
<p>Huang konuşmasına başlarken NVIDIA&#8217;nın veriyi zekaya dönüştürme maliyetini düşürdüğünü açıkladı.</p>
<p>&#8220;Hızlandırılmış bilgi işlem sürdürülebilir bilgi işlemdir&#8221; diye vurguladı ve GPU&#8217;lar ve CPU&#8217;ların birleşiminin nasıl 100 kata kadar hız sağlayabileceğini, güç tüketimini yalnızca üç kat artırabileceğini ve yalnızca CPU&#8217;lara göre Watt başına 25 kat daha fazla performans elde edebileceğini açıkladı.</p>
<p>Huang, &#8220;Ne kadar çok satın alırsanız, o kadar çok tasarruf edersiniz&#8221; diyerek bu yaklaşımın önemli maliyet ve enerji tasarruflarına dikkat çekti.</p>
<h2>Sektör, Yeni Endüstriyel Devrimi Güçlendirecek Yapay Zeka Fabrikaları İnşa Etmek İçin NVIDIA&#8217;ya Katılıyor</h2>
<p>Özellikle küresel BT merkezi Tayvan&#8217;daki önde gelen bilgisayar üreticileri NVIDIA GPU&#8217;larını ve ağ çözümlerini benimsedi. En iyi şirketler arasında bulut, şirket içi ve uç yapay zeka sistemleri oluşturan <a href="https://www.asrockrack.com/general/news.asp?id=239">ASRock Rack</a> , <a href="https://servers.asus.com/NEWS/ASUS-Presents-ESC-AI-POD-with-NVIDIA-GB200-NVL72-at-Computex-2024">ASUS</a> , <a href="https://www.gigabyte.com/Press/News/2168">GIGABYTE</a> , Ingrasys, Inventec, <a href="https://svr.pegatroncorp.com/News/6">Pegatron , QCT, Supermicro, Wistron ve Wiwynn yer alıyor.</a></p>
<p>NVIDIA MGX modüler referans tasarım platformu artık büyük dil modeli çıkarımı, almayla artırılmış oluşturma ve veri işlemede optimum performans için tasarlanan GB200 NVL2 platformu da dahil olmak üzere Blackwell&#8217;i destekliyor.</p>
<p>AMD ve Intel, ilk kez kendi CPU ana işlemci modülü tasarımlarını sunma planlarıyla MGX mimarisini destekliyor. Herhangi bir sunucu sistemi oluşturucusu, tasarım ve performansta tutarlılığı sağlarken geliştirme süresinden tasarruf etmek için bu referans tasarımlarını kullanabilir.</p>
<h2>Spectrum-X ile Yeni Nesil Ağ İletişimi</h2>
<p>Ağ oluşturma konusunda Huang, yapay zeka için yüksek performanslı Ethernet ağ bağlantısına yönelik artan talebi karşılamak amacıyla <a href="https://nvidianews.nvidia.com/news/nvidia-supercharges-ethernet-networking-for-generative-ai">Spectrum-X ürünlerinin yıllık olarak piyasaya sürülmesi planlarını açıkladı.</a></p>
<p>Yapay zeka için tasarlanmış ilk Ethernet yapısı olan NVIDIA Spectrum-X, ağ performansını geleneksel Ethernet yapılarına göre 1,6 kat daha fazla artırır. Yapay zeka iş yüklerinin işlenmesini, analizini ve yürütülmesini, dolayısıyla yapay zeka çözümlerinin geliştirilmesini ve devreye alınmasını hızlandırır.</p>
<p>CoreWeave, GMO Internet Group, Lambda, Scaleway, STPX Global ve Yotta, yapay zeka altyapılarına olağanüstü ağ oluşturma performansı getirmek için Spectrum-X&#8217;i benimseyen ilk yapay zeka bulut hizmeti sağlayıcıları arasında yer alıyor.</p>
<h2>NVIDIA NIM Milyonları Nesil Yapay Zeka Geliştiricilerine Dönüştürecek</h2>
<p><a href="https://nvidianews.nvidia.com/news/nvidia-nim-model-deployment-generative-ai-developers">NVIDIA NIM</a> ile dünyadaki 28 milyon geliştirici artık kolayca üretken yapay zeka uygulamaları oluşturabiliyor. Modelleri optimize edilmiş konteynerler olarak sağlayan çıkarım mikro hizmetleri olan NIM, bulutlara, veri merkezlerine veya iş istasyonlarına dağıtılabilir.</p>
<p>NIM ayrıca işletmelerin altyapı yatırımlarını en üst düzeye çıkarmalarına da olanak tanır. Örneğin, Meta Llama 3-8B&#8217;nin bir NIM&#8217;de çalıştırılması, hızlandırılmış altyapıda NIM&#8217;in kullanılmamasına kıyasla 3 kata kadar daha fazla üretken AI tokeni üretir.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1913" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/2G8A4248-672x448-1-300x200.jpg" alt="" width="300" height="200" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/2G8A4248-672x448-1-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/2G8A4248-672x448-1.jpg 672w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<p>Cadence, Cloudera, <a href="https://www.cohesity.com/press/unlock-gen-ai-capabilities-via-nvidia-collaboration/">Cohesity</a> , <a href="https://www.datastax.com/press-release/datastax-to-deliver-high-performance-rag-solution-with-20x-faster-embeddings-and-indexing-at-80-lower-cost-using-nvidia-microservices">DataStax</a> , <a href="https://www.netapp.com/newsroom/press-releases/news-rel-20240514-813887/">NetApp</a> , Scale AI ve <a href="https://news.synopsys.com/2024-03-18-Synopsys-Showcases-EDA-Performance-and-Next-Gen-Capabilities-with-NVIDIA-Accelerated-Computing,-Generative-AI-and-Omniverse">Synopsys</a> dahil olmak üzere yaklaşık <a href="https://nvidianews.nvidia.com/news/nvidia-nim-model-deployment-generative-ai-developers">200 teknoloji ortağı</a> , yardımcı pilotlar, kod asistanları, dijital insan avatarları ve dijital insan avatarları gibi alana özel uygulamalar için üretken yapay zeka dağıtımlarını hızlandırmak amacıyla NIM&#8217;i platformlarına entegre ediyor. Daha. <a href="https://huggingface.co/blog/train-dgx-cloud">Hugging Face artık </a><a href="https://ai.meta.com/blog/meta-llama-3/">Meta Llama 3&#8217;ten</a> başlayarak NIM&#8217;i sunuyor .</p>
<p>“Bugün Hugging Face the Llama 3&#8217;ün tamamen optimize edilmiş halini yayınladık, orada denemeniz için mevcut. Hatta onu yanınızda götürebilirsiniz,&#8221; dedi Huang. &#8220;Böylece onu bulutta çalıştırabilir, herhangi bir bulutta çalıştırabilir, bu kapsayıcıyı indirebilir, kendi veri merkezinize koyabilir ve müşterilerinizin kullanımına sunmak için barındırabilirsiniz.&#8221;</p>
<h2>NVIDIA, GeForce RTX AI Bilgisayarlarla Yapay Zeka Asistanlarına Hayat Veriyor</h2>
<p><a href="https://www.nvidia.com/en-us/geforce/news/computex-2024-nvidia-geforce-announcements">NVIDIA&#8217;nın</a> RTX teknolojileriyle desteklenen RTX AI bilgisayarları, 200&#8217;den fazla RTX AI dizüstü bilgisayar ve 500&#8217;den fazla AI destekli uygulama ve oyunla tüketici deneyimlerinde devrim yaratmaya hazırlanıyor.</p>
<p>RTX <a href="https://developer.nvidia.com/blog/streamline-ai-powered-app-development-with-nvidia-rtx-ai-toolkit-for-windows-rtx-pcs/">Yapay Zeka Araç Seti ve </a><a href="https://nvidianews.nvidia.com/news/digital-humans-ace-generative-ai-microservices">NVIDIA ACE dijital insan platformu</a> için yeni kullanıma sunulan PC tabanlı NIM çıkarım mikro hizmetleri, NVIDIA&#8217;nın yapay zeka erişilebilirliğine olan bağlılığının altını çiziyor.</p>
<p><a href="https://www.nvidia.com/en-us/geforce/news/g-assist-ai-assistant">PC oyunları ve uygulamaları için bağlama duyarlı desteği gösteren RTX destekli yapay zeka asistan teknolojisi demosu Project G-Assist</a> de duyuruldu.</p>
<p>Microsoft ve NVIDIA, Windows Copilot Runtime&#8217;ın bir parçası olarak cihazda çalışan RAG özelliklerini etkinleştiren RTX hızlandırmalı SLM&#8217;lere kolay API erişimi ile geliştiricilerin Windows yerel ve web uygulamalarına yeni üretken yapay zeka yetenekleri getirmelerine yardımcı olmak için işbirliği yapıyor.</p>
<p><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1914" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/2G8A4569-672x448-1-300x200.jpg" alt="" width="300" height="200" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/2G8A4569-672x448-1-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/2G8A4569-672x448-1.jpg 672w" sizes="(max-width: 300px) 100vw, 300px" /></p>
<h2>Sektör Liderleri Tarafından Benimsenen NVIDIA Robotikleri</h2>
<p>NVIDIA, otonom operasyonları ve dijital ikizleri (verimliliği artıran ve maliyetleri düşüren sanal modeller) benimseyen sektörlerle 50 trilyon dolarlık endüstriyel dijitalleşme değişimine öncülük ediyor. NVIDIA, Geliştirici Programı aracılığıyla NIM&#8217;e erişim sunarak yapay zeka inovasyonunu teşvik ediyor.</p>
<p>Tayvanlı üreticiler fabrikalarını NVIDIA teknolojisini kullanarak dönüştürüyor; Huang, Foxconn&#8217;un dijital ikizler yaratmak için NVIDIA Omniverse, Isaac ve Metropolis&#8217;i kullanmasını, gelişmiş robotik tesisler için görsel yapay zeka ve robot geliştirme araçlarını bir araya getirmesini sergiliyor.</p>
<p>“Bir sonraki yapay zeka dalgası fiziksel yapay zekadır. Fizik yasalarını anlayan yapay zeka, aramızda çalışabilen yapay zeka&#8221; diyen Huang, robot teknolojisinin ve yapay zekanın gelecekteki gelişmelerdeki önemini vurguladı.</p>
<p>NVIDIA <a href="https://www.nvidia.com/en-us/industries/robotics/">Isaac platformu,</a> geliştiricilerin AMR&#8217;ler, endüstriyel silahlar ve insansılar da dahil olmak üzere yapay zeka modelleri ve Jetson Orin ve Thor gibi süper bilgisayarlar tarafından desteklenen yapay zeka robotları oluşturmaları için güçlü bir araç seti sağlar.</p>
<p>“Robotik burada. Fiziksel yapay zeka burada. Bu bilim kurgu değil ve Tayvan&#8217;ın her yerinde kullanılıyor. Bu gerçekten çok heyecan verici,&#8221; diye ekledi Huang.</p>
<p>Küresel elektronik devleri, NVIDIA&#8217;nın otonom robotlarını fabrikalarına entegre ediyor ve fiziksel dünya için bu yeni yapay zeka dalgasını test etmek ve doğrulamak için Omniverse&#8217;teki simülasyondan yararlanıyor. Buna dünya çapında 5 milyondan fazla önceden programlanmış robot da dahildir.</p>
<p>“Bütün fabrikalar robotik olacak. Fabrikalar robotları yönetecek ve bu robotlar robotik ürünler üretecek&#8221; diye açıkladı Huang.</p>
<p>Huang, BYD Electronics, Siemens, Teradyne Robotics ve Intrinsic gibi küresel liderlerin gelişmiş kitaplıkları ve yapay zeka modellerini benimsemesiyle NVIDIA Isaac&#8217;in fabrika ve depo verimliliğini artırmadaki rolünü vurguladı.</p>
<p>IGX platformundaki <a href="https://www.nvidia.com/en-us/data-center/products/ai-enterprise/">NVIDIA AI Enterprise , ADLINK, Advantech ve ONYX gibi ortaklarla birlikte, tıbbi teknoloji ve diğer endüstriler için gerekli olan katı düzenleme standartlarını karşılayan ileri düzey yapay zeka çözümleri sunuyor.</a></p>
<p>Huang, Tayvan&#8217;a ve NVIDIA&#8217;nın oradaki birçok ortağına saygı duruşunda bulunarak açılış konuşmasını başladığı notla bitirdi. &#8220;Teşekkür ederim&#8221; dedi Huang. &#8220;Sizi seviyorum millet.&#8221;</p>
<div class="fluid-width-video-wrapper"><iframe title="YouTube video oynatıcısı" src="https://www.youtube.com/embed/pKXDVsWZmUU?si=bYffxIwUxYMev6hK" name="fitvid1" frameborder="0" allowfullscreen="allowfullscreen" data-mce-fragment="1"></iframe></div>
<div></div>
<div>Daha fazla bilgi edinmek için <a href="http://www.gtmteknoloji.com/teklif/talep">bizimle iletişime geçin!</a></div>
</div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-ceosu-her-seyi-hizlandirin-dedi.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Yapay Zeka için Nvidia H100 NVL</title>
		<link>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html</link>
					<comments>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Wed, 05 Jun 2024 11:02:55 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[H100 NVL]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1903</guid>

					<description><![CDATA[Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü &#160; Yapay Zeka için Nvidia H100 NVL NVIDIA H100]]></description>
										<content:encoded><![CDATA[<h1 class="entry-title">Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü</h1>
<p>&nbsp;</p>
<p>Yapay Zeka için Nvidia H100 NVL</p>
<figure id="attachment_1905" aria-describedby="caption-attachment-1905" style="width: 300px" class="wp-caption alignnone"><img loading="lazy" decoding="async" class="size-medium wp-image-1905" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2-300x225.jpg" alt="" width="300" height="225" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2-300x225.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-2.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-1905" class="wp-caption-text">NVIDIA H100 HVL</figcaption></figure>
<p>NVIDIA H100 HVL daha önce gördüğümüz bir şeye benzeyebilir ancak arada büyük bir fark var. NVIDIA&#8217;ya sorduk ve şirket mantıksal olarak bunun işletim sistemi için iki GPU olduğunu ancak NVLink&#8217;in 188 GB belleğin tamamının sistem tarafından kullanılmasına izin vereceğini söyledi.<span id="more-68131"></span></p>
<h2>Üst Düzey Yapay Zeka Çıkarımı için NVIDIA H100 NVL Piyasaya Sürüldü</h2>
<p>Yeni NVIDIA H100 NVL, iki NVIDIA H100 PCIe&#8217;yi NVLink ile bir araya getiriyor ve bir yenilik getiriyor. Yeni NVL sürümünde GPU başına 94 GB, toplam 188 GB HBM3 bellek bulunuyor. Bu muhtemelen altıncı 16GB&#8217;lık yığının etkinleştirildiği, ancak 96GB&#8217;lık aktif alanın 94GB&#8217;ı için yalnızca 14GB&#8217;ın mevcut olduğu anlamına geliyor.</p>
<figure id="attachment_1906" aria-describedby="caption-attachment-1906" style="width: 300px" class="wp-caption alignnone"><img loading="lazy" decoding="async" class="size-medium wp-image-1906" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1-300x225.jpg" alt="" width="300" height="225" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1-300x225.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/06/NVIDIA-H100-HVL-696x523-1-1.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-1906" class="wp-caption-text">NVIDIA H100 HVL</figcaption></figure>
<p>Gerçekten ilginç olan da TDP&#8217;dir. Bunlar 350W ila 400W TDP PCIe kartlarıdır. Genel olarak, çoğu sunucu PCIe form faktörlerinde 400W&#8217;ı işleyemediğinden, PCIe kartlarındaki diğer satıcıların çoğunda gördüğümüz en üst seviye 300W&#8217;tır. Bu, üst düzey OAM/SXM form faktörleri için büyük bir etkendir.</p>
<table cellspacing="0" cellpadding="0">
<thead>
<tr>
<th></th>
<th>H100SXM</th>
<th>H100 PCIe</th>
<th>H100NVL</th>
</tr>
</thead>
<tbody>
<tr>
<td>FP64</td>
<td>34 teraFLOPS</td>
<td>26 teraFLOPS</td>
<td>68 teraFLOP</td>
</tr>
<tr>
<td>FP64 Tensör Çekirdeği</td>
<td>67 teraFLOPS</td>
<td>51 teraFLOPS</td>
<td>134 teraFLOP</td>
</tr>
<tr>
<td>FP32</td>
<td>67 teraFLOPS</td>
<td>51 teraFLOPS</td>
<td>134 teraFLOP</td>
</tr>
<tr>
<td>TF32 Tensör Çekirdeği</td>
<td>989 teraFLOPS <sup>1</sup></td>
<td>756teraFLOPS <sup>1</sup></td>
<td>1.979 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>BFLOAT16 Tensör Çekirdeği</td>
<td>1.979 teraFLOPS <sup>1</sup></td>
<td>1.513 teraFLOPS <sup>1</sup></td>
<td>3.958 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>FP16 Tensör Çekirdeği</td>
<td>1.979 teraFLOPS <sup>1</sup></td>
<td>1.513 teraFLOPS <sup>1</sup></td>
<td>3.958 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>FP8 Tensör Çekirdeği</td>
<td>3.958 teraFLOPS <sup>1</sup></td>
<td>3.026 teraFLOPS <sup>1</sup></td>
<td>7.916 teraFLOP <sup>1</sup></td>
</tr>
<tr>
<td>INT8 Tensör Çekirdeği</td>
<td>3.958 ÜST <sup>1</sup></td>
<td>3.026 ÜST <sup>1</sup></td>
<td>7.916 ÜST <sup>1</sup></td>
</tr>
<tr>
<td>GPU belleği</td>
<td>80 GB</td>
<td>80 GB</td>
<td>188GB</td>
</tr>
<tr>
<td>GPU bellek bant genişliği</td>
<td>3,35 TB/sn</td>
<td>2 TB/sn</td>
<td>7,8 TB/sn</td>
</tr>
<tr>
<td>Kod çözücüler</td>
<td>7 NVDEC<br />
7 JPEG</td>
<td>7 NVDEC<br />
7 JPEG</td>
<td>14 NVDEC<br />
14 JPEG</td>
</tr>
<tr>
<td>Maksimum termal tasarım gücü (TDP)</td>
<td>700W&#8217;a kadar (yapılandırılabilir)</td>
<td>300-350W (yapılandırılabilir)</td>
<td>2x 350-400W<br />
(yapılandırılabilir)</td>
</tr>
<tr>
<td>Çoklu Örnek GPU&#8217;lar</td>
<td colspan="2">Her biri 10 GB&#8217;ta 7 MIGS&#8217;ye kadar</td>
<td>Her biri 12 GB&#8217;ta 14 MIGS&#8217;ye kadar</td>
</tr>
<tr>
<td>Form faktörü</td>
<td>SXM</td>
<td>PCIe<br />
Çift yuvalı hava soğutmalı</td>
<td>2x PCIe<br />
Çift yuvalı hava soğutmalı</td>
</tr>
<tr>
<td>Ara bağlantı</td>
<td>NVLink: 900 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
<td>NVLink: 600 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
<td>NVLink: 600 GB/sn<br />
PCIe Gen5: 128 GB/sn</td>
</tr>
</tbody>
</table>
<p>Spesifikasyonlara dayanarak, NVIDIA H100 NVL spesifikasyonlarının 400W için olduğunu varsayarsak, PCIe versiyonlarının H100 SXM5 versiyonlarından çok daha üstün olduğu ancak üst seviye 900GB/s NVLINK arayüzleri olmadığı görülüyor. Hesaplama özellikleri H100 SXM&#8217;nin 2 katıdır, ancak NVL sürümü daha fazla belleğe, daha yüksek bellek bant genişliğine sahiptir ve performans için benzer gücü kullanır.</p>
<h2>Son sözler</h2>
<p>Bizim düşüncemiz, NVL&#8217;nin değerinin düşürülmesi gerektiği veya H100 SXM5&#8217;in yakın zamanda eşleşmesi için spesifikasyon artışına ihtiyaç duyacağı yönünde. Bu çok garip bir konumlandırma. Yine de NVIDIA, ChatGPT için artık DGX A100&#8217;leri kullanan OpenAI&#8217;nin, çıkarımını yapmak için 10x&#8217;e kadar DGX A100 sistemini dört set NVIDIA H100 NVL çiftiyle değiştirebileceğini söylüyor. Zamanla bunların değerinin düşürülüp düşürülmeyeceğini veya H100 SXM5&#8217;in güncellenip güncellenmeyeceğini görmek ilginç olacak.</p>
<p>&nbsp;</p>
<h3>Daha fazla bilgi edinmek için <a href="http://www.gtmteknoloji.com/teklif-talep">bizimle iletişime geçin!</a></h3>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/yapay-zeka-icin-nvidia-h100-nvl.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Dünyanın En Güçlü GPU&#8217;su</title>
		<link>https://supermicrosunucu.com/blog/dunyanin-en-guclu-gpusu-nvidia-h200.html</link>
					<comments>https://supermicrosunucu.com/blog/dunyanin-en-guclu-gpusu-nvidia-h200.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Thu, 21 Mar 2024 22:18:11 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[H200 GPU]]></category>
		<category><![CDATA[Nvidia]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1656</guid>

					<description><![CDATA[Yapay zeka ve HPC iş yüklerini güçlendirmek için dünyanın en güçlü GPU&#8217;su NVIDIA H200 Tensor Core GPU, oyunun kurallarını değiştiren]]></description>
										<content:encoded><![CDATA[<h3>Yapay zeka ve HPC iş yüklerini güçlendirmek için dünyanın en güçlü GPU&#8217;su</h3>
<p>NVIDIA H200 Tensor Core GPU, oyunun kurallarını değiştiren performans ve bellek özellikleriyle üretken yapay zeka ve yüksek performanslı bilgi işlem (HPC) iş yüklerini güçlendirir. HBM3e&#8217;ye sahip ilk GPU olan H200&#8217;ün daha büyük ve daha hızlı belleği, üretken yapay zeka ve büyük dil modellerinin (LLM&#8217;ler) hızlandırılmasını sağlarken HPC iş yükleri için bilimsel bilgi işlemi geliştirir.</p>
<p><img loading="lazy" decoding="async" class="alignnone  wp-image-1661" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU-1024x944.jpg" alt="" width="424" height="391" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU-1024x944.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU-300x277.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU-768x708.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Nvidia_H200_GPU.jpg 1158w" sizes="(max-width: 424px) 100vw, 424px" /></p>
<div class="nv-container container responsivegrid aem-GridColumn aem-GridColumn--default--12">
<div id="container-3a785f44cc" class="p-t-30 p-b-0 lap-p-t-30 lap-p-b-0 tab-p-t-30 tab-p-b-0 mob-p-t-30 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container">
<div class="general-container nv-flexbox d-col-3 l-col-3 t-col-2 p-col-1 d-justify-center l-justify-center t-justify-center p-justify-center flex-align-stretch ">
<div class="nv-container container responsivegrid">
<div id="container-57c79467c2" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-5abf9c6a1c" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3 class="title ">Llama2 70B Çıkarım  &#8211; 1,9 Kat <span style="font-size: 16px;">Daha Hızlı</span></h3>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-964a0d9802" class="p-t-0 p-b-0 lap-p-t-0 lap-p-b-0 tab-p-t-0 tab-p-b-0 mob-p-t-30 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container" data-cmp-breadcrumbcolor="none">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-b2efc2bebd" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3 class="title ">GPT-3 175B Çıkarım &#8211; 1,6 Kat <span style="font-size: 16px;">Daha Hızlı</span></h3>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-df03b36c44" class="p-t-0 p-b-0 lap-p-t-0 lap-p-b-0 tab-p-t-30 tab-p-b-0 mob-p-t-30 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container" data-cmp-breadcrumbcolor="none">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-f0e71b5c98" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3 class="title ">Yüksek Performanslı Bilgi İşlem &#8211; 110X <span style="font-size: 16px;">Daha Hızlı</span></h3>
<p>&nbsp;</p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-title text h--medium aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-16d49bc250" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h2 class="title ">Daha Yüksek Performans ve Daha Büyük, Daha Hızlı Bellek</h2>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn--tablet--10 aem-GridColumn--default--none aem-GridColumn--phone--none aem-GridColumn--phone--12 aem-GridColumn--tablet--none aem-GridColumn aem-GridColumn--default--8 aem-GridColumn--offset--default--2 aem-GridColumn--offset--phone--0 aem-GridColumn--offset--tablet--1">
<div id="nv-text-d661bae86f" class="general-container-text ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<div class="description ">
<p><a href="https://www.nvidia.com/en-us/data-center/technologies/hopper-architecture/">NVIDIA Hopper mimarisini</a> temel alan NVIDIA H200, saniyede 4,8 terabayt (TB/s) hızında 141 gigabayt (GB) HBM3e bellek sunan ilk GPU&#8217;dur; bu, NVIDIA <a href="https://www.nvidia.com/en-us/data-center/h100/">H100 Tensor Core GPU&#8217;nun</a> 1,4X kapasitesinin neredeyse iki katıdır. daha fazla bellek bant genişliği. H200&#8217;ün daha büyük ve daha hızlı belleği, üretken AI ve LLM&#8217;leri hızlandırırken, daha iyi enerji verimliliği ve daha düşük toplam sahip olma maliyetiyle HPC iş yükleri için bilimsel bilgi işlemi geliştirir.</p>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid aem-GridColumn aem-GridColumn--default--12">
<div id="container-5da33bc9c2" class="p-t-30 p-b-30 lap-p-t-30 lap-p-b-30 tab-p-t-15 tab-p-b-15 mob-p-t-15 mob-p-b-15 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container">
<div class="general-container nv-flexbox d-col-2 l-col-2 t-col-2 p-col-1 d-justify-center l-justify-center t-justify-center p-justify-center flex-align-stretch ">
<div class="nv-container container responsivegrid">
<div id="container-fbf8f6313c" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-image image nv-no-bottom-padding aem-GridColumn aem-GridColumn--default--12">
<div id="nv-image-09d1e5afa0" class="cmp-image d-align-left l-align-left t-align-left m-align-left" data-cmp-lazy="" data-cmp-lazythreshold="300" data-cmp-src="/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_511474119/nv_container_1494459889/nv_image.coreimg{.width}.svg/1699701485833/llm-inference-chart.svg" data-asset="/content/dam/en-zz/Solutions/Data-Center/h200/LLM-inference-chart.svg" data-title="Up to 1.6 Higher Inference Performance with NVIDIA H200" data-cmp-type="renditionUpload"><img decoding="async" class="cmp-image__image" title="NVIDIA H200 ile 1,6'ya Kadar Daha Yüksek Çıkarım Performansı" src="https://www.nvidia.com/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_511474119/nv_container_1494459889/nv_image.coreimg.svg/1699701485833/llm-inference-chart.svg" alt="NVIDIA H200 ile 1,6'ya Kadar Daha Yüksek Çıkarım Performansı" data-cmp-hook-image="image" data-analytics="nv-image-09d1e5afa0" /></div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-2c0f4ec1c2" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p><span class="p--small">Ön ölçülen performans, değişikliğe tabidir.<br />
Llama2 13B: ISL 128, OSL 2K | Verim | H100 1x GPU BS 64 | H200 1x GPU BS 128<br />
GPT-3 175B: ISL 80, OSL 200 | x8 H100 GPU&#8217;lar BS 64 | x8 H200 GPU&#8217;lar BS 128<br />
Llama2 70B: ISL 2K, OSL 128 | Verim | H100 1x GPU BS 8 | H200 1x GPU BS 32.</span></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-2329dd9c76" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--small aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-f3495724d0" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<h3 class="title ">Yüksek Performanslı Yüksek Lisans Çıkarımıyla İçgörülerin Kilidini Açın</h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-7b44f0782f" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p>Yapay zekanın sürekli gelişen ortamında işletmeler, çeşitli çıkarım ihtiyaçlarını karşılamak için Yüksek Lisans&#8217;lara güveniyor. Bir yapay zeka çıkarım hızlandırıcısı, geniş bir kullanıcı tabanına uygun ölçekte dağıtıldığında en yüksek verimi en düşük toplam sahip olma maliyetiyle sunmalıdır.</p>
<p>H200, Llama2 gibi LLM&#8217;leri işlerken H100 GPU&#8217;lara kıyasla çıkarım hızını 2 kata kadar artırır.</p>
<div class="nv-container container responsivegrid">
<div id="container-c77c549d4e" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--small aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-a0957106c3" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<h3 class="title ">Yüksek Performanslı Bilgi İşlemi Güçlendirin</h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-3f6240e321" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p>Bellek bant genişliği, daha hızlı veri aktarımı sağlayarak karmaşık işlem darboğazlarını azalttığından HPC uygulamaları için çok önemlidir. Simülasyonlar, bilimsel araştırmalar ve yapay zeka gibi yoğun bellek kullanan HPC uygulamaları için H200&#8217;ün daha yüksek bellek bant genişliği, verilere verimli bir şekilde erişilmesini ve işlenmesini sağlar ve CPU&#8217;lara kıyasla sonuçlara 110 kat daha hızlı ulaşmayı sağlar.</p>
</div>
</div>
</div>
</div>
<div class="nv-button button nv-button-text nv-button-caret aem-GridColumn aem-GridColumn--default--12">
<div class="nv-button-standard button-left button-lap-left button-tab-left button-mob-left"><a id="nv-button-068fee6f34" class="btn-content btncta" href="https://www.nvidia.com/en-us/high-performance-computing/" target="_self" rel="noopener"><span class="btn-text">Yüksek Performanslı Bilgi İşlem Hakkında Daha Fazla Bilgi Edinin</span></a></div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-44723cd34f" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-image image nv-no-bottom-padding aem-GridColumn aem-GridColumn--default--12">
<div id="nv-image-b7b88074b8" class="cmp-image d-align-left l-align-left t-align-left m-align-left" data-cmp-lazy="" data-cmp-lazythreshold="300" data-cmp-src="/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_co/nv_container_276551332/nv_image.coreimg{.width}.svg/1705561928634/high-performance-computing-chart.svg" data-asset="/content/dam/en-zz/Solutions/Data-Center/h200/high-performance-computing-chart.svg" data-title="Supercharge High-Performance Computing with NVIDIA H200" data-cmp-type="renditionUpload"><img decoding="async" class="cmp-image__image" title="NVIDIA H200 ile Yüksek Performanslı Bilgi İşlemi Güçlendirin" src="https://www.nvidia.com/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_co/nv_container_276551332/nv_image.coreimg.svg/1705561928634/high-performance-computing-chart.svg" alt="NVIDIA H200 ile Yüksek Performanslı Bilgi İşlemi Güçlendirin" data-cmp-hook-image="image" data-analytics="nv-image-b7b88074b8" /></div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-3c3d04d3c8" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p><span class="p--small">Tahmini performans değişebilir.<br />
HPC MILC-veri kümesi NERSC Apex Medium | HGX H200 4-GPU | çift ​​Sapphire Rapids 8480<br />
HPC Uygulamaları- CP2K: veri kümesi H2O-32-RI-dRPA-96points | GROMACS: STMV veri kümesi | SİMGE: veri kümesi r2b5 | MILC: veri kümesi NERSC Apex Medium | Chroma: veri kümesi HMC Medium | Quantum Espresso: AUSURF112 veri kümesi | 1x H100 | 1x H200.</span></p>
<div class="nv-container container responsivegrid aem-GridColumn aem-GridColumn--default--12">
<div id="container-365bd49bd8" class="p-t-30 p-b-30 lap-p-t-30 lap-p-b-30 tab-p-t-15 tab-p-b-0 mob-p-t-15 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container">
<div class="general-container nv-flexbox d-col-2 l-col-2 t-col-2 p-col-1 d-justify-center l-justify-center t-justify-center p-justify-center flex-align-stretch p-column-reverse ">
<div class="nv-container container responsivegrid">
<div id="container-44723cd34f" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-image image nv-no-bottom-padding aem-GridColumn aem-GridColumn--default--12">
<div id="nv-image-b7b88074b8" class="cmp-image d-align-left l-align-left t-align-left m-align-left" data-cmp-lazy="" data-cmp-lazythreshold="300" data-cmp-src="/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_co/nv_container_276551332/nv_image.coreimg{.width}.svg/1705561928634/high-performance-computing-chart.svg" data-asset="/content/dam/en-zz/Solutions/Data-Center/h200/high-performance-computing-chart.svg" data-title="Supercharge High-Performance Computing with NVIDIA H200" data-cmp-type="renditionUpload"><img decoding="async" class="cmp-image__image" title="NVIDIA H200 ile Yüksek Performanslı Bilgi İşlemi Güçlendirin" src="https://www.nvidia.com/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_co/nv_container_276551332/nv_image.coreimg.svg/1705561928634/high-performance-computing-chart.svg" alt="NVIDIA H200 ile Yüksek Performanslı Bilgi İşlemi Güçlendirin" data-cmp-hook-image="image" data-analytics="nv-image-b7b88074b8" /></div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-3c3d04d3c8" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p><span class="p--small">Tahmini performans değişebilir.<br />
HPC MILC-veri kümesi NERSC Apex Medium | HGX H200 4-GPU | çift ​​Sapphire Rapids 8480<br />
HPC Uygulamaları- CP2K: veri kümesi H2O-32-RI-dRPA-96points | GROMACS: STMV veri kümesi | SİMGE: veri kümesi r2b5 | MILC: veri kümesi NERSC Apex Medium | Chroma: veri kümesi HMC Medium | Quantum Espresso: AUSURF112 veri kümesi | 1x H100 | 1x H200.</span></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid aem-GridColumn aem-GridColumn--default--12">
<div id="teaser-img" class="p-t-30 p-b-0 lap-p-t-30 lap-p-b-0 tab-p-t-15 tab-p-b-0 mob-p-t-15 mob-p-b-0 d-top-align d-left-align l-left-align l-top-align t-left-align t-top-align m-top-align m-left-align d-content-align-top l-content-align-top t-content-align-top m-content-align-top " data-cmp-is="nv-container">
<div class="general-container nv-flexbox d-col-2 l-col-2 t-col-2 p-col-1 d-justify-center l-justify-center t-justify-center p-justify-center flex-align-stretch ">
<div class="nv-container container responsivegrid">
<div id="container-88ae61bd65" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-image image nv-no-bottom-padding aem-GridColumn aem-GridColumn--default--12">
<div id="nv-image-b93d10ea3a" class="cmp-image d-align-left l-align-left t-align-left m-align-left" data-cmp-lazy="" data-cmp-lazythreshold="300" data-cmp-src="/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_51/nv_container_458340181/nv_image.coreimg{.width}.svg/1699701486156/energy-tco-chart.svg" data-asset="/content/dam/en-zz/Solutions/Data-Center/h200/energy-tco-chart.svg" data-title="Better Energy Efficiency and Cost with NVIDIA H200" data-cmp-type="renditionUpload"><img decoding="async" class="cmp-image__image" title="NVIDIA H200 ile Daha İyi Enerji Verimliliği ve Maliyet" src="https://www.nvidia.com/content/nvidiaGDC/us/en_US/data-center/h200/_jcr_content/root/responsivegrid/nv_container_156551879/nv_container_copy_51/nv_container_458340181/nv_image.coreimg.svg/1699701486156/energy-tco-chart.svg" alt="NVIDIA H200 ile Daha İyi Enerji Verimliliği ve Maliyet" data-cmp-hook-image="image" data-analytics="nv-image-b93d10ea3a" /></div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-4ce3899438" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p><span class="p--small">Ön ölçülen performans, değişikliğe tabidir.<br />
Llama2 70B: ISL 2K, OSL 128 | Verim | H100 1x GPU BS 8 | H200 1x GPU BS 32</span></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-container container responsivegrid">
<div id="container-038a267c8b" data-cmp-is="nv-container">
<div class="general-container">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="nv-title text h--small aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-51a401f278" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<h3 class="title ">Enerjiyi ve Toplam Sahip Olma Maliyetini Azaltın</h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-f499612792" class="general-container-text ">
<div class="text-left lap-text-left tab-text-left mob-text-left">
<div class="description ">
<p>H200&#8217;ün piyasaya sürülmesiyle enerji verimliliği ve toplam sahip olma maliyeti yeni seviyelere ulaşıyor. Bu son teknoloji, tümü H100 ile aynı güç profilinde olmak üzere benzersiz bir performans sunar. Yalnızca daha hızlı değil, aynı zamanda daha çevre dostu olan yapay zeka fabrikaları ve süper bilgi işlem sistemleri, yapay zekayı ve bilim topluluğunu ileriye taşıyan ekonomik bir avantaj sağlıyor.</p>
</div>
</div>
</div>
</div>
<div class="nv-button button nv-button-text nv-button-caret aem-GridColumn aem-GridColumn--default--12">
<div class="nv-button-standard button-left button-lap-left button-tab-left button-mob-left"><a id="nv-button-62b50a4ed8" class="btn-content btncta" href="https://www.nvidia.com/en-us/data-center/sustainable-computing/" target="_self" rel="noopener"><span class="btn-text">Sürdürülebilir Bilgi İşlem Hakkında Daha Fazla Bilgi Edinin</span></a></div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="nv-button button nv-button-text nv-button-caret aem-GridColumn aem-GridColumn--default--12">
<div class="nv-button-standard button-left button-lap-left button-tab-left button-mob-left"></div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/dunyanin-en-guclu-gpusu-nvidia-h200.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA AIOps İş Ortağı Ekosistemi İşletmeler için Yapay Zekayı Harmanlıyor</title>
		<link>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Thu, 21 Mar 2024 22:05:16 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[Generative AI]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[Nvidia]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1652</guid>

					<description><![CDATA[Sağlayıcılar, NVIDIA AI Enterprise yazılımını ve hızlandırılmış bilgi işlemi kullanarak BT operasyonlarını ve siber güvenliği güçlendiriyor. Günümüzün karmaşık iş ortamlarında]]></description>
										<content:encoded><![CDATA[<h4>Sağlayıcılar, NVIDIA AI Enterprise yazılımını ve hızlandırılmış bilgi işlemi kullanarak BT operasyonlarını ve siber güvenliği güçlendiriyor.</h4>
<p><img loading="lazy" decoding="async" class="alignnone size-large wp-image-1653" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1024x542.jpg" alt="" width="800" height="423" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1024x542.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-300x159.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-768x406.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1536x812.jpg 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-390x205.jpg 390w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps.jpg 1902w" sizes="(max-width: 800px) 100vw, 800px" /></p>
<p><span>Günümüzün karmaşık iş ortamlarında BT ekipleri, çalışan hesaplarının kilitlenmesi gibi basit sorunlardan kritik güvenlik tehditlerine kadar sürekli bir dizi zorlukla karşı karşıyadır. Bu durumlar hem hızlı düzeltmeler hem de stratejik savunmalar gerektirir, bu da operasyonların sorunsuz ve güvenli bir şekilde sürdürülmesini daha da zorlaştırır.</span></p>
<p><span>Yapay zekayı BT operasyonlarıyla harmanlayarak yalnızca rutin görevleri otomatikleştirmekle kalmayıp aynı zamanda güvenlik önlemlerini de geliştiren AIOps tam da bu noktada devreye giriyor. Bu etkili yaklaşım, ekiplerin küçük sorunlarla hızlı bir şekilde ilgilenmesine ve daha da önemlisi, güvenlik tehditlerini eskisinden daha hızlı ve daha doğru bir şekilde tanımlayıp yanıt vermesine olanak tanır.</span></p>
<p><span>AIOps, makine öğrenimini kullanarak yalnızca operasyonları kolaylaştırmada değil, aynı zamanda genel olarak güvenliği güçlendirmede de önemli bir araç haline geliyor. Gelişmiş yapay zekayı ekiplerine entegre etmek isteyen işletmeler için oyunun kurallarını değiştirecek ve potansiyel güvenlik risklerinin bir adım önünde kalmalarına yardımcı olacak.</span></p>
<p><span>IDC&#8217;ye</span><span> göre , BT operasyon yönetimi yazılım pazarının yıllık %10,3 oranında büyüyerek 2027 yılına kadar tahmini 28,4 milyar dolar gelire ulaşması bekleniyor. Bu büyüme, operasyonel verimlilik ve modern iletişimin kritik bir bileşeni olarak AIOps&#8217;a artan güvenin altını çiziyor. siber güvenlik stratejileri.</span></p>
<p><span>Makine öğrenimi operasyonlarındaki hızlı büyüme, üretken yapay zeka çağını dönüştürmeye devam ederken, NVIDIA iş ortaklarından oluşan geniş bir ekosistem, BT operasyonlarını iyileştirmek için NVIDIA yapay zekadan yararlanan AIOps çözümleri sunuyor.</span></p>
<p><span>NVIDIA, hızlandırılmış bilgi işlem ve yapay zeka yazılımıyla AIOps iş ortaklarından oluşan geniş bir ekosisteme yardımcı oluyor. Buna , her yerde çalışabilen ve yapay zeka modlarının hızlandırılmış çıkarımı için NVIDIA NIM, yapay zeka tabanlı siber güvenlik için <a href="https://developer.nvidia.com/morpheus-cybersecurity">NVIDIA Morpheus</a> ve özel üretken yapay zeka için <a href="https://www.nvidia.com/en-us/ai-data-science/generative-ai/nemo-framework/">NVIDIA NeMo gibi yazılımlar aracılığıyla AIOps için temel sağlayan, bulutta yerel bir yığın olan </a></span><a href="https://www.nvidia.com/en-us/data-center/products/ai-enterprise/"><span>NVIDIA AI Enterprise</span></a><span> dahildir . Bu yazılım, GenAI tabanlı sohbet robotu, özetleme ve arama işlevlerini kolaylaştırır.</span></p>
<p><span>NVIDIA AI kullanan AIOps sağlayıcıları şunları içerir:</span></p>
<ul>
<li>
<p class="x_MsoNormal"><strong><span>Dynatrace </span></strong><a title="https://nam11.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.dynatrace.com%2Fplatform%2Fartificial-intelligence%2F&amp;data=05%7C02%7Ckyee%40nvidia.com%7Ce4328bc6511f4bcff98b08dc4838e462%7C 43083d15727340c1b7db39efd9ccc17a %7C0%7C0%7C638464656432041971%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C0%7C%7C%7C&amp;sdata=YLynb7 v2FCfwP3vtxEY%2BIxjt10zG8NRVjk0O617lj2U%3D&amp;reserved=0" href="https://www.dynatrace.com/platform/artificial-intelligence/" data-outlook-id="a9a7bdfc-c629-4e03-8303-21af2b8f0843"><span>Davis hipermodal yapay zeka,</span></a><span> Davis CoPilot&#8217;un eklenmesiyle nedensel, öngörücü ve üretken yapay zeka tekniklerini entegre ederek AIOps&#8217;u geliştiriyor. Bu kombinasyon, hassas ve eyleme geçirilebilir, yapay zeka odaklı yanıtlar ve otomasyon sunarak BT, geliştirme, güvenlik ve iş operasyonlarında gözlemlenebilirliği ve güvenliği artırır.</span></p>
</li>
<li><b><span>Elastic,</span></b><span> semantik ve vektör arama için GPT-4 gibi popüler LLM&#8217;lerle entegre olarak Yapay Zeka Asistanlarını Gözlemlenebilirlik ve Güvenlik çözümlerinde destekleyen </span><a href="https://www.elastic.co/elasticsearch/elasticsearch-relevance-engine"><span>Elasticsearch Relevance Engine&#8217;i (ESRE)</span></a><span> sunar . Observability AI Assistant, BT ekiplerinin karmaşık sistemleri anlamasına, sağlığı izlemesine ve operasyonel sorunların iyileştirilmesini otomatikleştirmesine yardımcı olan yeni nesil bir AI Ops yeteneğidir </span><b><span>.</span></b></li>
<li><b><span>New Relic, </span></b><a href="https://newrelic.com/platform/applied-intelligence"><span>makine öğreniminden</span></a><span> , </span><a href="https://newrelic.com/platform/new-relic-ai"><span>üretken yapay zeka yardımcı çerçevelerinden</span></a><span> ve gözlemlenebilirlik konusundaki uzun yıllara dayanan uzmanlığından yararlanarak AIOps&#8217;u geliştiriyor . Makine öğrenimi ve gelişmiş mantığı, BT ekiplerinin uyarı gürültüsünü azaltmasına, ortalama tespit süresini ve ortalama onarım süresini iyileştirmesine, temel neden analizini otomatikleştirmesine ve geçmişe yönelik değerlendirmeler oluşturmasına yardımcı olur. GenAI asistanı New Relic AI, kullanıcıların bağlamları değiştirmeden hataları tanımlamasına, açıklamasına ve çözmesine olanak tanıyarak sorun çözümünü hızlandırıyor ve kod düzeltmelerini doğrudan geliştiricinin entegre geliştirme ortamında öneriyor ve uyguluyor. Aynı zamanda otomatik olarak üst düzey sistem sağlık raporları üreterek, kontrol panellerini analiz edip özetleyerek ve kullanıcının uygulamaları, altyapısı ve hizmetleri hakkındaki sade dildeki soruları yanıtlayarak olay görünürlüğünü ve önlemeyi teknik olmayan ekiplere de genişletir. New Relic ayrıca NVIDIA GPU&#8217;lardan yararlanan yapay zeka destekli uygulamalar için tam yığın gözlemlenebilirlik sağlıyor.</span></li>
<li><b><span>PagerDuty, </span></b><a href="https://www.pagerduty.com/platform/generative-ai/"><span>PagerDuty Copilot&#8217;a</span></a><span> , olayın başlangıcından çözümlenmesine kadar içgörüler sunmak, olay yaşam döngüsünü kolaylaştırmak ve BT ekipleri için manuel görev yüklerini azaltmak üzere üretken bir yapay zeka asistanını Slack&#8217;e entegre eden yeni bir özelliği tanıttı .</span></li>
<li><b><span>ServiceNow&#8217;un </span></b><a href="https://www.servicenow.com/products/predictive-aiops.html"><span>proaktif bir BT operasyonları yaratma taahhüdü,</span></a><span> olaylara hızlı müdahale için içgörülerin otomatikleştirilmesini, hizmet yönetiminin optimize edilmesini ve anormalliklerin tespit edilmesini kapsar. Şimdi NVIDIA ile işbirliği içinde, teknoloji hizmetlerinde ve operasyonlarında daha fazla yenilik yapmak için üretken yapay zekaya yöneliyor.</span></li>
<li><b><span>Splunk&#8217;un</span></b><span> teknoloji platformu, operasyonel sorunları ve tehditleri tanımlama, teşhis etme ve çözme süreçlerini otomatikleştirmek için </span><a href="https://www.splunk.com/en_us/solutions/splunk-artificial-intelligence.html"><span>yapay zeka ve makine öğrenimini uygulayarak</span></a><span> BT verimliliğini ve güvenlik duruşunu geliştirir. Splunk </span><a href="https://www.splunk.com/en_us/products/it-service-intelligence.html"><span>BT Hizmet İstihbaratı</span></a><span> , Splunk&#8217;un birincil AIOps teklifi olarak hizmet eder ve yerleşik yapay zeka odaklı olay tahmini, tespiti ve çözümünü tek bir yerden sağlar.</span></li>
</ul>
<p><span>Amazon Web Services (AWS), Google Cloud ve Microsoft Azure gibi bulut hizmet sağlayıcıları, bulut kaynaklarının ölçeğinden ve esnekliğinden yararlanarak kuruluşların BT operasyonlarını otomatikleştirmesine ve optimize etmesine olanak tanır.</span></p>
<ul>
<li><b><span>AWS</span></b><span> , izleme ve gözlemlenebilirlik için Amazon CloudWatch; Kullanıcı etkinliğini ve API kullanımını izlemek için AWS CloudTrail; Tekrarlanabilir ve sorumlu makine öğrenimi iş akışları oluşturmak için Amazon SageMaker; ve sunucusuz bilgi işlem için AWS Lambda, tetikleyicilere dayalı yanıt eylemlerinin otomasyonuna olanak tanır.</span></li>
<li><b><span>Google Cloud,</span></b><span> buluttaki ve şirket içi uygulamalarda izleme, günlük kaydı ve teşhis sağlayan Google Cloud Operations gibi hizmetler aracılığıyla AIOps&#8217;u destekler. Google Cloud&#8217;un yapay zeka ve makine öğrenimi ürünleri arasında, model eğitimi ve tahmin için Vertex AI ile Google altyapısının işlem gücünü kullanan hızlı SQL sorguları için BigQuery yer alıyor.</span></li>
<li><b><span>Microsoft Azure,</span></b><span> uygulamaların, hizmetlerin ve altyapının kapsamlı bir şekilde izlenmesi için Azure Monitor ile AIOps&#8217;u kolaylaştırır. Azure Monitor&#8217;ün yerleşik AIOps yetenekleri, kapasite kullanımını tahmin etmeye, otomatik ölçeklendirmeyi etkinleştirmeye, uygulama performansı sorunlarını tanımlamaya ve sanal makineler, kapsayıcılar ve diğer kaynaklardaki anormal davranışları algılamaya yardımcı olur. Microsoft Azure Machine Learning (AzureML), makine öğrenimi modellerini sorumlu, güvenli ve uygun ölçekte eğitmek, dağıtmak ve yönetmek için bulut tabanlı bir MLOps ortamı sunar.</span></li>
</ul>
<p><span>MLOps konusunda uzmanlaşmış platformlar öncelikle makine öğrenimi modellerinin geliştirmeden dağıtıma ve izlemeye kadar yaşam döngüsünü kolaylaştırmaya odaklanır. Temel misyon, makine öğrenimini daha erişilebilir, verimli ve ölçeklenebilir hale getirmeye odaklansa da teknolojileri ve metodolojileri, BT operasyonlarındaki yapay zeka yeteneklerini geliştirerek AIOps&#8217;u dolaylı olarak destekliyor: </span><b></b></p>
<ul>
<li><b><span>Anyscale&#8217;in</span></b><span> Ray tabanlı platformu, AIOps&#8217;ta anormallik tespiti ve otomatik iyileştirme gibi görevlerde kullanılanlar da dahil olmak üzere yapay zeka ve makine öğrenimi uygulamalarının kolayca ölçeklendirilmesine olanak tanıyor. Anyscale, dağıtılmış bilgi işlemi kolaylaştırarak AIOps sistemlerinin büyük hacimli operasyonel verileri daha verimli bir şekilde işlemesine yardımcı olarak gerçek zamanlı analiz ve karar almayı mümkün kılar.</span></li>
<li><b><span>Dataiku,</span></b><span> BT ekiplerinin bu modelleri üretim ortamlarında hızlı bir şekilde devreye almasına ve yinelemesine olanak tanıyan özelliklerle, BT sistem arızalarını tahmin eden veya kaynak tahsisini optimize eden modeller oluşturmak için kullanılabilir.</span></li>
<li><b><span>Dataloop&#8217;un</span></b><span> platformu, tam veri yaşam döngüsü yönetimi ve uçtan uca iş akışı için yapay zeka modellerini bağlamanın esnek bir yolunu sunarak kullanıcıların verilerini kullanarak yapay zeka uygulamaları geliştirmelerine olanak tanıyor.</span></li>
<li><b><span>DataRobot,</span></b><span> BT operasyon ekiplerinin yapay zeka çözümlerini hızlı bir şekilde oluşturmasına, dağıtmasına ve yönetmesine olanak tanıyan, operasyonel verimliliği ve performansı artıran tam bir yapay zeka yaşam döngüsü platformudur.</span></li>
<li><b><span>Domino Data Lab&#8217;in</span></b><span> platformu, işletmelerin ve veri bilimcilerinin yapay zekayı birleşik, uçtan uca bir platformda oluşturmasına, dağıtmasına ve yönetmesine olanak tanır. Tüm ortamlardaki veriler, araçlar, bilgi işlem, modeller ve projeler merkezi olarak yönetilir; böylece ekipler işbirliği yapabilir, üretim modellerini izleyebilir ve yönetilen yapay zeka inovasyonu için en iyi uygulamaları standartlaştırabilir. Bu yaklaşım, veri bilimi ekiplerinin ihtiyaç duyduğu self-servis hizmeti, BT operasyonel ihtiyaçları için tam tekrarlanabilirlik, ayrıntılı maliyet takibi ve proaktif yönetim ile dengelediği için AIOps için hayati öneme sahiptir.</span></li>
<li><b><span>Weights &amp; Biases,</span></b><span> AIOps&#8217;ta kullanılan yapay zeka modellerinin geliştirilmesi ve ince ayarının yapılması için çok önemli olan deney takibi, model optimizasyonu ve işbirliğine yönelik araçlar sağlar. Weights &amp; Biases, model performansına ilişkin ayrıntılı bilgiler sunarak ve ekipler arasında işbirliğini kolaylaştırarak, BT operasyonları için dağıtılan yapay zeka modellerinin hem etkili hem de şeffaf olmasını sağlamaya yardımcı olur.</span></li>
</ul>
<p><span>NVIDIA&#8217;nın iş ortağı ekosistemi ve çalışmaları hakkında daha fazlasını </span><a href="https://gtmteknoloji.com"><span>GTM Teknoloji</span></a> &#8216;den<span> öğrenin .</span></p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor</title>
		<link>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Thu, 21 Mar 2024 21:49:38 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[Generative AI]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Nvidia Blackwell]]></category>
		<category><![CDATA[supermicro]]></category>
		<category><![CDATA[TensorRT-LLM]]></category>
		<category><![CDATA[Üretken Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1646</guid>

					<description><![CDATA[NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor Yeni Blackwell GPU, NVLink ve Resilience Teknolojileri Trilyon Parametre Ölçeğinde]]></description>
										<content:encoded><![CDATA[<h1 class="article-title">NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor</h1>
<p><img loading="lazy" decoding="async" class="alignnone size-large wp-image-1647" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-1024x576.jpeg" alt="" width="800" height="450" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-1024x576.jpeg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-300x169.jpeg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-768x432.jpeg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72.jpeg 1280w" sizes="(max-width: 800px) 100vw, 800px" /></p>
<ul>
<li><em>Yeni Blackwell GPU, NVLink ve Resilience Teknolojileri Trilyon Parametre Ölçeğinde Yapay Zeka Modellerine Olanak Sağlıyor</em></li>
<li><em>Yeni Tensor Çekirdekleri ve TensorRT-LLM Derleyicisi, Yüksek Lisans Çıkarımı İşletim Maliyetini ve Enerjiyi 25 Kata Kadar Azaltır</em></li>
<li><em>Yeni Hızlandırıcılar Veri İşleme, Mühendislik Simülasyonu, Elektronik Tasarım Otomasyonu, Bilgisayar Destekli İlaç Tasarımı ve Kuantum Hesaplamada Çığır Açıyor</em></li>
<li><em>Tüm Büyük Bulut Sağlayıcıları, Sunucu Oluşturucuları ve Lider Yapay Zeka Şirketleri Tarafından Yaygın Olarak Benimseniyor</em></li>
</ul>
<p>Yeni bir bilişim çağını güçlendirirken, NVIDIA bugün NVIDIA Blackwell platformunun geldiğini duyurdu &#8211; organizasyonlara her yerde, önceki nesline göre enerji tüketiminde %25&#8217;e kadar daha az maliyetle ve enerji tüketimiyle trilyon parametreli büyük dil modelleri üzerinde gerçek zamanlı üretken yapay zeka inşa etme ve çalıştırma imkanı sunuyor.</p>
<p>Blackwell GPU mimarisi, hızlandırılmış hesaplama için altı devrim niteliğinde teknoloji içerir ve veri işleme, mühendislik simülasyonu, elektronik tasarım otomasyonu, bilgisayar destekli ilaç tasarımı, kuantum bilişim ve üretken yapay zeka gibi alanlarda çığır açacak yeniliklerin kilidini açmaya yardımcı olur &#8211; NVIDIA için gelişen endüstri fırsatları.</p>
<p>&#8220;NVIDIA olarak üç on yıldır derin öğrenme ve yapay zeka gibi dönüştürücü buluşları mümkün kılacak hızlandırılmış hesaplamayı sürdürüyoruz,&#8221; dedi NVIDIA&#8217;nın kurucusu ve CEO&#8217;su Jensen Huang. &#8220;Üretken yapay zeka, zamanımızın belirleyici teknolojisidir. Blackwell, bu yeni endüstri devrimini güçlendirecek motorumuzdur. Dünyanın en dinamik şirketleriyle çalışarak, yapay zekanın her endüstri için vaadini gerçekleştireceğiz.&#8221;</p>
<p>Blackwell&#8217;u benimseyecek birçok organizasyon arasında Supermicro, Amazon Web Services,  Google, Meta, Microsoft, OpenAI, Oracle, Tesla ve xAI gibi şirketler yer alıyor.</p>
<p><strong>Blackwell&#8217;in Hızlandırılmış Bilgi İşlemi ve Üretken Yapay Zekayı Güçlendirecek Yenilikleri</strong><br />
Blackwell&#8217;in, 10 trilyon parametreye kadar ölçeklenen modeller için yapay zeka eğitimini ve gerçek zamanlı LLM çıkarımını mümkün kılan devrim niteliğindeki altı teknolojisi şunları içerir:</p>
<ul type="disc">
<li><strong>Dünyanın En Güçlü Çipi</strong>  — 208 milyar transistörle paketlenmiş Blackwell mimarili GPU&#8217;lar, tek bir birleşik GPU&#8217;ya 10 TB/saniyelik çipten çipe bağlantıyla bağlanan, iki retikül limitli GPU kalıplarına sahip özel yapım 4NP TSMC işlemi kullanılarak üretilir .</li>
<li><strong>İkinci Nesil Transformatör Motoru</strong>  — Yeni mikro tensör ölçeklendirme desteği ve NVIDIA&#8217;nın NVIDIA TensorRT<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />-LLM ve NeMo Megatron çerçevelerine entegre edilmiş gelişmiş dinamik aralık yönetimi algoritmalarıyla desteklenen Blackwell, yeni 4 bit kayan noktalı yapay zeka ile iki kat daha fazla bilgi işlem ve model boyutunu destekleyecektir çıkarım yetenekleri.</li>
<li><strong>Beşinci Nesil NVLink</strong>  — Multitrilyon parametreli ve uzmanlardan oluşan karma yapay zeka modellerinin performansını hızlandırmak için NVIDIA NVLink®&#8217;in en son sürümü, GPU başına çığır açan 1,8 TB/s çift yönlü verim sunarak 576 GPU&#8217;ya kadar kesintisiz yüksek hızlı iletişim sağlar en karmaşık LLM&#8217;ler için.</li>
<li><strong>RAS Motoru</strong>  — Blackwell destekli GPU&#8217;lar güvenilirlik, kullanılabilirlik ve servis kolaylığı için özel bir motor içerir. Ek olarak Blackwell mimarisi, teşhisleri çalıştırmak ve güvenilirlik sorunlarını tahmin etmek için yapay zeka tabanlı önleyici bakımdan yararlanmak üzere çip düzeyinde yetenekler ekler. Bu, sistemin çalışma süresini en üst düzeye çıkarır ve büyük ölçekli yapay zeka dağıtımlarının haftalarca, hatta aylarca kesintisiz çalışması ve işletme maliyetlerini azaltması için esnekliği artırır.</li>
<li><strong>Güvenli Yapay Zeka</strong>  — Gelişmiş gizli bilgi işlem yetenekleri, sağlık hizmetleri ve finansal hizmetler gibi gizliliğe duyarlı endüstriler için kritik öneme sahip yeni yerel arayüz şifreleme protokollerini destekleyerek yapay zeka modellerini ve müşteri verilerini performanstan ödün vermeden korur.</li>
<li><strong>Sıkıştırmayı Açma Motoru</strong>  — Özel bir sıkıştırmayı açma motoru, veri analitiği ve veri biliminde en yüksek performansı sunmak için veritabanı sorgularını hızlandırarak en yeni formatları destekler. Şirketlerin yılda on milyarlarca dolar harcadığı veri işleme, önümüzdeki yıllarda giderek daha fazla GPU ile hızlandırılacak.</li>
</ul>
<p><strong>Devasa Bir Süper Çip</strong><br />
NVIDIA GB200 Grace Blackwell Süper Çipi, iki NVIDIA B200 Tensor Core GPU&#8217;yu  900 GB/s ultra düşük güçlü NVLink çipten çipe ara bağlantı üzerinden NVIDIA Grace CPU&#8217;ya bağlar</p>
<p>En yüksek yapay zeka performansı için GB200 destekli sistemler, yine bugün duyurulan ve 800 Gb/s&#8217;ye varan hızlarda gelişmiş ağ iletişimi sağlayan NVIDIA Quantum-X800 InfiniBand ve Spectrum<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />-X800 Ethernet platformlarına bağlanabilir  .</p>
<p>GB200,  bilgi işlem yoğunluklu iş yükleri için çok düğümlü, sıvı soğutmalı, raf ölçekli bir sistem olan NVIDIA GB200 NVL72&#8217;nin önemli bir bileşenidir. Beşinci nesil NVLink ile birbirine bağlanan 72 Blackwell GPU ve 36 Grace CPU içeren 36 Grace Blackwell Süper Çipini birleştiriyor. Ayrıca GB200 NVL72, hiper ölçekli yapay zeka bulutlarında bulut ağı hızlandırmayı, şekillendirilebilir depolamayı, sıfır güven güvenliğini ve GPU bilgi işlem esnekliğini etkinleştirmek için NVIDIA BlueField®-3 veri işleme birimlerini içerir. GB200 NVL72, LLM çıkarım iş yükleri için aynı sayıdaki NVIDIA H100 Tensor Core GPU&#8217;lara kıyasla 30 kata kadar performans artışı sağlar ve maliyet ile enerji tüketimini 25 kata kadar azaltır.</p>
<p>Platform, 1,4 exaflop yapay zeka performansı ve 30 TB hızlı belleğe sahip tek bir GPU görevi görüyor ve en yeni DGX SuperPOD için bir yapı taşı oluşturuyor.</p>
<p>NVIDIA  , x86 tabanlı üretken yapay zeka platformlarını desteklemek için sekiz B200 GPU&#8217;yu NVLink aracılığıyla bağlayan bir sunucu anakartı olan HGX B200&#8217;ü sunuyor. HGX B200, NVIDIA Quantum-2 InfiniBand ve Spectrum-X Ethernet ağ platformları aracılığıyla 400 Gb/s&#8217;ye kadar ağ oluşturma hızlarını destekler.</p>
<p>Nvidia Blackwell Üretken Yapay Zeka çözümleriyle ilgili detaylı bilgi için Nvidia Elite NPN Partner <a href="https://gtmteknoloji.com">GTM Teknoloji</a> ile iletişime geçebilirsiniz.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Geliri</title>
		<link>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-veri-merkezi-patlamasindan-gelen-geliri.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-veri-merkezi-patlamasindan-gelen-geliri.html#respond</comments>
		
		<dc:creator><![CDATA[Dilan Bursalı]]></dc:creator>
		<pubDate>Thu, 22 Feb 2024 13:12:07 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[5880 Ada]]></category>
		<category><![CDATA[amd]]></category>
		<category><![CDATA[MI300X]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[NVIDIA H100]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1623</guid>

					<description><![CDATA[NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Gelirin Yüzde 83&#8217;ünden Fazlasını Sağladı NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Geliri]]></description>
										<content:encoded><![CDATA[<div class="td-post-header">
<header class="td-post-title">
<h1 class="entry-title">NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Gelirin Yüzde 83&#8217;ünden Fazlasını Sağladı</h1>
</header>
</div>
<div class="td-post-sharing-top">
<div id="td_social_sharing_article_top" class="td-post-sharing td-ps-bg td-ps-notext td-post-sharing-style1 ">
<div class="td-post-sharing-visible">
<div class="td-social-but-icon">NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Geliri</div>
<div class="td-social-but-icon">
<div class="td-social-copy_url-check td-icon-check"></div>
</div>
</div>
</div>
</div>
<div class="td-post-content tagdiv-type">
<div class="td-post-featured-image">
<figure><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1744" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-696x464-3-300x200.jpg" alt="" width="300" height="200" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-696x464-3-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/Gigabyte-G593-SD0-NVIDIA-HGX-H100-8-GPU-Slide-out-tray-2-696x464-3.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-caption-text">Gigabyte G593 SD0 NVIDIA HGX H100 8 GPU Kaydırmalı Çıkış Tepsisi 2</figcaption></figure>
</div>
<p>NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen Geliri NVIDIA Yapay Zeka Veri Merkezi Patlamasından Gelen GeliriNVIDIA daha önce bir oyun şirketi olarak biliniyor olabilir, ancak bugün kesinlikle öyle bir şirket olmaktan çok uzak. Şirketin 24. çeyrek sonuçlarında 22,1 milyar dolar gelir elde edildi. Bunun 18,4 milyar dolarlık kısmı veri merkezi segmentinden geldi. Bazı bağlamlarda oyun yalnızca 2,9 milyar dolardı. Profesyonel görselleştirme ve otomotiv dengeyi oluşturuyor. Bunlar çok büyük sonuçlar.<span id="more-76263"></span></p>
<h2>NVIDIA, Yapay Zeka Veri Merkezi Patlamasından Gelen Gelirin Yüzde 83&#8217;ünden Fazlasını Sağladı</h2>
<p>Sunucu sektöründe NVIDIA H100 sunucularının son derece iyi sattığı bir sır değil. Bu, Lenovo gibi büyük OEM&#8217;lerin ABD&#8217;de 8x H100 sunucularına bile sahip olmamasına rağmen. H100&#8217;e olan talep çok büyük ve sonuç olarak NVIDIA, parçaları satma kapasitesini arttırırken aynı zamanda önceki nesillere göre daha yüksek fiyatlar elde etmek zorunda kaldı.</p>
<figure id="attachment_74934" class="wp-caption alignnone" aria-describedby="caption-attachment-74934"><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1745" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/ASUS-ESC-N8A-E12-NVIDIA-HGX-H100-3-696x433-1-300x187.jpg" alt="" width="300" height="187" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/ASUS-ESC-N8A-E12-NVIDIA-HGX-H100-3-696x433-1-300x187.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/ASUS-ESC-N8A-E12-NVIDIA-HGX-H100-3-696x433-1.jpg 696w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-74934" class="wp-caption-text">ASUS ESC N8A E12 NVIDIA HGX H100 3</figcaption></figure>
<p>22,1 Milyar Dolarlık bir çeyreğin ne kadar büyük olduğuyla ilgili bir bağlam için Intel&#8217;in 2023 tam yıl geliri 53,2 Milyar Dolar civarındaydı. AMD&#8217;nin 2023 geliri 22,7 milyar dolar civarındaydı. NVIDIA&#8217;nın büyük bir çeyrek geçirdiğini söylemek yetersiz kalır.</p>
<h2>Son sözler</h2>
<p>Belki de sonuçların en çılgın kısmı bir sonraki adımdır. <a href="https://www.servethehome.com/nvidia-h200-launched-with-141gb-of-hbm3e-at-sc23/">NVIDIA, yalnızca H100 tasarımının bu yılki güncellemesi olan H200</a> hakkında değil , aynı zamanda yeni nesil B100 tasarımı hakkında da daha fazla konuşmaya başlayacak . Bu tıpkı NVIDIA&#8217;nın MI300X ile AMD&#8217;deki rakipleri <a href="https://www.servethehome.com/amd-instinct-mi300x-gpu-and-mi300a-apus-launched-for-ai-era/">, </a><a href="https://www.servethehome.com/intel-shows-gpu-max-1550-performance-and-gaudi3-ai-updates-at-sc23/">Gaudi3</a> ile Intel , çeşitli startuplar ve büyük bulut oynatıcılar gibi müşteri/rakiplerinin hepsinin AI eğitimi ve çıkarım pazarlarının bir kısmını ele geçirmeye çalışması gibi.</p>
<p><a href="https://www.servethehome.com/nvidia-grace-hopper-gh200-and-grace-superchip-arm-pictured-and-incompatible/">Ayrıca NVIDIA&#8217;nın AI sistemleri için dikey entegrasyonunu ilerletmeye devam etmesini, Grace Superchip/Grace Hopper</a> gibi Arm CPU&#8217;ları ve Mellanox satın alımından elde edilen ara bağlantı varlıklarını kullanarak AI yapısında cüzdan payını daha da artırmasını bekliyoruz .</p>
<figure id="attachment_70694" class="wp-caption alignnone" aria-describedby="caption-attachment-70694"><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-1746" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/QCT-QuantaGrid-S74-2U-with-NVIDIA-Grace-Hopper-Installed-2-300x200.jpg" alt="" width="300" height="200" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/QCT-QuantaGrid-S74-2U-with-NVIDIA-Grace-Hopper-Installed-2-300x200.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/QCT-QuantaGrid-S74-2U-with-NVIDIA-Grace-Hopper-Installed-2-768x512.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/02/QCT-QuantaGrid-S74-2U-with-NVIDIA-Grace-Hopper-Installed-2.jpg 800w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-70694" class="wp-caption-text">QCT QuantaGrid S74 2U, NVIDIA Grace Haznesi Takılı 2</figcaption></figure>
<p>On yıl önce en çok oyun GPU&#8217;su şirketi olarak bilindiği dönemde çok az kişinin söylediği bir şey vardı: NVIDIA&#8217;nın gelecek yıl AMD ve Intel&#8217;in gelirlerini birleştirme konusunda iyi bir şansı var.</p>
<p>Bazıları bugün NVIDIA&#8217;nın oyun GPU&#8217;larından şikayet etse de, veri merkezi işinden büyük gelir elde ettiği ve bazı veri merkezi ürünlerinde ihracat lisansı zorlukları görülmesine rağmen bu gelirlerin artma yolunda olduğu açık.</p>
</div>
<p><span id="more-1623"></span></p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-yapay-zeka-veri-merkezi-patlamasindan-gelen-geliri.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
