<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>GTM Teknoloji Archives - SupermicroSunucu Blog</title>
	<atom:link href="https://supermicrosunucu.com/blog/tag/gtm-teknoloji/feed" rel="self" type="application/rss+xml" />
	<link>https://supermicrosunucu.com/blog/tag/gtm-teknoloji</link>
	<description>Supermicro Sunucu, QSAN Storage, Magnetar Storage, NVIDIA Workstation, Mellanox Hakkında Herşey</description>
	<lastBuildDate>Thu, 21 Mar 2024 22:05:16 +0000</lastBuildDate>
	<language>tr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>
	<item>
		<title>NVIDIA AIOps İş Ortağı Ekosistemi İşletmeler için Yapay Zekayı Harmanlıyor</title>
		<link>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Thu, 21 Mar 2024 22:05:16 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[Generative AI]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[Nvidia]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1652</guid>

					<description><![CDATA[Sağlayıcılar, NVIDIA AI Enterprise yazılımını ve hızlandırılmış bilgi işlemi kullanarak BT operasyonlarını ve siber güvenliği güçlendiriyor. Günümüzün karmaşık iş ortamlarında]]></description>
										<content:encoded><![CDATA[<h4>Sağlayıcılar, NVIDIA AI Enterprise yazılımını ve hızlandırılmış bilgi işlemi kullanarak BT operasyonlarını ve siber güvenliği güçlendiriyor.</h4>
<p><img fetchpriority="high" decoding="async" class="alignnone size-large wp-image-1653" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1024x542.jpg" alt="" width="800" height="423" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1024x542.jpg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-300x159.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-768x406.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-1536x812.jpg 1536w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps-390x205.jpg 390w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/NVIDIA-AIOps.jpg 1902w" sizes="(max-width: 800px) 100vw, 800px" /></p>
<p><span>Günümüzün karmaşık iş ortamlarında BT ekipleri, çalışan hesaplarının kilitlenmesi gibi basit sorunlardan kritik güvenlik tehditlerine kadar sürekli bir dizi zorlukla karşı karşıyadır. Bu durumlar hem hızlı düzeltmeler hem de stratejik savunmalar gerektirir, bu da operasyonların sorunsuz ve güvenli bir şekilde sürdürülmesini daha da zorlaştırır.</span></p>
<p><span>Yapay zekayı BT operasyonlarıyla harmanlayarak yalnızca rutin görevleri otomatikleştirmekle kalmayıp aynı zamanda güvenlik önlemlerini de geliştiren AIOps tam da bu noktada devreye giriyor. Bu etkili yaklaşım, ekiplerin küçük sorunlarla hızlı bir şekilde ilgilenmesine ve daha da önemlisi, güvenlik tehditlerini eskisinden daha hızlı ve daha doğru bir şekilde tanımlayıp yanıt vermesine olanak tanır.</span></p>
<p><span>AIOps, makine öğrenimini kullanarak yalnızca operasyonları kolaylaştırmada değil, aynı zamanda genel olarak güvenliği güçlendirmede de önemli bir araç haline geliyor. Gelişmiş yapay zekayı ekiplerine entegre etmek isteyen işletmeler için oyunun kurallarını değiştirecek ve potansiyel güvenlik risklerinin bir adım önünde kalmalarına yardımcı olacak.</span></p>
<p><span>IDC&#8217;ye</span><span> göre , BT operasyon yönetimi yazılım pazarının yıllık %10,3 oranında büyüyerek 2027 yılına kadar tahmini 28,4 milyar dolar gelire ulaşması bekleniyor. Bu büyüme, operasyonel verimlilik ve modern iletişimin kritik bir bileşeni olarak AIOps&#8217;a artan güvenin altını çiziyor. siber güvenlik stratejileri.</span></p>
<p><span>Makine öğrenimi operasyonlarındaki hızlı büyüme, üretken yapay zeka çağını dönüştürmeye devam ederken, NVIDIA iş ortaklarından oluşan geniş bir ekosistem, BT operasyonlarını iyileştirmek için NVIDIA yapay zekadan yararlanan AIOps çözümleri sunuyor.</span></p>
<p><span>NVIDIA, hızlandırılmış bilgi işlem ve yapay zeka yazılımıyla AIOps iş ortaklarından oluşan geniş bir ekosisteme yardımcı oluyor. Buna , her yerde çalışabilen ve yapay zeka modlarının hızlandırılmış çıkarımı için NVIDIA NIM, yapay zeka tabanlı siber güvenlik için <a href="https://developer.nvidia.com/morpheus-cybersecurity">NVIDIA Morpheus</a> ve özel üretken yapay zeka için <a href="https://www.nvidia.com/en-us/ai-data-science/generative-ai/nemo-framework/">NVIDIA NeMo gibi yazılımlar aracılığıyla AIOps için temel sağlayan, bulutta yerel bir yığın olan </a></span><a href="https://www.nvidia.com/en-us/data-center/products/ai-enterprise/"><span>NVIDIA AI Enterprise</span></a><span> dahildir . Bu yazılım, GenAI tabanlı sohbet robotu, özetleme ve arama işlevlerini kolaylaştırır.</span></p>
<p><span>NVIDIA AI kullanan AIOps sağlayıcıları şunları içerir:</span></p>
<ul>
<li>
<p class="x_MsoNormal"><strong><span>Dynatrace </span></strong><a title="https://nam11.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.dynatrace.com%2Fplatform%2Fartificial-intelligence%2F&amp;data=05%7C02%7Ckyee%40nvidia.com%7Ce4328bc6511f4bcff98b08dc4838e462%7C 43083d15727340c1b7db39efd9ccc17a %7C0%7C0%7C638464656432041971%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C0%7C%7C%7C&amp;sdata=YLynb7 v2FCfwP3vtxEY%2BIxjt10zG8NRVjk0O617lj2U%3D&amp;reserved=0" href="https://www.dynatrace.com/platform/artificial-intelligence/" data-outlook-id="a9a7bdfc-c629-4e03-8303-21af2b8f0843"><span>Davis hipermodal yapay zeka,</span></a><span> Davis CoPilot&#8217;un eklenmesiyle nedensel, öngörücü ve üretken yapay zeka tekniklerini entegre ederek AIOps&#8217;u geliştiriyor. Bu kombinasyon, hassas ve eyleme geçirilebilir, yapay zeka odaklı yanıtlar ve otomasyon sunarak BT, geliştirme, güvenlik ve iş operasyonlarında gözlemlenebilirliği ve güvenliği artırır.</span></p>
</li>
<li><b><span>Elastic,</span></b><span> semantik ve vektör arama için GPT-4 gibi popüler LLM&#8217;lerle entegre olarak Yapay Zeka Asistanlarını Gözlemlenebilirlik ve Güvenlik çözümlerinde destekleyen </span><a href="https://www.elastic.co/elasticsearch/elasticsearch-relevance-engine"><span>Elasticsearch Relevance Engine&#8217;i (ESRE)</span></a><span> sunar . Observability AI Assistant, BT ekiplerinin karmaşık sistemleri anlamasına, sağlığı izlemesine ve operasyonel sorunların iyileştirilmesini otomatikleştirmesine yardımcı olan yeni nesil bir AI Ops yeteneğidir </span><b><span>.</span></b></li>
<li><b><span>New Relic, </span></b><a href="https://newrelic.com/platform/applied-intelligence"><span>makine öğreniminden</span></a><span> , </span><a href="https://newrelic.com/platform/new-relic-ai"><span>üretken yapay zeka yardımcı çerçevelerinden</span></a><span> ve gözlemlenebilirlik konusundaki uzun yıllara dayanan uzmanlığından yararlanarak AIOps&#8217;u geliştiriyor . Makine öğrenimi ve gelişmiş mantığı, BT ekiplerinin uyarı gürültüsünü azaltmasına, ortalama tespit süresini ve ortalama onarım süresini iyileştirmesine, temel neden analizini otomatikleştirmesine ve geçmişe yönelik değerlendirmeler oluşturmasına yardımcı olur. GenAI asistanı New Relic AI, kullanıcıların bağlamları değiştirmeden hataları tanımlamasına, açıklamasına ve çözmesine olanak tanıyarak sorun çözümünü hızlandırıyor ve kod düzeltmelerini doğrudan geliştiricinin entegre geliştirme ortamında öneriyor ve uyguluyor. Aynı zamanda otomatik olarak üst düzey sistem sağlık raporları üreterek, kontrol panellerini analiz edip özetleyerek ve kullanıcının uygulamaları, altyapısı ve hizmetleri hakkındaki sade dildeki soruları yanıtlayarak olay görünürlüğünü ve önlemeyi teknik olmayan ekiplere de genişletir. New Relic ayrıca NVIDIA GPU&#8217;lardan yararlanan yapay zeka destekli uygulamalar için tam yığın gözlemlenebilirlik sağlıyor.</span></li>
<li><b><span>PagerDuty, </span></b><a href="https://www.pagerduty.com/platform/generative-ai/"><span>PagerDuty Copilot&#8217;a</span></a><span> , olayın başlangıcından çözümlenmesine kadar içgörüler sunmak, olay yaşam döngüsünü kolaylaştırmak ve BT ekipleri için manuel görev yüklerini azaltmak üzere üretken bir yapay zeka asistanını Slack&#8217;e entegre eden yeni bir özelliği tanıttı .</span></li>
<li><b><span>ServiceNow&#8217;un </span></b><a href="https://www.servicenow.com/products/predictive-aiops.html"><span>proaktif bir BT operasyonları yaratma taahhüdü,</span></a><span> olaylara hızlı müdahale için içgörülerin otomatikleştirilmesini, hizmet yönetiminin optimize edilmesini ve anormalliklerin tespit edilmesini kapsar. Şimdi NVIDIA ile işbirliği içinde, teknoloji hizmetlerinde ve operasyonlarında daha fazla yenilik yapmak için üretken yapay zekaya yöneliyor.</span></li>
<li><b><span>Splunk&#8217;un</span></b><span> teknoloji platformu, operasyonel sorunları ve tehditleri tanımlama, teşhis etme ve çözme süreçlerini otomatikleştirmek için </span><a href="https://www.splunk.com/en_us/solutions/splunk-artificial-intelligence.html"><span>yapay zeka ve makine öğrenimini uygulayarak</span></a><span> BT verimliliğini ve güvenlik duruşunu geliştirir. Splunk </span><a href="https://www.splunk.com/en_us/products/it-service-intelligence.html"><span>BT Hizmet İstihbaratı</span></a><span> , Splunk&#8217;un birincil AIOps teklifi olarak hizmet eder ve yerleşik yapay zeka odaklı olay tahmini, tespiti ve çözümünü tek bir yerden sağlar.</span></li>
</ul>
<p><span>Amazon Web Services (AWS), Google Cloud ve Microsoft Azure gibi bulut hizmet sağlayıcıları, bulut kaynaklarının ölçeğinden ve esnekliğinden yararlanarak kuruluşların BT operasyonlarını otomatikleştirmesine ve optimize etmesine olanak tanır.</span></p>
<ul>
<li><b><span>AWS</span></b><span> , izleme ve gözlemlenebilirlik için Amazon CloudWatch; Kullanıcı etkinliğini ve API kullanımını izlemek için AWS CloudTrail; Tekrarlanabilir ve sorumlu makine öğrenimi iş akışları oluşturmak için Amazon SageMaker; ve sunucusuz bilgi işlem için AWS Lambda, tetikleyicilere dayalı yanıt eylemlerinin otomasyonuna olanak tanır.</span></li>
<li><b><span>Google Cloud,</span></b><span> buluttaki ve şirket içi uygulamalarda izleme, günlük kaydı ve teşhis sağlayan Google Cloud Operations gibi hizmetler aracılığıyla AIOps&#8217;u destekler. Google Cloud&#8217;un yapay zeka ve makine öğrenimi ürünleri arasında, model eğitimi ve tahmin için Vertex AI ile Google altyapısının işlem gücünü kullanan hızlı SQL sorguları için BigQuery yer alıyor.</span></li>
<li><b><span>Microsoft Azure,</span></b><span> uygulamaların, hizmetlerin ve altyapının kapsamlı bir şekilde izlenmesi için Azure Monitor ile AIOps&#8217;u kolaylaştırır. Azure Monitor&#8217;ün yerleşik AIOps yetenekleri, kapasite kullanımını tahmin etmeye, otomatik ölçeklendirmeyi etkinleştirmeye, uygulama performansı sorunlarını tanımlamaya ve sanal makineler, kapsayıcılar ve diğer kaynaklardaki anormal davranışları algılamaya yardımcı olur. Microsoft Azure Machine Learning (AzureML), makine öğrenimi modellerini sorumlu, güvenli ve uygun ölçekte eğitmek, dağıtmak ve yönetmek için bulut tabanlı bir MLOps ortamı sunar.</span></li>
</ul>
<p><span>MLOps konusunda uzmanlaşmış platformlar öncelikle makine öğrenimi modellerinin geliştirmeden dağıtıma ve izlemeye kadar yaşam döngüsünü kolaylaştırmaya odaklanır. Temel misyon, makine öğrenimini daha erişilebilir, verimli ve ölçeklenebilir hale getirmeye odaklansa da teknolojileri ve metodolojileri, BT operasyonlarındaki yapay zeka yeteneklerini geliştirerek AIOps&#8217;u dolaylı olarak destekliyor: </span><b></b></p>
<ul>
<li><b><span>Anyscale&#8217;in</span></b><span> Ray tabanlı platformu, AIOps&#8217;ta anormallik tespiti ve otomatik iyileştirme gibi görevlerde kullanılanlar da dahil olmak üzere yapay zeka ve makine öğrenimi uygulamalarının kolayca ölçeklendirilmesine olanak tanıyor. Anyscale, dağıtılmış bilgi işlemi kolaylaştırarak AIOps sistemlerinin büyük hacimli operasyonel verileri daha verimli bir şekilde işlemesine yardımcı olarak gerçek zamanlı analiz ve karar almayı mümkün kılar.</span></li>
<li><b><span>Dataiku,</span></b><span> BT ekiplerinin bu modelleri üretim ortamlarında hızlı bir şekilde devreye almasına ve yinelemesine olanak tanıyan özelliklerle, BT sistem arızalarını tahmin eden veya kaynak tahsisini optimize eden modeller oluşturmak için kullanılabilir.</span></li>
<li><b><span>Dataloop&#8217;un</span></b><span> platformu, tam veri yaşam döngüsü yönetimi ve uçtan uca iş akışı için yapay zeka modellerini bağlamanın esnek bir yolunu sunarak kullanıcıların verilerini kullanarak yapay zeka uygulamaları geliştirmelerine olanak tanıyor.</span></li>
<li><b><span>DataRobot,</span></b><span> BT operasyon ekiplerinin yapay zeka çözümlerini hızlı bir şekilde oluşturmasına, dağıtmasına ve yönetmesine olanak tanıyan, operasyonel verimliliği ve performansı artıran tam bir yapay zeka yaşam döngüsü platformudur.</span></li>
<li><b><span>Domino Data Lab&#8217;in</span></b><span> platformu, işletmelerin ve veri bilimcilerinin yapay zekayı birleşik, uçtan uca bir platformda oluşturmasına, dağıtmasına ve yönetmesine olanak tanır. Tüm ortamlardaki veriler, araçlar, bilgi işlem, modeller ve projeler merkezi olarak yönetilir; böylece ekipler işbirliği yapabilir, üretim modellerini izleyebilir ve yönetilen yapay zeka inovasyonu için en iyi uygulamaları standartlaştırabilir. Bu yaklaşım, veri bilimi ekiplerinin ihtiyaç duyduğu self-servis hizmeti, BT operasyonel ihtiyaçları için tam tekrarlanabilirlik, ayrıntılı maliyet takibi ve proaktif yönetim ile dengelediği için AIOps için hayati öneme sahiptir.</span></li>
<li><b><span>Weights &amp; Biases,</span></b><span> AIOps&#8217;ta kullanılan yapay zeka modellerinin geliştirilmesi ve ince ayarının yapılması için çok önemli olan deney takibi, model optimizasyonu ve işbirliğine yönelik araçlar sağlar. Weights &amp; Biases, model performansına ilişkin ayrıntılı bilgiler sunarak ve ekipler arasında işbirliğini kolaylaştırarak, BT operasyonları için dağıtılan yapay zeka modellerinin hem etkili hem de şeffaf olmasını sağlamaya yardımcı olur.</span></li>
</ul>
<p><span>NVIDIA&#8217;nın iş ortağı ekosistemi ve çalışmaları hakkında daha fazlasını </span><a href="https://gtmteknoloji.com"><span>GTM Teknoloji</span></a> &#8216;den<span> öğrenin .</span></p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-aiops-is-ortagi-ekosistemi-isletmeler-icin-yapay-zekayi-harmanliyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor</title>
		<link>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Thu, 21 Mar 2024 21:49:38 +0000</pubDate>
				<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[Generative AI]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Nvidia Blackwell]]></category>
		<category><![CDATA[supermicro]]></category>
		<category><![CDATA[TensorRT-LLM]]></category>
		<category><![CDATA[Üretken Yapay Zeka]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1646</guid>

					<description><![CDATA[NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor Yeni Blackwell GPU, NVLink ve Resilience Teknolojileri Trilyon Parametre Ölçeğinde]]></description>
										<content:encoded><![CDATA[<h1 class="article-title">NVIDIA Blackwell Platformu Yeni Bilgi İşlem Çağına Güç Vermeye Geliyor</h1>
<p><img decoding="async" class="alignnone size-large wp-image-1647" src="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-1024x576.jpeg" alt="" width="800" height="450" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-1024x576.jpeg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-300x169.jpeg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72-768x432.jpeg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2024/03/Buyuk-NVIDIA-GB200-NVL72.jpeg 1280w" sizes="(max-width: 800px) 100vw, 800px" /></p>
<ul>
<li><em>Yeni Blackwell GPU, NVLink ve Resilience Teknolojileri Trilyon Parametre Ölçeğinde Yapay Zeka Modellerine Olanak Sağlıyor</em></li>
<li><em>Yeni Tensor Çekirdekleri ve TensorRT-LLM Derleyicisi, Yüksek Lisans Çıkarımı İşletim Maliyetini ve Enerjiyi 25 Kata Kadar Azaltır</em></li>
<li><em>Yeni Hızlandırıcılar Veri İşleme, Mühendislik Simülasyonu, Elektronik Tasarım Otomasyonu, Bilgisayar Destekli İlaç Tasarımı ve Kuantum Hesaplamada Çığır Açıyor</em></li>
<li><em>Tüm Büyük Bulut Sağlayıcıları, Sunucu Oluşturucuları ve Lider Yapay Zeka Şirketleri Tarafından Yaygın Olarak Benimseniyor</em></li>
</ul>
<p>Yeni bir bilişim çağını güçlendirirken, NVIDIA bugün NVIDIA Blackwell platformunun geldiğini duyurdu &#8211; organizasyonlara her yerde, önceki nesline göre enerji tüketiminde %25&#8217;e kadar daha az maliyetle ve enerji tüketimiyle trilyon parametreli büyük dil modelleri üzerinde gerçek zamanlı üretken yapay zeka inşa etme ve çalıştırma imkanı sunuyor.</p>
<p>Blackwell GPU mimarisi, hızlandırılmış hesaplama için altı devrim niteliğinde teknoloji içerir ve veri işleme, mühendislik simülasyonu, elektronik tasarım otomasyonu, bilgisayar destekli ilaç tasarımı, kuantum bilişim ve üretken yapay zeka gibi alanlarda çığır açacak yeniliklerin kilidini açmaya yardımcı olur &#8211; NVIDIA için gelişen endüstri fırsatları.</p>
<p>&#8220;NVIDIA olarak üç on yıldır derin öğrenme ve yapay zeka gibi dönüştürücü buluşları mümkün kılacak hızlandırılmış hesaplamayı sürdürüyoruz,&#8221; dedi NVIDIA&#8217;nın kurucusu ve CEO&#8217;su Jensen Huang. &#8220;Üretken yapay zeka, zamanımızın belirleyici teknolojisidir. Blackwell, bu yeni endüstri devrimini güçlendirecek motorumuzdur. Dünyanın en dinamik şirketleriyle çalışarak, yapay zekanın her endüstri için vaadini gerçekleştireceğiz.&#8221;</p>
<p>Blackwell&#8217;u benimseyecek birçok organizasyon arasında Supermicro, Amazon Web Services,  Google, Meta, Microsoft, OpenAI, Oracle, Tesla ve xAI gibi şirketler yer alıyor.</p>
<p><strong>Blackwell&#8217;in Hızlandırılmış Bilgi İşlemi ve Üretken Yapay Zekayı Güçlendirecek Yenilikleri</strong><br />
Blackwell&#8217;in, 10 trilyon parametreye kadar ölçeklenen modeller için yapay zeka eğitimini ve gerçek zamanlı LLM çıkarımını mümkün kılan devrim niteliğindeki altı teknolojisi şunları içerir:</p>
<ul type="disc">
<li><strong>Dünyanın En Güçlü Çipi</strong>  — 208 milyar transistörle paketlenmiş Blackwell mimarili GPU&#8217;lar, tek bir birleşik GPU&#8217;ya 10 TB/saniyelik çipten çipe bağlantıyla bağlanan, iki retikül limitli GPU kalıplarına sahip özel yapım 4NP TSMC işlemi kullanılarak üretilir .</li>
<li><strong>İkinci Nesil Transformatör Motoru</strong>  — Yeni mikro tensör ölçeklendirme desteği ve NVIDIA&#8217;nın NVIDIA TensorRT<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />-LLM ve NeMo Megatron çerçevelerine entegre edilmiş gelişmiş dinamik aralık yönetimi algoritmalarıyla desteklenen Blackwell, yeni 4 bit kayan noktalı yapay zeka ile iki kat daha fazla bilgi işlem ve model boyutunu destekleyecektir çıkarım yetenekleri.</li>
<li><strong>Beşinci Nesil NVLink</strong>  — Multitrilyon parametreli ve uzmanlardan oluşan karma yapay zeka modellerinin performansını hızlandırmak için NVIDIA NVLink®&#8217;in en son sürümü, GPU başına çığır açan 1,8 TB/s çift yönlü verim sunarak 576 GPU&#8217;ya kadar kesintisiz yüksek hızlı iletişim sağlar en karmaşık LLM&#8217;ler için.</li>
<li><strong>RAS Motoru</strong>  — Blackwell destekli GPU&#8217;lar güvenilirlik, kullanılabilirlik ve servis kolaylığı için özel bir motor içerir. Ek olarak Blackwell mimarisi, teşhisleri çalıştırmak ve güvenilirlik sorunlarını tahmin etmek için yapay zeka tabanlı önleyici bakımdan yararlanmak üzere çip düzeyinde yetenekler ekler. Bu, sistemin çalışma süresini en üst düzeye çıkarır ve büyük ölçekli yapay zeka dağıtımlarının haftalarca, hatta aylarca kesintisiz çalışması ve işletme maliyetlerini azaltması için esnekliği artırır.</li>
<li><strong>Güvenli Yapay Zeka</strong>  — Gelişmiş gizli bilgi işlem yetenekleri, sağlık hizmetleri ve finansal hizmetler gibi gizliliğe duyarlı endüstriler için kritik öneme sahip yeni yerel arayüz şifreleme protokollerini destekleyerek yapay zeka modellerini ve müşteri verilerini performanstan ödün vermeden korur.</li>
<li><strong>Sıkıştırmayı Açma Motoru</strong>  — Özel bir sıkıştırmayı açma motoru, veri analitiği ve veri biliminde en yüksek performansı sunmak için veritabanı sorgularını hızlandırarak en yeni formatları destekler. Şirketlerin yılda on milyarlarca dolar harcadığı veri işleme, önümüzdeki yıllarda giderek daha fazla GPU ile hızlandırılacak.</li>
</ul>
<p><strong>Devasa Bir Süper Çip</strong><br />
NVIDIA GB200 Grace Blackwell Süper Çipi, iki NVIDIA B200 Tensor Core GPU&#8217;yu  900 GB/s ultra düşük güçlü NVLink çipten çipe ara bağlantı üzerinden NVIDIA Grace CPU&#8217;ya bağlar</p>
<p>En yüksek yapay zeka performansı için GB200 destekli sistemler, yine bugün duyurulan ve 800 Gb/s&#8217;ye varan hızlarda gelişmiş ağ iletişimi sağlayan NVIDIA Quantum-X800 InfiniBand ve Spectrum<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />-X800 Ethernet platformlarına bağlanabilir  .</p>
<p>GB200,  bilgi işlem yoğunluklu iş yükleri için çok düğümlü, sıvı soğutmalı, raf ölçekli bir sistem olan NVIDIA GB200 NVL72&#8217;nin önemli bir bileşenidir. Beşinci nesil NVLink ile birbirine bağlanan 72 Blackwell GPU ve 36 Grace CPU içeren 36 Grace Blackwell Süper Çipini birleştiriyor. Ayrıca GB200 NVL72, hiper ölçekli yapay zeka bulutlarında bulut ağı hızlandırmayı, şekillendirilebilir depolamayı, sıfır güven güvenliğini ve GPU bilgi işlem esnekliğini etkinleştirmek için NVIDIA BlueField®-3 veri işleme birimlerini içerir. GB200 NVL72, LLM çıkarım iş yükleri için aynı sayıdaki NVIDIA H100 Tensor Core GPU&#8217;lara kıyasla 30 kata kadar performans artışı sağlar ve maliyet ile enerji tüketimini 25 kata kadar azaltır.</p>
<p>Platform, 1,4 exaflop yapay zeka performansı ve 30 TB hızlı belleğe sahip tek bir GPU görevi görüyor ve en yeni DGX SuperPOD için bir yapı taşı oluşturuyor.</p>
<p>NVIDIA  , x86 tabanlı üretken yapay zeka platformlarını desteklemek için sekiz B200 GPU&#8217;yu NVLink aracılığıyla bağlayan bir sunucu anakartı olan HGX B200&#8217;ü sunuyor. HGX B200, NVIDIA Quantum-2 InfiniBand ve Spectrum-X Ethernet ağ platformları aracılığıyla 400 Gb/s&#8217;ye kadar ağ oluşturma hızlarını destekler.</p>
<p>Nvidia Blackwell Üretken Yapay Zeka çözümleriyle ilgili detaylı bilgi için Nvidia Elite NPN Partner <a href="https://gtmteknoloji.com">GTM Teknoloji</a> ile iletişime geçebilirsiniz.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-blackwell-platformu-yeni-bilgi-islem-cagina-guc-vermeye-geliyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Başarı için kritik öneme sahip gen yapay zeka teknoloji yığınında NVIDIA ve Supermicro</title>
		<link>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-gpu-tabanli-yapay-zeka-cozumleri.html</link>
					<comments>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-gpu-tabanli-yapay-zeka-cozumleri.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Tue, 13 Feb 2024 21:20:03 +0000</pubDate>
				<category><![CDATA[AMD EPYC Sunucu]]></category>
		<category><![CDATA[Blade Şasi Sunucu]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU Server]]></category>
		<category><![CDATA[Sanallaştırma]]></category>
		<category><![CDATA[Sunucular]]></category>
		<category><![CDATA[Workstation - İş İstasyonu]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Deep Learning]]></category>
		<category><![CDATA[derin öğrenme]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[hpc cluster]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[Nvidia AI Enterprise]]></category>
		<category><![CDATA[supermicro]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1545</guid>

					<description><![CDATA[Üretken yapay zeka, sektörlere yıllık olarak 2,6 trilyon ila 4,4 trilyon dolar eşdeğeri katkı sağlayabilir . Ama aynı zamanda kaynaklara da aç; daha]]></description>
										<content:encoded><![CDATA[<p>Üretken yapay zeka, sektörlere yıllık olarak 2,6 trilyon ila 4,4 trilyon dolar eşdeğeri katkı sağlayabilir . Ama aynı zamanda kaynaklara da aç; daha önce gelen tüm teknolojilerden katlanarak daha fazla bilgi işlem, kaynak, ağ ve depolama tüketiyor. Verilere erişmek ve bunları işlemek, önceden eğitilmiş modelleri özelleştirmek ve bunları optimum düzeyde ve uygun ölçekte çalıştırmak, yeni teknik uzmanlığın yanı sıra eksiksiz bir yapay zekaya hazır donanım ve yazılım yığını gerektirir.</p>
<p>NVIDIA&#8217;nın kıdemli ürün pazarlama müdürü Anthony Larijani ve Supermicro&#8217;nun kıdemli ürün pazarlama müdürü Yusuke Kondo, OctoML&#8217;in kurucu ortağı ve CEO&#8217;su Luis Ceze ile üretken yapay zekanın bir kuruluşa nerede fayda sağlayabileceğinin nasıl belirleneceği ve kullanımıyla nasıl denemeler yapılabileceği hakkında konuştu. vakalar ve bir gen yapay zeka stratejisini desteklemek için kritik olan teknoloji.</p>
<h2 id="h-infrastructure-decisions-and-workload-considerations" class="wp-block-heading"><strong>Altyapı kararları ve iş yükü hususları</strong></h2>
<p>Laricani, ihtiyaçların altyapıyla eşleştirilmesinin ilk önemli gereklilik olduğunu söylüyor.</p>
<p>&#8220;Bunu yapmanın yolu nihai hedefi akılda tutarak başlamaktır&#8221; diye açıklıyor. &#8220;Bu altyapının ne için kullanılacağını hayal ettiğinizi, üzerinde çalışan iş yükü türlerini nasıl gördüğünüzü görselleştirmeye çalışın. Örneğin, çok büyük ölçekli bir temel modelin eğitimi doğrultusundaysa, çok sayıda kullanıcıya gerçek zamanlı performans sunması gereken bir çıkarım uygulaması sunmak için farklı hesaplama gereksinimlerine sahip olacaktır.&#8221;</p>
<p>Ölçeklenebilirlik de bu noktada devreye giriyor. Yalnızca modelin iş yükünü değerlendirmeniz gerekmez, aynı zamanda çalıştırıyor olabileceğiniz uygulamadaki talep türünü de tahmin etmeniz gerekir. Bu, ister toplu tipte bir kullanım durumu, ister sohbet robotu gibi gerçek zamanlı bir kullanım durumu olsun, çalıştıracağınız çıkarım iş yükü türleriyle ilgili diğer hususlarla örtüşmektedir.</p>
<h2 id="h-cloud-versus-on-prem-considerations" class="wp-block-heading"><strong>Bulut ve şirket içi hususlar</strong></h2>
<p>Nesil AI uygulamaları genellikle ölçek gerektirir ve bu, bulut ve şirket içi değerlendirmelerin konuşmaya dahil olduğu anlamına gelir. Kondo, bunun açıkça ihtiyaç duyulan kullanım senaryosuna ve ölçeğe bağlı olduğunu ancak bunun yine de kritik ve temel bir karar olduğunu açıklıyor.</p>
<p>&#8220;Bulutu kullandığınızda elbette daha fazla esnekliğe ve kapsama alanına sahip olursunuz. Ölçek büyütmeniz gerektiğinde bunu yapabilirsiniz” diyor. &#8220;Şirket içi çalışmaya başladığınızda, kendiniz için bilişime ne kadar yatırım yapmanız gerektiğine karar vermeden önce bunu planlamanız ve nasıl ölçeklendireceğinizi tahmin etmeniz gerekir. Bu büyük bir başlangıç ​​maliyeti gerektirecek.”</p>
<p>Ancak üretken yapay zeka, özellikle ChatGPT gibi halka açık bir API&#8217;ye veri beslerken ve kontrol sorunlarını da beraberinde getirirken tamamen yeni bir düzeyde veri gizliliği hususları getiriyor; iş yükünü uçtan uca kontrol etmek mi istiyorsunuz, yoksa yalnızca API&#8217;den yeterince yararlanmak mı istiyorsunuz? Ve tabii ki, üretken yapay zeka yolculuğunuzda nerede olduğunuza bağlı olarak bir maliyet de var; bazı küçük deneylerle yeni başlıyorsunuz veya ölçeklendirmeye başlamaya isteklisiniz.</p>
<p>“Baktığınız projenin büyüklüğüne karar vermelisiniz. Sadece GPU bulutunu kullanmak mantıklı mı?” diyor. “Maliyet düşerken, hesaplama yeteneğinin arttığını tahmin ediyoruz. Altyapının mevcut fiyatına bakıldığında yalnızca GPU bulut örneklerini kullanmak mantıklı mı? Kendi yapay zeka altyapınıza çok fazla sermaye harcamak yerine, bunu GPU bulutunu kullanarak test etmek isteyebilirsiniz.&#8221;</p>
<h2 id="h-open-source-versus-proprietary-models" class="wp-block-heading"><strong>Açık kaynak ve tescilli modeller</strong></h2>
<p>Laricani, şu anda kuruluş içindeki kullanım durumlarına yönelik dağıtımlar için daha küçük ölçekli, daha özelleştirilmiş, özel model türlerine doğru bir eğilim olduğunu söylüyor. Artırılmış üretimin alınması gibi teknikler sayesinde, özel verileri kullanabilen LLM&#8217;lerden yararlanmanın etkili yolları ortaya çıkıyor ve bu, altyapı seçimini doğrudan etkiliyor. Bu özel modeller daha az eğitim gereksinimi içerir.</p>
<p>&#8220;Bu modelin yalnızca kullanım durumunuza uygun olan bir kısmını yeniden eğitebilmek, eğitim süresini ve maliyetini azaltır&#8221; diye açıklıyor. &#8220;Müşterilerin maliyet açısından engelleyici olan kaynak türlerini gerçekten bu tür performansı gerektiren iş yükleri için ayırmalarına ve bu tür iş yüklerini çalıştırmak için maliyeti daha optimize edilmiş çözümlerden yararlanmalarına olanak tanıyor.&#8221;</p>
<p>İster açık kaynak ister tescilli olun, modeli ihtiyaçlarınıza göre nasıl boyutlandırırsınız?</p>
<p>Kondo, &#8220;Açık kaynaklı modeller kullanıyorsanız, temel modellerin daha özel bir duruma getirilmesi için ince ayar yapılması gerekiyor&#8221; diyor. “Bu, maliyetinizin optimizasyonunu ve GPU&#8217;ların altyapı kullanımınızın optimizasyonunu etkileyecek. Yatırım yaptığınız şeyi boşa harcamak istemezsiniz.”</p>
<h2 id="h-maximizing-hardware-with-your-software-stack" class="wp-block-heading"><strong>Yazılım yığınınızla donanımı en üst düzeye çıkarma</strong></h2>
<p>Seçtiğiniz donanımdan en iyi şekilde yararlanmak aynı zamanda karmaşık bir sistem yazılımı yığını anlamına da gelir.</p>
<p>Kondo, &#8220;Bu yalnızca tek bir düzey değil; raf ölçeği ve ardından küme düzeyinde uygulama var&#8221; diyor. “Büyük ölçekli altyapı söz konusu olduğunda, açıkçası bu, açık kaynaklı bir modeli tek bir sistemle çalıştırmaktan çok daha karmaşık. Çoğu zaman gördüğümüz şey, NVIDIA konu uzmanlarını ilk aşamalardan itibaren dahil ettiğimiz, hatta rafları tasarladığımız, kümeyi NVIDIA&#8217;nın bir araya getirdiği yazılım kitaplıkları ve mimarisine dayalı olarak tasarladığımızdır. Müşteriler için doğru çözümü oluşturmak amacıyla NVIDIA ile yakın işbirliği içinde çalışarak rafları onların gereksinimlerine göre tasarlıyoruz.&#8221;</p>
<p>Laricani, eksiksiz bir yapay zeka yazılım yığını oluşturmanın karmaşık ve kaynak yoğun bir girişim olduğunu, bu nedenle NVIDIA&#8217;nın altyapıdan üzerinde çalışan yazılıma kadar tam kapsamlı bir bilgi işlem şirketi olmaya yatırım yaptığını ekliyor. Örneğin, NVIDIA AI kurumsal platformunun bir parçası olan Nemo çerçevesi, müşterilerin bir dizi üretken AI modeli ve uygulamasını oluşturmasına, özelleştirmesine ve dağıtmasına yardımcı olmak için uçtan uca bir çözüm sunuyor. Model eğitim sürecini optimize etmeye ve GPU kaynaklarını on binlerce düğüme verimli bir şekilde tahsis etmeye yardımcı olabilir. Modeller eğitildikten sonra, onları özelleştirerek belirli alanlardaki çeşitli görevlere uyum sağlayabilir.</p>
<p>&#8220;Bir kuruluş bunu geniş ölçekte uygulamaya hazır olduğunda Nemo çerçevesi, Triton çıkarım sunucumuz gibi birçok müşterimizin kullandığı ve aşina olduğu tanıdık araçlarla bütünleşir&#8221; diye ekliyor. &#8220;Müşterilerimizin yüksek verim ve düşük gecikmeyle verimli bir şekilde dağıtım yapmasına yardımcı olacak optimize edilmiş derleyici, bunların hepsi aynı tanıdık platform üzerinden yapılıyor ve hepsi NVIDIA sertifikalı Supermicro sistemlerinde mükemmel çalışacak şekilde optimize ediliyor.&#8221;</p>
<h2 id="h-future-proofing-against-the-growing-complexity-of-llms" class="wp-block-heading"><strong>Yüksek Lisans&#8217;ların artan karmaşıklığına karşı geleceğe yönelik hazırlıklar</strong></h2>
<p>Kondo, LLM&#8217;lerin her geçen gün büyüdüğünü ve bu büyümenin yavaşlayacak gibi görünmediğini söylüyor. En büyük sorun sürdürülebilirliktir ve bu sunucuların güç gereksinimleri endişe vericidir.</p>
<p>“HGXH100&#8217;e bakarsanız GPU başına 700 watt olduğuna inanıyorum. Bunun sonunda GPU başına 1000 watt&#8217;a ulaşmasını bekliyoruz&#8221; diyor. “Bunu 10 yıl öncesiyle karşılaştırdığınızda, bu çok çılgınca. Bunu nasıl ele alacağız? Tamamen sıvı soğutmalı entegre çözümümüz üzerinde çalışmamızın nedenlerinden biri de budur. Güç kullanımı açısından, sıvı soğutma altyapısı tek başına size yüzde 40&#8217;ın üzerinde güç tasarrufu sağlayacaktır. Yeşil bilişim bizim girişimlerimizden biri ve bunun inovasyonumuzu kolaylaştıracağına gerçekten inanıyoruz.”</p>
<p>Paralel tarafta, ister model eğitimi ister müşterilere çıkarım hizmeti olsun, dağıtımları optimize etmeye yönelik yazılımın geliştirilmesi açısından devam eden verimlilikler de mevcut. Laricani, kuruluşların bu yeteneklerden uygun maliyetli ve sürdürülebilir bir şekilde yararlanmasına yardımcı olmak için yeni tekniklerin ortaya çıktığını söylüyor.</p>
<p>&#8220;Elbette, bu tür modelleri eğitmek için daha optimize edilmiş, yüksek kapasiteli sistemlere yönelik artan bir ihtiyaç olduğunu görüyoruz, ancak bunlara erişme ve bunları uygulama konusunda yeni yöntemlerin ortaya çıktığını da görüyoruz&#8221; diyor. &#8220;Her hafta olduğu gibi sık sık yapay zeka için yeni bir kullanım örneği görüyoruz. Uzayda kesinlikle çok ilginç şeyler oluyor. Yazılım açısından da ileriye dönük olarak bunları optimize etmek ve daha verimli hale getirmek için çalışacağız.&#8221;</p>
<p>&nbsp;</p>
<p>Supermicro ve Nvidia AI Yapay Zeka çözümleri ile alakalı danışmanlığa ihtiyaç duyarsanız<a href="https://gtmteknoloji.com"> GTM Teknoloji</a> ile irtibat kurabilirsiniz.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/supermicro-ve-nvidia-gpu-tabanli-yapay-zeka-cozumleri.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>AMD Instinct™ MI300 Serisi Hızlandırıcılar</title>
		<link>https://supermicrosunucu.com/blog/amd-instinct-mi300-serisi-hizlandiricilar.html</link>
					<comments>https://supermicrosunucu.com/blog/amd-instinct-mi300-serisi-hizlandiricilar.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Sun, 17 Dec 2023 19:44:24 +0000</pubDate>
				<category><![CDATA[Sunucular]]></category>
		<category><![CDATA[Supermicro Sunucu]]></category>
		<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[amd]]></category>
		<category><![CDATA[AMD Instinct™ MI300]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[MI300A]]></category>
		<category><![CDATA[MI300I]]></category>
		<category><![CDATA[MI300X]]></category>
		<category><![CDATA[supermicro]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1458</guid>

					<description><![CDATA[Lider Üretken Yapay Zeka Hızlandırıcıları ve Veri Merkezi APU&#8217;ları AMD Instinct™ MI300 Serisi hızlandırıcılar, olağanüstü bilgi işlem performansı, büyük bellek]]></description>
										<content:encoded><![CDATA[<h1>Lider Üretken Yapay Zeka Hızlandırıcıları ve Veri Merkezi APU&#8217;ları</h1>
<p>AMD Instinct<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> MI300 Serisi hızlandırıcılar, olağanüstü bilgi işlem performansı, büyük bellek yoğunluğu, yüksek bant genişliği belleği ve özel veri formatları desteği sunarak en zorlu AI ve HPC iş yüklerini bile desteklemeye son derece uygundur.</p>
<h2>AMD MI300 Özeti</h2>
<p>Hızlı bir bilgi tazelemeye ihtiyaç duyanlar için AMD Instinct MI300 ailesi, AMD&#8217;nin GPU, CPU ve HBM&#8217;yi birleştirdiği modüler bir yapı taşı mimarisidir. ve daha fazlasını 3D yığılmış bir pakete sığdırır. AMD, farklı türde yapılandırmalar elde etmek için GPU ve CPU döşemelerini değiştirebilir. Yapay zeka yakın gelecekte muhtemelen duyacağımız en popüler iki yapılandırma, dörtte biri CPU ve dörtte üçü GPU olan MI300A ve tamamı GPU olan MI300X olacaktır.</p>
<p><img decoding="async" class="wp-image-1464 aligncenter" src="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Dr-Lisa-Su-AMD-ISSCC-2023-AMD-Instinct-MI300-300x168.jpg" alt="" width="705" height="395" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Dr-Lisa-Su-AMD-ISSCC-2023-AMD-Instinct-MI300-300x168.jpg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Dr-Lisa-Su-AMD-ISSCC-2023-AMD-Instinct-MI300-768x429.jpg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Dr-Lisa-Su-AMD-ISSCC-2023-AMD-Instinct-MI300.jpg 863w" sizes="(max-width: 705px) 100vw, 705px" /></p>
<h3><img loading="lazy" decoding="async" class="alignnone wp-image-1459" style="font-size: 16px;" src="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Buyuk-2325906-amd-instinct-cdna-01-300x161.jpeg" alt="" width="222" height="119" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Buyuk-2325906-amd-instinct-cdna-01-300x161.jpeg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Buyuk-2325906-amd-instinct-cdna-01-1024x549.jpeg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Buyuk-2325906-amd-instinct-cdna-01-768x412.jpeg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/Buyuk-2325906-amd-instinct-cdna-01.jpeg 1200w" sizes="(max-width: 222px) 100vw, 222px" />Kaputun Altında</h3>
<p><span class="subheadline">AMD Instinct MI300 Serisi hızlandırıcılar, Matrix Core Teknolojileri ve yüksek verimli INT8 ve FP8&#8217;den (AI için seyreklik desteği dahil) en zorlu FP64&#8217;e kadar çok çeşitli hassas yetenekler için destek sunan AMD CDNA<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 3 mimarisi üzerine kurulmuştur. HPC.</span></p>
<div class="columns parbase amd-flex-justify-center aem-GridColumn aem-GridColumn--default--12">
<div class="row ">
<div class=" col-md-3 ">
<div class="container-parsys">
<div id="container-1d9e338c61" class="cmp-container" data-component="cmp-container">
<div class="cmp-container__content ">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="title text-Teal expressive aem-GridColumn aem-GridColumn--default--12">
<div id="title-b074cac7be" class="cmp-title" data-cmp-data-layer="{&quot;title-b074cac7be&quot;:{&quot;@type&quot;:&quot;common-ui/components/title&quot;,&quot;repo:modifyDate&quot;:&quot;2023-12-06T22:30:51Z&quot;,&quot;dc:title&quot;:&quot;304 CUs&quot;}}">
<h3 class="cmp-title__text">304 CU</h3>
</div>
</div>
<div class="text text-light aem-GridColumn aem-GridColumn--default--12">
<div id="text-dfbc9a31ce" class="cmp-text" style="box-sizing: border-box;" data-cmp-data-layer="{&quot;text-dfbc9a31ce&quot;:{&quot;@type&quot;:&quot;common-ui/components/text&quot;,&quot;repo:modifyDate&quot;:&quot;2023-12-06T22:30:51Z&quot;,&quot;xdm:text&quot;:&quot;&lt;p&gt;&lt;span class=\&quot;subheadline\&quot;&gt;304&amp;nbsp;GPU Compute Units&lt;/span&gt;&lt;/p&gt;\r\n&quot;}}">
<p><span class="subheadline">304 GPU Hesaplama Birimleri</span></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class=" col-md-3 ">
<div class="container-parsys">
<div id="container-a4a72e83c0" class="cmp-container" data-component="cmp-container">
<div class="cmp-container__content ">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="title text-Teal expressive aem-GridColumn aem-GridColumn--default--12">
<div id="title-25eb7ad1bd" class="cmp-title" data-cmp-data-layer="{&quot;title-25eb7ad1bd&quot;:{&quot;@type&quot;:&quot;common-ui/components/title&quot;,&quot;repo:modifyDate&quot;:&quot;2023-12-06T22:30:51Z&quot;,&quot;dc:title&quot;:&quot;192 GB&quot;}}">
<h3 class="cmp-title__text">192 GB</h3>
</div>
</div>
<div class="text text-light aem-GridColumn aem-GridColumn--default--12">
<div id="text-df05c1cabf" class="cmp-text" style="box-sizing: border-box;" data-cmp-data-layer="{&quot;text-df05c1cabf&quot;:{&quot;@type&quot;:&quot;common-ui/components/text&quot;,&quot;repo:modifyDate&quot;:&quot;2023-12-06T22:30:51Z&quot;,&quot;xdm:text&quot;:&quot;&lt;p&gt;&lt;span class=\&quot;subheadline\&quot;&gt;192 GB&amp;nbsp;HBM3 Memory&lt;/span&gt;&lt;/p&gt;\r\n&quot;}}">
<p><span class="subheadline">192 GB HBM3 Bellek</span></p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class=" col-md-3 ">
<div class="container-parsys">
<div id="container-850e7dd4fa" class="cmp-container" data-component="cmp-container">
<div class="cmp-container__content ">
<div class="aem-Grid aem-Grid--12 aem-Grid--default--12 ">
<div class="title text-Teal expressive aem-GridColumn aem-GridColumn--default--12">
<div id="title-91cd2c1e99" class="cmp-title" data-cmp-data-layer="{&quot;title-91cd2c1e99&quot;:{&quot;@type&quot;:&quot;common-ui/components/title&quot;,&quot;repo:modifyDate&quot;:&quot;2023-12-06T22:30:51Z&quot;,&quot;dc:title&quot;:&quot;5.3 TB/s&quot;}}">
<h3 class="cmp-title__text">5,3 TB/sn</h3>
</div>
</div>
<div class="text text-light aem-GridColumn aem-GridColumn--default--12">
<div id="text-738edf7a6a" class="cmp-text" style="box-sizing: border-box;" data-cmp-data-layer="{&quot;text-738edf7a6a&quot;:{&quot;@type&quot;:&quot;common-ui/components/text&quot;,&quot;repo:modifyDate&quot;:&quot;2023-12-06T22:30:51Z&quot;,&quot;xdm:text&quot;:&quot;&lt;p&gt;&lt;span class=\&quot;subheadline\&quot;&gt;5.3 TB/s Peak Theoretical Memory Bandwidth&lt;/span&gt;&lt;/p&gt;\n&quot;}}">
<p><span class="subheadline">5,3 TB/s En Yüksek Teorik Bellek Bant Genişliği</span></p>
<ul class="product-specs-categories">
<li>
<h3>Product Basics</h3>
<div>NameAMD Instinct<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> MI300X</div>
<div>FamilyInstinct</div>
<div>SeriesInstinct MI300 Series</div>
<div>Form FactorServers</div>
<div>Launch Date12/06/2023</div>
<hr />
</li>
<li>
<h3>GPU Specifications</h3>
<div>GPU ArchitectureCDNA3</div>
<div>LithographyTSMC 5nm | 6nm FinFET</div>
<div>Stream Processors19,456</div>
<div>Matrix Cores1216</div>
<div>Compute Units304</div>
<div>Peak Engine Clock2100 MHz</div>
<div>Peak Eight-bit Precision (FP8) Performance (E5M2, E4M3)2.61 PFLOPs</div>
<div>Peak Eight-bit Precision (FP8) Performance with Structured Sparsity (E5M2, E4M3)5.22 PFLOPs</div>
<div>Peak Half Precision (FP16) Performance1.3 PFLOPs</div>
<div>Peak Half Precision (FP16) Performance with Structured Sparsity2.61 PFLOPs</div>
<div>Peak Single Precision (TF32 Matrix) Performance653.7 TFLOPs</div>
<div>Peak Single Precision (TF32) Performance with Structured Sparsity1.3 PFLOPs</div>
<div>Peak Single Precision Matrix (FP32) Performance163.4 TFLOPs</div>
<div>Peak Double Precision Matrix (FP64) Performance163.4 TFLOPs</div>
<div>Peak Single Precision (FP32) Performance163.4 TFLOPs</div>
<div>Peak Double Precision (FP64) Performance81.7 TFLOPs</div>
<div>Peak INT8 Performance2.6 POPs</div>
<div>Peak INT8 Performance with Structured Sparsity5.22 POPs</div>
<div>Peak bfloat161.3 PFLOPs</div>
<div>Peak bfloat16 with Strutured Sparsity2.61 PFLOPs</div>
<div>Transistor Count153 Billion</div>
<hr />
</li>
<li>
<h3>Requirements</h3>
<div>External Power Connectors54V UBB</div>
<div>Typical Board Power (TBP)750W Peak</div>
<hr />
</li>
<li>
<h3>GPU Memory</h3>
<div>Last Level Cache (LLC)256 MB</div>
<div>Dedicated Memory Size192 GB</div>
<div>Dedicated Memory TypeHBM3</div>
<div>Infinity CacheYes</div>
<div>Memory Interface8192-bit</div>
<div>Memory Clock5.2 GHz</div>
<div>Peak Memory Bandwidth5.3 TB/s</div>
<div>Memory ECC SupportYes (Full-Chip)</div>
<hr />
</li>
<li>
<h3>Board Specifications</h3>
<div>GPU Form FactorOAM Module</div>
<div>Bus TypePCIe® 5.0 x16</div>
<div>Infinity Fabric<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Links8</div>
<div>Peak Infinity Fabric<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Link Bandwidth128 GB/s</div>
<div>CoolingPassive OAM</div>
<hr />
</li>
<li>
<h3>Additional Features</h3>
<div>Supported TechnologiesAMD CDNA<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> 3 Architecture , AMD ROCm<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> &#8211; Ecosystem without Borders , AMD Infinity Architecture</div>
<div>RAS SupportYes</div>
<div>Page RetirementYes</div>
<div>Page AvoidanceYes</div>
<div>SR-IOVYes</div>
</li>
</ul>
<p>AMD Instinct<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> MI300 Serisi hızlandırıcılar ve Sunucu platformları için <a href="https://gtmteknoloji.com">GTM Teknoloji</a> ile iletişime geçebilirsiniz.</p>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<div class="divider parbase aem-GridColumn aem-GridColumn--default--12"></div>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/amd-instinct-mi300-serisi-hizlandiricilar.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>NVIDIA DGX GH200: Üretken Yapay Zeka&#8217;da Oyun Değişiyor..</title>
		<link>https://supermicrosunucu.com/blog/nvidia-dgx-gh200-uretken-yapay-zekada-oyun-degisiyor.html</link>
					<comments>https://supermicrosunucu.com/blog/nvidia-dgx-gh200-uretken-yapay-zekada-oyun-degisiyor.html#respond</comments>
		
		<dc:creator><![CDATA[supermicrosunucu]]></dc:creator>
		<pubDate>Sun, 17 Dec 2023 19:15:49 +0000</pubDate>
				<category><![CDATA[Yapay Zeka]]></category>
		<category><![CDATA[GTM Teknoloji]]></category>
		<category><![CDATA[Nvidia]]></category>
		<category><![CDATA[NVIDIA DGX GH200]]></category>
		<category><![CDATA[NVIDIA GH200]]></category>
		<category><![CDATA[supermicro]]></category>
		<guid isPermaLink="false">https://supermicrosunucu.com/blog/?p=1442</guid>

					<description><![CDATA[NVIDIA DGX GH200 Yapay Zekalı Süper Bilgisayarını Duyurdu Yapay zekanın (AI) ışık hızında, sürekli gelişen ortamında, NVIDIA DGX GH200 bir]]></description>
										<content:encoded><![CDATA[<h1 class="article-title"><span>NVIDIA DGX GH200 Yapay Zekalı Süper Bilgisayarını Duyurdu</span></h1>
<p>Yapay zekanın (AI) ışık hızında, sürekli gelişen ortamında, NVIDIA DGX GH200 bir yenilik ışığı olarak ortaya çıkıyor. En zorlu yapay zeka iş yükleri göz önünde bulundurularak tasarlanan bu güçlü sistem, kuruluşların Üretken Yapay Zeka yaklaşımında devrim yaratacak eksiksiz bir çözüm setidir. NVIDIA, GH200&#8217;ün nasıl bir araya geldiğini gösteren yeni ayrıntılara sahip ve bu yeni nesil GPU teknolojisiyle yapay zeka performansının nasıl göründüğüne dair bir zirve sunuyor.</p>
<p>&nbsp;</p>
<p><img loading="lazy" decoding="async" class="wp-image-1445 aligncenter" src="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/2_nvidia-dgx-gh200_supermicrosunucu.com_-300x169.jpeg" alt="" width="934" height="526" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/2_nvidia-dgx-gh200_supermicrosunucu.com_-300x169.jpeg 300w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/2_nvidia-dgx-gh200_supermicrosunucu.com_-1024x576.jpeg 1024w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/2_nvidia-dgx-gh200_supermicrosunucu.com_-768x432.jpeg 768w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/2_nvidia-dgx-gh200_supermicrosunucu.com_.jpeg 1280w" sizes="(max-width: 934px) 100vw, 934px" /></p>
<div class="nv-title text h--medium aem-GridColumn--tablet--12 aem-GridColumn--phone--12 aem-GridColumn aem-GridColumn--default--10">
<div id="nv-title-c48bcc1b4e" class="general-container-text            ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h2 class="title "><span>Yapay Zekanın Trilyon Parametreli Enstrümanı</span></h2>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn--tablet--12 aem-GridColumn--phone--12 aem-GridColumn aem-GridColumn--default--10">
<div id="nv-text-5cd62ebfd7" class="general-container-text            ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<div class="description ">
<p><span class="p--large"><a href="https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/"><span>NVIDIA Grace Hopper<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Süper Çiplerini</span></a><span> tekil bir aygıta bağlayan yeni bir AI süper bilgisayar sınıfıyla, üretken yapay zeka çağında muazzam bir potansiyelin önünü açın GPU. NVIDIA DGX<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> GH200, devasa öneri sistemleri, </span><a href="https://www.nvidia.com/en-us/ai-data-science/generative-ai/"><span>üretken yapay zeka</span></a><span> ve grafik analitiği için terabayt sınıfı modelleri işleyecek şekilde tasarlanmıştır ve çok büyük bir paylaşılan bellek alanı sunar. Dev yapay zeka modelleri için doğrusal ölçeklenebilirlik.</span></span></p>
</div>
</div>
</div>
</div>
<h2><span>NVIDIA DGX GH200: Eksiksiz Bir Çözüm</span></h2>
<p><span>DGX GH200 yalnızca gösterişli bir raf donanımı parçası değildir; yüksek performanslı bilgi işlemi (HPC) yapay zeka ile birleştiren kapsamlı bir çözümdür. Gerçekten benzersiz bir performans düzeyi sunarak en karmaşık yapay zeka iş yüklerinin üstesinden gelmek üzere tasarlanmıştır.</span></p>
<p><span>DGX GH200, NVIDIA GH200 Grace Hopper Superchip, NVIDIA NVLink-C2C, NVIDIA NVLink Switch System ve NVIDIA Quantum-2 InfiniBand dahil olmak üzere eksiksiz bir donanım yığınını tek bir sistemde bir araya getirir. NVIDIA tüm bunları, modellerin geliştirilmesini hızlandırmak için özel olarak tasarlanmış optimize edilmiş bir yazılım yığınıyla destekliyor.</span></p>
<table style="height: 268px;" width="1121">
<caption><strong><span>NVIDIA GH200 Grace Hopper Süper Çip Özellikleri</span></strong></caption>
<tbody>
<tr>
<th><span>Şartname</span></th>
<th><span>Detaylar</span></th>
</tr>
<tr>
<td><span>GPU</span></td>
<td><span>Hazne 96 GB HBM3, 4 TB/sn</span></td>
</tr>
<tr>
<td><span>İşlemci</span></td>
<td><span>72 Çekirdek Kol Neoverse V2</span></td>
</tr>
<tr>
<td><span>CPU Belleği</span></td>
<td><span>500 GB/sn&#8217;ye varan hızlarda 480 GB&#8217;a kadar LPDDR5, DDR5&#8217;ten 4 kat daha fazla enerji verimliliği</span></td>
</tr>
<tr>
<td><span>CPU&#8217;dan GPU&#8217;ya</span></td>
<td><span>NVLink-C2C 900 GB/s çift yönlü tutarlı bağlantı, PCIe Gen5&#8217;ten 5 kat daha fazla enerji verimliliği</span></td>
</tr>
<tr>
<td><span>GPU&#8217;dan GPU&#8217;ya</span></td>
<td><span>NVLink 900 GB/s çift yönlü</span></td>
</tr>
<tr>
<td><span>Yüksek hızlı I/O</span></td>
<td><span>512 GB/sn&#8217;ye kadar 4x PCIe Gen5 x16</span></td>
</tr>
<tr>
<td><span>TDP</span></td>
<td><span>450W ila 1000W arasında yapılandırılabilir</span></td>
</tr>
</tbody>
</table>
<h2><span>Genişletilmiş GPU Belleği</span></h2>
<p><span>Genişletilmiş GPU Belleği (EGM) özelliğiyle donatılmış NVIDIA Grace Hopper Superchip, kendi HBM3 ve LPDDR5X bellek alt sistemlerinin kapasitesinden daha büyük, çok büyük bellek ayak izine sahip uygulamaları yönetecek şekilde tasarlanmıştır. Bu özellik, LPDDR5X hızlarında mümkün olan veri yüklemeleri, depolar ve atomik işlemlerle GPU&#8217;ların sistemdeki tüm CPU&#8217;lardan ve GPU&#8217;lardan 144 TB&#8217;a kadar belleğe erişmesine olanak tanır. EGM, standart MAGNUM IO kitaplıkları ile kullanılabilir ve NVIDIA NVLink ve NVLink-C2C bağlantıları aracılığıyla CPU ve diğer GPU&#8217;lar tarafından erişilebilir.</span></p>
<table dir="ltr" style="height: 27px;" border="1" width="1096" cellspacing="0" cellpadding="0" data-sheets-root="1">
<colgroup>
<col width="100" />
<col width="100" />
<col width="100" /></colgroup>
<tbody>
<tr>
<td><img loading="lazy" decoding="async" class=" wp-image-1448 aligncenter" src="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/m48-optimized-training-256px-blk.png" alt="" width="101" height="101" srcset="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/m48-optimized-training-256px-blk.png 256w, https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/m48-optimized-training-256px-blk-150x150.png 150w" sizes="(max-width: 101px) 100vw, 101px" /></p>
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-93b4383f98" class="general-container-text            ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3 class="title " style="text-align: center;">Dev Modeller için</h3>
<h3 class="title " style="text-align: center;">Dev Hafıza</h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-a9c949e24c" class="general-container-text            ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<div class="description ">
<p style="text-align: center;">NVIDIA DGX GH200, birbirine bağlı <a href="https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/">NVIDIA Grace Hopper Süper Çipleri</a> üzerinden devasa bir paylaşılan bellek alanı sunan tek yapay zeka süper bilgisayarıdır ve geliştiricilere dev modeller oluşturmak için daha fazla hafıza sağlar.</p>
</div>
</div>
</div>
</div>
</td>
<td><img loading="lazy" decoding="async" class="wp-image-1452 aligncenter" src="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/m48-lag-free.webp" alt="" width="87" height="87" /></p>
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-f9e38a8664" class="general-container-text            ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3 class="title " style="text-align: center;">Süper Güç Açısından</h3>
<h3 class="title " style="text-align: center;">Verimli Bilgi İşlem</h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12">
<div id="nv-text-d318d5ea13" class="general-container-text            ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<div class="description ">
<p style="text-align: center;">Grace Hopper Süper Çipleri, <a href="https://www.nvidia.com/en-us/data-center/grace-cpu/">NVIDIA Grace<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> CPU&#8217;yu</a> bir ile birleştirerek geleneksel PCIe CPU-GPU bağlantısı ihtiyacını ortadan kaldırır. a&gt;, bant genişliğini 7 kat artırır ve ara bağlantıyı azaltır güç tüketimi 5 kattan fazla arttı.<a href="https://www.nvidia.com/en-us/data-center/nvlink-c2c/">aynı pakette</a> <a href="https://www.nvidia.com/en-us/data-center/h100/">NVIDIA Hopper<img src="https://s.w.org/images/core/emoji/16.0.1/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" /> GPU</a></p>
</div>
</div>
</div>
</div>
</td>
<td><img loading="lazy" decoding="async" class="wp-image-1453 aligncenter" src="https://supermicrosunucu.com/blog/wp-content/uploads/2023/12/m48-speed.webp" alt="" width="82" height="82" /></p>
<div class="nv-title text h--smaller aem-GridColumn aem-GridColumn--default--12">
<div id="nv-title-1d84b49ca9" class="general-container-text            ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<h3></h3>
<h3 class="title " style="text-align: center;"><span>Entegre ve Çalıştırılmaya Hazır</span></h3>
</div>
</div>
</div>
<div class="nv-text text aem-GridColumn aem-GridColumn--default--12" style="text-align: center;">
<div id="nv-text-d91e495bba" class="general-container-text            ">
<div class="text-center lap-text-center tab-text-center mob-text-center">
<div class="description ">
<p><span>Anahtar teslim DGX GH200 dağıtımıyla dev modelleri aylar yerine haftalar içinde oluşturun. Bu tam yığın veri merkezi sınıfı çözümü, entegre </span><a href="https://www.nvidia.com/en-us/data-center/base-command/"><span>yazılım</span></a><span> ve </span><a href="https://www.nvidia.com/en-us/data-center/dgx-benefits/#support-services"><span>beyaz eldiven hizmetlerini</span></a></p>
</div>
</div>
</div>
</div>
<p style="text-align: center;">
<p>&nbsp;</td>
</tr>
</tbody>
</table>
<p>&nbsp;</p>
<p><span>NVIDIA, NVIDIA Grace Hopper Superchip&#8217;teki Genişletilmiş GPU Belleği (EGM) özelliğinin geniş bir bellek kapasitesi sağlayarak Büyük Dil Modellerinin (LLM&#8217;ler) eğitimini önemli ölçüde iyileştirdiğini söylüyor. Bunun nedeni, LLM&#8217;lerin genellikle parametrelerini, hesaplamalarını depolamak ve eğitim veri kümelerini yönetmek için çok büyük miktarda belleğe ihtiyaç duymasıdır.</span></p>
<p><span>Sistemdeki tüm CPU ve GPU&#8217;lardan 144 TB&#8217;a kadar belleğe erişim imkanına sahip olan modeller, daha verimli ve etkili bir şekilde eğitilebiliyor. Büyük bir bellek kapasitesi, daha yüksek performansa, daha karmaşık modellere ve daha büyük, daha ayrıntılı veri kümeleriyle çalışma becerisine yol açmalı ve böylece bu modellerin doğruluğunu ve kullanışlılığını potansiyel olarak geliştirmelidir.</span></p>
<h2><span>NVLink Anahtar Sistemi</span></h2>
<p><span>Büyük Dil Modellerinin (LLM&#8217;ler) talepleri ağ yönetiminin sınırlarını zorlamaya devam ederken, NVIDIA&#8217;nın NVLink Anahtar Sistemi güçlü bir çözüm olmaya devam ediyor. Dördüncü nesil NVLink teknolojisinin ve üçüncü nesil NVSwitch mimarisinin gücünden yararlanan bu sistem, DGX GH200 sistemi içindeki etkileyici 256 NVIDIA Grace Hopper Süper Çipine yüksek bant genişliği ve düşük gecikmeli bağlantı sunar. Sonuç, veri aktarım hızlarında önemli bir sıçramaya işaret eden 25,6 Tbps&#8217;lik şaşırtıcı bir tam çift yönlü bant genişliğidir.</span></p>
<p><span>DGX GH200 sisteminde her GPU aslında meraklı bir komşudur ve NVLink ağındaki eşlerinin HBM3 ve LPDDR5X belleğine girebilmektedir. NVIDIA Magnum IO hızlandırma kütüphaneleriyle birleştiğinde, bu &#8220;meraklı mahalle&#8221; GPU iletişimlerini optimize eder, etkili bir şekilde ölçeklenir ve etkili ağ bant genişliğini ikiye katlar. Dolayısıyla, LLM eğitiminiz hızla artarken ve iletişim masrafları artarken, yapay zeka operasyonları da turbo artış gösteriyor.</span></p>
<p><span>DGX GH200&#8217;deki NVIDIA NVLink Anahtar Sistemi, çok sayıda GPU arasında yüksek bant genişliği ve düşük gecikmeli bağlantıyı kolaylaştırarak LLM&#8217;ler gibi modellerin eğitimini önemli ölçüde geliştirme kapasitesine sahiptir. Bu, GPU&#8217;lar arasında daha hızlı ve daha verimli veri paylaşımına yol açarak modelin eğitim hızını ve verimliliğini artırır. Üstelik her GPU&#8217;nun NVLink ağındaki diğer Superchips&#8217;lerden eş belleğe erişme yeteneği, büyük parametreli LLM&#8217;ler için kritik olan kullanılabilir belleği artırır.</span></p>
<p><span>Grace Hopper Superchips&#8217;in etkileyici performansı, AI hesaplamaları alanında tartışmasız bir oyun değiştirici olsa da, bu sistemin gerçek büyüsü, çok sayıda GPU arasında yüksek bant genişliği, düşük gecikmeli bağlantının veri paylaşımını ve verimliliği gerektirdiği NVLink&#8217;te gerçekleşiyor. tamamen yeni bir seviyeye.</span></p>
<h2><span>DGX GH200 Sistem Mimarisi</span></h2>
<p><span>DGX GH200 süper bilgisayarının mimarisi karmaşıktır ancak titizlikle tasarlanmıştır. 256 GH200 Grace Hopper bilgi işlem tepsisinden ve iki seviyeli bir NVLink yağ ağacı oluşturan bir NVLink Anahtar Sisteminden oluşur. Her bilgi işlem tepsisinde bir GH200 Grace Hopper Süper Çipi, ağ bileşenleri, bir yönetim sistemi/BMC ve veri depolama ve işletim sistemi yürütmesi için SSD&#8217;ler bulunur.</span></p>
<table>
<caption><strong><span>NVIDIA Grace Haznesi Bilgi İşlem Tepsisi Teknik Özellikleri</span></strong></caption>
<tbody>
<tr>
<th><span>Kategori</span></th>
<th><span>Detaylar</span></th>
</tr>
<tr>
<td><span>CPU/GPU</span></td>
<td><span>1x NVLink-C2C&#8217;li NVIDIA Grace Hopper Süper Çipi</span></td>
</tr>
<tr>
<td><span>GPU/GPU</span></td>
<td><span>18x NVLink dördüncü nesil bağlantı noktası</span></td>
</tr>
<tr>
<td><span>Ağ oluşturma</span></td>
<td><span>OSFP&#8217;li 1x NVIDIA ConnectX-7:</span><span> &gt; NDR400 InfiniBand Bilgi İşlem Ağı</span><span> 1x Çift bağlantı noktalı NVIDIA BlueField-3, 2x QSFP112 veya 1x Çift bağlantı noktalı NVIDIA ConnectX-7, 2x QSFP112:</span><span> &gt; 200 GbE Bant içi Ethernet ağı</span><span> &gt; NDR200 IB depolama ağı</span><span> Bant Dışı Ağ:</span><span> &gt; 1 GbE RJ45</span></td>
</tr>
<tr>
<td><span>Depolamak</span></td>
<td><span>Veri Sürücüsü: 2x 4 TB (U.2 NVMe SSD&#8217;ler) SW RAID 0</span><span> İşletim Sistemi Sürücüsü: 2x 2 TB (M.2 NVMe SSD&#8217;ler) SW RAID 1</span></td>
</tr>
</tbody>
</table>
<p><span>Bu kurulumda, tek bir 8 GPU&#8217;lu kasa oluşturmak için sekiz hesaplama tepsisi üç birinci düzey NVLink NVSwitch tepsisine bağlanır. Her NVLink Switch tepsisinde, bilgi işlem tepsilerine özel bir kör eş kablo kartuşu aracılığıyla ve ikinci düzey NVLink Switch&#8217;lere LinkX kabloları aracılığıyla bağlanan iki NVSwitch ASIC bulunur.</span></p>
<p><span>Ortaya çıkan sistem, kapsamlı NVIDIA DGX GH200 süper bilgisayarını oluşturmak için 32 kasayı birbirine bağlayan 36 ikinci düzey NVLink Anahtarından oluşuyor. </span></p>
<p>NVIDIA DGX H200 Süper Bilgisayarı ve NVDIA Yapay zeka çözümleri ile ilgili geniş bilgiye Nvidia Elite Partner <a href="https://gtmteknoloji.com">GTM Teknoloji</a>&#8216;den ulaşabilirsiniz.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://supermicrosunucu.com/blog/nvidia-dgx-gh200-uretken-yapay-zekada-oyun-degisiyor.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
