เซินเจิ้น, จีน - กรกฎาคม 2568 - ในการพัฒนาสำหรับ AI และการคำนวณแบบจำลองภาษาขนาดใหญ่ Nvidia ได้เปิดตัวH100 141GBNVL Original โซลูชันรุ่นต่อไปที่ออกแบบมาเพื่อผลักดันขอบเขตของประสิทธิภาพ AI ความจุหน่วยความจำและประสิทธิภาพการใช้พลังงาน สร้างขึ้นด้วยเวิร์กโหลด AI ระดับองค์กรในใจโมดูล H100 NVL 141GB ได้รับการปรับแต่งเพื่อตอบสนองความต้องการของศูนย์ข้อมูลที่ทันสมัยในปัจจุบันการฝึกอบรมแบบจำลองภาษาและการอนุมานด้วยความเร็วและขนาดที่ไม่เคยเกิดขึ้นมาก่อน
การอนุมาน LLM ที่เร็วกว่า 3x - ขับเคลื่อนโดยสถาปัตยกรรม NVL
ซึ่งแตกต่างจาก SXM มาตรฐานหรือ PCIE GPU, H100 NVL เป็นรูปแบบที่ไม่ซ้ำกันที่มี H100 GPU สองตัวที่เชื่อมต่อผ่าน NVLink และบรรจุเป็นโซลูชัน Dual-GPU พร้อมหน่วยความจำ HBM3 ที่ใช้ร่วมกัน 141GB และแบนด์วิดท์หน่วยความจำมากกว่า 7TB/s สิ่งนี้ทำให้ GPU ในอุดมคติสำหรับ:
การฝึกอบรม GPT-3, GPT-4 และ Llama 3
ปริมาณการอนุมานหม้อแปลงขนาดใหญ่
งาน AI หลายรูปแบบ (Vision-Language, Speech, ฯลฯ )
จากการทดสอบภายในของ NVIDIA H100 NVL ให้การอนุมานเร็วขึ้น 12 เท่าสำหรับโมเดลภาษาขนาดใหญ่เมื่อเทียบกับ A100 80GB
NVIDIA H100 96GB PCIE OEM: AI Accelerator ที่ดีที่สุดที่สร้างขึ้นสำหรับปริมาณงานในอนาคต
NVIDIA A800 80GB PCIE OEM: ตัวเลือกที่ชาญฉลาดสำหรับความสามารถในการปรับขนาด AI ในตลาดที่ จำกัด
WhatsApp
Telefly
E-mail
QQ