เซินเจิ้น, จีน-ในขั้นตอนที่กล้าหาญในการเพิ่มพลังให้กับโครงสร้างพื้นฐานที่ขับเคลื่อนด้วย AI รุ่นต่อไป Telefly นำเสนอ Nvidia H800 80GB PCIe OEM ซึ่งเป็น GPU ที่ออกแบบตามกำหนดเองเหมาะสำหรับตลาดจีน ออกแบบมาเพื่อตอบสนองความต้องการที่เพิ่มขึ้นสำหรับการฝึกอบรมและการอนุมานแบบจำลอง AI ขนาดใหญ่ H800 มอบประสิทธิภาพที่ยอดเยี่ยมแบนด์วิดท์หน่วยความจำและความสามารถในการปรับขนาด-ทั้งหมดอยู่ในรูปแบบฟอร์ม PCIe ที่ประหยัดพลังงาน
สร้างวัตถุประสงค์สำหรับตลาดจีน
เนื่องจากข้อ จำกัด ในการส่งออกของสหรัฐอเมริกา H800 ทำหน้าที่เป็นคู่หูของ A100/H100 ที่มีการแปลเป็นภาษาท้องถิ่นทำให้ประสิทธิภาพระดับสูงสุดได้รับการปรับให้เหมาะสมภายในขีด จำกัด ด้านกฎระเบียบ แบนด์วิดท์เชื่อมต่อระหว่างกันของมันถูกปกคลุมที่ 400 gb/s แต่ยังคงมีคุณสมบัติ:
หน่วยความจำ HBM2E ระดับสูง 80GB
ประสิทธิภาพการคำนวณ ffp32 สูงสุด 20 tflops
อินเทอร์เฟซ PCIE Gen4 สำหรับการรวมเซิร์ฟเวอร์ที่ราบรื่น
การรองรับ Multi-Instance GPU (MIG) สำหรับการแบ่งพาร์ติชันเวิร์กโหลด
เมื่อเปรียบเทียบกับ GPU หลัก H800 PCIe OEM มีประสิทธิภาพสูงสุด 5 เท่าในการเพิ่มประสิทธิภาพการทำงานของโมเดลหม้อแปลงเช่นเบิร์ตทำให้เป็นองค์ประกอบสำคัญสำหรับ NLP ระบบแนะนำและโครงสร้างพื้นฐาน AI อัตโนมัติ
📊ข้อมูลประสิทธิภาพในโลกแห่งความเป็นจริง
เกณฑ์มาตรฐานจากผู้ให้บริการคลาวด์ AI ท้องถิ่นแสดง:
การเร่งความเร็ว 3.2x ในการฝึกอบรม ResNet-50 ผ่าน A30 Generation ก่อนหน้านี้
การปรับปรุงมากถึง 7.5x ในรูปแบบภาษาขนาดใหญ่ (LLM) การอนุมาน
ปริมาณงานที่สูงขึ้น 22% ในกลุ่มเซิร์ฟเวอร์คลาวด์ไฮบริดเมื่อเทียบกับการ์ด PCIE รุ่นเก่า
กำไรเหล่านี้ทำให้ H800 เหมาะสมสำหรับศูนย์ข้อมูล Hyperscale การปรับใช้ AI Edge และสภาพแวดล้อมการฝึกอบรมแบบจำลองขนาดใหญ่ส่วนตัวในประเทศจีน
NVIDIA A800 80GB PCIE OEM: ตัวเลือกที่ชาญฉลาดสำหรับความสามารถในการปรับขนาด AI ในตลาดที่ จำกัด
NVIDIA TESLA V100 32GB SXM2 OEM - ประสิทธิภาพ AI ที่ได้รับการพิสูจน์แล้ว
WhatsApp
Telefly
E-mail
QQ