미디어

AI-NEWS

HOME  >  미디어  >  AI-NEWS

슈퍼마이크로 “AI EXPO KOREA 2024” 참가...차세대 AI 서버부터 엣지 AI로 구동되는 컴퓨팅, 현재와 미래 조명

이미지:슈퍼솔루션


인공지능(AI), 클라우드, 스토리지, 서버 및 5G, 엣지 등 위한 토탈 IT 솔루션 인프라 글로벌 기업 슈퍼마이크로(Supermicro)가 오는 5월 1일부터 3일까지 서울 삼성동 코엑스(COEX)에서 단일 인공지능 행사로서 아시아 최대이자 세계 5대 인공지능(AI) 전시회인 제7회 '국제인공지능산업대전(이하, AI EXPO KOREA 2024)’에 참가한다.

슈퍼마이크로는 이번 전시에서 스토리지를 비롯한 AI 지원 5G 네트워크를 위한 유연한 서버 아키텍처, 엣지 AI로 구동되는 미래, 지속 가능한 AI 및 클라우드 컴퓨팅으로 최적화, 차세대 AI 슈퍼컴퓨팅 등 지속가능하고 효율적인 슈퍼솔루션의 AI 인프라 솔루션 포트폴리오를 직접 확인하고 시연해 볼 수 있다.

한국에서 슈퍼마이크로의 울트라 슈퍼서버를 비롯한 AI 인프라 솔루션 제품군과 서비스를 제공하는 슈퍼솔루션 김성현 대표는 "슈퍼마이크로는 가장 광범위한 엣지 AI 솔루션 포트폴리오를 갖추고 있어 고객의 엣지 환경에 맞게 사전 훈련된 모델을 지원할 수 있습니다"라며, "듀얼 5세대 인텔제온(Intel®Xeon®)프로세서를 기반으로 하는 슈퍼마이크로 하이퍼-E(Hyper-E) 서버는 엔비디아 H100 텐서 코어 GPU를 최대 3개까지 지원할 수 있어 엣지 AI에 비할 데 없는 성능을 제공합니다"라고 말했다.

이어 김 대표는 "이 서버에는 최대 8TB의 메모리를 탑재해 엣지에서 데이터 센터 AI 처리 능력을 제공하고 있습니다"라며, "슈퍼솔루션은 기업이 엣지 위치에서 AI 데이터를 처리하여 경쟁 우위를 구축함에 따라 업계에 최적화된 솔루션을 지속적으로 제공하고 있습니다"고 밝혔다.

특히, 슈퍼마이크로의 주요 전시 품목으로는 H100, MI300, MGX 시리즈를 선보일 예정으로 HGX H100 GPU 플랫폼 엔비디아 H100 텐서 코어 GPU(Tensor Core GPU)는 기존 엔비디아 암페어(NVIDIA Ampere) 텐서 코어 GPU보다 AI 추론 성능을 최대 30배, HPC 애플리케이션 성능을 최대 7배 높여 AI, HPC, 데이터 분석, 과학 컴퓨팅 분야에 막강한 성능을 제공한다.

엔비디아 HGX H100 GPU 플랫폼에 장착되는 엔비디아 H100 SMX5 GPU는 SMX5소켓을 통해 H100 PCIe 5.0 GPU 보다 더 많은 대역폭과 전력을 제공받으며, 엔비디아 NV링크(NVLink)와 NV스위치(NVSwitch) 고속 인터커넥트(Interconnect)를 통해 GPU끼리 최대 900 GB/s의 넓은 대역폭으로 유기적 연결로 초고속 데이터를 주고 받을 수 있다.

또한, 슈퍼마이크로는 5G 및 통신 시장과 엣지 AI의 까다로운 요구 사항을 해결하기 위해 지속 가능한 최첨단 서버로 구성된 광범위한 포트폴리오를 확장하고 있고, 빌딩 블록 아키텍처를 사용하여 데이터 센터 AI 기능을 네트워크에 신속하게 제공한다.

슈퍼마이크로 5G Telco 클라우드 솔루션
슈퍼마이크로 5G Telco 클라우드 솔루션



슈퍼마이크로 제품을 통해 운영자는 향상된 성능과 낮은 에너지 소비로 고객에게 새로운 기능을 제공 할 수 있으며, Edge 서버에는 최대 2TB의 고속 DDR5 메모리, 6개의 PCIe 슬롯 및 다양한 네트워킹 옵션이 포함되어 있다. 이러한 시스템은 향상된 전력 효율성과 와트당 성능을 제공하도록 설계되어 운영자의 고유한 요구 사 항에 맞는 고성능 맞춤형 솔루션을 만들 수 있으며, 이를 통해 고객은 안정적이고 효율적인 솔루션에 투자하고 있다는 확신을 갖게 될 것이라고 슈퍼솔루션 관계자는 전했다.

또한 전시에서는 AMD Instinct MI300 시리즈 가속기를 소개한다. AMD는 오랫동안 가속화된 고성능 컴퓨팅 애플리케이션과 빠르게 증가하는 생성형 AI에 대한 수요 모두에 대해 우위 성능을 제공한다.

AMD Instinct MI300X 가속기를 탑재한 슈퍼마이크로 8U 8-GPU 시스템은 빠르게 발전하는 AI 인프라 요구 사항에 대해 비교할 수 없는 유연성을 제공한다 . 서버 노드 당 1.5TB HBM3 의 대규모 풀은 물리적 GPU 메모리 내에 초대형 LLM을 포함하고 훈련 시간을 최소화하며 노드당 동시 추론 인스턴스 수를 최대화하여 AI 훈련 병목 현상을 제거한다 .

또한 AMD Instinct MI300A 가속기를 탑재 한 수냉식 2U 쿼드 APU 시스템은 4개의 AMD Instinct™ MI300A 가속기가 통합되어 있으며, 각 APU는 고성능 AMD CPU , GPU 및 HBM3 메모리를 결합하여 총 912개의 AMD CDNA™ 3 GPU 컴퓨팅 유닛 과 96개의 "Zen 4" 코어를 하나의 시스템에 통합한다 . 슈퍼마이크로의 직접 칩 맞춤형 액체 냉각 기술은 데이터 센터 에너지 비용을 51% 이상 절감 하면서 탁월한 TCO를 실현한다.

슈퍼마이크로 엔비디아 MGX 시스템은 지능형 열 설계부터 구성요소 선택까지 모든 측면에서 효율성을 향상시키도록 설계됐다. 엔비디아 그레이스 슈퍼칩 CPU는 144 코어를 갖췄으며 현재 업계표준 x86 CPU대비 와트당 최대 2배 성능을 제공한다. 특정 슈퍼마이크로 엔비디아 MGX 시스템은 1U에서 두 개의 노드로 구성될 수 있으며 두 개의 그레이스 CPU 슈퍼칩에 총 288코어를 탑재해 하이퍼스케일 및 엣지 데이터센터에 뛰어난 컴퓨팅 집적도와 에너지효율성을 제공한다.

한편, 엔비디아는 지난달 18일, 컴퓨팅의 새로운 시대를 여는 블랙웰(Blackwell) 플랫폼 출시했다. 이는 모든 기업이 이전 세대 대비 최대 25배 적은 비용과 에너지로 조 단위의 대형 언어 모델(LLM)에서 실시간 생성 AI를 구축하고 실행할 수 있도록 지원한다. 슈퍼마이크로는 올해 말 이에 기반한 다양한 블랙웰 기반 서버를 공급할 예정이다.

슈퍼마이크로 한국총판 슈퍼솔루션은 AI서버, 머신러닝, 딥러닝 등의 다양한 AI 인프라와 플랫폼·솔루션을 제공 할 수 있는 국내 유일한 기업으로 디지털 전환시대에 따른 다양한 AI 고객군들이 다량의 워크로드를 처리할 수 있도록, AI 시스템 고도화 수요에 적합한 AI 및 HPC 리소스를 제공하고, 소프트웨어 기반 플랫폼을 다양화하여 AI, 빅데이터 분석, 클라우드 등 고객 맞춤형으로 GPU 시스템을 제공해 AI 혁신 선도기업으로 자리잡고 있다.

출처 : 인공지능신문(https://www.aitimes.kr)

목록