발표자 1 발표영상
전기정 부문장
LG AI연구원
AX 성공의열쇠
: EXAONE AI Stack 전략 사례
최근 국내 기관 및 기업들은 본격적인 AX(AI Transformation) 추진의 단계를 맞이하고 있습니다. 각 기관과 기업들은 성공적인 AX 추진을 위해 AI 모델 뿐만 아니라 Agent 개발, Data 준비를 함께 진행하고 있으며, 이 과정에서 학습 및 운영을 위한 인프라 수요가 크게 증가할 것으로 전망됩니다.
LG AI연구원은 인프라, 데이터, 모델 개발, 배포, 어플리케이션 레이어에서 AI stack을 확보해가고 있으며, 이에 기반하여 AX 성공 사례를 만들어 가고 있습니다. 이러한 문제해결의 과정에서 AI연구원이 겪었던 인프라 최적화, 데이터 생성 및 증강, 도메인 확장, 어플리케이션 적용 등의 사례를 공유하고자 합니다. 본 발표를 통해 많은 국내 기업과 기관들이 성공적 AX 추진의 해결책을 마련해 나가기를 기대합니다.
발표자 2 발표영상
최홍섭 CEO
마음AI
피지컬 AI 시대의 핵심은 두뇌다
: 온디바이스 AI 반도체 시장을 선점하라
우리는 지금 단순한 자동화를 넘어, 기계가 스스로 상황을 이해하고 판단하여 움직이는 피지컬 AI의 시대로 진입하고 있습니다. 기존의 로봇이나 자율주행 시스템이 미리 입력된 규칙(Rule-based)에 따라 통제된 환경에서만 작동하는 제한적인 자동화였다면, 피지컬 AI는 예측 불가능한 변수 속에서도 데이터를 통해 맥락을 파악하고 스스로 적응하는 진정한 의미의 지능형 존재입니다.
이번 강연에서는 농업, 제조, 국방 등 전 산업 영역에서 '보고, 판단하고, 움직이는' 모든 하드웨어에 적용될 피지컬 AI의 폭발적인 잠재력을 조망합니다. 특히 휴머노이드를 정점으로 하는 이 시장은 인류 역사상 최초로 '경(京, 10,000조)' 단위의 천문학적 규모로 성장할 것이며, 이는 ChatGPT가 촉발한 디지털 혁신을 뛰어넘는 실물 경제의 거대한 기회가 될 것입니다.
이 기회를 선점하기 위한 핵심 열쇠는 바로 피지컬 AI의 두뇌, VLA(Vision-Language-Action) 모델입니다. 인간이 시각(Vision)으로 정보를 얻고 언어적 사고(Language)를 거쳐 행동(Action)하듯, VLA는 복잡한 물리 세계를 제어하는 유일한 기술 솔루션입니다. 마음AI는 세계 최고 권위의 AI 학회인 NeurIPS 2024에서 그 기술력을 입증받고 상용화에 성공한 노하우를 바탕으로, VLA 구동에 필수적인 차세대 AI 반도체의 기술적 요구사항을 구체적으로 제시하고자 합니다. 특히 7~8B 파라미터 규모의 VLA 모델을 온디바이스 환경에서 구현하기 위한 조건을 심도 있게 분석하고, 왜 범용 칩이 아닌 'Physical AI 전용 칩' 개발이 시급한지 논의합니다.
Physical AI라는 거대한 파도 앞에서, 대한민국 AI 반도체 산업이 나아가야 할 명확한 이정표와 시장 선점을 위한 대담한 제안을 이번 강연을 통해 공유하고자 합니다.
발표자 3
김영진 리더
SK텔레콤
초확장 AI 시대
: SK텔레콤의 AI 인프라·모델·서비스 생태계 전략
(1) 도입: 왜
- AI 산업의 폭발적 변화와 GPU/NPU 중심의 AI 반도체 중요성
- AI 산업의 성장 축은 AI 반도체–AI 인프라–AI 모델–AI 서비스로 연결
- 통신사는 “연산–전력–네트워크–AI 서비스”까지 연결하는 완전한 수요자 + 생태계 촉진자
(2) SK텔레콤 AI Data Center: AI 반도체 활용의 종합 플랫폼
- GPUaaS (B200 기반 ‘해인’): 국내 최대 규모 GPU 클러스터 구축
- Memory/HBM·CXL·eSSD·NPU 활용 구조 설명
- Liquid Cooling·Energy·Infra Manager 등 AI 반도체 최적화 기술
(3) AI Model(A.X) 개발: AI 반도체 수요를 견인하는 대표 국산 모델
- AI 반도체 발전이 모델 규모·성능 향상과 직결됨
- A.X 4.0의 한국어 성능, 멀티모달 강화
- 산업 확장(제조·금융·반도체·에너지 등 Multi-domain), 이는 곧 AI 반도체 수요 확대
(4) 산업별 AI 서비스 확산: AI 반도체의 실제 효용 창출 구간
- Vision AI 기반 공공·산업안전(철탑 점검 등), 콜센터(AICC), 발달장애 케어, X-ray 분석, 음성질환 진단(Multimodal) 등
“AI 반도체 → 인프라 → 모델 → 서비스”의 선순환 구조를 SKT가 산업 곳곳에서 구현 중
==> 이는 국가 AI 반도체 생태계의 가장 빠른 검증·적용 필드가 됨
(5) 결론: 국내 AI 반도체 생태계와 국가 AI 역량 강화에 대한 SKT의 기여
- GPU 클러스터 → 국산 모델(A.X) → 산업 서비스 확산
- 국가 LLM 프로젝트 참여와 오픈소스 기반 생태계 기여
- 통신사로서 전력·연결성·AI 인프라·반도체 수요·AI 서비스를 통합해 시장 확장
발표자 1 발표영상
정소영 대표
엔비디아코리아
AI Supercomputing for New Industrial Revolution
본 세션에서는 엔비디아가 새롭게 정의하고 있는 차세대 데이터센터 컴퓨팅 플랫폼에 대해서 설명하고 이를 통해 미래의 산업이 어떻게 혁신할 수 있는지 함께 이야기 하고자 합니다.
발표자 2 발표영상
김천성 부사장
SK하이닉스
Memory & Storage Solution For AI Era
As AI workloads rapidly shift toward inference and Agentic AI services emerge, exponential growth in token processing has intensified the demand for higher memory capacity and performance.
However, the pace of AI model scaling is now surpassing the capabilities of today’s memory hardware, making the memory wall one of the most critical challenges in the AI era.
To overcome this bottleneck, a fundamentally new class of memory and storage architecture optimized for AI is required.
SK hynix has been preparing for this transition by developing next-generation AI-centric Memory & Storage solutions that expand capacity, elevate bandwidth, and enable scalable system integration.
In this presentation, we introduce SKhynix’s full-stack AI Memory & Storage portfolio—spanning HBM, advanced DRAM, high-performance SSDs, and unified storage architectures—designed to unlock the next wave of AI computation.
Through these innovations, SK hynix aims to lead the AI era as the company that enables true end-to-end memory and storage solutions for future AI infrastructure.
발표자 1 발표영상
오진욱 CTO
리벨리온
효율적으로 구동되는 프런티어 LLM
- AI 인프라의
새로운 시대
Rebellions는 전력, 하드웨어 수급, 스케일링 한계 등으로 어려움을 겪는 기존 AI 인프라의 문제를 해결하기 위해 고효율 NPU 기반 솔루션을 제공하고 있습니다. 아시아 소버린 펀드와 주요 테크 기업의 신뢰를 바탕으로 성장해 왔으며, 이를 기반으로 글로벌 시장에서도 빠르게 존재감을 넓혀가고 있습니다. 실제 상용 환경에서의 배포 경험 역시 꾸준히 확장하며 기술의 실효성을 입증하고 있습니다.
REBEL-Quad는 칩렛 구조와 UCIe-Advanced 기반 설계를 통해 1–2 PFLOPS 성능을 구현하면서도 GPU 대비 전력, 공간, TCO 측면에서 뛰어난 효율을 제공합니다. 서버부터 랙 단위까지 유연하게 확장할 수 있어 다양한 데이터센터 구성에 적합하며, RBLN SDK를 통해 기존 오픈소스 생태계와도 자연스럽게 통합됩니다. 특히 MoE 모델 실행에서 높은 에너지 효율을 발휘해 대규모 AI 인프라 운영에 적합한 구조를 갖추고 있습니다.
이러한 기술력은 다양한 실제 서비스에서 이미 검증되고 있습니다. Rebellions의 인프라는 국가 차원의 주권형 AI 시스템 구축은 물론, 전국 1,050여 개 동물병원에서 사용 중인 Xcaliber 모델과 같은 상업적 서비스에도 적용되고 있습니다. 이를 통해 Rebellions는 차세대 AI 인프라의 실용적이고 효율적인 대안으로 확실하게 자리매김하고 있습니다.
발표자 2 발표영상
이진원 CTO
하이퍼엑셀
지속가능한 AI 인프라와 LLM 서비스를 위한 LPU 반도체
AI 서비스의 폭발적 성장으로 인해 데이터센터는 전력 소비, 비용 상승, GPU 중심 구조의 비효율이라는 구조적 제약에 직면해 있습니다. HyperAccel은 이러한 문제를 해결하기 위해 LLM 추론에 최적화된 LPU(LLM Processing Unit) 아키텍처를 개발해 왔으며, 2025년 11월 삼성 4nm 공정 기반의 데이터센터용 AI 반도체 Bertha를 성공적으로테잎아웃했습니다.
Bertha는 HBM 기반 시스템의 높은 비용과 전력 문제를 해결하기 위해 LPDDR5X 기반 메모리 구조를 채택함으로써 저전력, 저비용이라는 핵심 장점을 확보했습니다. 이를 바탕으로 HyperAccel의 Streamlined Dataflow Architecture는 메모리 효율을 극대화하며 최신 AI 서비스 패턴에 필요한 높은 배치 효율을 지원합니다.
또한 HyperAccel은 네이버클라우드와의 협업을 통해 실제 서비스 환경에서 요구되는 성능, 비용 구조, 운영 요구사항을 반도체 설계 단계에 직접 반영하는 개발 체계를 구축했습니다. 고객 요구 기반의 이러한 공동개발 방식은 Bertha의 아키텍처가 단순한 칩 성능을 넘어 실제 LLM 서비스 인프라에서 지속가능성과 경제성을 동시에 달성하도록 하는 핵심 요소로 작용할 것입니다.
발표자 3 발표영상
김정욱 부사장
딥엑스
온디바이스 AI 반도체 Physical AI 시대로의 도약
딥엑스는 온디바이스 반도체 분야의 선두 주자로 기술 우수성, 제품 라인업, 상용화 현황, 그리고 성장 잠재력을 갖추고 있고 더 나아가 미래 준비로 Physical AI시대를 선제적으로준비하고 있습니다.
1. 기술 우수성 및 제품 포트폴리오
딥엑스는 CES2024에서 트리플 혁신상을 수상한 세계 최초 반도체 회사로 온디바이스 AI 반도체 시장에서 NVIDIA 대비 발열 및 전성비 등에서 압도적 우위를 보여주고 있습니다.
1-1. 주요 제품:
DX-M1 (가속기 형태)은 25TOPS 성능과 저전력(5W ↓)으로 삼성 5nm 공정에서 양산 중이고 Vision SOC 형태 DX-V3의 13TOPS로 12nm TSMC 공정을 사용한 ES Chip입니다. 2세대 NPU인 DX-M2은 25~30TPS 성능을 가지고 20B 변수의 언어모델을 대상으로 삼성 2nm 공정으로 설계 단계에 있으며 온디바이스 적용을 위해 5W 이하의 전력 소비를 목표로 하고 있습니다.
1-2. 기술 차별점:
경쟁사 대비 우수한 AI 정확도와 글로벌 경쟁사 대비 평균 25도 이상 낮은 발열량은 상용화의 주요 장애물인 발열 문제를 완전히 해결했습니다.
2. 상용화 및 비즈니스 현황
산업 자동화, 로봇, 항공우주 및 국방, 스마트 모빌리티, AI 컴퓨터 등 광범위한 분야에 적용 중으로 LG U+의 스마트 시티용 AI Box의 경우 NVIDIA Jetson Nano 대비 2배 높은 성능 효율과 낮은 비용을 보여주고 있습니다.
또한 현대차와는 로봇용 AI 플랫폼 상용화에 착수하여, DX-M1 기반 온디바이스 AI 제어기가 양산 적용을 위한 기술 검증 단계에 진입하였고, 중국 바이두와는 AI 박스를 활용한 다양한 분야로 중국 내 공동 프로모션을 계획 중입니다. RTOS분야의 세계 최강자인 Wind River와는 파트너십을 통해 국방 및 의료 등 안정성과 정밀성이 요구되는 분야의 글로벌시장 진출을 준비 중입니다.
2025년 11월말 기준 약 300개 이상의 글로벌 고객사가 테스트를 진행했으며, 그 중 약 20개 고객사들과 양산을 준비하고 있습니다.
3. 미래 비전
딥엑스는 궁극적인 AI 발전 경로를 Physical AI로 보고 있으며, 이를 위해 2세대 칩인 DX-M2 개발을 통해서 언어모델(100B+ 파라미터)을 온디바이스에서 효율적으로 구동하는 것을 목표로 합니다. 이를 통해서 데이터센터의 부담과 비용을 최소화해서 궁극적으로 온디바이스 솔루션이 절대적으로 필요한 Physical AI 시대를 선제적으로 준비하려고 합니다.
발표자 4 발표영상
김한준 CTO
퓨리오사AI
From Chip to Market : 레니게이드로 실현하는 AI Inference 효율화
지속 가능한 AI 시대에는 효율적인 아키텍처가 필수적이다. 본 발표에서는 FuriosaAI의 RNGD가 실제 고객 환경에서 어떤 비용·성능 효율을 만들어냈는지, 그리고 이를 기반으로 어떻게 시장(GTM) 전개가 이루어지고 있는지를 사례 중심으로 소개한다.
AI 가속기 시장은 매년 60%씩 성장하여 2028년 700조 원 규모에 이를 것으로 예상되며, 이 중 Inference는 80% 성장률로 가장 빠르게 확대되고 있다. 현재 글로벌 고객들이 가장 많이 요구하는 모델 크기는 32B~120B급이며, 이 모델들은 다양한 서비스에서 충분한 품질을 제공할 뿐 아니라 Inference 비용 절감에도 유리하다. 특히 고객들은 TPS/User 30~50 수준을 유지하면서 동시 사용자 수를 극대화하는 것을 가장 중요한 요구사항으로 제시하고 있다.
FuriosaAI는 RNGD가 CAPEX와 OPEX 모두에서 경쟁 제품 대비 더 많은 사용자를 처리할 수 있음을 여러 테스트를 통해 검증했으며, 이를 가능하게 하는 기반은 하드웨어와 소프트웨어를 함께 최적화한 TCP 아키텍처이다. RNGD는 2026년 1월 양산에 돌입하며, 내년에는 16,000장 생산을 계획하고 있다. 이미 Card / Workstation / Server 형태로 공급되고 있으며, 고객별 환경과 모델 크기에 따라 다양한 구성을 제공하고 있다. 또한 vLLM·SGLang 기반의 최적화 기능을 포함한 SDK가 연말·내년 초 배포되며, 멀티 노드 클러스터 최적화 기능 (llm-d)도 일부 공개될 예정이다. 내년 상반기에는 저수준 프로그래밍 모델을 추가 제공하여 개발자 생태계도 확대한다. RNGD는 이제 가능성을 넘어 실제 시장에 도입되고 있으며, 고객에게 명확한 비용 효율과 성능 가치를 제공하고 있다.
발표자 1 발표영상
강호석 팀장
정보통신기획평가원
2026년 AI반도체 R&D사업 추진 계획
정보통신기획평가원에서는 글로벌 AI반도체 경쟁력 확보를 위해 AI Chip, 시스템SW, 클라우드 SW스택에 이르는 기술분야 핵심 기술개발에 대한 지원을 지속하고 있습니다.
이에 최신 시장·기술동향을 설명드리고, 정보통신기획평가원에서 준비하고 있는 AI반도체 분야 중장기 추진방향 및 R&D사업 구조, 2026년도에 신규지원하는 과제의 개발내용을 소개드리겠습니다.
발표자 2 발표영상
조재홍 팀장
정보통신산업진흥원
AI반도체 실증 등 사업화 지원 성과 및 계획
2025년 과학기술정보통신부는 한국의 AI반도체 산업 생태계 내 유망 분야 기술력 확보와 양산급 AI반도체 제품화를 위해 신규 추가경정예산 사업(이하, 추경사업)을 성공적으로 추진하며 국산 AI반도체의 글로벌 시장 진출을 위한 토대를 마련하였다.
세부적으로 살펴보면, 동 추경사업은 LLM, 피지컬 AI 등 유망 분야에서 경쟁력 있는 국내 AI반도체의 전주기 사업화(설계–제품화–검증–국내외 실증)를 지원하기 위해 추진되었다.
현재까지, 6개 세부사업에 총 742억 원을 투입하여 99%의 예산집행률을 달성하였으며, 팹리스 기업이 필요로 하는 고비용 설계 SW, 제품 검증, 해외 실증까지 포함한 Full-Stack 지원체계를 구축하였다.
주요 성과로는 첫째, 기업 만족도 평균 9.1점(10점 만점)에 달하는 높은 사업 만족도가 나타났다. 개발비 부담 완화, 수요처 발굴, IP·SW 최적화 등 실질적 성과가 기업 VOC를 통해 확인되었다.
둘째, 단계별 실증과 서비스 연계 검증을 통해 개발 기간을 최대 1.5년 단축하는 등 조기 상용화를 실현했다. 클라우드 인프라·디바이스 실증을 통해 실서비스 환경 요구사항을 조기에 파악하여 NPU 개발 효율을 크게 높였다. 셋째, 서버·엣지형 AI반도체 27종(16개 기업)의 신규 개발 및 고도화를 지원하였으며, 시제품·양산급 NPU 실증을 통해 성능 향상을 달성했다.
또한 LLM, 피지컬 AI 등 미래 시장을 겨냥한 국산 AI반도체 시제품 10건을 확보하여 글로벌 경쟁력을 갖춘 기술 기반을 마련하였다. 본 사업은 국내 AI반도체 산업이 고도화·사업화·글로벌 진출을 가속할 수 있는 발판을 마련했으며, 향후에도 실증 기반 확대와 생태계 강화로 지속적인 산업 성장을 뒷받침할 계획이다.