LSKP CFO의 개인 공간❤️
1.08K subscribers
21.1K photos
172 videos
248 files
23K links
해외 / 국내 경제, 증시 및 다양한 이슈를 전달합니다!

협업 문의 : yeominyoon1981@gmail.com

Disclaimer

- 본 채널/유튜브에서 업로드 되는 모든 종목은 작성자 및 작성자와 연관된 사람들이 보유하고 있을 가능성이 있습니다. 또한, 해당 종목 및 상품은 언제든 매도할 수 있습니다.

- 본 게시물에 올라온 종목 및 상품에 대한 투자 의사 결정 시, 전적으로 투자자의 책임과 판단하에 진행됨을 알립니다.
Download Telegram
[Web발신]
안녕하십니까
유진투자증권 허재환입니다.

=2008년 데자뷰(?)=

* 유가 급등과 AI 거품 우려, 그리고 사모대출 시장 불안은 2008년을 상기시킵니다. 데자뷰입니다.

* 분위기는 좋지 않습니다. 지난해 9월 Tricolors(자동차 대출업체), First Brands(자동차 부품업체)가 사기로 파산한 것을 시작으로,

* 25/1월에는 블랙록, Apollo 등 사모대출 운용사들이 부실 대출(전자상거래 Razor, 주택개조업체 Renovo 등)로 손실을 기록했습니다.

* 지난 2~3월에는 블루아울, 블랙록, 모건스탠리, 클리프워터 등이 잇따른 고객들의 환매 요청에 대응하지 못했습니다.

* 투자자들이 이탈하기 시작한 것입니다. 2008년 리먼사태 이전 2007년 BNP파리바 펀드 환매 중단, 2008년초 베어스턴스 파산 등을 생각나게 합니다.

* BIS에 따르면 AI기업들의 사모대출 규모가 2천억 달러로, 전체 사모대출의 1/3을 차지합니다. AI가 흔들리면 사모대출이 흔들리고, 금융시스템을 흔들 여지가 있습니다.

* 문제는 두 가지입니다. 1) 자산운용사들이 대출해줄 때 이들 기업들의 부도위험 또는 손실위험을 과소평가했을 가능성이 매우 높다는 점입니다.

* 2) 자산운용사들뿐 아니라 생보사, 일부 은행 등 금융기관들이 사모대출시장에 진출해 익스포져가 있다는 사실입니다.

* 하지만 2008년과의 결정적인 차이는 레버리지와 규모입니다.

* 2008년 당시 CDO라는 주택담보부증권은 자기자본 대비 대출 자산을 30배 이상 보유하고 있었습니다. 반면 사모대출은 펀드 자기자본 대비 대출자산 규모가 2배 이내입니다.

* 2008년 당시 서브프라임 주택대출 규모는 미국 GDP의 73%였습니다. 반면 사모대출(2.1조 달러)는 미국 GDP의 8%, 글로벌 GDP의 2%입니다.

* 2.1조 달러 규모는 미국 하이일드 채권 시장 1.4~1.5조 달러에 비해 커서, 적지 않습니다. 그래도 2008년과는 비교하기 이릅니다.

* 유가와 금리가 불안해지는 상황에서는 사모대출 시장 불안은 위협적입니다. 그러나 언제 터질지 모르는 심장질환 보다는 시간을 가지고 고쳐야 하는 암과 같아 보입니다.

좋은 하루 되십시오
ttps://t.me/huhjae
Forwarded from [KB 채권] 임재균, 박문현🙂 (임재균)
중간선거에서 하원은 민주당의 승리를 보고 있음
Forwarded from [KB 채권] 임재균, 박문현🙂 (임재균)
상원도 이제 박빙
Forwarded from 루팡
엔비디아 NVIDIA GTC 2026

1. 엔비디아의 정체성: 단순 칩 회사가 아닌 ‘플랫폼 기업’

젠슨 황은 엔비디아가 단순한 하드웨어 제조사를 넘어 세 가지 핵심 플랫폼을 가진 기업임을 천명했습니다.

3대 플랫폼: CUDA-X(소프트웨어), Systems(하드웨어 시스템), AI Factories(인프라).

AI의 5개 층: 부지/전력 등 기초 인프라부터 칩, 플랫폼, 모델, 그리고 최종 애플리케이션까지 전체 생태계를 아우릅니다.

CUDA의 해자: 20년간 축적된 설치 기반(Installed Base)이 개발자를 끌어들이고, 이것이 다시 새로운 알고리즘과 시장을 만드는 강력한 '플라이휠' 효과를 냅니다.


-데이터 처리 생태계의 진화: 구조화 및 비정형 데이터 정복

구조화된 데이터 (QDF - CUDA Data Frames): 기업 컴퓨팅의 뼈대인 데이터 프레임 처리를 가속화합니다. IBM, Dell, Google Cloud와의 협력을 통해 데이터 마트 워크로드를 최대 5배 빠르게 실행하고 컴퓨팅 비용을 약 80%까지 절감하는 성과를 냈습니다.

비정형 데이터 (QVS - CUDA Vector Stores): 전 세계 데이터의 90%를 차지하는 PDF, 비디오, 음성 등의 비정형 데이터를 AI의 다중 모달리티 이해 기술을 통해 검색 가능한 구조로 변환하고 인덱싱합니다.

-수직적 통합과 수평적 개방 전략
엔비디아는 칩부터 시스템, 알고리즘까지 '수직적'으로 통합되어 있으면서도, 전 세계 클라우드 서비스 제공업체(AWS, Azure, Google Cloud 등) 및 파트너들과 '수평적'으로 개방되어 협력합니다. 특히 금융, 헬스케어, 자율주행 등 산업별 맞춤형 CUDA X 라이브러리(cuDNN, cuOpt 등)를 지속적으로 발표하며 핵심 자산으로 활용하고 있습니다.


2. 컴퓨팅 수요의 폭발적 증가와 'AI 네이티브' 시대

-AI 네이티브 기업의 부상과 투자 집중
기존 대기업뿐만 아니라 OpenAI, Anthropic과 같은 'AI 네이티브' 스타트업들이 폭발적으로 성장하고 있습니다. 이들은 막대한 컴퓨팅 자원(토큰)을 필요로 하며, 이를 지원하기 위해 역사상 최대 규모인 1,500억 달러 이상의 벤처 투자가 이루어졌습니다.


-생성형 AI에서 에이전트 시스템으로의 진화
생성형 AI & 추론 AI: ChatGPT의 등장 이후, 단순히 데이터를 검색하는 것을 넘어 고유 콘텐츠를 생성하고, 스스로 문제를 분해하며 검증하는 추론 AI 단계로 진입했습니다.

에이전트 시스템 (Cloud Code): 코드를 읽고, 작성하며, 테스트까지 자율적으로 수행하는 에이전트 모델이 등장했습니다. 이제 AI는 "무엇을 할까"가 아니라 "직접 구축하고 실행하라"는 명령을 수행합니다.

추론 컴퓨팅 수요 1만 배 폭증: AI가 생각하고 행동할 때마다 토큰 생성을 위한 '추론' 컴퓨팅이 필요합니다. 지난 2년간 컴퓨팅 수요는 1만 배, 사용량은 100배 증가하여, 엔비디아는 2027년까지 최소 1조 달러 규모의 거대한 인프라 수요가 발생할 것으로 전망했습니다.


3. 토큰을 생산하는 거대한 공장: 'AI 팩토리'

데이터 센터에서 토큰 팩토리로의 전환
과거 파일을 저장하던 데이터 센터는 이제 전력을 소비해 지능(토큰)을 생산하는 'AI 팩토리'로 탈바꿈했습니다. 한정된 전력(예: 1기가와트) 내에서 얼마나 많은 토큰을 생산할 수 있는지가 가장 중요한 지표가 되었습니다.

Grace Blackwell MVLink 72와 한계 돌파
엔비디아는 추론 성능을 극대화하기 위해 시스템을 재설계하여 Grace Blackwell MVLink 72를 선보였습니다. NVFP4 기술과 극단적인 하드웨어-소프트웨어 공동 설계(Co-design)를 통해 무어의 법칙을 아득히 뛰어넘는 최대 50배의 성능 향상을 이뤄내며 세계에서 가장 저렴한 '토큰 생산 단가'를 달성했습니다.


4. AI 슈퍼컴퓨팅의 정점: 에이전트 AI를 위한 'Vera Rubin'
엔비디아는 초기 딥러닝용 DGX-1부터 Hopper, Blackwell을 거쳐, 에이전트 AI 시대에 완벽히 최적화된 새로운 플랫폼 Vera Rubin을 공개했습니다.

-압도적 스펙과 효율성: 3.6 엑사플롭스의 연산 능력과 260TB/s의 NVLink 대역폭을 제공합니다. 100% 액체 냉각 방식을 채택해 복잡한 케이블을 없애고 설치 시간을 2일에서 단 2시간으로 단축했습니다.

-Grok 시스템과 CPO 기술: 세계 최초로 칩에 광학 부품을 직접 통합한 CPO(Co-Packaged Optics) 기반의 Spectrum X 스위치와 Grok 시스템을 양산하여 데이터 전송의 병목을 없앴습니다.

-강력한 통합 인프라: 에이전트 워크플로우에 최적화된 Vera CPU, 전 세계 스토리지 산업이 참여하는 BlueField 4 STX AI 네이티브 스토리지를 하나로 묶어 거대한 단일 컴퓨터(AI 슈퍼컴퓨터)를 완성했습니다.


5. 토큰 경제(Token Economy)와 엔비디아의 로드맵
가치에 따른 토큰 계층화 비즈니스
초고속 모델, 대규모 컨텍스트를 다루는 프리미엄 작업과 일반적인 무료 작업에 따라 토큰 생성 가격이 나뉘는 '토큰 경제'가 도래합니다.

분리된 추론(Disaggregated Inference)과 아키텍처 로드맵
Vera Rubin의 범용적인 처리량(Throughput) 워크로드와 Grok 칩의 초저지연(Latency) 디코딩 워크로드를 이더넷으로 긴밀하게 연결하는 소프트웨어 혁신(Dynamo)을 이루었습니다. 이를 통해 고가치 토큰 생성 작업에서 성능을 35배나 끌어올렸습니다. 향후 엔비디아는 Blackwell ➔ Rubin ➔ Rubin Ultra ➔ Feynman으로 이어지는 아키텍처 로드맵을 통해 매년 새로운 혁신을 이어갈 계획입니다.


6. AI 팩토리의 디지털 트윈: NVIDIA DSX
천문학적인 전력이 소비되는 AI 팩토리의 효율을 극대화하기 위해 가상 설계 플랫폼인 Omniverse DSX를 발표했습니다. 파트너사들은 이 가상 공간에서 하드웨어, 열, 전력, 네트워크 시뮬레이션을 완벽하게 테스트할 수 있습니다.
가동 이후에는 디지털 트윈과 AI 에이전트(Phaedra, Emerald)가 협력하여 냉각과 전력을 실시간으로 조율해 전력 낭비를 없앱니다. 엔비디아는 이를 기반으로 향후 냉각 문제를 해결한 우주 데이터 센터(Vera Rubin Space 1)까지 구상하고 있습니다.


7. 에이전트 생태계의 윈도우(OS): OpenClaw
에이전트 컴퓨터를 위한 운영 체제
OpenClaw는 파일 시스템 접근, 도구 사용, 하위 에이전트 호출 등을 관리하는 에이전트 시스템의 실질적인 운영 체제(OS)입니다. 리눅스(Linux)가 이룬 혁신을 단 몇 주 만에 재현하며 폭발적인 반응을 얻고 있습니다.

NemoClaw와 기업용 보안, 그리고 오픈 모델
기업 네트워크 내에서 에이전트가 안전하게 활동할 수 있도록 정책 엔진과 보안 가드레일을 결합한 NemoClaw(엔비디아 OpenClaw 레퍼런스)를 제공합니다. 또한 언어(Nemotron 3 Ultra), 물리 세계 생성(Cosmos), 자율 주행(Alpamayo), 범용 로봇(Groot) 등 최고 수준의 모델군을 오픈소스로 제공하여 누구나 자신만의 AI 생태계를 구축할 수 있도록 지원합니다.


8. 현실 세계로 뛰어나온 AI: 물리 AI와 로봇 공학
디지털 공간을 넘어 현실 세계에서 작동하는 물리적 에이전트가 본격화됩니다. 이를 위해 엔비디아는 훈련 컴퓨터, 시뮬레이션 컴퓨터, 로봇 탑재 컴퓨터라는 3대 핵심 컴퓨팅 환경을 제공합니다.

자율 주행의 도약
: 자율 주행 분야에 스스로 추론하고 상황을 판단하는 Alpamayo 모델이 적용되었습니다. BYD, 현대, Uber 등과 협력하는 Robo-taxi Ready 플랫폼을 기반으로 연간 1,800만 대 규모의 자율 주행 생태계를 구축하고 있습니다.

산업용 로봇과 시뮬레이션: 현실 세계의 데이터를 전부 수집할 수 없으므로, Isaac Lab과 Cosmos World Models 등의 시뮬레이터를 통해 가상 세계에서 물리 법칙을 학습합니다. 디즈니의 Olaf 로봇처럼 시뮬레이션에서 훈련받은 로봇이 현실 세계로 매끄럽게 적응하는 시대가 열렸습니다.

https://x.com/DrNHJ/status/2033685816103551184?s=20
1년 주기 로드맵 확정 및 차세대 ‘베라(Vera)’-‘루빈(Rubin)’ 플랫폼 공개


1. 제품 출시 주기 가속화 (One-Year Cadence)
전략적 변화: 젠슨 황 CEO는 기존의 2년 주기 아키텍처 업데이트 관행을 완전히 폐기하고, 매년 새로운 아키텍처를 선보이는 '1년 주기(Annual Cadence)' 로드맵을 공식화함. 이는 경쟁사와의 기술 격차를 압도적으로 유지하겠다는 의지로 풀이됨.

로드맵 흐름: 2024년 블랙웰(Blackwell) → 2025년 블랙웰 울트라(Blackwell Ultra) → 2026년 루빈(Rubin) → 2027년 루빈 울트라(Rubin Ultra)로 이어지는 촘촘한 출시 일정을 제시.


2. 차세대 컴퓨팅 플랫폼: 루빈(Rubin) GPU & 베라(Vera) CPU
루빈(Rubin) GPU: 블랙웰의 뒤를 잇는 차세대 GPU로, 이전 세대 대비 추론 및 학습 성능이 비약적으로 향상됨.

베라(Vera) CPU: 엔비디아가 자체 설계한 최신 Arm 기반 CPU. 루빈 GPU와 결합하여 'Vera Rubin 수퍼칩'을 구성하며, 데이터 처리 효율을 극대화함.

HBM4 최초 채택: 루빈 GPU는 업계 최초로 차세대 고대역폭 메모리인 HBM4(12단 및 16단)를 탑재할 예정임. 이를 통해 AI 연산의 최대 병목 구간인 메모리 대역폭 문제를 해결.


3. 네트워킹 및 인프라 혁신
Vera Rubin 네트워킹: 초당 1,600Gb(1.6Tbps)의 경이로운 데이터 전송 속도를 지원하는 차세대 이더넷 및 인피니밴드 스위치를 공개함. 이는 수만 개의 GPU를 하나의 거대한 가상 GPU처럼 연결하는 'AI 팩토리' 구현의 핵심 요소

NVLink 6세대: GPU 간 통신 속도를 더욱 높인 신규 NVLink 기술을 통해 랙(Rack) 단위의 컴퓨팅 파워를 극대화.


4. 소프트웨어 및 생태계 (NIMs & Omniverse)
NVIDIA NIM(Inference Microservices): 기업들이 복잡한 설정 없이 즉시 AI 모델을 배포할 수 있도록 돕는 소프트웨어 패키지 'NIM'의 대대적인 확장을 발표.

디지털 트윈 기반 로보틱스: 옴니버스(Omniverse)를 통해 가상 세계에서 먼저 로봇을 학습시키고 실물에 이식하는 '물리적 AI' 전략을 강조하며, 전 세계 제조 공정의 디지털화를 선언


5. 시장 및 공급망 전략
제조 파트너 다변화: 기존 TSMC 중심의 생산 체제에서 벗어나 일부 신규 칩(Groq 3 등)에서 삼성전자와의 협력을 공식화하며 공급망 리스크 분산을 시도

젠슨 황은 향후 2년간 약 1조 달러 규모의 AI 하드웨어 매출을 달성할 수 있다는 자신감을 내비치며, 하이퍼스케일러뿐만 아니라 일반 기업(Enterprise) 시장으로의 확장을 예고


https://www.cnbc.com/2026/03/16/nvidia-gtc-2026-ceo-jensen-huang-keynote-blackwell-vera-rubin.html
이런 거 보면 시장에선 너무 엔비디아한테 박하게 평가하는 게 아닌가 싶긴한데요
AI 인프라의 단위가 칩 → 서버 → 랙 → POD → AI 팩토리로 확장되고 있으며 엔비디아의 로드맵은 순항하고 있습니다.
베라 루빈을 단순 빠른 제품 혹은 빠른 GPU가 아닌 인공지능 표준 플랫폼으로 확장할 심산인 거 같네요
엔비디아의 강점 중 하나는 공급망을 장악하고 있다는 거죠
이를 바탕으로 빠른 신제품 출시로 시장의 점유율을 더욱 견고히 할 것으로 생각합니다
밸류도 많이 싸진 상황으로 긍정적 관점 지속합니다


-------------------------------------------------------------------------------------------
"NVIDIA Vera Rubin Opens Agentic AI Frontier | NVIDIA Newsroom"

* NVIDIA가 Vera Rubin을 차세대 AI 인프라 플랫폼으로 공개. 단일 GPU/서버가 아니라 CPU·GPU·네트워킹·스토리지·추론 가속기까지 묶은 랙·POD 단위 AI 팩토리 플랫폼으로 agentic AI 시대를 겨냥한 것이 핵심

- Vera Rubin 플랫폼은 Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 Ethernet, 그리고 새로 통합된 Groq 3 LPU까지 포함하는 구조

- NVIDIA는 이를 “7개의 새로운 칩, 5개의 랙, 하나의 거대한 AI 슈퍼컴퓨터”라고 표현: 사전학습(pretraining), 후학습(post-training), test-time scaling, agentic inference까지 AI 전 과정에 최적화된 인프라라고 설명

* 랙별 구성
- 가장 핵심 제품은 Vera Rubin NVL72 랙. 72개 Rubin GPU와 36개 Vera CPU를 NVLink 6로 연결, ConnectX-9와 BlueField-4도 포함

- NVIDIA는 이 시스템이 대형 MoE 모델 학습에서 Blackwell 대비 4분의 1 수준 GPU 수로도 가능

- 추론에서는 와트당 최대 10배 높은 처리량, 토큰당 비용 10분의 1 수준의 효율을 제공

- 별도로 Vera CPU Rack도 제시. 강화학습과 agentic AI에서 필요한 대규모 CPU 환경을 담당
> 256개 Vera CPU를 집적한 액침/수랭 기반 인프라로, 전통적 CPU 대비 50% 더 빠르고 2배 더 효율적이라고 설명
> GPU 랙과 결합해 대규모 에이전트 검증·시뮬레이션 환경을 담당하는 역할

- NVIDIA Groq 3 LPX Rack
> LPX 랙은 256개 LPU 프로세서, 128GB 온칩 SRAM, 640TB/s scale-up bandwidth를 갖추며, Vera Rubin과 함께 동작해 초저지연·초대형 컨텍스트 추론을 겨냥
> NVIDIA는 이를 통해 MW당 추론 처리량 최대 35배, 초거대 모델에서 매출 기회 10배를 언급
> 특히 “trillion-parameter, million-token context” 급 워크로드를 위한 고급 추론 인프라라는 메시지가 강함

- 스토리지 측면에서는 BlueField-4 STX Storage Rack을 발표
> LLM과 agentic AI에서 생기는 대규모 KV 캐시를 POD 전체 차원에서 저장·공유하는 AI 전용 스토리지 계층
> NVIDIA는 새 DOCA Memos 프레임워크를 통해 범용 스토리지 대비 추론 처리량 최대 5배 향상
> 장기 문맥 유지와 멀티턴 에이전트 상호작용에 유리하다고 강조

- 네트워킹은 Spectrum-6 SPX Ethernet Rack
> 랙 간 east-west 트래픽을 가속하기 위한 네트워크 계층
> Spectrum-X Ethernet 또는 Quantum-X800 InfiniBand 구성 모두 지원
> co-packaged optics 기반 photonics로 광전력 효율 최대 5배, 복원력 10배를 주장

- 전력·데이터센터
> NVIDIA는 Vera Rubin과 함께 DSX 플랫폼도 발표
> DSX Max-Q와 DSX Flex가 포함되며, 고정된 전력 한도 안에서 30% 더 많은 AI 인프라 배치 가능
> 전력망 유연성을 통해 100GW의 stranded grid power를 활용할 수 있다고 설명
> 성능뿐 아니라 전력 제약이 심한 데이터센터 현실까지 겨냥한 발표

- 생태계 지원
> 클라우드 측에서는 AWS, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure가 포함
> NVIDIA Cloud Partners로는 CoreWeave, Crusoe, Lambda, Nebius, Nscale, Together AI가 언급
> 서버 제조사로는 Cisco, Dell, HPE, Lenovo, Supermicro 등이 Vera Rubin 기반 시스템을 제공할 예정
> Anthropic, Meta, Mistral AI, OpenAI 같은 프런티어 모델 업체들이 더 큰 모델 학습과 장문맥 멀티모달 서비스에 활용할 것이라고 언급

- 출시 일정
> Vera Rubin 기반 제품은 2026년 하반기부터 파트너사를 통해 공급 시작 예정
> 많은 제품과 기능은 여전히 개발 단계에 있고 출시 시점과 사양은 변경 가능


https://nvidianews.nvidia.com/news/nvidia-vera-rubin-platform
"NVIDIA Launches Vera CPU, Purpose-Built for Agentic AI | NVIDIA Newsroom"

* NVIDIA가 Vera CPU 공개: 범용 서버 CPU가 아니라 agentic AI와 강화학습(RL) 워크로드에 맞춰 설계된 전용 CPU라는 점이 핵심. 기존 전통적 랙 스케일 CPU 대비 50% 더 빠르고, 효율은 2배

* NVIDIA는 agentic AI가 확산될수록 모델 자체뿐 아니라 이를 뒷받침하는 오케스트레이션·데이터 처리·툴 실행 인프라가 중요해지며, Vera가 바로 그 역할을 맡는다고 설명

* Vera는 88개의 NVIDIA 자체 설계 Olympus 코어를 탑재
> 각 코어가 두 개 작업을 처리하는 NVIDIA Spatial Multithreading을 지원
> LPDDR5X 기반 저전력 메모리 서브시스템으로 최대 1.2TB/s 메모리 대역폭을 제공
> NVIDIA는 이를 범용 CPU 대비 대역폭은 2배, 전력은 절반 수준이라고 설명
> 즉, 컴파일러, 런타임 엔진, 분석 파이프라인, 에이전트 툴링, 오케스트레이션 같은 CPU 중심 작업을 고밀도로 돌리기 위한 구조

* agentic AI는 단순히 토큰만 생성하는 것이 아니라, 다수의 에이전트가 동시에 툴을 호출하고 코드 실행 환경을 띄우고 외부 데이터와 상호작용해야 함
> NVIDIA는 Vera CPU 랙 하나로 256개 수랭 Vera CPU를 집적해 22,500개 이상의 동시 CPU 환경을 풀성능으로 운영할 수 있다고 밝힘
> GPU가 추론·학습을 맡는 동안 CPU는 대규모 병렬 에이전트 실행 환경을 관리하는 컨트롤 플레인 + 데이터 플레인 역할을 담당하는 구조로 해석

* Rubin 플랫폼 안에서의 역할
> Vera는 독립 CPU 제품이면서 동시에 Vera Rubin NVL72 플랫폼의 CPU 축
> Vera CPU와 GPU를 NVLink-C2C로 연결해 1.8TB/s coherent bandwidth를 제공한다고 설명
> PCIe Gen 6의 7배 대역폭이라고 밝힘
> Vera는 HGX Rubin NVL8 시스템의 호스트 CPU로도 쓰이며, GPU 가속 워크로드의 데이터 이동과 시스템 제어를 담당
> 결국 Rubin 플랫폼에서 Vera는 단순 범용 CPU가 아니라 GPU 클러스터를 실질적으로 움직이는 운영 두뇌 역할

* NVIDIA는 Vera 기반 시스템이 강화학습, agentic inference, 데이터 처리, 오케스트레이션, 스토리지 관리, 클라우드 애플리케이션, HPC에 적합하다고 설명
> 모든 구성에 ConnectX SuperNIC와 BlueField-4 DPU가 함께 들어가 네트워킹·스토리지·보안까지 가속한다고 밝힘
> CPU 단품 판매가 아니라, CPU+NIC+DPU가 결합된 AI 인프라 표준 스택으로 밀고 있는 모습

* 생태계 채택 상황
> 배포 협력사: Alibaba, ByteDance, Meta, Oracle Cloud Infrastructure 등
> 클라우드 및 AI 인프라 사업자: CoreWeave, Lambda, Nebius, Nscale, Crusoe, Together.AI, Vultr, Cloudflare 등
> 제조 파트너: Dell, HPE, Lenovo, Supermicro, ASUS, Foxconn, GIGABYTE, Pegatron, QCT, Wiwynn 등

https://nvidianews.nvidia.com/news/nvidia-launches-vera-cpu-purpose-built-for-agentic-ai
NVIDIA Launches Space Computing, Rocketing AI Into Orbit | NVIDIA Newsroom

* NVIDIA가 우주 컴퓨팅(space computing) 을 공식 발표:, 핵심은 위성·궤도 데이터센터·우주선 안에서도 AI를 직접 돌릴 수 있게 하는 온오빗(on-orbit) AI 인프라를 구축하겠다는 것. 즉, 지상으로 데이터를 다 내려보내 처리하던 방식에서 벗어나 우주에서 바로 분석·판단·자율운용을 하게 만드는 전략

* 이번 발표에서 NVIDIA는 세 가지 계층을 제시: 우주-지상 전체를 하나의 AI 컴퓨팅 체계로 묶겠다는 구조
1. 우주 궤도 안에서 직접 AI를 돌리는 NVIDIA Space-1 Vera Rubin Module
2. 임무 수행용 엣지 AI 플랫폼인 IGX Thor와 Jetson Orin
3. 지상에서 대규모 위성·지리공간 데이터를 처리하는 RTX PRO 6000 Blackwell Server Edition

* 문제의식: 위성, 레이더, RF 센서, 지구관측 장비가 만들어내는 데이터가 너무 많아지면서, 모든 데이터를 지상으로 내려보낸 뒤 처리하면 지연시간(latency), 대역폭, 비용 문제가 커진다는 것. 우주선·위성 자체에서 바로 AI가 판단해야 한다는 논리. NVIDIA는 이를 통해 실시간 감지, 실시간 의사결정, 자율성 강화가 가능해진다고 설명

* Space-1 Vera Rubin Module
> 크기·무게·전력(SWaP) 제약이 큰 곳에서도 데이터센터급 AI 성능을 제공하도록 설계
> NVIDIA는 H100과 비교해, 이 모듈에 들어가는 Rubin GPU가 우주 기반 추론에서 최대 25배 더 많은 AI compute를 제공한다고 주장
> 용도는 궤도 데이터센터(ODC), 고급 지리공간 정보 처리, 자율 우주 운용
> 우주 안에서 LLM이나 파운데이션 모델까지 돌릴 수 있는 계산 노드를 만들겠다는 뜻

* IGX Thor와 Jetson Orin
> IGX Thor: 산업용·미션 크리티컬 환경용. 실시간 AI 처리, 기능 안전, secure boot, 자율 운용을 지원하는 플랫폼. 우주선이 센서 데이터를 현지에서 바로 처리하고, 대역폭을 아끼며, 지상 통제와 연동된 상태에서 더 빠르게 대응할 수 있게 하는 역할
> Jetson Orin: 더 작은 초소형 엣지 모듈. 비전·항법·센서 데이터를 우주선 기내에서 바로 처리하는 데 초점. IGX Thor는 더 견고한 미션 플랫폼, Jetson Orin은 소형 위성/탑재체용 AI 엣지 모듈

* NVIDIA는 우주에서만 처리하는 게 아니라, 지상에서도 대규모 위성 데이터 아카이브 분석을 가속하겠다고 밝힘
> RTX PRO 6000 Blackwell Server Edition GPU는 전통적인 CPU 기반 배치 처리 대비 최대 100배 빠른 성능으로 방대한 이미지 아카이브 분석을 지원
> 온오빗 실시간 처리 + 지상 대규모 후처리를 함께 묶는 구조

* NVIDIA는 활용처로 재난 대응 및 환경 모니터링, 기후·날씨 예측, 인프라·자원 관리를 제시

* 파트너사
> Aetherflux: 궤도 AI 인프라와 자율 운용
> Kepler: 위성 네트워크 내 데이터 라우팅
> Planet: 지구관측 이미지 분석
> Sophia Space: 모듈형 우주 컴퓨팅 인프라
> Starcloud: 우주용 데이터센터 구축

* IGX Thor, Jetson Orin, RTX PRO 6000 Blackwell Server Edition GPU는 현재 사용 가능
> Space-1 Vera Rubin Module은 추후 출시 예정
> 가장 상징적인 온오빗 데이터센터용 Rubin 모듈은 아직 나중 단계

https://nvidianews.nvidia.com/news/space-computing
NVIDIA Launches BlueField-4 STX Storage Architecture With Broad Industry Adoption

* NVIDIA가 BlueField-4 STX 공개: 핵심은 agentic AI 시대에 필요한 장문맥(context memory) 저장 계층을 새로 정의한 것
>기존 스토리지가 단순 저장소였다면, STX는 추론 중간의 컨텍스트와 KV cache를 빠르게 공급하는 AI 전용 스토리지 아키텍처로 포지셔닝

* 전통적인 데이터센터 스토리지는 용량은 크지만, AI 에이전트가 여러 단계·여러 도구·여러 세션을 오가며 추론할 때 필요한 초저지연 컨텍스트 접근성이 부족
> NVIDIA는 컨텍스트가 길어질수록 기존 스토리지 경로가 추론을 느리게 하고 GPU 활용률도 떨어뜨림
> STX는 데이터를 더 가깝고 빠르게 공급해, inference·training·analytics 전반에서 AI 팩토리의 응답성과 처리량을 끌어올리려는 구조

* STX는 단일 카드가 아니라 모듈형 reference architecture
> 기존 스토리지 대비 최대 5배 tokens/sec, 최대 4배 에너지 효율, 2배 빠른 데이터 ingestion 제공

* STX는 storage-optimized BlueField-4 processor를 중심으로, Vera CPU, ConnectX-9 SuperNIC, Spectrum-X Ethernet, DOCA, NVIDIA AI Enterprise 소프트웨어를 결합한 구조
> 단순 SSD 박스가 아니라, CPU·NIC·DPU·네트워크·소프트웨어를 한 묶음으로 최적화한 AI 스토리지 패브릭에 가까움
> 핵심은 “저장”보다 GPU가 추론 중 필요한 컨텍스트를 끊기지 않게 공급하는 메모리 계층이라는 점

* 스토리지의 역할이 바뀌고 있다는 데 있음
> 과거에는 스토리지가 데이터를 “보관”하는 것이 핵심이었다면, agentic AI에서는 스토리지가 실시간 working memory 역할까지 해야 함
> 긴 문맥, 멀티세션, 툴 호출, 검색 증강, 장시간 reasoning이 늘어날수록 KV cache와 context state를 얼마나 빠르게 불러오느냐가 GPU 효율과 추론 비용에 직접 연결되기 때문

* 파트너
> 초기 STX 도입 예정 고객: CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure, Vultr
> 스토리지 파트너: Cloudian, DDN, Dell Technologies, Everpure, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data, WEKA
> 제조 파트너: AIC, Supermicro, QCT가 포함

* STX 기반 플랫폼은 2026년 하반기부터 파트너사를 통해 제공될 예정


http://nvidianews.nvidia.com/news/nvidia-launches-bluefield-4-stx-storage-architecture-with-broad-industry-adoption
엔비디아가 다 먹겠다는 그림을 내놨네요
Vera Rubin, Vera CPU, DSX가 AI 팩토리 인프라였다면, NemoClaw는 그 위에서 돌아갈 개인용/로컬 에이전트 소프트웨어 스택으로
NVIDIA가 데이터센터용 AI 인프라뿐 아니라, 개인 단말에서 돌아가는 항시형 에이전트 운영체제 레이어까지 선점하려는 구상으로 보이네요

---------------------------------------------------

NVIDIA Announces NemoClaw for the OpenClaw Community

* NemoClaw 공개: OpenClaw 기반 개인 AI 에이전트/항시 동작형 AI 비서를 더 쉽게 설치, 보안·프라이버시 가드레일을 붙여 실제 사용 가능한 형태로 만들겠다는 구상
> 모델 발표라기보다 개인용 에이전트 운영 스택 발표

* NemoClaw는 OpenClaw 에이전트 플랫폼 위에 NVIDIA Nemotron 모델과 새로 발표한 NVIDIA OpenShell 런타임을 한 줄 명령(single command)로 설치하게 해주는 스택
> 이를 통해 자율형 AI 에이전트를 더 신뢰 가능하고, 확장 가능하며, 접근 가능하게 만든다고 설명

* “에이전트를 만드는 것” 자체보다, 에이전트가 항상 켜져서 작업을 대신 수행하려면 권한 통제, 네트워크 가드레일, 데이터 프라이버시, 샌드박스 실행 환경이 필요
> NemoClaw는 NVIDIA Agent Toolkit으로 OpenClaw를 최적화, OpenShell을 통해 오픈 모델 실행과 격리된 sandbox를 제공: 보안·프라이버시 계층을 더함

* NemoClaw는 로컬 시스템에서 실행되는 오픈 모델, 예를 들어 NVIDIA Nemotron 같은 모델을 사용할 수 있고, 동시에 privacy router를 통해 클라우드의 frontier model도 쓸 수 있게 설계
> 민감한 작업은 로컬에서 돌리고, 필요한 경우 클라우드 모델도 혼합 사용하는 하이브리드 에이전트 구조를 지향

* NVIDIA는 항상 켜져 있는 자율형 에이전트가 실제로 일하려면 전용 컴퓨팅 자원이 필요하다고 강조
> NemoClaw는 GeForce RTX PC/노트북, RTX PRO 워크스테이션, DGX Station, DGX Spark 같은 전용 시스템에서 24시간 실행될 수 있다고 설명
> 앞으로는 AI가 클라우드 챗봇에 머무는 게 아니라, 개인 전용 하드웨어 위에서 상시 작동하는 personal AI로 간다는 것

https://nvidianews.nvidia.com/news/nvidia-announces-nemoclaw
Nvidia CEO Jensen Huang on Monday said he sees purchase orders of up to $1 trillion for two of the company’s key AI chip technologies, double that of the $500 billion forecast last year.

Huang’s remarks came at his company’s annual developers conference in California. "We saw $500 billion of very high confidence demand and purchase orders for Blackwell and Rubin through 2026. I said that last year," Huang said. "Right here where I stand, I see, through 2027, at least $1 trillion dollars," he added. 


https://www.investing.com/news/stock-market-news/ai-inference-will-be-in-focus-when-nvidias-ceo-speaks-on-monday-heres-why-4563076
Forwarded from 루팡
엔비디아 GTC 중- Blackwell/ Rubin 수요 전망: 2027년까지 최소 1조 달러

젠슨 황: 작년 GTC에서 저는 2026년까지
Blackwell과 Rubin에 대한 매우 높은 확신의 수요가 5,000억 달러
라고 말씀드렸습니다.

그런데 지금, 불과 1년 뒤 이 자리에 서서 보면
2027년까지 최소 1조 달러의 수요가 보입니다.


그리고 저는 실제 수요는 그보다 더 클 것이라고 확신합니다.
Groq LPU 베라루빈에 추가
GTC 2026
젠슨 황 "삼성 파운드리에서 그록 LPX 생산, 하반기 출하"
루빈 HBM4
루빈 울트라 HBM4e
파인만 커스텀 HBM

CPO, 카파(구리회로) 모두 중하다
젠슨 황 삼성X그록 관련 멘트

"I want to thank Samsung, who manufactures the groq LP 3 chip for us and they're cranking as hard as they can.

I really appreciate appreciate you guys. We're in production with the groq chip and you know, we'll ship it in the second half, probably about Q3 timeframe."
그록과 삼성 파운드리 간 협력은 2023년부터 이어졌습니다. 엔비디아가 그록 칩(LPU)을 본격적으로 루빈 플랫폼에 편입시키면서 삼파의 일감이 더 늘어날 것으로 보입니다
이번 GTC 기조연설 영상 사이사이 노출된 한국기업.

=삼성전자 (팹 장비+디지털트윈 융합 기술)
=SK텔레콤 (데이터센터 관련)
=에이로봇(로봇 스타트업)
=보스턴다이내믹스(현대차 계열 로봇회사, 아틀라스)