LSKP CFO의 개인 공간❤️
1.08K subscribers
21K photos
172 videos
248 files
23K links
해외 / 국내 경제, 증시 및 다양한 이슈를 전달합니다!

협업 문의 : yeominyoon1981@gmail.com

Disclaimer

- 본 채널/유튜브에서 업로드 되는 모든 종목은 작성자 및 작성자와 연관된 사람들이 보유하고 있을 가능성이 있습니다. 또한, 해당 종목 및 상품은 언제든 매도할 수 있습니다.

- 본 게시물에 올라온 종목 및 상품에 대한 투자 의사 결정 시, 전적으로 투자자의 책임과 판단하에 진행됨을 알립니다.
Download Telegram
Forwarded from iM전략 김준영
[iM증권 김준영]
[주식전략]
★ 사모대출의 그림자와 불편한 EM: 하방 지지력을 확인하는 구간

사모대출 시장의 구조적 균열과 유동성 경색
- 지급능력 vs 유동성: 현재 사모대출 시장의 스트레스는 차주의 전면적 지급불능(Solvency)보다는 환매 압력에 따른 유동성(Liquidity) 경색에 가까운 상태임.
- 구조적 취약성: 시가 평가 부재와 만기 불일치(비유동자산 대 단기 상환 약속) 구조로 인해, 불투명한 장부가 가치에 대한 불신이 펀드런(Fund Run)을 자극하고 있음.
- 소프트웨어 섹터 리스크: 2022~23년 집중 집행된 소프트웨어 기업 대출이 AI 디스럽션 내러티브와 맞물리며 담보가치 하락 및 차입 여력 축소의 핵심 고리가 됨.

하이퍼스케일러의 견고한 신용과 증시 영향
- 가해자이지 피해자가 아님: 하이퍼스케일러(M7 등)는 대규모 Capex 투자를 주도하는 AI 인프라의 수혜자로, 소프트웨어 섹터의 부실 우려와는 신용도가 차별화됨.
- 방어주 지위 강화: 사모대출 이슈가 불거질수록 현금 흐름이 확실한 M7의 지위는 견고해질 것이며, 이는 미국 증시의 하방을 지지하는 요인이 됨.
- 한국 시장 차별화: 글로벌 조정 국면에서 한국 증시 내 AI 관련 섹터와 비관련 종목 간의 온도 차이가 심화될 가능성이 큼.

유가 급등에 따른 수요 파괴 임계점 점검
- 글로벌 임계치: 글로벌 명목 GDP 대비 원유 비용 5% 임계치는 브렌트유 기준 약 $160/bbl이며, $128/bbl 수준부터 수요 파괴 압력이 가시화됨.
- 한국의 취약성: 에너지 수입 의존도가 높은 한국은 글로벌 평균보다 임계치가 낮아, 유가 $100/bbl 수준에서도 이미 GDP 대비 원유 비용 비율이 5.2%에 달해 조기 타격이 가능함.
- 공급 충격 리스크: 현재의 유가 상승은 경기 확장보다 공급 교란 성격이 강해, 기업 마진 축소 등에 따른 증시 약보합세 가능성이 높음. 보수적 접근이 필요한 구간임.

반도체 수급 변동성과 하방 지지력
- 기술적 매도: 최근 삼성전자, SK하이닉스에서 나타난 강한 매도세는 업황 둔화보다는 헤지펀드들의 '모멘텀' 쏠림 해소 따른 기술적 대응의 결과이기도 함.
- 개인 수급의 안전판: 매크로 불확실성에도 불구하고 개인 투자자들의 구조적 순매수 흐름이 지수의 하방 경직성을 확보하는 결정적 역할을 수행 중임.
- 중장기 추세 유효: OECD 경기 선행지수상 확장 국면의 끝자락에 위치해 있으나, AI 중심의 투자 동력이 훼손되지 않는 한 중장기 상향 추세는 여전히 유효하나 모니터링 필요.


<보고서: https://lrl.kr/XQT5>

감사합니다
Forwarded from Decoded Narratives
헤지펀드와 재무부에 있던 이의 기고: 나는 2008년 금융위기를 예측했다. 앞으로 닥칠 일은 그보다 더 나쁠 수도 있다 - NYT

결론
1) 위기는 한 사건이 아니라 연쇄 전염 발생. 현재 금융 시스템은 복잡하고 서로 강하게 연결: 에너지 충격>AI 비용 상승>Big Tech 밸류에이션 하락>증시 하락> 프라이빗 크레딧 환매> 금융위기
2) 문제는 위기 시 투자자 행동: 프라이빗 크레딧은 쉽게 매도할 수 없음. 그래서 투자자들은 팔고 싶은 자산이 아니라 팔 수 있는 자산을 팜. 즉 유동성 높은 대형 기술주가 매도 대상이 될 가능성이 큼


자세한 내용
1. 현재 금융 시스템은 2008년과 다른 형태의 위기 구조: '08년 위기는 금융상품 구조(CDO, MBS 등)가 문제였음. 지금은 금융 시스템이 전력, 반도체, 공급망 같은 물리적 인프라와 강하게 연결되어 있음. 금융 리스크는 가격을 움직이지만, 물리적 리스크(현쟤)는 실제 경제 시스템을 흔듬.

2. 위험은 한 곳이 아니라 여러 영역에 동시에 존재: 현재 주요 리스크는 인공지능, 약 2조 달러 규모의 프라이빗 크레딧 시장, 주식시장 집중도 상승, 대만 반도체 리스크, 이란 에너지 리스크. 이들은 각각 독립적인 문제가 아니라 하나의 시스템 안에서 서로 연결된 위험.

3. 프라이빗 크레딧이 가장 취약한 고리: 지난 20년 동안 은행은 대출을 줄였고 기관투자자가 기업 대출을 대신하기 시작. 문제점은 거래가 거의 없어 유동성이 낮으며, 가격 투명성이 낮으며, 위기 시 투자자 환매가 발생할 수 있음. 이미 일부 투자자들은 알다시피 Blue Owl, BlackRock, Blackstone 등의 프라이빗 크레딧 펀드에서 자금을 인출하고 있음.

4. AI 산업과 프라이빗 크레딧이 강하게 연결: 프라이빗 크레딧은 다음과 같은 AI 인프라 투자에 사용됨. 데이터센터, 반도체, 클라우드 인프라. 구조는 다음과 같음: Private Credit → AI 인프라 투자 → Big Tech → 주식시장 → 연금 및 개인 포트폴리오. 즉 한 곳이 흔들리면 전체 시스템으로 충격이 전파될 수 있음.

5. 주식시장 집중도가 역사적으로 매우 높은 수준: 현재 상위 10개 기업이 S&P500 시가총액의 약 1/3을 차지. 이 의미는 Big Tech에 충격이 발생하면 시장 전체가 영향을 받는 구조.

6. 지정학 리스크가 AI 산업에 직접 영향
1) 이란 사태로 에너지 가격 상승 가능, 전력 비용 상승 → 데이터센터 운영 비용 증가.
2) 대만: 세계 반도체 공급의 핵심으로 중국이 침공하거나 봉쇄할 경우: AI 산업 성장 둔화 가능

7. 2008년 위기와의 차이
1) 2008년: 부동산 버블, 금융공학 구조 문제, 금융 시스템 내부 충격
2) 현재: 에너지, 반도체, AI 인프라 및 지정학 즉 금융 시스템과 실제 경제 인프라가 결합된 구조.

#NARRATIVE
JP모건) 호르무즈 해협 통항이 갈수록 조건부로 변할 수 있습니다

호르무즈 해협을 통과하는 교통량은 더욱 감소했으며 현재는 관측 가능한 흐름의 약 98%가 이란산으로 압도적인 비중을 차지하고 있고, 3월 초 수출량은 평균 130만 배럴(mbd)을 기록하고 있습니다. 이러한 배경 속에서 미국은 "전 세계에 공급하기 위해" 이란산 석유 화물이 해협을 통과하는 것을 계속 허용할 것이라고 확인했습니다.

이와 동시에, 이란은 검증을 거친 후 선택된 선박들이 해협을 통과하도록 허용하고 있는 것으로 보입니다. 지난 48시간 동안 최소 4척의 선박이 라락-케슘(Larak-Qeshm) 해협으로 잠시 우회하여 호르무즈 해협을 빠져나갔습니다. 이는 선박의 일반적인 경로가 아니며, 미국이나 그 동맹국과 관련이 없는 선박의 통항을 허용하기 위해 선박의 소유권과 화물을 확인하도록 설계된 절차를 반영하는 것일 수 있습니다. 통항한 선박에는 벌크선 3척과 파키스탄 소속으로 알려진 아프라막스(Aframax) 유조선 1척이 포함됩니다(그림 1).

해협을 통과하는 원유의 대부분은 아시아 지역 구매자들을 향합니다. 중국이 단연 최대 수입국이며 인도, 일본, 한국이 그 뒤를 잇고 있습니다. 이들 4개국은 이 주요 길목(chokepoint)을 통해 운송되는 석유의 약 4분의 3을 차지하며, 중국 한 국가만 전체 흐름의 3분의 1 이상을 차지합니다. 그보다 적은 물량이 대만, 파키스탄 및 일부 유럽 국가로 이동합니다(그림 2 및 3).

이러한 수요 프로필에 대응하여, 중국, 인도, 파키스탄, 튀르키예를 포함한 여러 대형 수입국들은 선박의 안전한 통항을 확보하기 위해 테헤란과 회담을 개시하거나 조치를 취했습니다. 이들은 해협을 통해 약 760만 배럴(mbd)의 석유(대부분 원유)를 수입하고 있으며, 이란으로부터 대체로 중립적이거나 우호적인 국가로 간주되어 우선적인 접근권을 얻을 가능성이 가장 높습니다(표 1). 이와 대조적으로, 추가로 460만 배럴(mbd)의 흐름을 차지하는 일본, 한국, 영국, 프랑스, 이탈리아 등 서방 성향의 수입국들은 테헤란과 직접 협상하기보다는 주로 미국과 조율하며 해군 호위 옵션을 모색하고 있습니다. 다른 수입국들이 적극적인 협상을 벌이고 있다는 보고는 없습니다.

실제로는 이로 인해 해협이 공식적으로 폐쇄되지는 않았지만, 통항이 점점 더 테헤란과의 정치적 합의에 의존하는 시스템이 형성되고 있습니다. 현재 고려 중인 서방 해군의 호위 옵션에 대한 더 명확한 정보가 나오기를 기다리고 있습니다.
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
» 트럼프 대통령은 호르무즈 해협의 안전을 확보하기 위해 다른 국가들의 지원을 재차 요구. 이란과의 전쟁이 이어지면서 글로벌 원유 시장과 해운 물류가 계속해서 영향을 받고 있으며, 이란은 이미 거의 파괴된 수준이라고 주장

» 한편 여러 국가들이 지원을 위해 이동 중이라고 설명하면서도, 일부 국가는 적극적인 반면 일부 국가는 그렇지 않다고 언급. 특히 미국이 오랜 기간 동안 보호와 지원을 제공해 온 국가들 중 일부가 이번 요청에 충분히 행동하지 않고 있다고 이야기하며 불만을 표명

» 이란의 주요 원유 수출 거점인 카르그 섬에 대한 추가 공격 가능성도 언급하며 지속적인 군사 압박 의지 강조
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
🔹호르무즈 해협을 두고 더 복잡해진 각국의 정치, 경제적 입장

» 미국이 호르무즈 해협에 대한 동맹국들의 지원을 요청했지만, 주요 동맹국들 가운데 상당수가 이에 참여하지 않겠다는 입장을 보이고 있는 상황

» 독일은 이번 작전에 참여하지 않겠다는 입장을 명확히 밝혔으며, 일본과 호주 역시 지원을 위해 군함을 파견할 가능성이 낮은 상황

» 영국과 프랑스는 가능한 대응 방안을 검토하고는 있지만, 전투 상황이 종료되기 전에 구체적인 행동에 나설지 여부는 불명확

» 이 가운데 트럼프 대통령은 지난 주말에도 "We will remember."라고 언급하며 비협조시 미래에 좋지 않은 결과가 있을 것이라고 경고

» 한편 아바스 아라그치 이란 외무부 장관은 호르무즈 해협이 "적들과 그들의 공격을 지원하는 자들"에게만 닫혀 있다고 재차 강조. 실제 중국과 인도, 파키스탄의 선박은 호르무즈 해협을 통과 중인 것으로 확인되고 있는 상황
트럼프 대통령은 호르무즈 해협에서 미국은 어느 나라의 도움도 필요하지 않다고 말했지만, “그들이 어떻게 반응하는지 보고 싶기 때문에” 지원을 요청하고 있다고 밝혔다.

"우리는 누구의 도움도 필요 없다. 우리는 세계에서 가장 강력한 국가다. 우리는 단연코 세계에서 가장 강력한 군대를 보유하고 있다"라고 트럼프 대통령은 말하며, 2001년 9·11 테러 이후 아프가니스탄에서 미국을 지원하기 위해 연합군에 가담했음에도 불구하고 북대서양조약기구(NATO) 회원국들이 미국을 돕지 않는다는 비판을 되풀이했다.

https://www.wsj.com/livecoverage/iran-war-us-israel-latest-news-2026/card/trump-we-don-t-need-anybody-for-strait-of-hormuz-rQfaDFmoWRMlY75YlURK?gaa_at=eafs&gaa_n=AWEtsqdfZ4n8ARL6Q-_5zpn-Czxmi7A5_xys7LeIx1wMa-Aslm1HU0RqcYj3dt2RkaM=&gaa_ts=69b84b9f&gaa_sig=1IlsUnkb0Mw_1qbZ2Fr5BrWeZqOLOmclbSUvwxTKwcHTBVSBxUuckO5XniRVVZlHBGBv_9EEHsZHYO7xmqF8hA==
트럼프, 미중 정상회담 한달 연기 요청

t.me/jkc123
도널드 트럼프 미국 대통령은 현재 진행 중인 이란 전쟁 때문에 시진핑 중국 국가주석과의 정상회담을 약 “한 달 정도” 미루도록 중국에 요청

Trump says U.S. asked China to delay Xi meeting 'a month or so' due to Iran war

https://www.cnbc.com/2026/03/16/trump-china-iran-xi-war-trade.html?__source=iosappshare%7Ccom.apple.UIKit.activity.CopyToPasteboard
모건스탠리 3월 FOMC Preview: 유가 충격 국면에서 연준의 선택은 금리 동결 또는 인하

- 3월 FOMC에서는 연준이 금리를 동결할 것으로 예상됨. 다만 향후 가이던스에서는 올해 25bp, 내년 25bp 인하 전망을 유지하며 최종 금리는 3.0~3.25% 수준으로 제시될 가능성이 높음. 이번 회의에서는 금리 인하를 주장하는 3명의 소수 의견이 나타날 것으로 예상됨.

- 업데이트되는 경제 전망에서는 헤드라인 인플레이션은 상향, 성장률은 둔화, 그러나 점도표는 변화 없을 것으로 전망됨. 이 경우 연준은 유가 상승에 따른 인플레이션을 일시적 요인으로 보고 정책적으로 크게 대응하지 않는 ‘look through’ 접근을 취할 가능성이 높음.

- 핵심 변수는 유가 충격에 대한 연준의 대응 방식임. 현재 판단으로는 연준이 금리 인상이나 인상 가능성을 시사할 가능성은 낮음. 정책적으로는 에너지 가격 상승에 따른 헤드라인 물가 압력을 일시적 요인으로 간주하고 금리를 동결하거나, 경제 활동이 약화될 경우 금리 인하로 대응하는 것이 적절한 방향으로 평가됨.

- 금리 전략 측면에서는 미국 국채 듀레이션과 커브에 대해 중립 포지션 유지가 권고됨. 또한 2년물 미 국채 SOFR 스왑 스프레드 롱 포지션과 6월 FOMC OIS 금리 received 포지션(금리 인하 베팅 포지션) 유지 전략 제시됨.

- 외환 전략에서는 파월 의장이 에너지 가격 상승에 따른 인플레이션을 크게 대응하지 않을 경우 달러에는 하방 리스크 존재하는 것으로 판단됨. 다만 외환시장에서는 유가 흐름이 핵심 변수로 작용할 전망임. 중동 지역 긴장이 완화될 경우 과도하게 쌓여 있는 유로 숏 포지션 영향으로 EUR/USD가 숏 스퀴즈 형태로 상승할 가능성도 존재함.

* 당사 컴플라이언스의 승인을 받아 발송되었습니다
[Web발신]
안녕하십니까
유진투자증권 허재환입니다.

=2008년 데자뷰(?)=

* 유가 급등과 AI 거품 우려, 그리고 사모대출 시장 불안은 2008년을 상기시킵니다. 데자뷰입니다.

* 분위기는 좋지 않습니다. 지난해 9월 Tricolors(자동차 대출업체), First Brands(자동차 부품업체)가 사기로 파산한 것을 시작으로,

* 25/1월에는 블랙록, Apollo 등 사모대출 운용사들이 부실 대출(전자상거래 Razor, 주택개조업체 Renovo 등)로 손실을 기록했습니다.

* 지난 2~3월에는 블루아울, 블랙록, 모건스탠리, 클리프워터 등이 잇따른 고객들의 환매 요청에 대응하지 못했습니다.

* 투자자들이 이탈하기 시작한 것입니다. 2008년 리먼사태 이전 2007년 BNP파리바 펀드 환매 중단, 2008년초 베어스턴스 파산 등을 생각나게 합니다.

* BIS에 따르면 AI기업들의 사모대출 규모가 2천억 달러로, 전체 사모대출의 1/3을 차지합니다. AI가 흔들리면 사모대출이 흔들리고, 금융시스템을 흔들 여지가 있습니다.

* 문제는 두 가지입니다. 1) 자산운용사들이 대출해줄 때 이들 기업들의 부도위험 또는 손실위험을 과소평가했을 가능성이 매우 높다는 점입니다.

* 2) 자산운용사들뿐 아니라 생보사, 일부 은행 등 금융기관들이 사모대출시장에 진출해 익스포져가 있다는 사실입니다.

* 하지만 2008년과의 결정적인 차이는 레버리지와 규모입니다.

* 2008년 당시 CDO라는 주택담보부증권은 자기자본 대비 대출 자산을 30배 이상 보유하고 있었습니다. 반면 사모대출은 펀드 자기자본 대비 대출자산 규모가 2배 이내입니다.

* 2008년 당시 서브프라임 주택대출 규모는 미국 GDP의 73%였습니다. 반면 사모대출(2.1조 달러)는 미국 GDP의 8%, 글로벌 GDP의 2%입니다.

* 2.1조 달러 규모는 미국 하이일드 채권 시장 1.4~1.5조 달러에 비해 커서, 적지 않습니다. 그래도 2008년과는 비교하기 이릅니다.

* 유가와 금리가 불안해지는 상황에서는 사모대출 시장 불안은 위협적입니다. 그러나 언제 터질지 모르는 심장질환 보다는 시간을 가지고 고쳐야 하는 암과 같아 보입니다.

좋은 하루 되십시오
ttps://t.me/huhjae
Forwarded from [KB 채권] 임재균, 박문현🙂 (임재균)
중간선거에서 하원은 민주당의 승리를 보고 있음
Forwarded from [KB 채권] 임재균, 박문현🙂 (임재균)
상원도 이제 박빙
Forwarded from 루팡
엔비디아 NVIDIA GTC 2026

1. 엔비디아의 정체성: 단순 칩 회사가 아닌 ‘플랫폼 기업’

젠슨 황은 엔비디아가 단순한 하드웨어 제조사를 넘어 세 가지 핵심 플랫폼을 가진 기업임을 천명했습니다.

3대 플랫폼: CUDA-X(소프트웨어), Systems(하드웨어 시스템), AI Factories(인프라).

AI의 5개 층: 부지/전력 등 기초 인프라부터 칩, 플랫폼, 모델, 그리고 최종 애플리케이션까지 전체 생태계를 아우릅니다.

CUDA의 해자: 20년간 축적된 설치 기반(Installed Base)이 개발자를 끌어들이고, 이것이 다시 새로운 알고리즘과 시장을 만드는 강력한 '플라이휠' 효과를 냅니다.


-데이터 처리 생태계의 진화: 구조화 및 비정형 데이터 정복

구조화된 데이터 (QDF - CUDA Data Frames): 기업 컴퓨팅의 뼈대인 데이터 프레임 처리를 가속화합니다. IBM, Dell, Google Cloud와의 협력을 통해 데이터 마트 워크로드를 최대 5배 빠르게 실행하고 컴퓨팅 비용을 약 80%까지 절감하는 성과를 냈습니다.

비정형 데이터 (QVS - CUDA Vector Stores): 전 세계 데이터의 90%를 차지하는 PDF, 비디오, 음성 등의 비정형 데이터를 AI의 다중 모달리티 이해 기술을 통해 검색 가능한 구조로 변환하고 인덱싱합니다.

-수직적 통합과 수평적 개방 전략
엔비디아는 칩부터 시스템, 알고리즘까지 '수직적'으로 통합되어 있으면서도, 전 세계 클라우드 서비스 제공업체(AWS, Azure, Google Cloud 등) 및 파트너들과 '수평적'으로 개방되어 협력합니다. 특히 금융, 헬스케어, 자율주행 등 산업별 맞춤형 CUDA X 라이브러리(cuDNN, cuOpt 등)를 지속적으로 발표하며 핵심 자산으로 활용하고 있습니다.


2. 컴퓨팅 수요의 폭발적 증가와 'AI 네이티브' 시대

-AI 네이티브 기업의 부상과 투자 집중
기존 대기업뿐만 아니라 OpenAI, Anthropic과 같은 'AI 네이티브' 스타트업들이 폭발적으로 성장하고 있습니다. 이들은 막대한 컴퓨팅 자원(토큰)을 필요로 하며, 이를 지원하기 위해 역사상 최대 규모인 1,500억 달러 이상의 벤처 투자가 이루어졌습니다.


-생성형 AI에서 에이전트 시스템으로의 진화
생성형 AI & 추론 AI: ChatGPT의 등장 이후, 단순히 데이터를 검색하는 것을 넘어 고유 콘텐츠를 생성하고, 스스로 문제를 분해하며 검증하는 추론 AI 단계로 진입했습니다.

에이전트 시스템 (Cloud Code): 코드를 읽고, 작성하며, 테스트까지 자율적으로 수행하는 에이전트 모델이 등장했습니다. 이제 AI는 "무엇을 할까"가 아니라 "직접 구축하고 실행하라"는 명령을 수행합니다.

추론 컴퓨팅 수요 1만 배 폭증: AI가 생각하고 행동할 때마다 토큰 생성을 위한 '추론' 컴퓨팅이 필요합니다. 지난 2년간 컴퓨팅 수요는 1만 배, 사용량은 100배 증가하여, 엔비디아는 2027년까지 최소 1조 달러 규모의 거대한 인프라 수요가 발생할 것으로 전망했습니다.


3. 토큰을 생산하는 거대한 공장: 'AI 팩토리'

데이터 센터에서 토큰 팩토리로의 전환
과거 파일을 저장하던 데이터 센터는 이제 전력을 소비해 지능(토큰)을 생산하는 'AI 팩토리'로 탈바꿈했습니다. 한정된 전력(예: 1기가와트) 내에서 얼마나 많은 토큰을 생산할 수 있는지가 가장 중요한 지표가 되었습니다.

Grace Blackwell MVLink 72와 한계 돌파
엔비디아는 추론 성능을 극대화하기 위해 시스템을 재설계하여 Grace Blackwell MVLink 72를 선보였습니다. NVFP4 기술과 극단적인 하드웨어-소프트웨어 공동 설계(Co-design)를 통해 무어의 법칙을 아득히 뛰어넘는 최대 50배의 성능 향상을 이뤄내며 세계에서 가장 저렴한 '토큰 생산 단가'를 달성했습니다.


4. AI 슈퍼컴퓨팅의 정점: 에이전트 AI를 위한 'Vera Rubin'
엔비디아는 초기 딥러닝용 DGX-1부터 Hopper, Blackwell을 거쳐, 에이전트 AI 시대에 완벽히 최적화된 새로운 플랫폼 Vera Rubin을 공개했습니다.

-압도적 스펙과 효율성: 3.6 엑사플롭스의 연산 능력과 260TB/s의 NVLink 대역폭을 제공합니다. 100% 액체 냉각 방식을 채택해 복잡한 케이블을 없애고 설치 시간을 2일에서 단 2시간으로 단축했습니다.

-Grok 시스템과 CPO 기술: 세계 최초로 칩에 광학 부품을 직접 통합한 CPO(Co-Packaged Optics) 기반의 Spectrum X 스위치와 Grok 시스템을 양산하여 데이터 전송의 병목을 없앴습니다.

-강력한 통합 인프라: 에이전트 워크플로우에 최적화된 Vera CPU, 전 세계 스토리지 산업이 참여하는 BlueField 4 STX AI 네이티브 스토리지를 하나로 묶어 거대한 단일 컴퓨터(AI 슈퍼컴퓨터)를 완성했습니다.


5. 토큰 경제(Token Economy)와 엔비디아의 로드맵
가치에 따른 토큰 계층화 비즈니스
초고속 모델, 대규모 컨텍스트를 다루는 프리미엄 작업과 일반적인 무료 작업에 따라 토큰 생성 가격이 나뉘는 '토큰 경제'가 도래합니다.

분리된 추론(Disaggregated Inference)과 아키텍처 로드맵
Vera Rubin의 범용적인 처리량(Throughput) 워크로드와 Grok 칩의 초저지연(Latency) 디코딩 워크로드를 이더넷으로 긴밀하게 연결하는 소프트웨어 혁신(Dynamo)을 이루었습니다. 이를 통해 고가치 토큰 생성 작업에서 성능을 35배나 끌어올렸습니다. 향후 엔비디아는 Blackwell ➔ Rubin ➔ Rubin Ultra ➔ Feynman으로 이어지는 아키텍처 로드맵을 통해 매년 새로운 혁신을 이어갈 계획입니다.


6. AI 팩토리의 디지털 트윈: NVIDIA DSX
천문학적인 전력이 소비되는 AI 팩토리의 효율을 극대화하기 위해 가상 설계 플랫폼인 Omniverse DSX를 발표했습니다. 파트너사들은 이 가상 공간에서 하드웨어, 열, 전력, 네트워크 시뮬레이션을 완벽하게 테스트할 수 있습니다.
가동 이후에는 디지털 트윈과 AI 에이전트(Phaedra, Emerald)가 협력하여 냉각과 전력을 실시간으로 조율해 전력 낭비를 없앱니다. 엔비디아는 이를 기반으로 향후 냉각 문제를 해결한 우주 데이터 센터(Vera Rubin Space 1)까지 구상하고 있습니다.


7. 에이전트 생태계의 윈도우(OS): OpenClaw
에이전트 컴퓨터를 위한 운영 체제
OpenClaw는 파일 시스템 접근, 도구 사용, 하위 에이전트 호출 등을 관리하는 에이전트 시스템의 실질적인 운영 체제(OS)입니다. 리눅스(Linux)가 이룬 혁신을 단 몇 주 만에 재현하며 폭발적인 반응을 얻고 있습니다.

NemoClaw와 기업용 보안, 그리고 오픈 모델
기업 네트워크 내에서 에이전트가 안전하게 활동할 수 있도록 정책 엔진과 보안 가드레일을 결합한 NemoClaw(엔비디아 OpenClaw 레퍼런스)를 제공합니다. 또한 언어(Nemotron 3 Ultra), 물리 세계 생성(Cosmos), 자율 주행(Alpamayo), 범용 로봇(Groot) 등 최고 수준의 모델군을 오픈소스로 제공하여 누구나 자신만의 AI 생태계를 구축할 수 있도록 지원합니다.


8. 현실 세계로 뛰어나온 AI: 물리 AI와 로봇 공학
디지털 공간을 넘어 현실 세계에서 작동하는 물리적 에이전트가 본격화됩니다. 이를 위해 엔비디아는 훈련 컴퓨터, 시뮬레이션 컴퓨터, 로봇 탑재 컴퓨터라는 3대 핵심 컴퓨팅 환경을 제공합니다.

자율 주행의 도약
: 자율 주행 분야에 스스로 추론하고 상황을 판단하는 Alpamayo 모델이 적용되었습니다. BYD, 현대, Uber 등과 협력하는 Robo-taxi Ready 플랫폼을 기반으로 연간 1,800만 대 규모의 자율 주행 생태계를 구축하고 있습니다.

산업용 로봇과 시뮬레이션: 현실 세계의 데이터를 전부 수집할 수 없으므로, Isaac Lab과 Cosmos World Models 등의 시뮬레이터를 통해 가상 세계에서 물리 법칙을 학습합니다. 디즈니의 Olaf 로봇처럼 시뮬레이션에서 훈련받은 로봇이 현실 세계로 매끄럽게 적응하는 시대가 열렸습니다.

https://x.com/DrNHJ/status/2033685816103551184?s=20
1년 주기 로드맵 확정 및 차세대 ‘베라(Vera)’-‘루빈(Rubin)’ 플랫폼 공개


1. 제품 출시 주기 가속화 (One-Year Cadence)
전략적 변화: 젠슨 황 CEO는 기존의 2년 주기 아키텍처 업데이트 관행을 완전히 폐기하고, 매년 새로운 아키텍처를 선보이는 '1년 주기(Annual Cadence)' 로드맵을 공식화함. 이는 경쟁사와의 기술 격차를 압도적으로 유지하겠다는 의지로 풀이됨.

로드맵 흐름: 2024년 블랙웰(Blackwell) → 2025년 블랙웰 울트라(Blackwell Ultra) → 2026년 루빈(Rubin) → 2027년 루빈 울트라(Rubin Ultra)로 이어지는 촘촘한 출시 일정을 제시.


2. 차세대 컴퓨팅 플랫폼: 루빈(Rubin) GPU & 베라(Vera) CPU
루빈(Rubin) GPU: 블랙웰의 뒤를 잇는 차세대 GPU로, 이전 세대 대비 추론 및 학습 성능이 비약적으로 향상됨.

베라(Vera) CPU: 엔비디아가 자체 설계한 최신 Arm 기반 CPU. 루빈 GPU와 결합하여 'Vera Rubin 수퍼칩'을 구성하며, 데이터 처리 효율을 극대화함.

HBM4 최초 채택: 루빈 GPU는 업계 최초로 차세대 고대역폭 메모리인 HBM4(12단 및 16단)를 탑재할 예정임. 이를 통해 AI 연산의 최대 병목 구간인 메모리 대역폭 문제를 해결.


3. 네트워킹 및 인프라 혁신
Vera Rubin 네트워킹: 초당 1,600Gb(1.6Tbps)의 경이로운 데이터 전송 속도를 지원하는 차세대 이더넷 및 인피니밴드 스위치를 공개함. 이는 수만 개의 GPU를 하나의 거대한 가상 GPU처럼 연결하는 'AI 팩토리' 구현의 핵심 요소

NVLink 6세대: GPU 간 통신 속도를 더욱 높인 신규 NVLink 기술을 통해 랙(Rack) 단위의 컴퓨팅 파워를 극대화.


4. 소프트웨어 및 생태계 (NIMs & Omniverse)
NVIDIA NIM(Inference Microservices): 기업들이 복잡한 설정 없이 즉시 AI 모델을 배포할 수 있도록 돕는 소프트웨어 패키지 'NIM'의 대대적인 확장을 발표.

디지털 트윈 기반 로보틱스: 옴니버스(Omniverse)를 통해 가상 세계에서 먼저 로봇을 학습시키고 실물에 이식하는 '물리적 AI' 전략을 강조하며, 전 세계 제조 공정의 디지털화를 선언


5. 시장 및 공급망 전략
제조 파트너 다변화: 기존 TSMC 중심의 생산 체제에서 벗어나 일부 신규 칩(Groq 3 등)에서 삼성전자와의 협력을 공식화하며 공급망 리스크 분산을 시도

젠슨 황은 향후 2년간 약 1조 달러 규모의 AI 하드웨어 매출을 달성할 수 있다는 자신감을 내비치며, 하이퍼스케일러뿐만 아니라 일반 기업(Enterprise) 시장으로의 확장을 예고


https://www.cnbc.com/2026/03/16/nvidia-gtc-2026-ceo-jensen-huang-keynote-blackwell-vera-rubin.html
이런 거 보면 시장에선 너무 엔비디아한테 박하게 평가하는 게 아닌가 싶긴한데요
AI 인프라의 단위가 칩 → 서버 → 랙 → POD → AI 팩토리로 확장되고 있으며 엔비디아의 로드맵은 순항하고 있습니다.
베라 루빈을 단순 빠른 제품 혹은 빠른 GPU가 아닌 인공지능 표준 플랫폼으로 확장할 심산인 거 같네요
엔비디아의 강점 중 하나는 공급망을 장악하고 있다는 거죠
이를 바탕으로 빠른 신제품 출시로 시장의 점유율을 더욱 견고히 할 것으로 생각합니다
밸류도 많이 싸진 상황으로 긍정적 관점 지속합니다


-------------------------------------------------------------------------------------------
"NVIDIA Vera Rubin Opens Agentic AI Frontier | NVIDIA Newsroom"

* NVIDIA가 Vera Rubin을 차세대 AI 인프라 플랫폼으로 공개. 단일 GPU/서버가 아니라 CPU·GPU·네트워킹·스토리지·추론 가속기까지 묶은 랙·POD 단위 AI 팩토리 플랫폼으로 agentic AI 시대를 겨냥한 것이 핵심

- Vera Rubin 플랫폼은 Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 Ethernet, 그리고 새로 통합된 Groq 3 LPU까지 포함하는 구조

- NVIDIA는 이를 “7개의 새로운 칩, 5개의 랙, 하나의 거대한 AI 슈퍼컴퓨터”라고 표현: 사전학습(pretraining), 후학습(post-training), test-time scaling, agentic inference까지 AI 전 과정에 최적화된 인프라라고 설명

* 랙별 구성
- 가장 핵심 제품은 Vera Rubin NVL72 랙. 72개 Rubin GPU와 36개 Vera CPU를 NVLink 6로 연결, ConnectX-9와 BlueField-4도 포함

- NVIDIA는 이 시스템이 대형 MoE 모델 학습에서 Blackwell 대비 4분의 1 수준 GPU 수로도 가능

- 추론에서는 와트당 최대 10배 높은 처리량, 토큰당 비용 10분의 1 수준의 효율을 제공

- 별도로 Vera CPU Rack도 제시. 강화학습과 agentic AI에서 필요한 대규모 CPU 환경을 담당
> 256개 Vera CPU를 집적한 액침/수랭 기반 인프라로, 전통적 CPU 대비 50% 더 빠르고 2배 더 효율적이라고 설명
> GPU 랙과 결합해 대규모 에이전트 검증·시뮬레이션 환경을 담당하는 역할

- NVIDIA Groq 3 LPX Rack
> LPX 랙은 256개 LPU 프로세서, 128GB 온칩 SRAM, 640TB/s scale-up bandwidth를 갖추며, Vera Rubin과 함께 동작해 초저지연·초대형 컨텍스트 추론을 겨냥
> NVIDIA는 이를 통해 MW당 추론 처리량 최대 35배, 초거대 모델에서 매출 기회 10배를 언급
> 특히 “trillion-parameter, million-token context” 급 워크로드를 위한 고급 추론 인프라라는 메시지가 강함

- 스토리지 측면에서는 BlueField-4 STX Storage Rack을 발표
> LLM과 agentic AI에서 생기는 대규모 KV 캐시를 POD 전체 차원에서 저장·공유하는 AI 전용 스토리지 계층
> NVIDIA는 새 DOCA Memos 프레임워크를 통해 범용 스토리지 대비 추론 처리량 최대 5배 향상
> 장기 문맥 유지와 멀티턴 에이전트 상호작용에 유리하다고 강조

- 네트워킹은 Spectrum-6 SPX Ethernet Rack
> 랙 간 east-west 트래픽을 가속하기 위한 네트워크 계층
> Spectrum-X Ethernet 또는 Quantum-X800 InfiniBand 구성 모두 지원
> co-packaged optics 기반 photonics로 광전력 효율 최대 5배, 복원력 10배를 주장

- 전력·데이터센터
> NVIDIA는 Vera Rubin과 함께 DSX 플랫폼도 발표
> DSX Max-Q와 DSX Flex가 포함되며, 고정된 전력 한도 안에서 30% 더 많은 AI 인프라 배치 가능
> 전력망 유연성을 통해 100GW의 stranded grid power를 활용할 수 있다고 설명
> 성능뿐 아니라 전력 제약이 심한 데이터센터 현실까지 겨냥한 발표

- 생태계 지원
> 클라우드 측에서는 AWS, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure가 포함
> NVIDIA Cloud Partners로는 CoreWeave, Crusoe, Lambda, Nebius, Nscale, Together AI가 언급
> 서버 제조사로는 Cisco, Dell, HPE, Lenovo, Supermicro 등이 Vera Rubin 기반 시스템을 제공할 예정
> Anthropic, Meta, Mistral AI, OpenAI 같은 프런티어 모델 업체들이 더 큰 모델 학습과 장문맥 멀티모달 서비스에 활용할 것이라고 언급

- 출시 일정
> Vera Rubin 기반 제품은 2026년 하반기부터 파트너사를 통해 공급 시작 예정
> 많은 제품과 기능은 여전히 개발 단계에 있고 출시 시점과 사양은 변경 가능


https://nvidianews.nvidia.com/news/nvidia-vera-rubin-platform
"NVIDIA Launches Vera CPU, Purpose-Built for Agentic AI | NVIDIA Newsroom"

* NVIDIA가 Vera CPU 공개: 범용 서버 CPU가 아니라 agentic AI와 강화학습(RL) 워크로드에 맞춰 설계된 전용 CPU라는 점이 핵심. 기존 전통적 랙 스케일 CPU 대비 50% 더 빠르고, 효율은 2배

* NVIDIA는 agentic AI가 확산될수록 모델 자체뿐 아니라 이를 뒷받침하는 오케스트레이션·데이터 처리·툴 실행 인프라가 중요해지며, Vera가 바로 그 역할을 맡는다고 설명

* Vera는 88개의 NVIDIA 자체 설계 Olympus 코어를 탑재
> 각 코어가 두 개 작업을 처리하는 NVIDIA Spatial Multithreading을 지원
> LPDDR5X 기반 저전력 메모리 서브시스템으로 최대 1.2TB/s 메모리 대역폭을 제공
> NVIDIA는 이를 범용 CPU 대비 대역폭은 2배, 전력은 절반 수준이라고 설명
> 즉, 컴파일러, 런타임 엔진, 분석 파이프라인, 에이전트 툴링, 오케스트레이션 같은 CPU 중심 작업을 고밀도로 돌리기 위한 구조

* agentic AI는 단순히 토큰만 생성하는 것이 아니라, 다수의 에이전트가 동시에 툴을 호출하고 코드 실행 환경을 띄우고 외부 데이터와 상호작용해야 함
> NVIDIA는 Vera CPU 랙 하나로 256개 수랭 Vera CPU를 집적해 22,500개 이상의 동시 CPU 환경을 풀성능으로 운영할 수 있다고 밝힘
> GPU가 추론·학습을 맡는 동안 CPU는 대규모 병렬 에이전트 실행 환경을 관리하는 컨트롤 플레인 + 데이터 플레인 역할을 담당하는 구조로 해석

* Rubin 플랫폼 안에서의 역할
> Vera는 독립 CPU 제품이면서 동시에 Vera Rubin NVL72 플랫폼의 CPU 축
> Vera CPU와 GPU를 NVLink-C2C로 연결해 1.8TB/s coherent bandwidth를 제공한다고 설명
> PCIe Gen 6의 7배 대역폭이라고 밝힘
> Vera는 HGX Rubin NVL8 시스템의 호스트 CPU로도 쓰이며, GPU 가속 워크로드의 데이터 이동과 시스템 제어를 담당
> 결국 Rubin 플랫폼에서 Vera는 단순 범용 CPU가 아니라 GPU 클러스터를 실질적으로 움직이는 운영 두뇌 역할

* NVIDIA는 Vera 기반 시스템이 강화학습, agentic inference, 데이터 처리, 오케스트레이션, 스토리지 관리, 클라우드 애플리케이션, HPC에 적합하다고 설명
> 모든 구성에 ConnectX SuperNIC와 BlueField-4 DPU가 함께 들어가 네트워킹·스토리지·보안까지 가속한다고 밝힘
> CPU 단품 판매가 아니라, CPU+NIC+DPU가 결합된 AI 인프라 표준 스택으로 밀고 있는 모습

* 생태계 채택 상황
> 배포 협력사: Alibaba, ByteDance, Meta, Oracle Cloud Infrastructure 등
> 클라우드 및 AI 인프라 사업자: CoreWeave, Lambda, Nebius, Nscale, Crusoe, Together.AI, Vultr, Cloudflare 등
> 제조 파트너: Dell, HPE, Lenovo, Supermicro, ASUS, Foxconn, GIGABYTE, Pegatron, QCT, Wiwynn 등

https://nvidianews.nvidia.com/news/nvidia-launches-vera-cpu-purpose-built-for-agentic-ai
NVIDIA Launches Space Computing, Rocketing AI Into Orbit | NVIDIA Newsroom

* NVIDIA가 우주 컴퓨팅(space computing) 을 공식 발표:, 핵심은 위성·궤도 데이터센터·우주선 안에서도 AI를 직접 돌릴 수 있게 하는 온오빗(on-orbit) AI 인프라를 구축하겠다는 것. 즉, 지상으로 데이터를 다 내려보내 처리하던 방식에서 벗어나 우주에서 바로 분석·판단·자율운용을 하게 만드는 전략

* 이번 발표에서 NVIDIA는 세 가지 계층을 제시: 우주-지상 전체를 하나의 AI 컴퓨팅 체계로 묶겠다는 구조
1. 우주 궤도 안에서 직접 AI를 돌리는 NVIDIA Space-1 Vera Rubin Module
2. 임무 수행용 엣지 AI 플랫폼인 IGX Thor와 Jetson Orin
3. 지상에서 대규모 위성·지리공간 데이터를 처리하는 RTX PRO 6000 Blackwell Server Edition

* 문제의식: 위성, 레이더, RF 센서, 지구관측 장비가 만들어내는 데이터가 너무 많아지면서, 모든 데이터를 지상으로 내려보낸 뒤 처리하면 지연시간(latency), 대역폭, 비용 문제가 커진다는 것. 우주선·위성 자체에서 바로 AI가 판단해야 한다는 논리. NVIDIA는 이를 통해 실시간 감지, 실시간 의사결정, 자율성 강화가 가능해진다고 설명

* Space-1 Vera Rubin Module
> 크기·무게·전력(SWaP) 제약이 큰 곳에서도 데이터센터급 AI 성능을 제공하도록 설계
> NVIDIA는 H100과 비교해, 이 모듈에 들어가는 Rubin GPU가 우주 기반 추론에서 최대 25배 더 많은 AI compute를 제공한다고 주장
> 용도는 궤도 데이터센터(ODC), 고급 지리공간 정보 처리, 자율 우주 운용
> 우주 안에서 LLM이나 파운데이션 모델까지 돌릴 수 있는 계산 노드를 만들겠다는 뜻

* IGX Thor와 Jetson Orin
> IGX Thor: 산업용·미션 크리티컬 환경용. 실시간 AI 처리, 기능 안전, secure boot, 자율 운용을 지원하는 플랫폼. 우주선이 센서 데이터를 현지에서 바로 처리하고, 대역폭을 아끼며, 지상 통제와 연동된 상태에서 더 빠르게 대응할 수 있게 하는 역할
> Jetson Orin: 더 작은 초소형 엣지 모듈. 비전·항법·센서 데이터를 우주선 기내에서 바로 처리하는 데 초점. IGX Thor는 더 견고한 미션 플랫폼, Jetson Orin은 소형 위성/탑재체용 AI 엣지 모듈

* NVIDIA는 우주에서만 처리하는 게 아니라, 지상에서도 대규모 위성 데이터 아카이브 분석을 가속하겠다고 밝힘
> RTX PRO 6000 Blackwell Server Edition GPU는 전통적인 CPU 기반 배치 처리 대비 최대 100배 빠른 성능으로 방대한 이미지 아카이브 분석을 지원
> 온오빗 실시간 처리 + 지상 대규모 후처리를 함께 묶는 구조

* NVIDIA는 활용처로 재난 대응 및 환경 모니터링, 기후·날씨 예측, 인프라·자원 관리를 제시

* 파트너사
> Aetherflux: 궤도 AI 인프라와 자율 운용
> Kepler: 위성 네트워크 내 데이터 라우팅
> Planet: 지구관측 이미지 분석
> Sophia Space: 모듈형 우주 컴퓨팅 인프라
> Starcloud: 우주용 데이터센터 구축

* IGX Thor, Jetson Orin, RTX PRO 6000 Blackwell Server Edition GPU는 현재 사용 가능
> Space-1 Vera Rubin Module은 추후 출시 예정
> 가장 상징적인 온오빗 데이터센터용 Rubin 모듈은 아직 나중 단계

https://nvidianews.nvidia.com/news/space-computing