Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
» 트럼프 대통령은 호르무즈 해협의 안전을 확보하기 위해 다른 국가들의 지원을 재차 요구. 이란과의 전쟁이 이어지면서 글로벌 원유 시장과 해운 물류가 계속해서 영향을 받고 있으며, 이란은 이미 거의 파괴된 수준이라고 주장
» 한편 여러 국가들이 지원을 위해 이동 중이라고 설명하면서도, 일부 국가는 적극적인 반면 일부 국가는 그렇지 않다고 언급. 특히 미국이 오랜 기간 동안 보호와 지원을 제공해 온 국가들 중 일부가 이번 요청에 충분히 행동하지 않고 있다고 이야기하며 불만을 표명
» 이란의 주요 원유 수출 거점인 카르그 섬에 대한 추가 공격 가능성도 언급하며 지속적인 군사 압박 의지 강조
» 한편 여러 국가들이 지원을 위해 이동 중이라고 설명하면서도, 일부 국가는 적극적인 반면 일부 국가는 그렇지 않다고 언급. 특히 미국이 오랜 기간 동안 보호와 지원을 제공해 온 국가들 중 일부가 이번 요청에 충분히 행동하지 않고 있다고 이야기하며 불만을 표명
» 이란의 주요 원유 수출 거점인 카르그 섬에 대한 추가 공격 가능성도 언급하며 지속적인 군사 압박 의지 강조
[속보] 트럼프, 주한미군 숫자 거론하며 韓 호르무즈 파병 재촉구 | 연합뉴스
https://www.yna.co.kr/view/AKR20260317009100071?input=tw
https://www.yna.co.kr/view/AKR20260317009100071?input=tw
연합뉴스
[속보] 트럼프, 주한미군 숫자 거론하며 韓 호르무즈 파병 재촉구 | 연합뉴스
(
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
🔹호르무즈 해협을 두고 더 복잡해진 각국의 정치, 경제적 입장
» 미국이 호르무즈 해협에 대한 동맹국들의 지원을 요청했지만, 주요 동맹국들 가운데 상당수가 이에 참여하지 않겠다는 입장을 보이고 있는 상황
» 독일은 이번 작전에 참여하지 않겠다는 입장을 명확히 밝혔으며, 일본과 호주 역시 지원을 위해 군함을 파견할 가능성이 낮은 상황
» 영국과 프랑스는 가능한 대응 방안을 검토하고는 있지만, 전투 상황이 종료되기 전에 구체적인 행동에 나설지 여부는 불명확
» 이 가운데 트럼프 대통령은 지난 주말에도 "We will remember."라고 언급하며 비협조시 미래에 좋지 않은 결과가 있을 것이라고 경고
» 한편 아바스 아라그치 이란 외무부 장관은 호르무즈 해협이 "적들과 그들의 공격을 지원하는 자들"에게만 닫혀 있다고 재차 강조. 실제 중국과 인도, 파키스탄의 선박은 호르무즈 해협을 통과 중인 것으로 확인되고 있는 상황
» 미국이 호르무즈 해협에 대한 동맹국들의 지원을 요청했지만, 주요 동맹국들 가운데 상당수가 이에 참여하지 않겠다는 입장을 보이고 있는 상황
» 독일은 이번 작전에 참여하지 않겠다는 입장을 명확히 밝혔으며, 일본과 호주 역시 지원을 위해 군함을 파견할 가능성이 낮은 상황
» 영국과 프랑스는 가능한 대응 방안을 검토하고는 있지만, 전투 상황이 종료되기 전에 구체적인 행동에 나설지 여부는 불명확
» 이 가운데 트럼프 대통령은 지난 주말에도 "We will remember."라고 언급하며 비협조시 미래에 좋지 않은 결과가 있을 것이라고 경고
» 한편 아바스 아라그치 이란 외무부 장관은 호르무즈 해협이 "적들과 그들의 공격을 지원하는 자들"에게만 닫혀 있다고 재차 강조. 실제 중국과 인도, 파키스탄의 선박은 호르무즈 해협을 통과 중인 것으로 확인되고 있는 상황
“동맹국 잇달아 트럼프 호르무즈 해협 파병 요청 거부”-WSJ
https://n.news.naver.com/mnews/article/421/0008829611
유럽 “우리 전쟁 아니다”···트럼프 ‘호르무즈 파병 요구’에 거리 두기
https://n.news.naver.com/mnews/article/032/0003433724
https://n.news.naver.com/mnews/article/421/0008829611
유럽 “우리 전쟁 아니다”···트럼프 ‘호르무즈 파병 요구’에 거리 두기
https://n.news.naver.com/mnews/article/032/0003433724
Naver
“동맹국 잇달아 트럼프 호르무즈 해협 파병 요청 거부”-WSJ
미국의 동맹국들이 트럼프 미국 대통령의 호르무즈 해협 파병 요청을 거부하고 있다고 미국의 월스트리트저널(WSJ)이 16일(현지 시각) 보도했다. 트럼프는 지난 주말 호르무즈 해협을 통과하는 상선을 보호하기 위해 한국
Forwarded from 에테르의 일본&미국 리서치
트럼프 대통령은 호르무즈 해협에서 미국은 어느 나라의 도움도 필요하지 않다고 말했지만, “그들이 어떻게 반응하는지 보고 싶기 때문에” 지원을 요청하고 있다고 밝혔다.
"우리는 누구의 도움도 필요 없다. 우리는 세계에서 가장 강력한 국가다. 우리는 단연코 세계에서 가장 강력한 군대를 보유하고 있다"라고 트럼프 대통령은 말하며, 2001년 9·11 테러 이후 아프가니스탄에서 미국을 지원하기 위해 연합군에 가담했음에도 불구하고 북대서양조약기구(NATO) 회원국들이 미국을 돕지 않는다는 비판을 되풀이했다.
https://www.wsj.com/livecoverage/iran-war-us-israel-latest-news-2026/card/trump-we-don-t-need-anybody-for-strait-of-hormuz-rQfaDFmoWRMlY75YlURK?gaa_at=eafs&gaa_n=AWEtsqdfZ4n8ARL6Q-_5zpn-Czxmi7A5_xys7LeIx1wMa-Aslm1HU0RqcYj3dt2RkaM=&gaa_ts=69b84b9f&gaa_sig=1IlsUnkb0Mw_1qbZ2Fr5BrWeZqOLOmclbSUvwxTKwcHTBVSBxUuckO5XniRVVZlHBGBv_9EEHsZHYO7xmqF8hA==
"우리는 누구의 도움도 필요 없다. 우리는 세계에서 가장 강력한 국가다. 우리는 단연코 세계에서 가장 강력한 군대를 보유하고 있다"라고 트럼프 대통령은 말하며, 2001년 9·11 테러 이후 아프가니스탄에서 미국을 지원하기 위해 연합군에 가담했음에도 불구하고 북대서양조약기구(NATO) 회원국들이 미국을 돕지 않는다는 비판을 되풀이했다.
https://www.wsj.com/livecoverage/iran-war-us-israel-latest-news-2026/card/trump-we-don-t-need-anybody-for-strait-of-hormuz-rQfaDFmoWRMlY75YlURK?gaa_at=eafs&gaa_n=AWEtsqdfZ4n8ARL6Q-_5zpn-Czxmi7A5_xys7LeIx1wMa-Aslm1HU0RqcYj3dt2RkaM=&gaa_ts=69b84b9f&gaa_sig=1IlsUnkb0Mw_1qbZ2Fr5BrWeZqOLOmclbSUvwxTKwcHTBVSBxUuckO5XniRVVZlHBGBv_9EEHsZHYO7xmqF8hA==
The Wall Street Journal
Trump: ‘We Don’t Need Anybody’ for Strait of Hormuz
President Trump said the U.S. doesn’t need any country to help it in the Strait of Hormuz, but that he is asking for support “because I want to find out how they react.”
“We don’t need anybody. We’re the strongest nation in the world. We have the strongest…
“We don’t need anybody. We’re the strongest nation in the world. We have the strongest…
Forwarded from [한투증권 이동연] 글로벌 기업(IT S/W)
도널드 트럼프 미국 대통령은 현재 진행 중인 이란 전쟁 때문에 시진핑 중국 국가주석과의 정상회담을 약 “한 달 정도” 미루도록 중국에 요청
Trump says U.S. asked China to delay Xi meeting 'a month or so' due to Iran war
https://www.cnbc.com/2026/03/16/trump-china-iran-xi-war-trade.html?__source=iosappshare%7Ccom.apple.UIKit.activity.CopyToPasteboard
Trump says U.S. asked China to delay Xi meeting 'a month or so' due to Iran war
https://www.cnbc.com/2026/03/16/trump-china-iran-xi-war-trade.html?__source=iosappshare%7Ccom.apple.UIKit.activity.CopyToPasteboard
CNBC
Trump says U.S. asked China to delay Xi meeting 'a month or so' due to Iran war
This is breaking news. Please refresh for updates.
Forwarded from Pluto Research
미중 정상회담 결국 연기
https://www.washingtonpost.com/national-security/2026/03/16/trump-xi-summit-delayed-iran-hormuz-shipping/
https://www.washingtonpost.com/national-security/2026/03/16/trump-xi-summit-delayed-iran-hormuz-shipping/
The Washington Post
Trump-Xi summit delayed as U.S. president pushes China to help open Hormuz
Trump said the long-anticipated reboot of U.S.-China relations could be postponed by “a month or so,” amid mounting pressure to reopen the critical oil route.
Forwarded from 신영증권/법인영업 해외주식 Inside
모건스탠리 3월 FOMC Preview: 유가 충격 국면에서 연준의 선택은 금리 동결 또는 인하
- 3월 FOMC에서는 연준이 금리를 동결할 것으로 예상됨. 다만 향후 가이던스에서는 올해 25bp, 내년 25bp 인하 전망을 유지하며 최종 금리는 3.0~3.25% 수준으로 제시될 가능성이 높음. 이번 회의에서는 금리 인하를 주장하는 3명의 소수 의견이 나타날 것으로 예상됨.
- 업데이트되는 경제 전망에서는 헤드라인 인플레이션은 상향, 성장률은 둔화, 그러나 점도표는 변화 없을 것으로 전망됨. 이 경우 연준은 유가 상승에 따른 인플레이션을 일시적 요인으로 보고 정책적으로 크게 대응하지 않는 ‘look through’ 접근을 취할 가능성이 높음.
- 핵심 변수는 유가 충격에 대한 연준의 대응 방식임. 현재 판단으로는 연준이 금리 인상이나 인상 가능성을 시사할 가능성은 낮음. 정책적으로는 에너지 가격 상승에 따른 헤드라인 물가 압력을 일시적 요인으로 간주하고 금리를 동결하거나, 경제 활동이 약화될 경우 금리 인하로 대응하는 것이 적절한 방향으로 평가됨.
- 금리 전략 측면에서는 미국 국채 듀레이션과 커브에 대해 중립 포지션 유지가 권고됨. 또한 2년물 미 국채 SOFR 스왑 스프레드 롱 포지션과 6월 FOMC OIS 금리 received 포지션(금리 인하 베팅 포지션) 유지 전략 제시됨.
- 외환 전략에서는 파월 의장이 에너지 가격 상승에 따른 인플레이션을 크게 대응하지 않을 경우 달러에는 하방 리스크 존재하는 것으로 판단됨. 다만 외환시장에서는 유가 흐름이 핵심 변수로 작용할 전망임. 중동 지역 긴장이 완화될 경우 과도하게 쌓여 있는 유로 숏 포지션 영향으로 EUR/USD가 숏 스퀴즈 형태로 상승할 가능성도 존재함.
* 당사 컴플라이언스의 승인을 받아 발송되었습니다
- 3월 FOMC에서는 연준이 금리를 동결할 것으로 예상됨. 다만 향후 가이던스에서는 올해 25bp, 내년 25bp 인하 전망을 유지하며 최종 금리는 3.0~3.25% 수준으로 제시될 가능성이 높음. 이번 회의에서는 금리 인하를 주장하는 3명의 소수 의견이 나타날 것으로 예상됨.
- 업데이트되는 경제 전망에서는 헤드라인 인플레이션은 상향, 성장률은 둔화, 그러나 점도표는 변화 없을 것으로 전망됨. 이 경우 연준은 유가 상승에 따른 인플레이션을 일시적 요인으로 보고 정책적으로 크게 대응하지 않는 ‘look through’ 접근을 취할 가능성이 높음.
- 핵심 변수는 유가 충격에 대한 연준의 대응 방식임. 현재 판단으로는 연준이 금리 인상이나 인상 가능성을 시사할 가능성은 낮음. 정책적으로는 에너지 가격 상승에 따른 헤드라인 물가 압력을 일시적 요인으로 간주하고 금리를 동결하거나, 경제 활동이 약화될 경우 금리 인하로 대응하는 것이 적절한 방향으로 평가됨.
- 금리 전략 측면에서는 미국 국채 듀레이션과 커브에 대해 중립 포지션 유지가 권고됨. 또한 2년물 미 국채 SOFR 스왑 스프레드 롱 포지션과 6월 FOMC OIS 금리 received 포지션(금리 인하 베팅 포지션) 유지 전략 제시됨.
- 외환 전략에서는 파월 의장이 에너지 가격 상승에 따른 인플레이션을 크게 대응하지 않을 경우 달러에는 하방 리스크 존재하는 것으로 판단됨. 다만 외환시장에서는 유가 흐름이 핵심 변수로 작용할 전망임. 중동 지역 긴장이 완화될 경우 과도하게 쌓여 있는 유로 숏 포지션 영향으로 EUR/USD가 숏 스퀴즈 형태로 상승할 가능성도 존재함.
* 당사 컴플라이언스의 승인을 받아 발송되었습니다
Forwarded from 허재환 유진증권 전략
[Web발신]
안녕하십니까
유진투자증권 허재환입니다.
=2008년 데자뷰(?)=
* 유가 급등과 AI 거품 우려, 그리고 사모대출 시장 불안은 2008년을 상기시킵니다. 데자뷰입니다.
* 분위기는 좋지 않습니다. 지난해 9월 Tricolors(자동차 대출업체), First Brands(자동차 부품업체)가 사기로 파산한 것을 시작으로,
* 25/1월에는 블랙록, Apollo 등 사모대출 운용사들이 부실 대출(전자상거래 Razor, 주택개조업체 Renovo 등)로 손실을 기록했습니다.
* 지난 2~3월에는 블루아울, 블랙록, 모건스탠리, 클리프워터 등이 잇따른 고객들의 환매 요청에 대응하지 못했습니다.
* 투자자들이 이탈하기 시작한 것입니다. 2008년 리먼사태 이전 2007년 BNP파리바 펀드 환매 중단, 2008년초 베어스턴스 파산 등을 생각나게 합니다.
* BIS에 따르면 AI기업들의 사모대출 규모가 2천억 달러로, 전체 사모대출의 1/3을 차지합니다. AI가 흔들리면 사모대출이 흔들리고, 금융시스템을 흔들 여지가 있습니다.
* 문제는 두 가지입니다. 1) 자산운용사들이 대출해줄 때 이들 기업들의 부도위험 또는 손실위험을 과소평가했을 가능성이 매우 높다는 점입니다.
* 2) 자산운용사들뿐 아니라 생보사, 일부 은행 등 금융기관들이 사모대출시장에 진출해 익스포져가 있다는 사실입니다.
* 하지만 2008년과의 결정적인 차이는 레버리지와 규모입니다.
* 2008년 당시 CDO라는 주택담보부증권은 자기자본 대비 대출 자산을 30배 이상 보유하고 있었습니다. 반면 사모대출은 펀드 자기자본 대비 대출자산 규모가 2배 이내입니다.
* 2008년 당시 서브프라임 주택대출 규모는 미국 GDP의 73%였습니다. 반면 사모대출(2.1조 달러)는 미국 GDP의 8%, 글로벌 GDP의 2%입니다.
* 2.1조 달러 규모는 미국 하이일드 채권 시장 1.4~1.5조 달러에 비해 커서, 적지 않습니다. 그래도 2008년과는 비교하기 이릅니다.
* 유가와 금리가 불안해지는 상황에서는 사모대출 시장 불안은 위협적입니다. 그러나 언제 터질지 모르는 심장질환 보다는 시간을 가지고 고쳐야 하는 암과 같아 보입니다.
좋은 하루 되십시오
ttps://t.me/huhjae
안녕하십니까
유진투자증권 허재환입니다.
=2008년 데자뷰(?)=
* 유가 급등과 AI 거품 우려, 그리고 사모대출 시장 불안은 2008년을 상기시킵니다. 데자뷰입니다.
* 분위기는 좋지 않습니다. 지난해 9월 Tricolors(자동차 대출업체), First Brands(자동차 부품업체)가 사기로 파산한 것을 시작으로,
* 25/1월에는 블랙록, Apollo 등 사모대출 운용사들이 부실 대출(전자상거래 Razor, 주택개조업체 Renovo 등)로 손실을 기록했습니다.
* 지난 2~3월에는 블루아울, 블랙록, 모건스탠리, 클리프워터 등이 잇따른 고객들의 환매 요청에 대응하지 못했습니다.
* 투자자들이 이탈하기 시작한 것입니다. 2008년 리먼사태 이전 2007년 BNP파리바 펀드 환매 중단, 2008년초 베어스턴스 파산 등을 생각나게 합니다.
* BIS에 따르면 AI기업들의 사모대출 규모가 2천억 달러로, 전체 사모대출의 1/3을 차지합니다. AI가 흔들리면 사모대출이 흔들리고, 금융시스템을 흔들 여지가 있습니다.
* 문제는 두 가지입니다. 1) 자산운용사들이 대출해줄 때 이들 기업들의 부도위험 또는 손실위험을 과소평가했을 가능성이 매우 높다는 점입니다.
* 2) 자산운용사들뿐 아니라 생보사, 일부 은행 등 금융기관들이 사모대출시장에 진출해 익스포져가 있다는 사실입니다.
* 하지만 2008년과의 결정적인 차이는 레버리지와 규모입니다.
* 2008년 당시 CDO라는 주택담보부증권은 자기자본 대비 대출 자산을 30배 이상 보유하고 있었습니다. 반면 사모대출은 펀드 자기자본 대비 대출자산 규모가 2배 이내입니다.
* 2008년 당시 서브프라임 주택대출 규모는 미국 GDP의 73%였습니다. 반면 사모대출(2.1조 달러)는 미국 GDP의 8%, 글로벌 GDP의 2%입니다.
* 2.1조 달러 규모는 미국 하이일드 채권 시장 1.4~1.5조 달러에 비해 커서, 적지 않습니다. 그래도 2008년과는 비교하기 이릅니다.
* 유가와 금리가 불안해지는 상황에서는 사모대출 시장 불안은 위협적입니다. 그러나 언제 터질지 모르는 심장질환 보다는 시간을 가지고 고쳐야 하는 암과 같아 보입니다.
좋은 하루 되십시오
ttps://t.me/huhjae
Telegram
허재환 유진증권 전략
전략
Forwarded from 루팡
엔비디아 NVIDIA GTC 2026
1. 엔비디아의 정체성: 단순 칩 회사가 아닌 ‘플랫폼 기업’
젠슨 황은 엔비디아가 단순한 하드웨어 제조사를 넘어 세 가지 핵심 플랫폼을 가진 기업임을 천명했습니다.
3대 플랫폼: CUDA-X(소프트웨어), Systems(하드웨어 시스템), AI Factories(인프라).
AI의 5개 층: 부지/전력 등 기초 인프라부터 칩, 플랫폼, 모델, 그리고 최종 애플리케이션까지 전체 생태계를 아우릅니다.
CUDA의 해자: 20년간 축적된 설치 기반(Installed Base)이 개발자를 끌어들이고, 이것이 다시 새로운 알고리즘과 시장을 만드는 강력한 '플라이휠' 효과를 냅니다.
-데이터 처리 생태계의 진화: 구조화 및 비정형 데이터 정복
구조화된 데이터 (QDF - CUDA Data Frames): 기업 컴퓨팅의 뼈대인 데이터 프레임 처리를 가속화합니다. IBM, Dell, Google Cloud와의 협력을 통해 데이터 마트 워크로드를 최대 5배 빠르게 실행하고 컴퓨팅 비용을 약 80%까지 절감하는 성과를 냈습니다.
비정형 데이터 (QVS - CUDA Vector Stores): 전 세계 데이터의 90%를 차지하는 PDF, 비디오, 음성 등의 비정형 데이터를 AI의 다중 모달리티 이해 기술을 통해 검색 가능한 구조로 변환하고 인덱싱합니다.
-수직적 통합과 수평적 개방 전략
엔비디아는 칩부터 시스템, 알고리즘까지 '수직적'으로 통합되어 있으면서도, 전 세계 클라우드 서비스 제공업체(AWS, Azure, Google Cloud 등) 및 파트너들과 '수평적'으로 개방되어 협력합니다. 특히 금융, 헬스케어, 자율주행 등 산업별 맞춤형 CUDA X 라이브러리(cuDNN, cuOpt 등)를 지속적으로 발표하며 핵심 자산으로 활용하고 있습니다.
2. 컴퓨팅 수요의 폭발적 증가와 'AI 네이티브' 시대
-AI 네이티브 기업의 부상과 투자 집중
기존 대기업뿐만 아니라 OpenAI, Anthropic과 같은 'AI 네이티브' 스타트업들이 폭발적으로 성장하고 있습니다. 이들은 막대한 컴퓨팅 자원(토큰)을 필요로 하며, 이를 지원하기 위해 역사상 최대 규모인 1,500억 달러 이상의 벤처 투자가 이루어졌습니다.
-생성형 AI에서 에이전트 시스템으로의 진화
생성형 AI & 추론 AI: ChatGPT의 등장 이후, 단순히 데이터를 검색하는 것을 넘어 고유 콘텐츠를 생성하고, 스스로 문제를 분해하며 검증하는 추론 AI 단계로 진입했습니다.
에이전트 시스템 (Cloud Code): 코드를 읽고, 작성하며, 테스트까지 자율적으로 수행하는 에이전트 모델이 등장했습니다. 이제 AI는 "무엇을 할까"가 아니라 "직접 구축하고 실행하라"는 명령을 수행합니다.
추론 컴퓨팅 수요 1만 배 폭증: AI가 생각하고 행동할 때마다 토큰 생성을 위한 '추론' 컴퓨팅이 필요합니다. 지난 2년간 컴퓨팅 수요는 1만 배, 사용량은 100배 증가하여, 엔비디아는 2027년까지 최소 1조 달러 규모의 거대한 인프라 수요가 발생할 것으로 전망했습니다.
3. 토큰을 생산하는 거대한 공장: 'AI 팩토리'
데이터 센터에서 토큰 팩토리로의 전환
과거 파일을 저장하던 데이터 센터는 이제 전력을 소비해 지능(토큰)을 생산하는 'AI 팩토리'로 탈바꿈했습니다. 한정된 전력(예: 1기가와트) 내에서 얼마나 많은 토큰을 생산할 수 있는지가 가장 중요한 지표가 되었습니다.
Grace Blackwell MVLink 72와 한계 돌파
엔비디아는 추론 성능을 극대화하기 위해 시스템을 재설계하여 Grace Blackwell MVLink 72를 선보였습니다. NVFP4 기술과 극단적인 하드웨어-소프트웨어 공동 설계(Co-design)를 통해 무어의 법칙을 아득히 뛰어넘는 최대 50배의 성능 향상을 이뤄내며 세계에서 가장 저렴한 '토큰 생산 단가'를 달성했습니다.
4. AI 슈퍼컴퓨팅의 정점: 에이전트 AI를 위한 'Vera Rubin'
엔비디아는 초기 딥러닝용 DGX-1부터 Hopper, Blackwell을 거쳐, 에이전트 AI 시대에 완벽히 최적화된 새로운 플랫폼 Vera Rubin을 공개했습니다.
-압도적 스펙과 효율성: 3.6 엑사플롭스의 연산 능력과 260TB/s의 NVLink 대역폭을 제공합니다. 100% 액체 냉각 방식을 채택해 복잡한 케이블을 없애고 설치 시간을 2일에서 단 2시간으로 단축했습니다.
-Grok 시스템과 CPO 기술: 세계 최초로 칩에 광학 부품을 직접 통합한 CPO(Co-Packaged Optics) 기반의 Spectrum X 스위치와 Grok 시스템을 양산하여 데이터 전송의 병목을 없앴습니다.
-강력한 통합 인프라: 에이전트 워크플로우에 최적화된 Vera CPU, 전 세계 스토리지 산업이 참여하는 BlueField 4 STX AI 네이티브 스토리지를 하나로 묶어 거대한 단일 컴퓨터(AI 슈퍼컴퓨터)를 완성했습니다.
5. 토큰 경제(Token Economy)와 엔비디아의 로드맵
가치에 따른 토큰 계층화 비즈니스
초고속 모델, 대규모 컨텍스트를 다루는 프리미엄 작업과 일반적인 무료 작업에 따라 토큰 생성 가격이 나뉘는 '토큰 경제'가 도래합니다.
분리된 추론(Disaggregated Inference)과 아키텍처 로드맵
Vera Rubin의 범용적인 처리량(Throughput) 워크로드와 Grok 칩의 초저지연(Latency) 디코딩 워크로드를 이더넷으로 긴밀하게 연결하는 소프트웨어 혁신(Dynamo)을 이루었습니다. 이를 통해 고가치 토큰 생성 작업에서 성능을 35배나 끌어올렸습니다. 향후 엔비디아는 Blackwell ➔ Rubin ➔ Rubin Ultra ➔ Feynman으로 이어지는 아키텍처 로드맵을 통해 매년 새로운 혁신을 이어갈 계획입니다.
6. AI 팩토리의 디지털 트윈: NVIDIA DSX
천문학적인 전력이 소비되는 AI 팩토리의 효율을 극대화하기 위해 가상 설계 플랫폼인 Omniverse DSX를 발표했습니다. 파트너사들은 이 가상 공간에서 하드웨어, 열, 전력, 네트워크 시뮬레이션을 완벽하게 테스트할 수 있습니다.
가동 이후에는 디지털 트윈과 AI 에이전트(Phaedra, Emerald)가 협력하여 냉각과 전력을 실시간으로 조율해 전력 낭비를 없앱니다. 엔비디아는 이를 기반으로 향후 냉각 문제를 해결한 우주 데이터 센터(Vera Rubin Space 1)까지 구상하고 있습니다.
7. 에이전트 생태계의 윈도우(OS): OpenClaw
에이전트 컴퓨터를 위한 운영 체제
OpenClaw는 파일 시스템 접근, 도구 사용, 하위 에이전트 호출 등을 관리하는 에이전트 시스템의 실질적인 운영 체제(OS)입니다. 리눅스(Linux)가 이룬 혁신을 단 몇 주 만에 재현하며 폭발적인 반응을 얻고 있습니다.
NemoClaw와 기업용 보안, 그리고 오픈 모델
기업 네트워크 내에서 에이전트가 안전하게 활동할 수 있도록 정책 엔진과 보안 가드레일을 결합한 NemoClaw(엔비디아 OpenClaw 레퍼런스)를 제공합니다. 또한 언어(Nemotron 3 Ultra), 물리 세계 생성(Cosmos), 자율 주행(Alpamayo), 범용 로봇(Groot) 등 최고 수준의 모델군을 오픈소스로 제공하여 누구나 자신만의 AI 생태계를 구축할 수 있도록 지원합니다.
8. 현실 세계로 뛰어나온 AI: 물리 AI와 로봇 공학
디지털 공간을 넘어 현실 세계에서 작동하는 물리적 에이전트가 본격화됩니다. 이를 위해 엔비디아는 훈련 컴퓨터, 시뮬레이션 컴퓨터, 로봇 탑재 컴퓨터라는 3대 핵심 컴퓨팅 환경을 제공합니다.
자율 주행의 도약: 자율 주행 분야에 스스로 추론하고 상황을 판단하는 Alpamayo 모델이 적용되었습니다. BYD, 현대, Uber 등과 협력하는 Robo-taxi Ready 플랫폼을 기반으로 연간 1,800만 대 규모의 자율 주행 생태계를 구축하고 있습니다.
산업용 로봇과 시뮬레이션: 현실 세계의 데이터를 전부 수집할 수 없으므로, Isaac Lab과 Cosmos World Models 등의 시뮬레이터를 통해 가상 세계에서 물리 법칙을 학습합니다. 디즈니의 Olaf 로봇처럼 시뮬레이션에서 훈련받은 로봇이 현실 세계로 매끄럽게 적응하는 시대가 열렸습니다.
https://x.com/DrNHJ/status/2033685816103551184?s=20
1. 엔비디아의 정체성: 단순 칩 회사가 아닌 ‘플랫폼 기업’
젠슨 황은 엔비디아가 단순한 하드웨어 제조사를 넘어 세 가지 핵심 플랫폼을 가진 기업임을 천명했습니다.
3대 플랫폼: CUDA-X(소프트웨어), Systems(하드웨어 시스템), AI Factories(인프라).
AI의 5개 층: 부지/전력 등 기초 인프라부터 칩, 플랫폼, 모델, 그리고 최종 애플리케이션까지 전체 생태계를 아우릅니다.
CUDA의 해자: 20년간 축적된 설치 기반(Installed Base)이 개발자를 끌어들이고, 이것이 다시 새로운 알고리즘과 시장을 만드는 강력한 '플라이휠' 효과를 냅니다.
-데이터 처리 생태계의 진화: 구조화 및 비정형 데이터 정복
구조화된 데이터 (QDF - CUDA Data Frames): 기업 컴퓨팅의 뼈대인 데이터 프레임 처리를 가속화합니다. IBM, Dell, Google Cloud와의 협력을 통해 데이터 마트 워크로드를 최대 5배 빠르게 실행하고 컴퓨팅 비용을 약 80%까지 절감하는 성과를 냈습니다.
비정형 데이터 (QVS - CUDA Vector Stores): 전 세계 데이터의 90%를 차지하는 PDF, 비디오, 음성 등의 비정형 데이터를 AI의 다중 모달리티 이해 기술을 통해 검색 가능한 구조로 변환하고 인덱싱합니다.
-수직적 통합과 수평적 개방 전략
엔비디아는 칩부터 시스템, 알고리즘까지 '수직적'으로 통합되어 있으면서도, 전 세계 클라우드 서비스 제공업체(AWS, Azure, Google Cloud 등) 및 파트너들과 '수평적'으로 개방되어 협력합니다. 특히 금융, 헬스케어, 자율주행 등 산업별 맞춤형 CUDA X 라이브러리(cuDNN, cuOpt 등)를 지속적으로 발표하며 핵심 자산으로 활용하고 있습니다.
2. 컴퓨팅 수요의 폭발적 증가와 'AI 네이티브' 시대
-AI 네이티브 기업의 부상과 투자 집중
기존 대기업뿐만 아니라 OpenAI, Anthropic과 같은 'AI 네이티브' 스타트업들이 폭발적으로 성장하고 있습니다. 이들은 막대한 컴퓨팅 자원(토큰)을 필요로 하며, 이를 지원하기 위해 역사상 최대 규모인 1,500억 달러 이상의 벤처 투자가 이루어졌습니다.
-생성형 AI에서 에이전트 시스템으로의 진화
생성형 AI & 추론 AI: ChatGPT의 등장 이후, 단순히 데이터를 검색하는 것을 넘어 고유 콘텐츠를 생성하고, 스스로 문제를 분해하며 검증하는 추론 AI 단계로 진입했습니다.
에이전트 시스템 (Cloud Code): 코드를 읽고, 작성하며, 테스트까지 자율적으로 수행하는 에이전트 모델이 등장했습니다. 이제 AI는 "무엇을 할까"가 아니라 "직접 구축하고 실행하라"는 명령을 수행합니다.
추론 컴퓨팅 수요 1만 배 폭증: AI가 생각하고 행동할 때마다 토큰 생성을 위한 '추론' 컴퓨팅이 필요합니다. 지난 2년간 컴퓨팅 수요는 1만 배, 사용량은 100배 증가하여, 엔비디아는 2027년까지 최소 1조 달러 규모의 거대한 인프라 수요가 발생할 것으로 전망했습니다.
3. 토큰을 생산하는 거대한 공장: 'AI 팩토리'
데이터 센터에서 토큰 팩토리로의 전환
과거 파일을 저장하던 데이터 센터는 이제 전력을 소비해 지능(토큰)을 생산하는 'AI 팩토리'로 탈바꿈했습니다. 한정된 전력(예: 1기가와트) 내에서 얼마나 많은 토큰을 생산할 수 있는지가 가장 중요한 지표가 되었습니다.
Grace Blackwell MVLink 72와 한계 돌파
엔비디아는 추론 성능을 극대화하기 위해 시스템을 재설계하여 Grace Blackwell MVLink 72를 선보였습니다. NVFP4 기술과 극단적인 하드웨어-소프트웨어 공동 설계(Co-design)를 통해 무어의 법칙을 아득히 뛰어넘는 최대 50배의 성능 향상을 이뤄내며 세계에서 가장 저렴한 '토큰 생산 단가'를 달성했습니다.
4. AI 슈퍼컴퓨팅의 정점: 에이전트 AI를 위한 'Vera Rubin'
엔비디아는 초기 딥러닝용 DGX-1부터 Hopper, Blackwell을 거쳐, 에이전트 AI 시대에 완벽히 최적화된 새로운 플랫폼 Vera Rubin을 공개했습니다.
-압도적 스펙과 효율성: 3.6 엑사플롭스의 연산 능력과 260TB/s의 NVLink 대역폭을 제공합니다. 100% 액체 냉각 방식을 채택해 복잡한 케이블을 없애고 설치 시간을 2일에서 단 2시간으로 단축했습니다.
-Grok 시스템과 CPO 기술: 세계 최초로 칩에 광학 부품을 직접 통합한 CPO(Co-Packaged Optics) 기반의 Spectrum X 스위치와 Grok 시스템을 양산하여 데이터 전송의 병목을 없앴습니다.
-강력한 통합 인프라: 에이전트 워크플로우에 최적화된 Vera CPU, 전 세계 스토리지 산업이 참여하는 BlueField 4 STX AI 네이티브 스토리지를 하나로 묶어 거대한 단일 컴퓨터(AI 슈퍼컴퓨터)를 완성했습니다.
5. 토큰 경제(Token Economy)와 엔비디아의 로드맵
가치에 따른 토큰 계층화 비즈니스
초고속 모델, 대규모 컨텍스트를 다루는 프리미엄 작업과 일반적인 무료 작업에 따라 토큰 생성 가격이 나뉘는 '토큰 경제'가 도래합니다.
분리된 추론(Disaggregated Inference)과 아키텍처 로드맵
Vera Rubin의 범용적인 처리량(Throughput) 워크로드와 Grok 칩의 초저지연(Latency) 디코딩 워크로드를 이더넷으로 긴밀하게 연결하는 소프트웨어 혁신(Dynamo)을 이루었습니다. 이를 통해 고가치 토큰 생성 작업에서 성능을 35배나 끌어올렸습니다. 향후 엔비디아는 Blackwell ➔ Rubin ➔ Rubin Ultra ➔ Feynman으로 이어지는 아키텍처 로드맵을 통해 매년 새로운 혁신을 이어갈 계획입니다.
6. AI 팩토리의 디지털 트윈: NVIDIA DSX
천문학적인 전력이 소비되는 AI 팩토리의 효율을 극대화하기 위해 가상 설계 플랫폼인 Omniverse DSX를 발표했습니다. 파트너사들은 이 가상 공간에서 하드웨어, 열, 전력, 네트워크 시뮬레이션을 완벽하게 테스트할 수 있습니다.
가동 이후에는 디지털 트윈과 AI 에이전트(Phaedra, Emerald)가 협력하여 냉각과 전력을 실시간으로 조율해 전력 낭비를 없앱니다. 엔비디아는 이를 기반으로 향후 냉각 문제를 해결한 우주 데이터 센터(Vera Rubin Space 1)까지 구상하고 있습니다.
7. 에이전트 생태계의 윈도우(OS): OpenClaw
에이전트 컴퓨터를 위한 운영 체제
OpenClaw는 파일 시스템 접근, 도구 사용, 하위 에이전트 호출 등을 관리하는 에이전트 시스템의 실질적인 운영 체제(OS)입니다. 리눅스(Linux)가 이룬 혁신을 단 몇 주 만에 재현하며 폭발적인 반응을 얻고 있습니다.
NemoClaw와 기업용 보안, 그리고 오픈 모델
기업 네트워크 내에서 에이전트가 안전하게 활동할 수 있도록 정책 엔진과 보안 가드레일을 결합한 NemoClaw(엔비디아 OpenClaw 레퍼런스)를 제공합니다. 또한 언어(Nemotron 3 Ultra), 물리 세계 생성(Cosmos), 자율 주행(Alpamayo), 범용 로봇(Groot) 등 최고 수준의 모델군을 오픈소스로 제공하여 누구나 자신만의 AI 생태계를 구축할 수 있도록 지원합니다.
8. 현실 세계로 뛰어나온 AI: 물리 AI와 로봇 공학
디지털 공간을 넘어 현실 세계에서 작동하는 물리적 에이전트가 본격화됩니다. 이를 위해 엔비디아는 훈련 컴퓨터, 시뮬레이션 컴퓨터, 로봇 탑재 컴퓨터라는 3대 핵심 컴퓨팅 환경을 제공합니다.
자율 주행의 도약: 자율 주행 분야에 스스로 추론하고 상황을 판단하는 Alpamayo 모델이 적용되었습니다. BYD, 현대, Uber 등과 협력하는 Robo-taxi Ready 플랫폼을 기반으로 연간 1,800만 대 규모의 자율 주행 생태계를 구축하고 있습니다.
산업용 로봇과 시뮬레이션: 현실 세계의 데이터를 전부 수집할 수 없으므로, Isaac Lab과 Cosmos World Models 등의 시뮬레이터를 통해 가상 세계에서 물리 법칙을 학습합니다. 디즈니의 Olaf 로봇처럼 시뮬레이션에서 훈련받은 로봇이 현실 세계로 매끄럽게 적응하는 시대가 열렸습니다.
https://x.com/DrNHJ/status/2033685816103551184?s=20
X (formerly Twitter)
루팡 (@DrNHJ) on X
엔비디아 NVIDIA GTC 2026 $NVDA
1. 엔비디아의 정체성: 단순 칩 회사가 아닌 ‘플랫폼 기업’
젠슨 황은 엔비디아가 단순한 하드웨어 제조사를 넘어 세 가지 핵심 플랫폼을 가진 기업임을 천명했습니다.
3대 플랫폼: CUDA-X(소프트웨어), Systems(하드웨어 시스템), AI Factories(인프라).
AI의 5개
1. 엔비디아의 정체성: 단순 칩 회사가 아닌 ‘플랫폼 기업’
젠슨 황은 엔비디아가 단순한 하드웨어 제조사를 넘어 세 가지 핵심 플랫폼을 가진 기업임을 천명했습니다.
3대 플랫폼: CUDA-X(소프트웨어), Systems(하드웨어 시스템), AI Factories(인프라).
AI의 5개
Forwarded from 하나증권 미국주식 강재구
1년 주기 로드맵 확정 및 차세대 ‘베라(Vera)’-‘루빈(Rubin)’ 플랫폼 공개
1. 제품 출시 주기 가속화 (One-Year Cadence)
전략적 변화: 젠슨 황 CEO는 기존의 2년 주기 아키텍처 업데이트 관행을 완전히 폐기하고, 매년 새로운 아키텍처를 선보이는 '1년 주기(Annual Cadence)' 로드맵을 공식화함. 이는 경쟁사와의 기술 격차를 압도적으로 유지하겠다는 의지로 풀이됨.
로드맵 흐름: 2024년 블랙웰(Blackwell) → 2025년 블랙웰 울트라(Blackwell Ultra) → 2026년 루빈(Rubin) → 2027년 루빈 울트라(Rubin Ultra)로 이어지는 촘촘한 출시 일정을 제시.
2. 차세대 컴퓨팅 플랫폼: 루빈(Rubin) GPU & 베라(Vera) CPU
루빈(Rubin) GPU: 블랙웰의 뒤를 잇는 차세대 GPU로, 이전 세대 대비 추론 및 학습 성능이 비약적으로 향상됨.
베라(Vera) CPU: 엔비디아가 자체 설계한 최신 Arm 기반 CPU. 루빈 GPU와 결합하여 'Vera Rubin 수퍼칩'을 구성하며, 데이터 처리 효율을 극대화함.
HBM4 최초 채택: 루빈 GPU는 업계 최초로 차세대 고대역폭 메모리인 HBM4(12단 및 16단)를 탑재할 예정임. 이를 통해 AI 연산의 최대 병목 구간인 메모리 대역폭 문제를 해결.
3. 네트워킹 및 인프라 혁신
Vera Rubin 네트워킹: 초당 1,600Gb(1.6Tbps)의 경이로운 데이터 전송 속도를 지원하는 차세대 이더넷 및 인피니밴드 스위치를 공개함. 이는 수만 개의 GPU를 하나의 거대한 가상 GPU처럼 연결하는 'AI 팩토리' 구현의 핵심 요소
NVLink 6세대: GPU 간 통신 속도를 더욱 높인 신규 NVLink 기술을 통해 랙(Rack) 단위의 컴퓨팅 파워를 극대화.
4. 소프트웨어 및 생태계 (NIMs & Omniverse)
NVIDIA NIM(Inference Microservices): 기업들이 복잡한 설정 없이 즉시 AI 모델을 배포할 수 있도록 돕는 소프트웨어 패키지 'NIM'의 대대적인 확장을 발표.
디지털 트윈 기반 로보틱스: 옴니버스(Omniverse)를 통해 가상 세계에서 먼저 로봇을 학습시키고 실물에 이식하는 '물리적 AI' 전략을 강조하며, 전 세계 제조 공정의 디지털화를 선언
5. 시장 및 공급망 전략
제조 파트너 다변화: 기존 TSMC 중심의 생산 체제에서 벗어나 일부 신규 칩(Groq 3 등)에서 삼성전자와의 협력을 공식화하며 공급망 리스크 분산을 시도
젠슨 황은 향후 2년간 약 1조 달러 규모의 AI 하드웨어 매출을 달성할 수 있다는 자신감을 내비치며, 하이퍼스케일러뿐만 아니라 일반 기업(Enterprise) 시장으로의 확장을 예고
https://www.cnbc.com/2026/03/16/nvidia-gtc-2026-ceo-jensen-huang-keynote-blackwell-vera-rubin.html
1. 제품 출시 주기 가속화 (One-Year Cadence)
전략적 변화: 젠슨 황 CEO는 기존의 2년 주기 아키텍처 업데이트 관행을 완전히 폐기하고, 매년 새로운 아키텍처를 선보이는 '1년 주기(Annual Cadence)' 로드맵을 공식화함. 이는 경쟁사와의 기술 격차를 압도적으로 유지하겠다는 의지로 풀이됨.
로드맵 흐름: 2024년 블랙웰(Blackwell) → 2025년 블랙웰 울트라(Blackwell Ultra) → 2026년 루빈(Rubin) → 2027년 루빈 울트라(Rubin Ultra)로 이어지는 촘촘한 출시 일정을 제시.
2. 차세대 컴퓨팅 플랫폼: 루빈(Rubin) GPU & 베라(Vera) CPU
루빈(Rubin) GPU: 블랙웰의 뒤를 잇는 차세대 GPU로, 이전 세대 대비 추론 및 학습 성능이 비약적으로 향상됨.
베라(Vera) CPU: 엔비디아가 자체 설계한 최신 Arm 기반 CPU. 루빈 GPU와 결합하여 'Vera Rubin 수퍼칩'을 구성하며, 데이터 처리 효율을 극대화함.
HBM4 최초 채택: 루빈 GPU는 업계 최초로 차세대 고대역폭 메모리인 HBM4(12단 및 16단)를 탑재할 예정임. 이를 통해 AI 연산의 최대 병목 구간인 메모리 대역폭 문제를 해결.
3. 네트워킹 및 인프라 혁신
Vera Rubin 네트워킹: 초당 1,600Gb(1.6Tbps)의 경이로운 데이터 전송 속도를 지원하는 차세대 이더넷 및 인피니밴드 스위치를 공개함. 이는 수만 개의 GPU를 하나의 거대한 가상 GPU처럼 연결하는 'AI 팩토리' 구현의 핵심 요소
NVLink 6세대: GPU 간 통신 속도를 더욱 높인 신규 NVLink 기술을 통해 랙(Rack) 단위의 컴퓨팅 파워를 극대화.
4. 소프트웨어 및 생태계 (NIMs & Omniverse)
NVIDIA NIM(Inference Microservices): 기업들이 복잡한 설정 없이 즉시 AI 모델을 배포할 수 있도록 돕는 소프트웨어 패키지 'NIM'의 대대적인 확장을 발표.
디지털 트윈 기반 로보틱스: 옴니버스(Omniverse)를 통해 가상 세계에서 먼저 로봇을 학습시키고 실물에 이식하는 '물리적 AI' 전략을 강조하며, 전 세계 제조 공정의 디지털화를 선언
5. 시장 및 공급망 전략
제조 파트너 다변화: 기존 TSMC 중심의 생산 체제에서 벗어나 일부 신규 칩(Groq 3 등)에서 삼성전자와의 협력을 공식화하며 공급망 리스크 분산을 시도
젠슨 황은 향후 2년간 약 1조 달러 규모의 AI 하드웨어 매출을 달성할 수 있다는 자신감을 내비치며, 하이퍼스케일러뿐만 아니라 일반 기업(Enterprise) 시장으로의 확장을 예고
https://www.cnbc.com/2026/03/16/nvidia-gtc-2026-ceo-jensen-huang-keynote-blackwell-vera-rubin.html
CNBC
Nvidia GTC 2026: CEO Jensen Huang sees $1 trillion in orders for Blackwell and Vera Rubin through '27
At Nvidia's annual developer conference, CEO Jensen Huang said the company is seeing booming demand for its latest technology.
Forwarded from 하나증권 미국주식 강재구
이런 거 보면 시장에선 너무 엔비디아한테 박하게 평가하는 게 아닌가 싶긴한데요
AI 인프라의 단위가 칩 → 서버 → 랙 → POD → AI 팩토리로 확장되고 있으며 엔비디아의 로드맵은 순항하고 있습니다.
베라 루빈을 단순 빠른 제품 혹은 빠른 GPU가 아닌 인공지능 표준 플랫폼으로 확장할 심산인 거 같네요
엔비디아의 강점 중 하나는 공급망을 장악하고 있다는 거죠
이를 바탕으로 빠른 신제품 출시로 시장의 점유율을 더욱 견고히 할 것으로 생각합니다
밸류도 많이 싸진 상황으로 긍정적 관점 지속합니다
-------------------------------------------------------------------------------------------
"NVIDIA Vera Rubin Opens Agentic AI Frontier | NVIDIA Newsroom"
* NVIDIA가 Vera Rubin을 차세대 AI 인프라 플랫폼으로 공개. 단일 GPU/서버가 아니라 CPU·GPU·네트워킹·스토리지·추론 가속기까지 묶은 랙·POD 단위 AI 팩토리 플랫폼으로 agentic AI 시대를 겨냥한 것이 핵심
- Vera Rubin 플랫폼은 Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 Ethernet, 그리고 새로 통합된 Groq 3 LPU까지 포함하는 구조
- NVIDIA는 이를 “7개의 새로운 칩, 5개의 랙, 하나의 거대한 AI 슈퍼컴퓨터”라고 표현: 사전학습(pretraining), 후학습(post-training), test-time scaling, agentic inference까지 AI 전 과정에 최적화된 인프라라고 설명
* 랙별 구성
- 가장 핵심 제품은 Vera Rubin NVL72 랙. 72개 Rubin GPU와 36개 Vera CPU를 NVLink 6로 연결, ConnectX-9와 BlueField-4도 포함
- NVIDIA는 이 시스템이 대형 MoE 모델 학습에서 Blackwell 대비 4분의 1 수준 GPU 수로도 가능
- 추론에서는 와트당 최대 10배 높은 처리량, 토큰당 비용 10분의 1 수준의 효율을 제공
- 별도로 Vera CPU Rack도 제시. 강화학습과 agentic AI에서 필요한 대규모 CPU 환경을 담당
> 256개 Vera CPU를 집적한 액침/수랭 기반 인프라로, 전통적 CPU 대비 50% 더 빠르고 2배 더 효율적이라고 설명
> GPU 랙과 결합해 대규모 에이전트 검증·시뮬레이션 환경을 담당하는 역할
- NVIDIA Groq 3 LPX Rack
> LPX 랙은 256개 LPU 프로세서, 128GB 온칩 SRAM, 640TB/s scale-up bandwidth를 갖추며, Vera Rubin과 함께 동작해 초저지연·초대형 컨텍스트 추론을 겨냥
> NVIDIA는 이를 통해 MW당 추론 처리량 최대 35배, 초거대 모델에서 매출 기회 10배를 언급
> 특히 “trillion-parameter, million-token context” 급 워크로드를 위한 고급 추론 인프라라는 메시지가 강함
- 스토리지 측면에서는 BlueField-4 STX Storage Rack을 발표
> LLM과 agentic AI에서 생기는 대규모 KV 캐시를 POD 전체 차원에서 저장·공유하는 AI 전용 스토리지 계층
> NVIDIA는 새 DOCA Memos 프레임워크를 통해 범용 스토리지 대비 추론 처리량 최대 5배 향상
> 장기 문맥 유지와 멀티턴 에이전트 상호작용에 유리하다고 강조
- 네트워킹은 Spectrum-6 SPX Ethernet Rack
> 랙 간 east-west 트래픽을 가속하기 위한 네트워크 계층
> Spectrum-X Ethernet 또는 Quantum-X800 InfiniBand 구성 모두 지원
> co-packaged optics 기반 photonics로 광전력 효율 최대 5배, 복원력 10배를 주장
- 전력·데이터센터
> NVIDIA는 Vera Rubin과 함께 DSX 플랫폼도 발표
> DSX Max-Q와 DSX Flex가 포함되며, 고정된 전력 한도 안에서 30% 더 많은 AI 인프라 배치 가능
> 전력망 유연성을 통해 100GW의 stranded grid power를 활용할 수 있다고 설명
> 성능뿐 아니라 전력 제약이 심한 데이터센터 현실까지 겨냥한 발표
- 생태계 지원
> 클라우드 측에서는 AWS, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure가 포함
> NVIDIA Cloud Partners로는 CoreWeave, Crusoe, Lambda, Nebius, Nscale, Together AI가 언급
> 서버 제조사로는 Cisco, Dell, HPE, Lenovo, Supermicro 등이 Vera Rubin 기반 시스템을 제공할 예정
> Anthropic, Meta, Mistral AI, OpenAI 같은 프런티어 모델 업체들이 더 큰 모델 학습과 장문맥 멀티모달 서비스에 활용할 것이라고 언급
- 출시 일정
> Vera Rubin 기반 제품은 2026년 하반기부터 파트너사를 통해 공급 시작 예정
> 많은 제품과 기능은 여전히 개발 단계에 있고 출시 시점과 사양은 변경 가능
https://nvidianews.nvidia.com/news/nvidia-vera-rubin-platform
AI 인프라의 단위가 칩 → 서버 → 랙 → POD → AI 팩토리로 확장되고 있으며 엔비디아의 로드맵은 순항하고 있습니다.
베라 루빈을 단순 빠른 제품 혹은 빠른 GPU가 아닌 인공지능 표준 플랫폼으로 확장할 심산인 거 같네요
엔비디아의 강점 중 하나는 공급망을 장악하고 있다는 거죠
이를 바탕으로 빠른 신제품 출시로 시장의 점유율을 더욱 견고히 할 것으로 생각합니다
밸류도 많이 싸진 상황으로 긍정적 관점 지속합니다
-------------------------------------------------------------------------------------------
"NVIDIA Vera Rubin Opens Agentic AI Frontier | NVIDIA Newsroom"
* NVIDIA가 Vera Rubin을 차세대 AI 인프라 플랫폼으로 공개. 단일 GPU/서버가 아니라 CPU·GPU·네트워킹·스토리지·추론 가속기까지 묶은 랙·POD 단위 AI 팩토리 플랫폼으로 agentic AI 시대를 겨냥한 것이 핵심
- Vera Rubin 플랫폼은 Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 Ethernet, 그리고 새로 통합된 Groq 3 LPU까지 포함하는 구조
- NVIDIA는 이를 “7개의 새로운 칩, 5개의 랙, 하나의 거대한 AI 슈퍼컴퓨터”라고 표현: 사전학습(pretraining), 후학습(post-training), test-time scaling, agentic inference까지 AI 전 과정에 최적화된 인프라라고 설명
* 랙별 구성
- 가장 핵심 제품은 Vera Rubin NVL72 랙. 72개 Rubin GPU와 36개 Vera CPU를 NVLink 6로 연결, ConnectX-9와 BlueField-4도 포함
- NVIDIA는 이 시스템이 대형 MoE 모델 학습에서 Blackwell 대비 4분의 1 수준 GPU 수로도 가능
- 추론에서는 와트당 최대 10배 높은 처리량, 토큰당 비용 10분의 1 수준의 효율을 제공
- 별도로 Vera CPU Rack도 제시. 강화학습과 agentic AI에서 필요한 대규모 CPU 환경을 담당
> 256개 Vera CPU를 집적한 액침/수랭 기반 인프라로, 전통적 CPU 대비 50% 더 빠르고 2배 더 효율적이라고 설명
> GPU 랙과 결합해 대규모 에이전트 검증·시뮬레이션 환경을 담당하는 역할
- NVIDIA Groq 3 LPX Rack
> LPX 랙은 256개 LPU 프로세서, 128GB 온칩 SRAM, 640TB/s scale-up bandwidth를 갖추며, Vera Rubin과 함께 동작해 초저지연·초대형 컨텍스트 추론을 겨냥
> NVIDIA는 이를 통해 MW당 추론 처리량 최대 35배, 초거대 모델에서 매출 기회 10배를 언급
> 특히 “trillion-parameter, million-token context” 급 워크로드를 위한 고급 추론 인프라라는 메시지가 강함
- 스토리지 측면에서는 BlueField-4 STX Storage Rack을 발표
> LLM과 agentic AI에서 생기는 대규모 KV 캐시를 POD 전체 차원에서 저장·공유하는 AI 전용 스토리지 계층
> NVIDIA는 새 DOCA Memos 프레임워크를 통해 범용 스토리지 대비 추론 처리량 최대 5배 향상
> 장기 문맥 유지와 멀티턴 에이전트 상호작용에 유리하다고 강조
- 네트워킹은 Spectrum-6 SPX Ethernet Rack
> 랙 간 east-west 트래픽을 가속하기 위한 네트워크 계층
> Spectrum-X Ethernet 또는 Quantum-X800 InfiniBand 구성 모두 지원
> co-packaged optics 기반 photonics로 광전력 효율 최대 5배, 복원력 10배를 주장
- 전력·데이터센터
> NVIDIA는 Vera Rubin과 함께 DSX 플랫폼도 발표
> DSX Max-Q와 DSX Flex가 포함되며, 고정된 전력 한도 안에서 30% 더 많은 AI 인프라 배치 가능
> 전력망 유연성을 통해 100GW의 stranded grid power를 활용할 수 있다고 설명
> 성능뿐 아니라 전력 제약이 심한 데이터센터 현실까지 겨냥한 발표
- 생태계 지원
> 클라우드 측에서는 AWS, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure가 포함
> NVIDIA Cloud Partners로는 CoreWeave, Crusoe, Lambda, Nebius, Nscale, Together AI가 언급
> 서버 제조사로는 Cisco, Dell, HPE, Lenovo, Supermicro 등이 Vera Rubin 기반 시스템을 제공할 예정
> Anthropic, Meta, Mistral AI, OpenAI 같은 프런티어 모델 업체들이 더 큰 모델 학습과 장문맥 멀티모달 서비스에 활용할 것이라고 언급
- 출시 일정
> Vera Rubin 기반 제품은 2026년 하반기부터 파트너사를 통해 공급 시작 예정
> 많은 제품과 기능은 여전히 개발 단계에 있고 출시 시점과 사양은 변경 가능
https://nvidianews.nvidia.com/news/nvidia-vera-rubin-platform
NVIDIA Newsroom
NVIDIA Vera Rubin Opens Agentic AI Frontier
NVIDIA today announced the NVIDIA Vera Rubin platform is opening the next frontier of agentic AI, with seven new chips now in full production to scale the world’s largest AI factories.
Forwarded from 하나증권 미국주식 강재구
"NVIDIA Launches Vera CPU, Purpose-Built for Agentic AI | NVIDIA Newsroom"
* NVIDIA가 Vera CPU 공개: 범용 서버 CPU가 아니라 agentic AI와 강화학습(RL) 워크로드에 맞춰 설계된 전용 CPU라는 점이 핵심. 기존 전통적 랙 스케일 CPU 대비 50% 더 빠르고, 효율은 2배
* NVIDIA는 agentic AI가 확산될수록 모델 자체뿐 아니라 이를 뒷받침하는 오케스트레이션·데이터 처리·툴 실행 인프라가 중요해지며, Vera가 바로 그 역할을 맡는다고 설명
* Vera는 88개의 NVIDIA 자체 설계 Olympus 코어를 탑재
> 각 코어가 두 개 작업을 처리하는 NVIDIA Spatial Multithreading을 지원
> LPDDR5X 기반 저전력 메모리 서브시스템으로 최대 1.2TB/s 메모리 대역폭을 제공
> NVIDIA는 이를 범용 CPU 대비 대역폭은 2배, 전력은 절반 수준이라고 설명
> 즉, 컴파일러, 런타임 엔진, 분석 파이프라인, 에이전트 툴링, 오케스트레이션 같은 CPU 중심 작업을 고밀도로 돌리기 위한 구조
* agentic AI는 단순히 토큰만 생성하는 것이 아니라, 다수의 에이전트가 동시에 툴을 호출하고 코드 실행 환경을 띄우고 외부 데이터와 상호작용해야 함
> NVIDIA는 Vera CPU 랙 하나로 256개 수랭 Vera CPU를 집적해 22,500개 이상의 동시 CPU 환경을 풀성능으로 운영할 수 있다고 밝힘
> GPU가 추론·학습을 맡는 동안 CPU는 대규모 병렬 에이전트 실행 환경을 관리하는 컨트롤 플레인 + 데이터 플레인 역할을 담당하는 구조로 해석
* Rubin 플랫폼 안에서의 역할
> Vera는 독립 CPU 제품이면서 동시에 Vera Rubin NVL72 플랫폼의 CPU 축
> Vera CPU와 GPU를 NVLink-C2C로 연결해 1.8TB/s coherent bandwidth를 제공한다고 설명
> PCIe Gen 6의 7배 대역폭이라고 밝힘
> Vera는 HGX Rubin NVL8 시스템의 호스트 CPU로도 쓰이며, GPU 가속 워크로드의 데이터 이동과 시스템 제어를 담당
> 결국 Rubin 플랫폼에서 Vera는 단순 범용 CPU가 아니라 GPU 클러스터를 실질적으로 움직이는 운영 두뇌 역할
* NVIDIA는 Vera 기반 시스템이 강화학습, agentic inference, 데이터 처리, 오케스트레이션, 스토리지 관리, 클라우드 애플리케이션, HPC에 적합하다고 설명
> 모든 구성에 ConnectX SuperNIC와 BlueField-4 DPU가 함께 들어가 네트워킹·스토리지·보안까지 가속한다고 밝힘
> CPU 단품 판매가 아니라, CPU+NIC+DPU가 결합된 AI 인프라 표준 스택으로 밀고 있는 모습
* 생태계 채택 상황
> 배포 협력사: Alibaba, ByteDance, Meta, Oracle Cloud Infrastructure 등
> 클라우드 및 AI 인프라 사업자: CoreWeave, Lambda, Nebius, Nscale, Crusoe, Together.AI, Vultr, Cloudflare 등
> 제조 파트너: Dell, HPE, Lenovo, Supermicro, ASUS, Foxconn, GIGABYTE, Pegatron, QCT, Wiwynn 등
https://nvidianews.nvidia.com/news/nvidia-launches-vera-cpu-purpose-built-for-agentic-ai
* NVIDIA가 Vera CPU 공개: 범용 서버 CPU가 아니라 agentic AI와 강화학습(RL) 워크로드에 맞춰 설계된 전용 CPU라는 점이 핵심. 기존 전통적 랙 스케일 CPU 대비 50% 더 빠르고, 효율은 2배
* NVIDIA는 agentic AI가 확산될수록 모델 자체뿐 아니라 이를 뒷받침하는 오케스트레이션·데이터 처리·툴 실행 인프라가 중요해지며, Vera가 바로 그 역할을 맡는다고 설명
* Vera는 88개의 NVIDIA 자체 설계 Olympus 코어를 탑재
> 각 코어가 두 개 작업을 처리하는 NVIDIA Spatial Multithreading을 지원
> LPDDR5X 기반 저전력 메모리 서브시스템으로 최대 1.2TB/s 메모리 대역폭을 제공
> NVIDIA는 이를 범용 CPU 대비 대역폭은 2배, 전력은 절반 수준이라고 설명
> 즉, 컴파일러, 런타임 엔진, 분석 파이프라인, 에이전트 툴링, 오케스트레이션 같은 CPU 중심 작업을 고밀도로 돌리기 위한 구조
* agentic AI는 단순히 토큰만 생성하는 것이 아니라, 다수의 에이전트가 동시에 툴을 호출하고 코드 실행 환경을 띄우고 외부 데이터와 상호작용해야 함
> NVIDIA는 Vera CPU 랙 하나로 256개 수랭 Vera CPU를 집적해 22,500개 이상의 동시 CPU 환경을 풀성능으로 운영할 수 있다고 밝힘
> GPU가 추론·학습을 맡는 동안 CPU는 대규모 병렬 에이전트 실행 환경을 관리하는 컨트롤 플레인 + 데이터 플레인 역할을 담당하는 구조로 해석
* Rubin 플랫폼 안에서의 역할
> Vera는 독립 CPU 제품이면서 동시에 Vera Rubin NVL72 플랫폼의 CPU 축
> Vera CPU와 GPU를 NVLink-C2C로 연결해 1.8TB/s coherent bandwidth를 제공한다고 설명
> PCIe Gen 6의 7배 대역폭이라고 밝힘
> Vera는 HGX Rubin NVL8 시스템의 호스트 CPU로도 쓰이며, GPU 가속 워크로드의 데이터 이동과 시스템 제어를 담당
> 결국 Rubin 플랫폼에서 Vera는 단순 범용 CPU가 아니라 GPU 클러스터를 실질적으로 움직이는 운영 두뇌 역할
* NVIDIA는 Vera 기반 시스템이 강화학습, agentic inference, 데이터 처리, 오케스트레이션, 스토리지 관리, 클라우드 애플리케이션, HPC에 적합하다고 설명
> 모든 구성에 ConnectX SuperNIC와 BlueField-4 DPU가 함께 들어가 네트워킹·스토리지·보안까지 가속한다고 밝힘
> CPU 단품 판매가 아니라, CPU+NIC+DPU가 결합된 AI 인프라 표준 스택으로 밀고 있는 모습
* 생태계 채택 상황
> 배포 협력사: Alibaba, ByteDance, Meta, Oracle Cloud Infrastructure 등
> 클라우드 및 AI 인프라 사업자: CoreWeave, Lambda, Nebius, Nscale, Crusoe, Together.AI, Vultr, Cloudflare 등
> 제조 파트너: Dell, HPE, Lenovo, Supermicro, ASUS, Foxconn, GIGABYTE, Pegatron, QCT, Wiwynn 등
https://nvidianews.nvidia.com/news/nvidia-launches-vera-cpu-purpose-built-for-agentic-ai
NVIDIA Newsroom
NVIDIA Launches Vera CPU, Purpose-Built for Agentic AI
NVIDIA today launched the NVIDIA Vera CPU, the world’s first processor purpose-built for the age of agentic AI and reinforcement learning — delivering results with twice the efficiency and 50% faster than traditional rack-scale CPUs.
Forwarded from 하나증권 미국주식 강재구
NVIDIA Launches Space Computing, Rocketing AI Into Orbit | NVIDIA Newsroom
* NVIDIA가 우주 컴퓨팅(space computing) 을 공식 발표:, 핵심은 위성·궤도 데이터센터·우주선 안에서도 AI를 직접 돌릴 수 있게 하는 온오빗(on-orbit) AI 인프라를 구축하겠다는 것. 즉, 지상으로 데이터를 다 내려보내 처리하던 방식에서 벗어나 우주에서 바로 분석·판단·자율운용을 하게 만드는 전략
* 이번 발표에서 NVIDIA는 세 가지 계층을 제시: 우주-지상 전체를 하나의 AI 컴퓨팅 체계로 묶겠다는 구조
1. 우주 궤도 안에서 직접 AI를 돌리는 NVIDIA Space-1 Vera Rubin Module
2. 임무 수행용 엣지 AI 플랫폼인 IGX Thor와 Jetson Orin
3. 지상에서 대규모 위성·지리공간 데이터를 처리하는 RTX PRO 6000 Blackwell Server Edition
* 문제의식: 위성, 레이더, RF 센서, 지구관측 장비가 만들어내는 데이터가 너무 많아지면서, 모든 데이터를 지상으로 내려보낸 뒤 처리하면 지연시간(latency), 대역폭, 비용 문제가 커진다는 것. 우주선·위성 자체에서 바로 AI가 판단해야 한다는 논리. NVIDIA는 이를 통해 실시간 감지, 실시간 의사결정, 자율성 강화가 가능해진다고 설명
* Space-1 Vera Rubin Module
> 크기·무게·전력(SWaP) 제약이 큰 곳에서도 데이터센터급 AI 성능을 제공하도록 설계
> NVIDIA는 H100과 비교해, 이 모듈에 들어가는 Rubin GPU가 우주 기반 추론에서 최대 25배 더 많은 AI compute를 제공한다고 주장
> 용도는 궤도 데이터센터(ODC), 고급 지리공간 정보 처리, 자율 우주 운용
> 우주 안에서 LLM이나 파운데이션 모델까지 돌릴 수 있는 계산 노드를 만들겠다는 뜻
* IGX Thor와 Jetson Orin
> IGX Thor: 산업용·미션 크리티컬 환경용. 실시간 AI 처리, 기능 안전, secure boot, 자율 운용을 지원하는 플랫폼. 우주선이 센서 데이터를 현지에서 바로 처리하고, 대역폭을 아끼며, 지상 통제와 연동된 상태에서 더 빠르게 대응할 수 있게 하는 역할
> Jetson Orin: 더 작은 초소형 엣지 모듈. 비전·항법·센서 데이터를 우주선 기내에서 바로 처리하는 데 초점. IGX Thor는 더 견고한 미션 플랫폼, Jetson Orin은 소형 위성/탑재체용 AI 엣지 모듈
* NVIDIA는 우주에서만 처리하는 게 아니라, 지상에서도 대규모 위성 데이터 아카이브 분석을 가속하겠다고 밝힘
> RTX PRO 6000 Blackwell Server Edition GPU는 전통적인 CPU 기반 배치 처리 대비 최대 100배 빠른 성능으로 방대한 이미지 아카이브 분석을 지원
> 온오빗 실시간 처리 + 지상 대규모 후처리를 함께 묶는 구조
* NVIDIA는 활용처로 재난 대응 및 환경 모니터링, 기후·날씨 예측, 인프라·자원 관리를 제시
* 파트너사
> Aetherflux: 궤도 AI 인프라와 자율 운용
> Kepler: 위성 네트워크 내 데이터 라우팅
> Planet: 지구관측 이미지 분석
> Sophia Space: 모듈형 우주 컴퓨팅 인프라
> Starcloud: 우주용 데이터센터 구축
* IGX Thor, Jetson Orin, RTX PRO 6000 Blackwell Server Edition GPU는 현재 사용 가능
> Space-1 Vera Rubin Module은 추후 출시 예정
> 가장 상징적인 온오빗 데이터센터용 Rubin 모듈은 아직 나중 단계
https://nvidianews.nvidia.com/news/space-computing
* NVIDIA가 우주 컴퓨팅(space computing) 을 공식 발표:, 핵심은 위성·궤도 데이터센터·우주선 안에서도 AI를 직접 돌릴 수 있게 하는 온오빗(on-orbit) AI 인프라를 구축하겠다는 것. 즉, 지상으로 데이터를 다 내려보내 처리하던 방식에서 벗어나 우주에서 바로 분석·판단·자율운용을 하게 만드는 전략
* 이번 발표에서 NVIDIA는 세 가지 계층을 제시: 우주-지상 전체를 하나의 AI 컴퓨팅 체계로 묶겠다는 구조
1. 우주 궤도 안에서 직접 AI를 돌리는 NVIDIA Space-1 Vera Rubin Module
2. 임무 수행용 엣지 AI 플랫폼인 IGX Thor와 Jetson Orin
3. 지상에서 대규모 위성·지리공간 데이터를 처리하는 RTX PRO 6000 Blackwell Server Edition
* 문제의식: 위성, 레이더, RF 센서, 지구관측 장비가 만들어내는 데이터가 너무 많아지면서, 모든 데이터를 지상으로 내려보낸 뒤 처리하면 지연시간(latency), 대역폭, 비용 문제가 커진다는 것. 우주선·위성 자체에서 바로 AI가 판단해야 한다는 논리. NVIDIA는 이를 통해 실시간 감지, 실시간 의사결정, 자율성 강화가 가능해진다고 설명
* Space-1 Vera Rubin Module
> 크기·무게·전력(SWaP) 제약이 큰 곳에서도 데이터센터급 AI 성능을 제공하도록 설계
> NVIDIA는 H100과 비교해, 이 모듈에 들어가는 Rubin GPU가 우주 기반 추론에서 최대 25배 더 많은 AI compute를 제공한다고 주장
> 용도는 궤도 데이터센터(ODC), 고급 지리공간 정보 처리, 자율 우주 운용
> 우주 안에서 LLM이나 파운데이션 모델까지 돌릴 수 있는 계산 노드를 만들겠다는 뜻
* IGX Thor와 Jetson Orin
> IGX Thor: 산업용·미션 크리티컬 환경용. 실시간 AI 처리, 기능 안전, secure boot, 자율 운용을 지원하는 플랫폼. 우주선이 센서 데이터를 현지에서 바로 처리하고, 대역폭을 아끼며, 지상 통제와 연동된 상태에서 더 빠르게 대응할 수 있게 하는 역할
> Jetson Orin: 더 작은 초소형 엣지 모듈. 비전·항법·센서 데이터를 우주선 기내에서 바로 처리하는 데 초점. IGX Thor는 더 견고한 미션 플랫폼, Jetson Orin은 소형 위성/탑재체용 AI 엣지 모듈
* NVIDIA는 우주에서만 처리하는 게 아니라, 지상에서도 대규모 위성 데이터 아카이브 분석을 가속하겠다고 밝힘
> RTX PRO 6000 Blackwell Server Edition GPU는 전통적인 CPU 기반 배치 처리 대비 최대 100배 빠른 성능으로 방대한 이미지 아카이브 분석을 지원
> 온오빗 실시간 처리 + 지상 대규모 후처리를 함께 묶는 구조
* NVIDIA는 활용처로 재난 대응 및 환경 모니터링, 기후·날씨 예측, 인프라·자원 관리를 제시
* 파트너사
> Aetherflux: 궤도 AI 인프라와 자율 운용
> Kepler: 위성 네트워크 내 데이터 라우팅
> Planet: 지구관측 이미지 분석
> Sophia Space: 모듈형 우주 컴퓨팅 인프라
> Starcloud: 우주용 데이터센터 구축
* IGX Thor, Jetson Orin, RTX PRO 6000 Blackwell Server Edition GPU는 현재 사용 가능
> Space-1 Vera Rubin Module은 추후 출시 예정
> 가장 상징적인 온오빗 데이터센터용 Rubin 모듈은 아직 나중 단계
https://nvidianews.nvidia.com/news/space-computing
NVIDIA Newsroom
NVIDIA Launches Space Computing, Rocketing AI Into Orbit
NVIDIA today announced that its latest accelerated computing platforms are unlocking a new era of space innovation, bringing AI compute to orbital data centers (ODCs), geospatial intelligence and autonomous space operations.
Forwarded from 하나증권 미국주식 강재구
NVIDIA Launches BlueField-4 STX Storage Architecture With Broad Industry Adoption
* NVIDIA가 BlueField-4 STX 공개: 핵심은 agentic AI 시대에 필요한 장문맥(context memory) 저장 계층을 새로 정의한 것
>기존 스토리지가 단순 저장소였다면, STX는 추론 중간의 컨텍스트와 KV cache를 빠르게 공급하는 AI 전용 스토리지 아키텍처로 포지셔닝
* 전통적인 데이터센터 스토리지는 용량은 크지만, AI 에이전트가 여러 단계·여러 도구·여러 세션을 오가며 추론할 때 필요한 초저지연 컨텍스트 접근성이 부족
> NVIDIA는 컨텍스트가 길어질수록 기존 스토리지 경로가 추론을 느리게 하고 GPU 활용률도 떨어뜨림
> STX는 데이터를 더 가깝고 빠르게 공급해, inference·training·analytics 전반에서 AI 팩토리의 응답성과 처리량을 끌어올리려는 구조
* STX는 단일 카드가 아니라 모듈형 reference architecture
> 기존 스토리지 대비 최대 5배 tokens/sec, 최대 4배 에너지 효율, 2배 빠른 데이터 ingestion 제공
* STX는 storage-optimized BlueField-4 processor를 중심으로, Vera CPU, ConnectX-9 SuperNIC, Spectrum-X Ethernet, DOCA, NVIDIA AI Enterprise 소프트웨어를 결합한 구조
> 단순 SSD 박스가 아니라, CPU·NIC·DPU·네트워크·소프트웨어를 한 묶음으로 최적화한 AI 스토리지 패브릭에 가까움
> 핵심은 “저장”보다 GPU가 추론 중 필요한 컨텍스트를 끊기지 않게 공급하는 메모리 계층이라는 점
* 스토리지의 역할이 바뀌고 있다는 데 있음
> 과거에는 스토리지가 데이터를 “보관”하는 것이 핵심이었다면, agentic AI에서는 스토리지가 실시간 working memory 역할까지 해야 함
> 긴 문맥, 멀티세션, 툴 호출, 검색 증강, 장시간 reasoning이 늘어날수록 KV cache와 context state를 얼마나 빠르게 불러오느냐가 GPU 효율과 추론 비용에 직접 연결되기 때문
* 파트너
> 초기 STX 도입 예정 고객: CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure, Vultr
> 스토리지 파트너: Cloudian, DDN, Dell Technologies, Everpure, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data, WEKA
> 제조 파트너: AIC, Supermicro, QCT가 포함
* STX 기반 플랫폼은 2026년 하반기부터 파트너사를 통해 제공될 예정
http://nvidianews.nvidia.com/news/nvidia-launches-bluefield-4-stx-storage-architecture-with-broad-industry-adoption
* NVIDIA가 BlueField-4 STX 공개: 핵심은 agentic AI 시대에 필요한 장문맥(context memory) 저장 계층을 새로 정의한 것
>기존 스토리지가 단순 저장소였다면, STX는 추론 중간의 컨텍스트와 KV cache를 빠르게 공급하는 AI 전용 스토리지 아키텍처로 포지셔닝
* 전통적인 데이터센터 스토리지는 용량은 크지만, AI 에이전트가 여러 단계·여러 도구·여러 세션을 오가며 추론할 때 필요한 초저지연 컨텍스트 접근성이 부족
> NVIDIA는 컨텍스트가 길어질수록 기존 스토리지 경로가 추론을 느리게 하고 GPU 활용률도 떨어뜨림
> STX는 데이터를 더 가깝고 빠르게 공급해, inference·training·analytics 전반에서 AI 팩토리의 응답성과 처리량을 끌어올리려는 구조
* STX는 단일 카드가 아니라 모듈형 reference architecture
> 기존 스토리지 대비 최대 5배 tokens/sec, 최대 4배 에너지 효율, 2배 빠른 데이터 ingestion 제공
* STX는 storage-optimized BlueField-4 processor를 중심으로, Vera CPU, ConnectX-9 SuperNIC, Spectrum-X Ethernet, DOCA, NVIDIA AI Enterprise 소프트웨어를 결합한 구조
> 단순 SSD 박스가 아니라, CPU·NIC·DPU·네트워크·소프트웨어를 한 묶음으로 최적화한 AI 스토리지 패브릭에 가까움
> 핵심은 “저장”보다 GPU가 추론 중 필요한 컨텍스트를 끊기지 않게 공급하는 메모리 계층이라는 점
* 스토리지의 역할이 바뀌고 있다는 데 있음
> 과거에는 스토리지가 데이터를 “보관”하는 것이 핵심이었다면, agentic AI에서는 스토리지가 실시간 working memory 역할까지 해야 함
> 긴 문맥, 멀티세션, 툴 호출, 검색 증강, 장시간 reasoning이 늘어날수록 KV cache와 context state를 얼마나 빠르게 불러오느냐가 GPU 효율과 추론 비용에 직접 연결되기 때문
* 파트너
> 초기 STX 도입 예정 고객: CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure, Vultr
> 스토리지 파트너: Cloudian, DDN, Dell Technologies, Everpure, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data, WEKA
> 제조 파트너: AIC, Supermicro, QCT가 포함
* STX 기반 플랫폼은 2026년 하반기부터 파트너사를 통해 제공될 예정
http://nvidianews.nvidia.com/news/nvidia-launches-bluefield-4-stx-storage-architecture-with-broad-industry-adoption
NVIDIA Newsroom
NVIDIA Launches BlueField-4 STX Storage Architecture With Broad Industry Adoption
NVIDIA today announced NVIDIA BlueField-4® STX, a modular reference architecture that enables enterprises, cloud and AI providers to easily deploy accelerated storage infrastructure capable of the long-context reasoning required for agentic AI.
Forwarded from 하나증권 미국주식 강재구
엔비디아가 다 먹겠다는 그림을 내놨네요
Vera Rubin, Vera CPU, DSX가 AI 팩토리 인프라였다면, NemoClaw는 그 위에서 돌아갈 개인용/로컬 에이전트 소프트웨어 스택으로
NVIDIA가 데이터센터용 AI 인프라뿐 아니라, 개인 단말에서 돌아가는 항시형 에이전트 운영체제 레이어까지 선점하려는 구상으로 보이네요
---------------------------------------------------
NVIDIA Announces NemoClaw for the OpenClaw Community
* NemoClaw 공개: OpenClaw 기반 개인 AI 에이전트/항시 동작형 AI 비서를 더 쉽게 설치, 보안·프라이버시 가드레일을 붙여 실제 사용 가능한 형태로 만들겠다는 구상
> 모델 발표라기보다 개인용 에이전트 운영 스택 발표
* NemoClaw는 OpenClaw 에이전트 플랫폼 위에 NVIDIA Nemotron 모델과 새로 발표한 NVIDIA OpenShell 런타임을 한 줄 명령(single command)로 설치하게 해주는 스택
> 이를 통해 자율형 AI 에이전트를 더 신뢰 가능하고, 확장 가능하며, 접근 가능하게 만든다고 설명
* “에이전트를 만드는 것” 자체보다, 에이전트가 항상 켜져서 작업을 대신 수행하려면 권한 통제, 네트워크 가드레일, 데이터 프라이버시, 샌드박스 실행 환경이 필요
> NemoClaw는 NVIDIA Agent Toolkit으로 OpenClaw를 최적화, OpenShell을 통해 오픈 모델 실행과 격리된 sandbox를 제공: 보안·프라이버시 계층을 더함
* NemoClaw는 로컬 시스템에서 실행되는 오픈 모델, 예를 들어 NVIDIA Nemotron 같은 모델을 사용할 수 있고, 동시에 privacy router를 통해 클라우드의 frontier model도 쓸 수 있게 설계
> 민감한 작업은 로컬에서 돌리고, 필요한 경우 클라우드 모델도 혼합 사용하는 하이브리드 에이전트 구조를 지향
* NVIDIA는 항상 켜져 있는 자율형 에이전트가 실제로 일하려면 전용 컴퓨팅 자원이 필요하다고 강조
> NemoClaw는 GeForce RTX PC/노트북, RTX PRO 워크스테이션, DGX Station, DGX Spark 같은 전용 시스템에서 24시간 실행될 수 있다고 설명
> 앞으로는 AI가 클라우드 챗봇에 머무는 게 아니라, 개인 전용 하드웨어 위에서 상시 작동하는 personal AI로 간다는 것
https://nvidianews.nvidia.com/news/nvidia-announces-nemoclaw
Vera Rubin, Vera CPU, DSX가 AI 팩토리 인프라였다면, NemoClaw는 그 위에서 돌아갈 개인용/로컬 에이전트 소프트웨어 스택으로
NVIDIA가 데이터센터용 AI 인프라뿐 아니라, 개인 단말에서 돌아가는 항시형 에이전트 운영체제 레이어까지 선점하려는 구상으로 보이네요
---------------------------------------------------
NVIDIA Announces NemoClaw for the OpenClaw Community
* NemoClaw 공개: OpenClaw 기반 개인 AI 에이전트/항시 동작형 AI 비서를 더 쉽게 설치, 보안·프라이버시 가드레일을 붙여 실제 사용 가능한 형태로 만들겠다는 구상
> 모델 발표라기보다 개인용 에이전트 운영 스택 발표
* NemoClaw는 OpenClaw 에이전트 플랫폼 위에 NVIDIA Nemotron 모델과 새로 발표한 NVIDIA OpenShell 런타임을 한 줄 명령(single command)로 설치하게 해주는 스택
> 이를 통해 자율형 AI 에이전트를 더 신뢰 가능하고, 확장 가능하며, 접근 가능하게 만든다고 설명
* “에이전트를 만드는 것” 자체보다, 에이전트가 항상 켜져서 작업을 대신 수행하려면 권한 통제, 네트워크 가드레일, 데이터 프라이버시, 샌드박스 실행 환경이 필요
> NemoClaw는 NVIDIA Agent Toolkit으로 OpenClaw를 최적화, OpenShell을 통해 오픈 모델 실행과 격리된 sandbox를 제공: 보안·프라이버시 계층을 더함
* NemoClaw는 로컬 시스템에서 실행되는 오픈 모델, 예를 들어 NVIDIA Nemotron 같은 모델을 사용할 수 있고, 동시에 privacy router를 통해 클라우드의 frontier model도 쓸 수 있게 설계
> 민감한 작업은 로컬에서 돌리고, 필요한 경우 클라우드 모델도 혼합 사용하는 하이브리드 에이전트 구조를 지향
* NVIDIA는 항상 켜져 있는 자율형 에이전트가 실제로 일하려면 전용 컴퓨팅 자원이 필요하다고 강조
> NemoClaw는 GeForce RTX PC/노트북, RTX PRO 워크스테이션, DGX Station, DGX Spark 같은 전용 시스템에서 24시간 실행될 수 있다고 설명
> 앞으로는 AI가 클라우드 챗봇에 머무는 게 아니라, 개인 전용 하드웨어 위에서 상시 작동하는 personal AI로 간다는 것
https://nvidianews.nvidia.com/news/nvidia-announces-nemoclaw
NVIDIA Newsroom
NVIDIA Announces NemoClaw for the OpenClaw Community
NVIDIA today announced the NVIDIA NemoClaw™ stack for the OpenClaw agent platform — which lets users install NVIDIA Nemotron™ models and the newly announced NVIDIA OpenShell™ runtime in a single command — adding privacy and security controls to make self…
Forwarded from 유안타증권 반도체 백길현
Nvidia CEO Jensen Huang on Monday said he sees purchase orders of up to $1 trillion for two of the company’s key AI chip technologies, double that of the $500 billion forecast last year.
Huang’s remarks came at his company’s annual developers conference in California. "We saw $500 billion of very high confidence demand and purchase orders for Blackwell and Rubin through 2026. I said that last year," Huang said. "Right here where I stand, I see, through 2027, at least $1 trillion dollars," he added.
https://www.investing.com/news/stock-market-news/ai-inference-will-be-in-focus-when-nvidias-ceo-speaks-on-monday-heres-why-4563076
Huang’s remarks came at his company’s annual developers conference in California. "We saw $500 billion of very high confidence demand and purchase orders for Blackwell and Rubin through 2026. I said that last year," Huang said. "Right here where I stand, I see, through 2027, at least $1 trillion dollars," he added.
https://www.investing.com/news/stock-market-news/ai-inference-will-be-in-focus-when-nvidias-ceo-speaks-on-monday-heres-why-4563076
Investing.com
Nvidia GTC: Huang sees up to $1 trillion in orders for Blackwell, Rubin by 2027 By Investing.com