Forwarded from [메리츠 Tech 김선우, 양승수, 김동관]
[메리츠증권 전기전자/IT부품 양승수]
▶ 1월 대만 낸드 컨트롤러 공급 업체 Phison 매출액 10,451.6백만대만달러(+19.9% MoM, +189.2% YoY) 발표
- 지난달에 이어 역대 단월 기준 최고 매출을 재차 경신
- 1월 컨트롤러 총 출하량은 전년 대비 160% 증가했으며, 이 중 고마진·고기술 장벽의 산업용 컨트롤러 출하량도 전년 대비 약 70% 증가해 모두 단월 기준 사상 최고치를 기록
- Phison CEO는 1월부터 강력한 성장 모멘텀이 확인되고 있다며, 이는 글로벌 고급 스토리지 수요의 견조한 기반을 반영한 결과라고 강조
- 또한 NAND Flash 산업의 공급은 여전히 극도로 타이트한 상황으로, NAND 원제조사들이 CAPEX 및 증설 계획을 보수적으로 유지하고 있어 수급 불균형은 단기간 내 해소되기 어려운 구조라고 평가
- Phison은 엔터프라이즈 SSD와 고부가가치 맞춤형 스토리지 애플리케이션에 자원을 우선 배분해, 데이터센터 및 AI 수요 확대에 적극 대응하며 수익 구조 강화를 추진할 방침
- 중국 반도체 업체들의 조기 양산 논의와 관련해, Phison CEO는 초기 수율이 낮은 현실을 감안할 때 중국 내 거대한 내수 수요를 충족하기에도 아직 역부족이라는 입장을 표명
(자료: Phsion ir)
*본 내용은 당사의 코멘트 없이 국내외 언론사 뉴스 및 전자공시자료 등을 인용한 것으로 별도의 승인 절차 없이 제공합니다
▶ 1월 대만 낸드 컨트롤러 공급 업체 Phison 매출액 10,451.6백만대만달러(+19.9% MoM, +189.2% YoY) 발표
- 지난달에 이어 역대 단월 기준 최고 매출을 재차 경신
- 1월 컨트롤러 총 출하량은 전년 대비 160% 증가했으며, 이 중 고마진·고기술 장벽의 산업용 컨트롤러 출하량도 전년 대비 약 70% 증가해 모두 단월 기준 사상 최고치를 기록
- Phison CEO는 1월부터 강력한 성장 모멘텀이 확인되고 있다며, 이는 글로벌 고급 스토리지 수요의 견조한 기반을 반영한 결과라고 강조
- 또한 NAND Flash 산업의 공급은 여전히 극도로 타이트한 상황으로, NAND 원제조사들이 CAPEX 및 증설 계획을 보수적으로 유지하고 있어 수급 불균형은 단기간 내 해소되기 어려운 구조라고 평가
- Phison은 엔터프라이즈 SSD와 고부가가치 맞춤형 스토리지 애플리케이션에 자원을 우선 배분해, 데이터센터 및 AI 수요 확대에 적극 대응하며 수익 구조 강화를 추진할 방침
- 중국 반도체 업체들의 조기 양산 논의와 관련해, Phison CEO는 초기 수율이 낮은 현실을 감안할 때 중국 내 거대한 내수 수요를 충족하기에도 아직 역부족이라는 입장을 표명
(자료: Phsion ir)
*본 내용은 당사의 코멘트 없이 국내외 언론사 뉴스 및 전자공시자료 등을 인용한 것으로 별도의 승인 절차 없이 제공합니다
MS, Starcloud: Data Centers in Space — AI Goes Orbital (26.01.27)
✅ 문제의 출발점: 지상 AI 데이터센터의 구조적 한계
‒ AI 학습·추론 수요 급증으로 대규모·고전력 데이터센터 증설이 필수가 된 상황
‒ 모건스탠리는 미국 전력 수요 중 데이터센터 비중이 2026년 약 9%, 2030년대 중반에는 약 20%까지 상승할 것으로 추정
» 전력망 병목, 냉각 비용, 물 사용, 토지 인허가 문제로 지상 데이터센터 건설 난이도 급상승
» 지역 주민 반발과 정치적 압박이 확대되며, 데이터센터는 “물가·전기요금 상승의 원인”으로 인식되기 시작
‒ 반면 재사용 로켓 확산으로 우주 접근 비용은 장기적으로 구조적 하락 국면
‒ 지상 데이터센터 비용의 인플레이션 vs 저궤도 접근 비용의 디플레이션이라는 대비 구도가 형성됨
✅ Starcloud의 핵심 아이디어: “에너지를 보내지 말고, 연산을 옮긴다”
‒ 초기에는 우주 태양광을 지상으로 송전하는 모델을 검토했으나, 전송 손실로 경제성 부재
‒ 대신 전력이 풍부한 우주로 AI 연산 자체를 이동시키는 방향으로 전략 전환
‒ AI 연산은 향후 가장 빠르게 증가하는 전력 수요원이기 때문에, 입지 이동의 경제적 타당성이 있다는 판단
‒ 이 접근은 ‘우주 태양광’보다 ‘우주 연산 인프라’가 현실적이라는 문제의식에서 출발함
✅ Starcloud는 어떤 회사인가
‒ 2024년 설립된 우주 데이터센터 전문 스타트업
‒ CEO Philip Johnston는 엔지니어 출신으로, McKinsey 재직 시절 우주 기관 자문 경험 보유
‒ 공동창업진에는 SpaceX, Microsoft, Airbus Defense & Space 출신 기술 인력이 참여
‒ 본사는 워싱턴주 레드먼드로, Amazon·Microsoft·Blue Origin·SpaceX 등 우주·클라우드 클러스터 인접
‒ 2024년 Y Combinator 참여, 대형 시드 투자 유치
‒ 2025년 11월 세계 최초로 궤도에서 AI 모델 학습에 성공한 기업이 됨
✅ 왜 데이터센터를 우주에 두려 하나 — 기술적·물리적 장점
‒ 전력: 우주는 대기 손실 없이 거의 상수에 가까운 태양 복사 에너지 확보 가능
» 태양 복사량은 약 1,361W/m²로, 지상 태양광 대비 약 30% 이상 효율 우위
‒ 냉각: 지상 데이터센터는 냉각에 전체 전력의 최대 40%를 소모
» 우주는 대류 냉각은 불가하지만, 복사 냉각을 통해 열을 직접 방출 가능
‒ 지연시간: 최적 궤도 배치 시 글로벌 사용자와 수 ms 단위 연결 가능성
‒ 확장성: 재사용 로켓으로 kg당 발사 비용이 과거 대비 10배 이상 하락
‒ 리던던시: 전력망 장애, 지정학 리스크, 자연재해로부터 연산 자산 분산 가능
✅ 동시에 존재하는 근본적 장애 요인
‒ 방사선: 고궤도로 갈수록 태양입자·우주방사선 노출 증가
» 내방사 설계·차폐가 필수이며, 이는 중량·비용 증가로 직결
‒ 보안: 우주에는 소유권 개념이 없고, 위성 근접 정찰(RPO) 리스크 상존
» 대규모 우주 데이터센터는 새로운 군사·안보 표적이 될 가능성
‒ 열 관리: 대류·액체 냉각 불가 → 대형 복사 라디에이터 필요
‒ 유지보수: 고장 시 현장 수리 불가, 위성 단위 교체·중복 설계 필요
‒ 우주 파편: 1cm 이상 파편만 100만 개 이상으로 충돌 위험 급증
‒ 발사 비용 임계점: Starcloud는 kg당 약 500달러가 지상 대비 손익분기점이라 언급
» 이는 차세대 초대형 재사용 로켓 상용화 이후에야 가능
✅ Starcloud의 아키텍처 전략: 분산 → 단일 거대 구조
‒ 단기 전략은 수백 개 소형 위성을 광학 링크로 연결한 분산형 추론 네트워크
» 이는 유지보수·교체·리스크 분산에 유리
‒ 중장기적으로는 5GW급 단일 모듈형 데이터센터를 태양 동기 궤도에 구축
‒ 태양광 패널과 복사 라디에이터가 결합된 대형 구조물에
‒ 컨테이너형 GPU 모듈을 도킹 방식으로 추가·교체
‒ 주 구조물은 10년 이상 사용, 연산 모듈은 주기적 교체를 목표
✅ 기술 세부 구상
‒ 컨테이너형 연산 모듈은 전력·냉각·네트워크가 일체형
‒ 직접 액체 냉각 또는 침지 냉각 적용 가능성
‒ 랙당 약 120kW 전력 밀도를 가정
‒ 초대형 로켓 1회 발사로 약 40MW 연산 모듈 수송 가능하다는 가정
‒ 이론상 100회 미만 발사로 5GW급 연산 자산 구축 가능
‒ 지상 연결은 레이저 통신을 활용한 기존 위성망 연계
✅ 단계별 로드맵
‒ 2025.11: Starcloud-1 실증 위성 발사, H100 GPU 탑재 및 AI 학습 성공
‒ 2026년 말: Starcloud-2 상업용 위성 발사 예정
» Blackwell B200 GPU 클러스터, 상시 전력·저장·접속 제공 목표
‒ 2027년 이후: 분산형 추론 위성 네트워크 확장
‒ 2030년 이후: 초대형 로켓 전제 하에 GW급 훈련용 데이터센터 구축 구상
✅ 파트너 및 경쟁 구도
‒ 파트너: NVIDIA, Google, Crusoe, Star Catcher, Mission Space 등
‒ 경쟁: Google(Project Suncatcher), Amazon·Blue Origin, SpaceX, Axiom Space, Aetherflux 등
‒ 빅테크와 우주 기업 다수가 동일한 문제를 각기 다른 방식으로 실험 중
💡 정리: 우주 데이터센터는 ‘아이디어 실험’이 아니라 전력 병목이 만든 구조적 선택지
» AI 연산 수요는 전력·냉각·입지 제약을 동시에 압박
» Starcloud는 연산의 위치 자체를 바꾸는 극단적 해법을 제시
» 단기 상업성은 제한적이나, 2030년대 이후 인프라 옵션으로 의미 있음
» 핵심 변수는 발사 비용, 방사선 대응, 보안 체계, 초대형 로켓 상용화 속도
‒ AI 학습·추론 수요 급증으로 대규모·고전력 데이터센터 증설이 필수가 된 상황
‒ 모건스탠리는 미국 전력 수요 중 데이터센터 비중이 2026년 약 9%, 2030년대 중반에는 약 20%까지 상승할 것으로 추정
» 전력망 병목, 냉각 비용, 물 사용, 토지 인허가 문제로 지상 데이터센터 건설 난이도 급상승
» 지역 주민 반발과 정치적 압박이 확대되며, 데이터센터는 “물가·전기요금 상승의 원인”으로 인식되기 시작
‒ 반면 재사용 로켓 확산으로 우주 접근 비용은 장기적으로 구조적 하락 국면
‒ 지상 데이터센터 비용의 인플레이션 vs 저궤도 접근 비용의 디플레이션이라는 대비 구도가 형성됨
‒ 초기에는 우주 태양광을 지상으로 송전하는 모델을 검토했으나, 전송 손실로 경제성 부재
‒ 대신 전력이 풍부한 우주로 AI 연산 자체를 이동시키는 방향으로 전략 전환
‒ AI 연산은 향후 가장 빠르게 증가하는 전력 수요원이기 때문에, 입지 이동의 경제적 타당성이 있다는 판단
‒ 이 접근은 ‘우주 태양광’보다 ‘우주 연산 인프라’가 현실적이라는 문제의식에서 출발함
‒ 2024년 설립된 우주 데이터센터 전문 스타트업
‒ CEO Philip Johnston는 엔지니어 출신으로, McKinsey 재직 시절 우주 기관 자문 경험 보유
‒ 공동창업진에는 SpaceX, Microsoft, Airbus Defense & Space 출신 기술 인력이 참여
‒ 본사는 워싱턴주 레드먼드로, Amazon·Microsoft·Blue Origin·SpaceX 등 우주·클라우드 클러스터 인접
‒ 2024년 Y Combinator 참여, 대형 시드 투자 유치
‒ 2025년 11월 세계 최초로 궤도에서 AI 모델 학습에 성공한 기업이 됨
‒ 전력: 우주는 대기 손실 없이 거의 상수에 가까운 태양 복사 에너지 확보 가능
» 태양 복사량은 약 1,361W/m²로, 지상 태양광 대비 약 30% 이상 효율 우위
‒ 냉각: 지상 데이터센터는 냉각에 전체 전력의 최대 40%를 소모
» 우주는 대류 냉각은 불가하지만, 복사 냉각을 통해 열을 직접 방출 가능
‒ 지연시간: 최적 궤도 배치 시 글로벌 사용자와 수 ms 단위 연결 가능성
‒ 확장성: 재사용 로켓으로 kg당 발사 비용이 과거 대비 10배 이상 하락
‒ 리던던시: 전력망 장애, 지정학 리스크, 자연재해로부터 연산 자산 분산 가능
‒ 방사선: 고궤도로 갈수록 태양입자·우주방사선 노출 증가
» 내방사 설계·차폐가 필수이며, 이는 중량·비용 증가로 직결
‒ 보안: 우주에는 소유권 개념이 없고, 위성 근접 정찰(RPO) 리스크 상존
» 대규모 우주 데이터센터는 새로운 군사·안보 표적이 될 가능성
‒ 열 관리: 대류·액체 냉각 불가 → 대형 복사 라디에이터 필요
‒ 유지보수: 고장 시 현장 수리 불가, 위성 단위 교체·중복 설계 필요
‒ 우주 파편: 1cm 이상 파편만 100만 개 이상으로 충돌 위험 급증
‒ 발사 비용 임계점: Starcloud는 kg당 약 500달러가 지상 대비 손익분기점이라 언급
» 이는 차세대 초대형 재사용 로켓 상용화 이후에야 가능
‒ 단기 전략은 수백 개 소형 위성을 광학 링크로 연결한 분산형 추론 네트워크
» 이는 유지보수·교체·리스크 분산에 유리
‒ 중장기적으로는 5GW급 단일 모듈형 데이터센터를 태양 동기 궤도에 구축
‒ 태양광 패널과 복사 라디에이터가 결합된 대형 구조물에
‒ 컨테이너형 GPU 모듈을 도킹 방식으로 추가·교체
‒ 주 구조물은 10년 이상 사용, 연산 모듈은 주기적 교체를 목표
‒ 컨테이너형 연산 모듈은 전력·냉각·네트워크가 일체형
‒ 직접 액체 냉각 또는 침지 냉각 적용 가능성
‒ 랙당 약 120kW 전력 밀도를 가정
‒ 초대형 로켓 1회 발사로 약 40MW 연산 모듈 수송 가능하다는 가정
‒ 이론상 100회 미만 발사로 5GW급 연산 자산 구축 가능
‒ 지상 연결은 레이저 통신을 활용한 기존 위성망 연계
‒ 2025.11: Starcloud-1 실증 위성 발사, H100 GPU 탑재 및 AI 학습 성공
‒ 2026년 말: Starcloud-2 상업용 위성 발사 예정
» Blackwell B200 GPU 클러스터, 상시 전력·저장·접속 제공 목표
‒ 2027년 이후: 분산형 추론 위성 네트워크 확장
‒ 2030년 이후: 초대형 로켓 전제 하에 GW급 훈련용 데이터센터 구축 구상
‒ 파트너: NVIDIA, Google, Crusoe, Star Catcher, Mission Space 등
‒ 경쟁: Google(Project Suncatcher), Amazon·Blue Origin, SpaceX, Axiom Space, Aetherflux 등
‒ 빅테크와 우주 기업 다수가 동일한 문제를 각기 다른 방식으로 실험 중
» AI 연산 수요는 전력·냉각·입지 제약을 동시에 압박
» Starcloud는 연산의 위치 자체를 바꾸는 극단적 해법을 제시
» 단기 상업성은 제한적이나, 2030년대 이후 인프라 옵션으로 의미 있음
» 핵심 변수는 발사 비용, 방사선 대응, 보안 체계, 초대형 로켓 상용화 속도
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Yeouido Lab_여의도 톺아보기
[연기금 국내주식] 코스닥 투자 비중 10%까지 늘릴까…검토 단계
https://news.einfomax.co.kr/news/articleView.html?idxno=4397908
9일 기획예산처에 따르면 지난 2024년 연기금의 코스닥 투자 규모는 5조8천억원으로, 국내주식 투자 규모의 3.7% 수준이다.
실제로 A 연기금의 경우, 현재 기준으로도 국내주식 투자금 가운데 코스닥 투자 비중은 2~3%에 그치는 것으로 파악됐다.
B 연기금도 코스닥 비중이 크지 않다. 기금 운용 벤치마크로 직접 운용 자금은 코스피200, 위탁 운용 자금은 코스피를 사용하고 있기 때문이다. 주로 위탁 운용 자금에서 벤치마크 수익률을 상회하기 위한 차원에서 코스닥을 일부 투자하고 있을 것으로 추정했다.
이들은 최근 들어 코스닥 비중 확대를 검토하고 있다.
...
공제회 한 최고투자책임자(CIO)는 "정부가 코스닥 제도 개선을 적극적으로 추진하고 있다"며 "코스닥 투자를 하고 있지 않던 기관들의 수급이 들어올 여지도 있다"고 기대했다.
이성훈 키움증권 연구원은 "코스닥 시장 내 부실기업이 퇴출되고 우량기업의 실적 성장이 부각될 수 있다면, 코스닥 지수의 왜곡 현상이 해소됨으로써 지수 전반의 리레이팅을 가져올 수 있다"고 말했다.
https://news.einfomax.co.kr/news/articleView.html?idxno=4397908
9일 기획예산처에 따르면 지난 2024년 연기금의 코스닥 투자 규모는 5조8천억원으로, 국내주식 투자 규모의 3.7% 수준이다.
실제로 A 연기금의 경우, 현재 기준으로도 국내주식 투자금 가운데 코스닥 투자 비중은 2~3%에 그치는 것으로 파악됐다.
B 연기금도 코스닥 비중이 크지 않다. 기금 운용 벤치마크로 직접 운용 자금은 코스피200, 위탁 운용 자금은 코스피를 사용하고 있기 때문이다. 주로 위탁 운용 자금에서 벤치마크 수익률을 상회하기 위한 차원에서 코스닥을 일부 투자하고 있을 것으로 추정했다.
이들은 최근 들어 코스닥 비중 확대를 검토하고 있다.
...
공제회 한 최고투자책임자(CIO)는 "정부가 코스닥 제도 개선을 적극적으로 추진하고 있다"며 "코스닥 투자를 하고 있지 않던 기관들의 수급이 들어올 여지도 있다"고 기대했다.
이성훈 키움증권 연구원은 "코스닥 시장 내 부실기업이 퇴출되고 우량기업의 실적 성장이 부각될 수 있다면, 코스닥 지수의 왜곡 현상이 해소됨으로써 지수 전반의 리레이팅을 가져올 수 있다"고 말했다.
연합인포맥스
[연기금 국내주식] 코스닥 투자 비중 10%까지 늘릴까…검토 단계
정부가 기금운용평가에서 코스닥을 벤치마크(BM)로 편입하기로 하면서, 국내 주요 연기금과 공제회들도 코스닥 비중 확대 검토에 나섰다.일부는 국내주식 내 코스닥 투자 비중을 10%까지 늘릴 가능성도 열어두고 ...
Gromit 공부방
S&P 500 YTD 퍼포먼스 분해 미장 테크의 억울함은 해소되지 않은 모습, 뭐 그 또한 시장의 뜻이겠거니
이익 변화가 아니라 멀티플 변화가 2026년 S&P 500 섹터별 퍼포먼스의 거의 전부를 설명
Gromit 공부방
Discretionary vs Systematic Equity Positioning 업뎃
Discretionary vs Systematic Equity Positioning 업뎃
Forwarded from 올바른
오픈AI, 이번 주 ChatGPT 업데이트 모델 출시 예정 (자료: CNBC)
OAI 내부 슬랙 메시지 및 CNBC 조사
> 다시 ChatGPT MoM 사용자 성장률 10% 넘어서기 시작
> 이번 주 ChatGPT 업데이트 모델 출시 예정
> 이번 주 월요일부터 광고 테스트 공식 시작 예정
> 오픈AI $100B 규모 펀딩 마무리 단계
> OpenAI Codex가 Claude Code의 시장 점유율 잠식 중
OAI 내부 슬랙 메시지 및 CNBC 조사
> 다시 ChatGPT MoM 사용자 성장률 10% 넘어서기 시작
> 이번 주 ChatGPT 업데이트 모델 출시 예정
> 이번 주 월요일부터 광고 테스트 공식 시작 예정
> 오픈AI $100B 규모 펀딩 마무리 단계
> OpenAI Codex가 Claude Code의 시장 점유율 잠식 중
CNBC
Sam Altman touts ChatGPT's reaccelerating growth to employees as OpenAI closes in on $100 billion funding
OpenAI CEO Sam Altman told employees that ChatGPT's monthly growth is back above 10%, as competition ramps up in generative AI.
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
» 연초 이후 Claude의 성장세가 부각된 이후, 최근 들어 OpenAI의 코딩 어시스턴트인 Codex의 설치 건수도 동반 급증
아직 본격적인 무대는 시작도 않았는데,
시장에서는 A가 조금만 잘하면 B, C는 망했다,
B가 또 치고 올라오면 A는 퇴물이고 C는 다 끝났다 망했다 식의 극단적이고 자극적인 내러티브가 잘 워킹한다
시장이 뭐 그럴 때도 있는 거니까, 그 속에서 기회만 잘 찾고자 함
시장에서는 A가 조금만 잘하면 B, C는 망했다,
B가 또 치고 올라오면 A는 퇴물이고 C는 다 끝났다 망했다 식의 극단적이고 자극적인 내러티브가 잘 워킹한다
시장이 뭐 그럴 때도 있는 거니까, 그 속에서 기회만 잘 찾고자 함
Cantor, NVDA's Relative Underperformance Just Doesn't Compute (26.02.03)
✅ AI 인프라 전반은 ‘슈퍼사이클’을 가격에 반영 중
‒ 2026년 YTD 기준 메모리 주식 +70%, 대형 반도체 장비 +30%, 네트워킹·레이저 +20% 급등
‒ 시장은 “AI 인프라 핵심 부품은 최소 2년 이상 솔드아웃”이라는 가정 하에 관련 밸류체인을 선반영
‒ HBM, 네트워킹, 서버, 전력·인프라까지 전방위 랠리 전개
‒ 그러나 AI 가속기 최상단에 위치한 NVDA·AVGO 주가는 연초 이후 사실상 보합
‒ Cantor는 이를 구조적 모순으로 규정, 인프라 슈퍼사이클이 맞다면 최종 수혜자는 NVDA일 수밖에 없음
✅ Cantor의 핵심 주장: “둘 중 하나만 맞다”
‒ 현재 시장은 동시에 두 가지 상충된 가정을 하고 있음
‒ ① AI 인프라 슈퍼사이클은 실재 → 메모리·네트워킹·장비 주식 급등
‒ ② 그러나 NVDA는 경쟁 심화로 구조적 성장 둔화 → 주가 정체
‒ Cantor는 이 중 ①이 맞다고 판단하며, 그 결과 ②는 성립 불가능하다고 명시
‒ 결론적으로 NVDA·AVGO는 현재 시장에서 명백히 저평가된 상태
✅ 밸류에이션: 실적 가시성 대비 과도한 디레이팅
‒ Cantor 추정 CY26 EPS $9, CY27 EPS $12, 컨센서스($7.48 / $9.78) 대비 상향 여지 큼
‒ 현재 주가는 CY26 기준 PER 21배, CY27 기준 16배 수준
‒ AI 인프라 슈퍼사이클 초입이라는 점을 감안하면 역사적·구조적으로 낮은 멀티플
‒ Cantor는 Overweight 의견과 목표주가 $300 유지, 상승여력 50% 이상으로 평가
✅ NVDA 주가 부진의 직접적 원인: Google TPU 내러티브
‒ 2025년 하반기 이후 Google TPU 차세대 로드맵이 시장의 핵심 우려로 부상
‒ Anthropic·Meta·OpenAI가 TPU를 병행 사용한다는 점이 NVDA 점유율 약화 우려로 연결
‒ Google Cloud 성장 가속 + 반독점 이슈 완화 + Gemini 3 성공이 내러티브를 강화
‒ 결과적으로 2025년 8월 이후 NVDA +4% vs GOOGL +61%, Cantor AI 바스켓 +37%
‒ Cantor는 이를 “펀더멘털이 아닌 스토리 중심의 상대적 언더퍼폼”으로 해석
✅ Blackwell 아키텍처: Hopper 대비 질적 도약
‒ Blackwell(GB200 NVL72)은 H100 대비 학습 성능 4배 개선
‒ 에너지 효율 25배 개선, MoE 모델 기준 추론 성능 최대 30배 향상
‒ 초기 MLPerf 기준 학습 2.2배, 추론 4배 개선 확인
‒ 소프트웨어 최적화가 아직 진행 중으로 추가 개선 여지 존재
✅ 핵심 구조 변화 ①: 메모리와 정밀도
‒ Blackwell은 GPU당 VRAM 192GB(HBM3E) 탑재
‒ Hopper(H200)의 141GB 대비 대폭 증가
‒ 2세대 Transformer Engine이 FP4 연산 지원
‒ FP4 도입으로 파라미터당 메모리 요구량 감소
‒ 동일 VRAM에서 훨씬 더 큰 모델 학습 가능
✅ 핵심 구조 변화 ②: 연산·대역폭
‒ Blackwell은 FLOPS 약 2배 증가
‒ 메모리 대역폭 역시 약 2배 개선
‒ 결과적으로 모델 크기는 커지지만 학습 시간과 비용은 Hopper 수준 유지 가능
‒ 이는 “더 크고, 더 똑똑한 모델을 같은 예산으로” 학습할 수 있음을 의미
✅ 의미: 프론티어 랩의 전략이 다시 NVDA로 수렴
‒ Hopper 기준으로는 모델 스케일링이 비용·시간 한계에 직면
‒ Blackwell은 해당 병목을 구조적으로 해소
‒ 프론티어 랩(OpenAI·xAI·Meta 등)이 TPU와 비교해 다시 NVDA를 핵심으로 선택할 유인 확대
✅ 2026년 상반기 최대 캐털리스트: Blackwell 기반 LLM 출시
‒ xAI: Grok 5, CY25에서 연기되어 2026년 초 출시 예상
‒ Musk 발언 기준 “AGI에 10% 확률” 언급, 대규모 Blackwell 학습 모델 가능성
‒ OpenAI: Gemini 3 대응 위해 ‘Garlic’ 프로젝트 가속
‒ Garlic이 GPT-5.2인지, 별도 모델인지는 불확실하나 Blackwell 학습 모델 공개 가능성 높음
‒ Meta: Llama 4 오픈소스 실패 이후 폐쇄형 Avocado 모델로 전략 전환, 1H26 목표
✅ 벤치마크 환경 변화: NVDA에 유리한 방향
‒ 기존 MMLU, ARC-AGI-1은 상위 모델 점수 포화(90%)
‒ 시장은 Humanity’s Last Exam, ARC-AGI-2·3 등 고난도 추론 벤치마크로 이동
‒ 현재 최고 점수는 40~60% 수준
‒ Blackwell 기반 대형 모델은 단기간 내 30%p 이상 점수 개선 가능성
‒ Cantor는 2H26부터 다시 새로운 고난도 벤치마크로 이동할 가능성도 언급
✅ 단일 이벤트 리스크: 모델 하나로 내러티브 전환 가능
‒ Musk 트윗, 프론티어 랩의 단일 모델 발표만으로도 투자자 인식 급변 가능
‒ Gemini 3 당시 ‘체감 성능(feel)’이 시장 내러티브를 바꿨던 사례 재현 가능
‒ Blackwell 모델이 해당 역할을 할 잠재력 충분
✅ 수요 측면: Sovereign AI와 클라우드 Capex의 구조적 확대
‒ 미국 Stargate 프로젝트: 4년간 $500B AI 인프라 투자 계획
‒ 일본·사우디·UAE·한국 등 정부 주도의 대규모 NVDA GPU 확보 경쟁
‒ 한국 정부도 5만개 이상 NVDA GPU 투자 계획 명시
‒ 클라우드 Capex 컨센서스는 2025~2027년 지속 상향 조정 중
💡 정리: NVDA는 ‘AI 인프라 슈퍼사이클의 최종 수렴점’
» 현재 주가 부진은 경쟁 우려가 아닌 내러티브 왜곡의 결과
» Blackwell 기반 LLM 출시가 시작되면 성능·비용·확장성에서 NVDA 우위 재확인 가능성 높음
» 2026년 상반기는 NVDA 상대적 언더퍼폼이 해소되는 전환 구간으로, AI 슈퍼사이클의 중심으로 복귀할 확률이 높다고 판단
#NVDA
‒ 2026년 YTD 기준 메모리 주식 +70%, 대형 반도체 장비 +30%, 네트워킹·레이저 +20% 급등
‒ 시장은 “AI 인프라 핵심 부품은 최소 2년 이상 솔드아웃”이라는 가정 하에 관련 밸류체인을 선반영
‒ HBM, 네트워킹, 서버, 전력·인프라까지 전방위 랠리 전개
‒ 그러나 AI 가속기 최상단에 위치한 NVDA·AVGO 주가는 연초 이후 사실상 보합
‒ Cantor는 이를 구조적 모순으로 규정, 인프라 슈퍼사이클이 맞다면 최종 수혜자는 NVDA일 수밖에 없음
‒ 현재 시장은 동시에 두 가지 상충된 가정을 하고 있음
‒ ① AI 인프라 슈퍼사이클은 실재 → 메모리·네트워킹·장비 주식 급등
‒ ② 그러나 NVDA는 경쟁 심화로 구조적 성장 둔화 → 주가 정체
‒ Cantor는 이 중 ①이 맞다고 판단하며, 그 결과 ②는 성립 불가능하다고 명시
‒ 결론적으로 NVDA·AVGO는 현재 시장에서 명백히 저평가된 상태
‒ Cantor 추정 CY26 EPS $9, CY27 EPS $12, 컨센서스($7.48 / $9.78) 대비 상향 여지 큼
‒ 현재 주가는 CY26 기준 PER 21배, CY27 기준 16배 수준
‒ AI 인프라 슈퍼사이클 초입이라는 점을 감안하면 역사적·구조적으로 낮은 멀티플
‒ Cantor는 Overweight 의견과 목표주가 $300 유지, 상승여력 50% 이상으로 평가
‒ 2025년 하반기 이후 Google TPU 차세대 로드맵이 시장의 핵심 우려로 부상
‒ Anthropic·Meta·OpenAI가 TPU를 병행 사용한다는 점이 NVDA 점유율 약화 우려로 연결
‒ Google Cloud 성장 가속 + 반독점 이슈 완화 + Gemini 3 성공이 내러티브를 강화
‒ 결과적으로 2025년 8월 이후 NVDA +4% vs GOOGL +61%, Cantor AI 바스켓 +37%
‒ Cantor는 이를 “펀더멘털이 아닌 스토리 중심의 상대적 언더퍼폼”으로 해석
‒ Blackwell(GB200 NVL72)은 H100 대비 학습 성능 4배 개선
‒ 에너지 효율 25배 개선, MoE 모델 기준 추론 성능 최대 30배 향상
‒ 초기 MLPerf 기준 학습 2.2배, 추론 4배 개선 확인
‒ 소프트웨어 최적화가 아직 진행 중으로 추가 개선 여지 존재
‒ Blackwell은 GPU당 VRAM 192GB(HBM3E) 탑재
‒ Hopper(H200)의 141GB 대비 대폭 증가
‒ 2세대 Transformer Engine이 FP4 연산 지원
‒ FP4 도입으로 파라미터당 메모리 요구량 감소
‒ 동일 VRAM에서 훨씬 더 큰 모델 학습 가능
‒ Blackwell은 FLOPS 약 2배 증가
‒ 메모리 대역폭 역시 약 2배 개선
‒ 결과적으로 모델 크기는 커지지만 학습 시간과 비용은 Hopper 수준 유지 가능
‒ 이는 “더 크고, 더 똑똑한 모델을 같은 예산으로” 학습할 수 있음을 의미
‒ Hopper 기준으로는 모델 스케일링이 비용·시간 한계에 직면
‒ Blackwell은 해당 병목을 구조적으로 해소
‒ 프론티어 랩(OpenAI·xAI·Meta 등)이 TPU와 비교해 다시 NVDA를 핵심으로 선택할 유인 확대
‒ xAI: Grok 5, CY25에서 연기되어 2026년 초 출시 예상
‒ Musk 발언 기준 “AGI에 10% 확률” 언급, 대규모 Blackwell 학습 모델 가능성
‒ OpenAI: Gemini 3 대응 위해 ‘Garlic’ 프로젝트 가속
‒ Garlic이 GPT-5.2인지, 별도 모델인지는 불확실하나 Blackwell 학습 모델 공개 가능성 높음
‒ Meta: Llama 4 오픈소스 실패 이후 폐쇄형 Avocado 모델로 전략 전환, 1H26 목표
‒ 기존 MMLU, ARC-AGI-1은 상위 모델 점수 포화(90%)
‒ 시장은 Humanity’s Last Exam, ARC-AGI-2·3 등 고난도 추론 벤치마크로 이동
‒ 현재 최고 점수는 40~60% 수준
‒ Blackwell 기반 대형 모델은 단기간 내 30%p 이상 점수 개선 가능성
‒ Cantor는 2H26부터 다시 새로운 고난도 벤치마크로 이동할 가능성도 언급
‒ Musk 트윗, 프론티어 랩의 단일 모델 발표만으로도 투자자 인식 급변 가능
‒ Gemini 3 당시 ‘체감 성능(feel)’이 시장 내러티브를 바꿨던 사례 재현 가능
‒ Blackwell 모델이 해당 역할을 할 잠재력 충분
‒ 미국 Stargate 프로젝트: 4년간 $500B AI 인프라 투자 계획
‒ 일본·사우디·UAE·한국 등 정부 주도의 대규모 NVDA GPU 확보 경쟁
‒ 한국 정부도 5만개 이상 NVDA GPU 투자 계획 명시
‒ 클라우드 Capex 컨센서스는 2025~2027년 지속 상향 조정 중
» 현재 주가 부진은 경쟁 우려가 아닌 내러티브 왜곡의 결과
» Blackwell 기반 LLM 출시가 시작되면 성능·비용·확장성에서 NVDA 우위 재확인 가능성 높음
» 2026년 상반기는 NVDA 상대적 언더퍼폼이 해소되는 전환 구간으로, AI 슈퍼사이클의 중심으로 복귀할 확률이 높다고 판단
#NVDA
Please open Telegram to view this post
VIEW IN TELEGRAM
Gromit 공부방
2026년 상반기 최대 캐털리스트: Blackwell 기반 LLM 출시
‒ xAI: Grok 5, CY25에서 연기되어 2026년 초 출시 예상
‒ Musk 발언 기준 “AGI에 10% 확률” 언급, 대규모 Blackwell 학습 모델 가능성
‒ OpenAI: Gemini 3 대응 위해 ‘Garlic’ 프로젝트 가속
‒ Garlic이 GPT-5.2인지, 별도 모델인지는 불확실하나 Blackwell 학습 모델 공개 가능성 높음
‒ Meta: Llama 4 오픈소스 실패 이후 폐쇄형 Avocado 모델로 전략 전환, 1H26 목표
‒ xAI: Grok 5, CY25에서 연기되어 2026년 초 출시 예상
‒ Musk 발언 기준 “AGI에 10% 확률” 언급, 대규모 Blackwell 학습 모델 가능성
‒ OpenAI: Gemini 3 대응 위해 ‘Garlic’ 프로젝트 가속
‒ Garlic이 GPT-5.2인지, 별도 모델인지는 불확실하나 Blackwell 학습 모델 공개 가능성 높음
‒ Meta: Llama 4 오픈소스 실패 이후 폐쇄형 Avocado 모델로 전략 전환, 1H26 목표
향후 1년간 출시 예상 LLM 모델과 추정 가속기 조합
Forwarded from 선수촌
All those f*cking Koreans gamble. They use leverage from US equities. Those Koreans cause a permanent volatility. It needs to stop. Korean retail investors should be banned.
한국인들의 뻠삥에 지친 미국인들이 코리안고홈을 외치며 위정척사 운동을 전개하는 모습이다.
https://x.com/PandaDaytona/status/2020885193146445934
https://t.me/athletes_village/7773