Gromit 공부방
Discretionary vs Systematic Equity Positioning 업뎃
Discretionary vs Systematic Equity Positioning 업뎃
‒ 골드만 프라임 브로커리지 데이터에 따르면 올해 들어 개별주식 누적 롱 플로우는 약 +3~4%를 유지한 반면, 매크로(지수+ETF) 숏 플로우는 지속적으로 확대되어 -3% 수준까지 누적, 시장이 종목은 사고 지수는 파는 구조로 포지셔닝이 명확히 분리된 상태.
‒ 매크로 숏 익스포저는 전체 미국 주식 익스포저 대비 약 12% 수준까지 상승해 2021년 고점 근처에 도달한 상태로, 이는 최근 몇 년 기준 상단 구간에 해당하며 지수 단위 숏 포지션이 상당히 crowded되어 있음을 의미.
‒ 옵션 측면에서는 최근 3주 기준 SPX 지수 콜 스큐는 상승하는 반면, 평균 개별 종목 콜 스큐는 하락하며 괴리가 확대되었고, 이는 시장이 개별 종목 상승보다는 지수 레벨 숏 스퀴즈 리스크를 더 강하게 헤지하고 있음을 보여줌.
‒ 동시에 SPX 하락 국면에서 풋 스큐 역시 동반 하락하는 패턴이 나타났는데, 이는 통상적인 하락 시 풋 수요 증가와 반대되는 흐름으로, 투자자들이 보호 목적의 신규 풋 매수보다 기존 옵션 포지션을 청산하며 전체 익스포저를 줄이고 있음을 시사.
‒ 결국 시장은 개별 종목이 아니라 매크로·지수 상품 중심으로 숏 포지션이 누적된 상태이며, 옵션과 현물 모두에서 디레버리징이 진행되는 가운데 지수 기준 숏 익스포저가 높은 환경에서는 작은 상승에도 숏커버 기반 반등이 확대될 수 있는 구조.
‒ 매크로 숏 익스포저는 전체 미국 주식 익스포저 대비 약 12% 수준까지 상승해 2021년 고점 근처에 도달한 상태로, 이는 최근 몇 년 기준 상단 구간에 해당하며 지수 단위 숏 포지션이 상당히 crowded되어 있음을 의미.
‒ 옵션 측면에서는 최근 3주 기준 SPX 지수 콜 스큐는 상승하는 반면, 평균 개별 종목 콜 스큐는 하락하며 괴리가 확대되었고, 이는 시장이 개별 종목 상승보다는 지수 레벨 숏 스퀴즈 리스크를 더 강하게 헤지하고 있음을 보여줌.
‒ 동시에 SPX 하락 국면에서 풋 스큐 역시 동반 하락하는 패턴이 나타났는데, 이는 통상적인 하락 시 풋 수요 증가와 반대되는 흐름으로, 투자자들이 보호 목적의 신규 풋 매수보다 기존 옵션 포지션을 청산하며 전체 익스포저를 줄이고 있음을 시사.
‒ 결국 시장은 개별 종목이 아니라 매크로·지수 상품 중심으로 숏 포지션이 누적된 상태이며, 옵션과 현물 모두에서 디레버리징이 진행되는 가운데 지수 기준 숏 익스포저가 높은 환경에서는 작은 상승에도 숏커버 기반 반등이 확대될 수 있는 구조.
Forwarded from 모두의 미국주식
✅ 다음 병목이 CPU가 될 가능성을 보여준 ARM Everywhere 행사
Agentic AI 시대가 시작되면서 CPU 수요가 급증하고 있다.
CPU 기준으로 동일한 성능 대비 전력을 절반만 소모하는 ARM의 장점이 드디어 빛을 발하고 있다.
디램 - 낸드 - 광에 이어 CPU가 병목이 될 가능성을 조심스레 상상해본다.
https://blog.naver.com/usforall/224229361772
Agentic AI 시대가 시작되면서 CPU 수요가 급증하고 있다.
CPU 기준으로 동일한 성능 대비 전력을 절반만 소모하는 ARM의 장점이 드디어 빛을 발하고 있다.
디램 - 낸드 - 광에 이어 CPU가 병목이 될 가능성을 조심스레 상상해본다.
https://blog.naver.com/usforall/224229361772
NAVER
다음 병목이 CPU가 될 가능성을 보여준 ARM
ARM Everywhere 행사에서 ARM의 장기 전략이 공개됐다.
Gromit 공부방
#RKLB #PL 미국 우주도 슬금슬금 돌려주는 모습
Gromit 공부방
광 머시기들은 주봉상 이격 부담으로 잠시 쉬어갈 뿐 미장에서 젤 매력적인 포지션이라 생각 해당 띰 관련해서 아직 테마형 ETF도 출시된 게 없어서 (심리적) 고점은 아니지 않을까 하는 뇌피셜
참고로 광 머시기들은 곧 테마형 ETF가 출시되긴 함
https://www.smarttoday.co.kr/ko-kr/articles/104862
12일 금융투자업계에 따르면 삼성자산운용은 KODEX 미국AI광통신네트워크 ETF를 3월 말 출시할 예정이다. AI 투자 테마가 반도체와 전력에 이어 연결망으로 더 잘게 쪼개지는 흐름을 반영한 상품으로 풀이된다.
https://www.smarttoday.co.kr/ko-kr/articles/104862
스마트투데이
삼성운용, 국내 첫 AI 광통신 인프라 ETF 선보인다
|스마트투데이=김나연 기자| 삼성자산운용이 미국 AI 광통신·네트워크 인프라 기업에 투자하는 ETF를 내놓는다. 국내 ETF 시장에서 광통신을 전면에 내세운 AI 인프라 ETF 상품이 사실상 처음이라는 점에서 눈길을 끈다.
Gromit 공부방
참고로 광 머시기들은 곧 테마형 ETF가 출시되긴 함 12일 금융투자업계에 따르면 삼성자산운용은 KODEX 미국AI광통신네트워크 ETF를 3월 말 출시할 예정이다. AI 투자 테마가 반도체와 전력에 이어 연결망으로 더 잘게 쪼개지는 흐름을 반영한 상품으로 풀이된다. https://www.smarttoday.co.kr/ko-kr/articles/104862
그래서 광 머시기가 고점이냐? -> 당연히 모름
다만 체감상 한국인들의 컨센 롱 픽이 되어버린 테마/종목들은 통상 1) 엄청난 변동성, 2) 추세 이탈 시 엄청난 고통을 야기하는 등의 특성을 지니기 때문에 (e.g. SMR, IREN, 그리고 아직 끝났다고 보기는 어렵지만 BE, SNDK 등)
알아서 잘 투기하면 될 듯
당연히 인베스팅의 영역은 아니니..
다만 체감상 한국인들의 컨센 롱 픽이 되어버린 테마/종목들은 통상 1) 엄청난 변동성, 2) 추세 이탈 시 엄청난 고통을 야기하는 등의 특성을 지니기 때문에 (e.g. SMR, IREN, 그리고 아직 끝났다고 보기는 어렵지만 BE, SNDK 등)
알아서 잘 투기하면 될 듯
당연히 인베스팅의 영역은 아니니..
Gromit 공부방
미래에셋증권_디지털자산_AI_Bi_Weekly_새로운_사이클은_언제나.pdf
CPU가 돌아왔다
✅ GPU 중심 구조에서 CPU 중심 Control Plane으로 이동
‒ 기존 AI 인프라는 GPU 기반의 병렬 연산이 핵심이었지만, 멀티 에이전트와 Hydra 구조가 등장하면서 연산보다 “순차적 논리 제어”의 중요도가 급격히 상승
‒ 에이전트는 단순히 토큰을 생성하는 것이 아니라, 수십 단계의 작업을 나누고 검증하며 반복 수행하는 구조이기 때문에 초당 수백만 번의 조건 분기와 상태 전환이 발생
‒ 이러한 워크로드는 동일 연산을 반복하는 GPU보다, 강력한 단일 스레드 성능과 대규모 캐시를 가진 CPU가 훨씬 효율적으로 처리할 수 있어 CPU가 데이터센터의 ‘지휘관(Control Plane)’ 역할로 복귀
✅ 에이전트 시대에서 GPU 구조가 가지는 근본적 한계
‒ GPU는 SIMT 구조로 동일한 명령을 수천 개 코어에 동시에 실행하는 데 최적화되어 있지만, 에이전트 워크로드처럼 조건 분기가 많은 경우 각 코어가 서로 다른 경로를 선택하게 되면서 Warp Divergence가 발생하고 전체 효율이 급격히 저하됨
‒ 특히 에이전트는 코드 실행, 오류 수정, 웹 탐색, 의사결정 등을 반복하는 구조이기 때문에 연산보다 “논리 흐름 제어”가 핵심이 되며, 이는 GPU가 가장 취약한 영역임
‒ 또한 컨텍스트가 길어지면서 KV 캐시가 급증하고 메모리 병목(Memory Wall)이 심화되는데, 이 캐시를 관리하고 라우팅하는 작업 역시 GPU가 아닌 CPU가 담당할 수밖에 없는 구조
✅ 데이터센터 구조 자체가 CPU 중심으로 재편되는 흐름
‒ 과거에는 CPU와 GPU가 하나의 서버에 함께 탑재되는 모놀리식 구조가 일반적이었지만, 에이전트 시대에는 CPU가 처리해야 할 제어 연산이 폭증하면서 이 구조가 한계에 직면
‒ 이에 따라 데이터센터는 GPU만 탑재된 연산 전용 랙(Compute Plane)과 CPU만 탑재된 제어 전용 랙(Control Plane)으로 물리적으로 분리되는 방향으로 진화하고 있음
‒ 특히 에이전트 수가 증가할수록 CPU가 담당하는 오케스트레이션 부하가 기하급수적으로 증가하기 때문에, 일부 추론 환경에서는 CPU 수가 GPU를 초과할 수 있다는 전망까지 제기됨
✅ CPU 수요가 구조적으로 폭발하는 이유 — ‘오케스트레이션 텍스’
‒ 에이전트 시스템에서는 단순 연산 외에도 상태 관리, 보안 검증, API 호출, 가상머신 생성, 암호화 처리 등 방대한 부가 작업이 발생하며, 이러한 작업은 모두 CPU에 의존하는 CPU-bound 영역임
‒ 특히 멀티 에이전트 구조에서는 하나의 작업을 수십 개의 하위 에이전트로 분해하고 병렬 실행하는데, 이 과정에서 발생하는 트래픽과 컨텍스트 스위칭이 CPU 수요를 폭발적으로 증가시키는 핵심 요인으로 작용
‒ 결과적으로 CPU 수요는 단순히 늘어나는 것이 아니라, 에이전트 수 × 내부 페르소나 수라는 승수 구조를 가지며 예상보다 훨씬 빠르게 증가하는 특징을 보이게 됨
✅ CPU 아키텍처 진화 방향 — “예측 가능성” 중심 설계
‒ 에이전트 시대에서는 최대 처리량보다 “지연 시간의 안정성과 예측 가능성”이 더 중요해지면서, 기존의 SMT 기반 구조 대신 물리 코어를 늘리는 방향으로 설계 철학이 전환
‒ 실제로 Arm 기반 CPU나 하이퍼스케일러 자체 설계 칩은 128~192개의 물리 코어를 탑재하고, 각 코어에 직접 작업을 할당하는 구조로 발전
‒ 또한 KV 캐시 병목을 해결하기 위해 L2/L3 캐시를 대폭 확대하고, 코어 간 연결을 위한 Mesh 네트워크를 강화하는 방향으로 CPU 설계가 진화하고 있음
✅ CPU 경쟁 구도 — x86 vs Arm vs Hyperscaler
‒ AMD는 칩렛 구조를 통해 코어 수 확장에서 구조적 우위를 확보하며 최대 256코어까지 확장하는 전략을 취하고 있고, 비용 효율 측면에서도 인텔 대비 우위를 점하고 있음
‒ 반면 인텔은 SMT 제거와 안정성 강화라는 방향성을 선택했지만, 칩렛 전환이 늦어지면서 성능 및 시장 대응 속도에서 뒤처지는 모습
‒ 동시에 AWS, Google, Microsoft 등 하이퍼스케일러들은 x86을 벗어나 Arm 기반 맞춤형 CPU를 자체 개발하며 전력 효율과 TCO를 극단적으로 최적화하는 방향으로 이동
✅ 엔비디아 전략 — CPU까지 포함한 풀스택 장악
‒ 엔비디아는 기존 Grace CPU에서 한계를 확인한 이후, 자체 코어를 설계한 Vera CPU를 통해 CPU 시장까지 직접 진입
‒ 특히 Spatial Multithreading을 통해 스레드 간 간섭을 제거하고, 대규모 캐시와 확장된 연산 구조를 통해 에이전트 워크로드에 최적화된 CPU를 개발 중
‒ 더 나아가 GPU 없이 CPU만 공급하는 Vera-only 계약까지 등장하면서, CPU 역시 엔비디아 생태계 안으로 흡수하려는 전략이 본격화되고 있음
💡 결론: CPU는 “보조 연산장치”에서 “AI 인프라의 중심”으로 재평가되는 국면
» AI가 단순 생성에서 에이전트 기반 실행 구조로 전환되면서, 연산보다 제어가 중요한 구조적 변화가 발생
» 이 변화는 GPU 중심 인프라 위에 CPU 중심 Control Plane을 추가하는 것이 아니라, 아예 인프라 설계 자체를 재정의하는 수준의 변화
» 따라서 CPU는 단순한 사이클 동참이 아니라, AI 인프라의 새로운 병목이자 핵심 투자 포인트로 리레이팅되는 국면
*미래 한종목 위원님 자료 내 CPU 관련 내용 발췌 (26.03.06)
‒ 기존 AI 인프라는 GPU 기반의 병렬 연산이 핵심이었지만, 멀티 에이전트와 Hydra 구조가 등장하면서 연산보다 “순차적 논리 제어”의 중요도가 급격히 상승
‒ 에이전트는 단순히 토큰을 생성하는 것이 아니라, 수십 단계의 작업을 나누고 검증하며 반복 수행하는 구조이기 때문에 초당 수백만 번의 조건 분기와 상태 전환이 발생
‒ 이러한 워크로드는 동일 연산을 반복하는 GPU보다, 강력한 단일 스레드 성능과 대규모 캐시를 가진 CPU가 훨씬 효율적으로 처리할 수 있어 CPU가 데이터센터의 ‘지휘관(Control Plane)’ 역할로 복귀
‒ GPU는 SIMT 구조로 동일한 명령을 수천 개 코어에 동시에 실행하는 데 최적화되어 있지만, 에이전트 워크로드처럼 조건 분기가 많은 경우 각 코어가 서로 다른 경로를 선택하게 되면서 Warp Divergence가 발생하고 전체 효율이 급격히 저하됨
‒ 특히 에이전트는 코드 실행, 오류 수정, 웹 탐색, 의사결정 등을 반복하는 구조이기 때문에 연산보다 “논리 흐름 제어”가 핵심이 되며, 이는 GPU가 가장 취약한 영역임
‒ 또한 컨텍스트가 길어지면서 KV 캐시가 급증하고 메모리 병목(Memory Wall)이 심화되는데, 이 캐시를 관리하고 라우팅하는 작업 역시 GPU가 아닌 CPU가 담당할 수밖에 없는 구조
‒ 과거에는 CPU와 GPU가 하나의 서버에 함께 탑재되는 모놀리식 구조가 일반적이었지만, 에이전트 시대에는 CPU가 처리해야 할 제어 연산이 폭증하면서 이 구조가 한계에 직면
‒ 이에 따라 데이터센터는 GPU만 탑재된 연산 전용 랙(Compute Plane)과 CPU만 탑재된 제어 전용 랙(Control Plane)으로 물리적으로 분리되는 방향으로 진화하고 있음
‒ 특히 에이전트 수가 증가할수록 CPU가 담당하는 오케스트레이션 부하가 기하급수적으로 증가하기 때문에, 일부 추론 환경에서는 CPU 수가 GPU를 초과할 수 있다는 전망까지 제기됨
‒ 에이전트 시스템에서는 단순 연산 외에도 상태 관리, 보안 검증, API 호출, 가상머신 생성, 암호화 처리 등 방대한 부가 작업이 발생하며, 이러한 작업은 모두 CPU에 의존하는 CPU-bound 영역임
‒ 특히 멀티 에이전트 구조에서는 하나의 작업을 수십 개의 하위 에이전트로 분해하고 병렬 실행하는데, 이 과정에서 발생하는 트래픽과 컨텍스트 스위칭이 CPU 수요를 폭발적으로 증가시키는 핵심 요인으로 작용
‒ 결과적으로 CPU 수요는 단순히 늘어나는 것이 아니라, 에이전트 수 × 내부 페르소나 수라는 승수 구조를 가지며 예상보다 훨씬 빠르게 증가하는 특징을 보이게 됨
‒ 에이전트 시대에서는 최대 처리량보다 “지연 시간의 안정성과 예측 가능성”이 더 중요해지면서, 기존의 SMT 기반 구조 대신 물리 코어를 늘리는 방향으로 설계 철학이 전환
‒ 실제로 Arm 기반 CPU나 하이퍼스케일러 자체 설계 칩은 128~192개의 물리 코어를 탑재하고, 각 코어에 직접 작업을 할당하는 구조로 발전
‒ 또한 KV 캐시 병목을 해결하기 위해 L2/L3 캐시를 대폭 확대하고, 코어 간 연결을 위한 Mesh 네트워크를 강화하는 방향으로 CPU 설계가 진화하고 있음
‒ AMD는 칩렛 구조를 통해 코어 수 확장에서 구조적 우위를 확보하며 최대 256코어까지 확장하는 전략을 취하고 있고, 비용 효율 측면에서도 인텔 대비 우위를 점하고 있음
‒ 반면 인텔은 SMT 제거와 안정성 강화라는 방향성을 선택했지만, 칩렛 전환이 늦어지면서 성능 및 시장 대응 속도에서 뒤처지는 모습
‒ 동시에 AWS, Google, Microsoft 등 하이퍼스케일러들은 x86을 벗어나 Arm 기반 맞춤형 CPU를 자체 개발하며 전력 효율과 TCO를 극단적으로 최적화하는 방향으로 이동
‒ 엔비디아는 기존 Grace CPU에서 한계를 확인한 이후, 자체 코어를 설계한 Vera CPU를 통해 CPU 시장까지 직접 진입
‒ 특히 Spatial Multithreading을 통해 스레드 간 간섭을 제거하고, 대규모 캐시와 확장된 연산 구조를 통해 에이전트 워크로드에 최적화된 CPU를 개발 중
‒ 더 나아가 GPU 없이 CPU만 공급하는 Vera-only 계약까지 등장하면서, CPU 역시 엔비디아 생태계 안으로 흡수하려는 전략이 본격화되고 있음
» AI가 단순 생성에서 에이전트 기반 실행 구조로 전환되면서, 연산보다 제어가 중요한 구조적 변화가 발생
» 이 변화는 GPU 중심 인프라 위에 CPU 중심 Control Plane을 추가하는 것이 아니라, 아예 인프라 설계 자체를 재정의하는 수준의 변화
» 따라서 CPU는 단순한 사이클 동참이 아니라, AI 인프라의 새로운 병목이자 핵심 투자 포인트로 리레이팅되는 국면
*미래 한종목 위원님 자료 내 CPU 관련 내용 발췌 (26.03.06)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from [메리츠 Tech 김선우, 양승수, 김동관]
[메리츠증권 전기전자/IT부품 양승수]
▶ ‘CPU’ 차세대 병목으로 부상
[Agentic AI 시대의 CPU]
- Agentic AI 시대에서는 AI 워크로드가 단순 추론 중심에서 벗어나, 다수의 에이전트가 상호작용하며 작업을 분해·조율하는 구조로 진화
- 이에 따라 기존 AI 데이터센터에서 GPU 대비 보조적 역할에 머물렀던 CPU의 중요성이 재부각
- Agent 기반 환경에서는 작업 오케스트레이션, 스케줄링, 그리고 다양한 소프트웨어 도구 호출 및 실행 관리가 빈번하게 발생하는데, 이러한 제어·관리 레이어를 CPU가 담당하게 되면서 역할이 구조적으로 확대되기 때문
- 실제로 Arm은 AI Agent 도입 이전 대비 이후에는 데이터센터 전력 단위당 요구되는 CPU 코어 수가 약 4배 증가할 것으로 전망하며, Agentic AI 확산이 CPU 수요의 구조적 성장을 견인할 것임을 시사
[CPU 단일랙 판매 확대 및 쇼티지 심화 전망]
- 엔비디아 GTC 2026에서 처음 공개된 Vera CPU 서버랙은 추론 과정이 Prefill과 Decode로 분리되듯 CPU 역시 단순 보조 연산을 넘어 독립적인 연산 레이어로 확장되고 있음을 시사
- NVIDIA가 Vera CPU 랙의 독립적 판매를 추진하는 가운데, Arm 역시 랙 단위 효율성을 강조하며 CPU 연산량의 구조적 증가와 맞물려 CPU 전용 서버랙의 판매 확대가 본격화될 전망
- 이미 일부 구간에서 CPU 공급 부족이 감지되는 가운데, CPU 랙 단위 판매 확대는 수요 집중도를 더욱 높이며 중장기적으로 쇼티지 심화를 가속화할 것으로 판단
[국내 밸류체인 점검]
- 국내 밸류체인 관점에서는 FC-BGA와 SoCAMM 관련주 중심의 수혜를 예상
- FC-BGA 공급 병목은 업스트림 T-glass 쇼티지, 엔비디아의 AI 하드웨어 세분화에 따른 구조적 수요 증가, CPU 수요 회복이 맞물리며 한층 심화될 전망
- 이에 따라 메모리 업황과 유사한 강한 ASP 상승 흐름과 LTA 계약 및 선급금을 통한 증설 확대가 예상되며, 국내 FC-BGA 기판 업체(삼성전기, 대덕전자, 코리아써키트, LG이노텍)와 기가비스의 수혜를 기대
- SoCAMM은 Vera CPU 서버랙의 단일 판매 확대로 인한 TAM 상향이 핵심 포인트로, 단일 랙 기준 모듈 탑재량이 NVL72 대비 크게 증가(288개 → 2,048개)
- CPU 서버랙 판매 확대 시 SoCAMM용 메모리 모듈 기판 수요의 구조적 성장이 기대되며, 당사 추정 엔비디아 Vera Rubin Pod 기준 판매만으로도 SoCAMM용 기판 시장은 올해 572억원 → 내년 2,170억원까지 약 4배 확대 전망
- 향후 CPU 서버랙 외부 판매까지 반영될 경우 기대 이상의 추가적인 눈높이 상향이 가능할 것으로 판단
https://buly.kr/BTRLI4P (링크)
* 동 자료는 Compliance 규정을 준수하여 사전 공표된 자료이며, 고객의 증권 투자 결과에 대한 법적 책임소재의 증빙자료로 사용될 수 없습니다.
▶ ‘CPU’ 차세대 병목으로 부상
[Agentic AI 시대의 CPU]
- Agentic AI 시대에서는 AI 워크로드가 단순 추론 중심에서 벗어나, 다수의 에이전트가 상호작용하며 작업을 분해·조율하는 구조로 진화
- 이에 따라 기존 AI 데이터센터에서 GPU 대비 보조적 역할에 머물렀던 CPU의 중요성이 재부각
- Agent 기반 환경에서는 작업 오케스트레이션, 스케줄링, 그리고 다양한 소프트웨어 도구 호출 및 실행 관리가 빈번하게 발생하는데, 이러한 제어·관리 레이어를 CPU가 담당하게 되면서 역할이 구조적으로 확대되기 때문
- 실제로 Arm은 AI Agent 도입 이전 대비 이후에는 데이터센터 전력 단위당 요구되는 CPU 코어 수가 약 4배 증가할 것으로 전망하며, Agentic AI 확산이 CPU 수요의 구조적 성장을 견인할 것임을 시사
[CPU 단일랙 판매 확대 및 쇼티지 심화 전망]
- 엔비디아 GTC 2026에서 처음 공개된 Vera CPU 서버랙은 추론 과정이 Prefill과 Decode로 분리되듯 CPU 역시 단순 보조 연산을 넘어 독립적인 연산 레이어로 확장되고 있음을 시사
- NVIDIA가 Vera CPU 랙의 독립적 판매를 추진하는 가운데, Arm 역시 랙 단위 효율성을 강조하며 CPU 연산량의 구조적 증가와 맞물려 CPU 전용 서버랙의 판매 확대가 본격화될 전망
- 이미 일부 구간에서 CPU 공급 부족이 감지되는 가운데, CPU 랙 단위 판매 확대는 수요 집중도를 더욱 높이며 중장기적으로 쇼티지 심화를 가속화할 것으로 판단
[국내 밸류체인 점검]
- 국내 밸류체인 관점에서는 FC-BGA와 SoCAMM 관련주 중심의 수혜를 예상
- FC-BGA 공급 병목은 업스트림 T-glass 쇼티지, 엔비디아의 AI 하드웨어 세분화에 따른 구조적 수요 증가, CPU 수요 회복이 맞물리며 한층 심화될 전망
- 이에 따라 메모리 업황과 유사한 강한 ASP 상승 흐름과 LTA 계약 및 선급금을 통한 증설 확대가 예상되며, 국내 FC-BGA 기판 업체(삼성전기, 대덕전자, 코리아써키트, LG이노텍)와 기가비스의 수혜를 기대
- SoCAMM은 Vera CPU 서버랙의 단일 판매 확대로 인한 TAM 상향이 핵심 포인트로, 단일 랙 기준 모듈 탑재량이 NVL72 대비 크게 증가(288개 → 2,048개)
- CPU 서버랙 판매 확대 시 SoCAMM용 메모리 모듈 기판 수요의 구조적 성장이 기대되며, 당사 추정 엔비디아 Vera Rubin Pod 기준 판매만으로도 SoCAMM용 기판 시장은 올해 572억원 → 내년 2,170억원까지 약 4배 확대 전망
- 향후 CPU 서버랙 외부 판매까지 반영될 경우 기대 이상의 추가적인 눈높이 상향이 가능할 것으로 판단
https://buly.kr/BTRLI4P (링크)
* 동 자료는 Compliance 규정을 준수하여 사전 공표된 자료이며, 고객의 증권 투자 결과에 대한 법적 책임소재의 증빙자료로 사용될 수 없습니다.