[삼성 문준호의 반.전] 2026년 3월 20일 주요 테크 뉴스
■ 엔비디아, 2027년까지 아마존에 GPU 100만 개 공급 계약 체결. 계약 금액은 미공개, 엔비디아의 Spectrum 네트워킹 칩, Groq 칩 등 포함
■ 샤오미, 향후 3년간 AI에 최소 600억 위안(약 87억 달러) 투자 계획
■ 삼성전자, AI 반도체 시대 주도권 확보를 위해 올해 110조원 이상의 시설 및 R&D 투자를 집행
■ 일론 머스크, 테슬라 차세대 AI6 칩 12월 테이프아웃 가능성 언급
■ 제프 베조스, AI 기반 제조업 개편 위해 1,000억 달러 규모 펀드 조성 추진. 반도체, 방위산업, 항공우주 등 주요 산업 내 기업들을 투자 대상으로 삼을 계획
■ imec, ASML High-NA EUV EXE:5200 도입. sub-2nm 공정 목표, 2026년 4분기 검증 예정
■ 독일 반도체 기업 엘모스, 매각 검토 중. 잠재 인수 후보로 인피니온, 퀄컴 거론
감사합니다.
■ 엔비디아, 2027년까지 아마존에 GPU 100만 개 공급 계약 체결. 계약 금액은 미공개, 엔비디아의 Spectrum 네트워킹 칩, Groq 칩 등 포함
■ 샤오미, 향후 3년간 AI에 최소 600억 위안(약 87억 달러) 투자 계획
■ 삼성전자, AI 반도체 시대 주도권 확보를 위해 올해 110조원 이상의 시설 및 R&D 투자를 집행
■ 일론 머스크, 테슬라 차세대 AI6 칩 12월 테이프아웃 가능성 언급
■ 제프 베조스, AI 기반 제조업 개편 위해 1,000억 달러 규모 펀드 조성 추진. 반도체, 방위산업, 항공우주 등 주요 산업 내 기업들을 투자 대상으로 삼을 계획
■ imec, ASML High-NA EUV EXE:5200 도입. sub-2nm 공정 목표, 2026년 4분기 검증 예정
■ 독일 반도체 기업 엘모스, 매각 검토 중. 잠재 인수 후보로 인피니온, 퀄컴 거론
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 23일 주요 테크 뉴스
■ 일론 머스크, 200억 달러 규모 TeraFab 반도체 프로젝트 공개. 로직, 메모리, 패키징, 테스트, 마스크 생산 설비를 하나의 건물 내에 통합한 구조
■ 솔리다임, AI 데이터 수요 증가로 스토리지 반도체 공급도 타이트해질 가능성
■ 아마존, 스마트폰 재진출 추진. Transformer라는 코드명으로, 음성 비서 Alexa와 연동되고, 모바일 개인화 디바이스로 설계
■ 마이크론, 완성차 업체들이 L4 수준의 자율주행 차량을 도입할 경우, 자동차에 300GB 이상의 RAM이 필요하게 될 것으로 전망
■ 텐센트, 위챗에 OpenClaw AI 에이전트 통합
■ OpenAI, 2026년 말까지 직원 수를 현재 약 4,500명에서 8,000명으로 확대할 계획
■ Super Micro 공동창업자 리아우, AI 칩 밀수 혐의 이후 이사회 사임
감사합니다.
■ 일론 머스크, 200억 달러 규모 TeraFab 반도체 프로젝트 공개. 로직, 메모리, 패키징, 테스트, 마스크 생산 설비를 하나의 건물 내에 통합한 구조
■ 솔리다임, AI 데이터 수요 증가로 스토리지 반도체 공급도 타이트해질 가능성
■ 아마존, 스마트폰 재진출 추진. Transformer라는 코드명으로, 음성 비서 Alexa와 연동되고, 모바일 개인화 디바이스로 설계
■ 마이크론, 완성차 업체들이 L4 수준의 자율주행 차량을 도입할 경우, 자동차에 300GB 이상의 RAM이 필요하게 될 것으로 전망
■ 텐센트, 위챗에 OpenClaw AI 에이전트 통합
■ OpenAI, 2026년 말까지 직원 수를 현재 약 4,500명에서 8,000명으로 확대할 계획
■ Super Micro 공동창업자 리아우, AI 칩 밀수 혐의 이후 이사회 사임
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 24일 주요 테크 뉴스
■ TSMC, 미국 내 반도체 생산 수요로 2nm/A16 공정 예정인 애리조나 4공장은 이미 전량 예약 완료 상태
■ DigiTimes에 따르면, 엔비디아의 Rubin 랙 1대 가격은 약 300만~700만 달러 수준으로 추정. 서버 제조업체들의 경우, 세대가 진화할수록 수익성이 점차 하락하는 구조가 형성
■ Nebius, 43.4억 달러 전환사채 발행 완료. 회사 측은 이번 자금 조달을 통해 2026년 160억~200억 달러 규모 CAPEX 계획을 충분히 충당할 수 있는 재원을 확보했다고 설명
■ Apple, WWDC를 6월 8일~12일 동안 온라인으로 개최
■ 미국 연방통신위원회, 신규 외국산 소비자용 라우터의 수입을 전면 금지
감사합니다.
■ TSMC, 미국 내 반도체 생산 수요로 2nm/A16 공정 예정인 애리조나 4공장은 이미 전량 예약 완료 상태
■ DigiTimes에 따르면, 엔비디아의 Rubin 랙 1대 가격은 약 300만~700만 달러 수준으로 추정. 서버 제조업체들의 경우, 세대가 진화할수록 수익성이 점차 하락하는 구조가 형성
■ Nebius, 43.4억 달러 전환사채 발행 완료. 회사 측은 이번 자금 조달을 통해 2026년 160억~200억 달러 규모 CAPEX 계획을 충분히 충당할 수 있는 재원을 확보했다고 설명
■ Apple, WWDC를 6월 8일~12일 동안 온라인으로 개최
■ 미국 연방통신위원회, 신규 외국산 소비자용 라우터의 수입을 전면 금지
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 25일 주요 테크 뉴스
■ 브로드컴, TSMC 생산 능력 한계로 AI 칩 수요 충족 어려움. PCB 및 레이저 등 인접 공급망에서도 병목 현상 발생
■ Arm, 에이전틱 AI 시장 겨냥 AI 칩 ‘AGI CPU’ 공개. Meta가 핵심 파트너로 참여, TSMC 3나노 공정으로 생산
■ SK하이닉스, 약 11.95조원 규모 EUV 장비 발주(약 30대 수준 추정)
■ Tesla, 대만에서 TeraFab 관련 채용 확대. 10년 이상 경력의 시니어 공정 통합 엔지니어를 타깃
■ Microsoft, Oracle 및 OpenAI가 포기한 700MW 규모의 텍사스 데이터센터를 Crusoe와 임대 합의
■ Alibaba, RISC-V 기반 차세대 서버 CPU 공개. 에이전틱 AI 대응 및 자체 AI 칩, 플랫폼 수직통합
감사합니다.
■ 브로드컴, TSMC 생산 능력 한계로 AI 칩 수요 충족 어려움. PCB 및 레이저 등 인접 공급망에서도 병목 현상 발생
■ Arm, 에이전틱 AI 시장 겨냥 AI 칩 ‘AGI CPU’ 공개. Meta가 핵심 파트너로 참여, TSMC 3나노 공정으로 생산
■ SK하이닉스, 약 11.95조원 규모 EUV 장비 발주(약 30대 수준 추정)
■ Tesla, 대만에서 TeraFab 관련 채용 확대. 10년 이상 경력의 시니어 공정 통합 엔지니어를 타깃
■ Microsoft, Oracle 및 OpenAI가 포기한 700MW 규모의 텍사스 데이터센터를 Crusoe와 임대 합의
■ Alibaba, RISC-V 기반 차세대 서버 CPU 공개. 에이전틱 AI 대응 및 자체 AI 칩, 플랫폼 수직통합
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 26일 주요 테크 뉴스
■ PC 제조사, Intel 및 AMD CPU 부족 직면, 리드타임 2주에서 최대 6개월 급증
■ 압축 알고리즘 Google TurboQuant, LLM 캐시 메모리 요구량 최소 6배 절감. H100 기준 최대 8배 성능 향상, KV 캐시를 3비트로 압축하면서 정확도 손실 없음
■ 키옥시아·샌디스크·솔리다임, 난야 테크놀로지 3자 배정 유상증자 참여
■ Micron의 240억 달러 규모 싱가포르 팹, 변압기 최대 500대 필요. 일반적인 웨이퍼 팹이 필요로 하는 것 대비 2배 이상
■ 삼성전자, 2.5인치 SATA SSD 라인업 8TB 모델 확장
■ 트럼프, 엔비디아·메타 CEO를 과학기술 자문위원회에 임명
■ Nintendo, 부진한 연말 판매 이후 Switch 2 생산량 33% 감축 검토. 계획 대비 200만 대 축소
감사합니다.
■ PC 제조사, Intel 및 AMD CPU 부족 직면, 리드타임 2주에서 최대 6개월 급증
■ 압축 알고리즘 Google TurboQuant, LLM 캐시 메모리 요구량 최소 6배 절감. H100 기준 최대 8배 성능 향상, KV 캐시를 3비트로 압축하면서 정확도 손실 없음
■ 키옥시아·샌디스크·솔리다임, 난야 테크놀로지 3자 배정 유상증자 참여
■ Micron의 240억 달러 규모 싱가포르 팹, 변압기 최대 500대 필요. 일반적인 웨이퍼 팹이 필요로 하는 것 대비 2배 이상
■ 삼성전자, 2.5인치 SATA SSD 라인업 8TB 모델 확장
■ 트럼프, 엔비디아·메타 CEO를 과학기술 자문위원회에 임명
■ Nintendo, 부진한 연말 판매 이후 Switch 2 생산량 33% 감축 검토. 계획 대비 200만 대 축소
감사합니다.
[반.전] 인텔, AMD 7% 급등...CPU를 따라가야할까?
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
전일 인텔과 AMD가 각각 7% 상승, Arm은 16% 급등했습니다. 마침내 이들의 시대가 오는걸까요?
■ 가격 인상 기대감
작년 하반기 AI 추론 시장의 개화와 함께 일반 서버 수요도 급증하기 시작했습니다. CPU 업체들은 서버 CPU 생산을 우선시하기 시작했고, 그 결과 전방 수요와 무관하게 PC CPU 수요도 공급 부족입니다.
이로 인해 인텔과 AMD CPU의 ASP가 10~15% 인상된다는 보도가 있었습니다.
Arm의 경우, 별개로, IP가 아닌 자체 CPU 완제품을 선보이며, 서버 CPU 시장 진입을 공식화했습니다.
■ 경쟁 심화 리스크 부각
가격 인상은 단연 실적에 긍정적이지만, 몇년 사이 CPU 시장은 경쟁이 더욱 심화되고 있습니다. 인텔과 AMD만의 텃밭이 아니게 된 지는 오래됐습니다.
Hyperscaler들은 진즉 CPU도 내재화 (ASIC)해 왔습니다. 엔비디아는 GPU를 무기로 CPU까지 끼워팔기 하고 있고, 최근 GTC에서 차기 Vera CPU를 별도 판매할 의향까지 밝혔죠.
그렇다고 Arm에 대한 투자를 고려하자니, 최대 매출처인 스마트폰 시장 위축이 우려됩니다. 동사의 로열티 매출액은 결국 출하량과 연동되니까요.
■ 파생 투자 아이디어
1) 파운드리: CPU 마저 웨이퍼 수요에 기인하면, TSMC의 협상력은 더욱 올라갑니다. 단기 공급 부족이 너무 심각하면, 2~3위 업체로의 낙수 효과도 기대해 볼 수 있겠죠.
2) 장비: 더 많이 만들려면, 로직/파운드리 capa를 더 키울 수밖에 없습니다. 게다가 CPU는 다 선단 공정이죠. 글로벌 장비사들에게 긍정적입니다.
3) 메모리: 지금의 CPU 가격 상승의 근본적 배경은 AI 추론 수요 급증입니다. AI와 가격 인상에 주목하는 로직이라면, 가격 변동성이 훨씬 큰 메모리를 보는 게 더 합리적일 것입니다.
감사합니다.
(2026/03/26 공표자료)
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
전일 인텔과 AMD가 각각 7% 상승, Arm은 16% 급등했습니다. 마침내 이들의 시대가 오는걸까요?
■ 가격 인상 기대감
작년 하반기 AI 추론 시장의 개화와 함께 일반 서버 수요도 급증하기 시작했습니다. CPU 업체들은 서버 CPU 생산을 우선시하기 시작했고, 그 결과 전방 수요와 무관하게 PC CPU 수요도 공급 부족입니다.
이로 인해 인텔과 AMD CPU의 ASP가 10~15% 인상된다는 보도가 있었습니다.
Arm의 경우, 별개로, IP가 아닌 자체 CPU 완제품을 선보이며, 서버 CPU 시장 진입을 공식화했습니다.
■ 경쟁 심화 리스크 부각
가격 인상은 단연 실적에 긍정적이지만, 몇년 사이 CPU 시장은 경쟁이 더욱 심화되고 있습니다. 인텔과 AMD만의 텃밭이 아니게 된 지는 오래됐습니다.
Hyperscaler들은 진즉 CPU도 내재화 (ASIC)해 왔습니다. 엔비디아는 GPU를 무기로 CPU까지 끼워팔기 하고 있고, 최근 GTC에서 차기 Vera CPU를 별도 판매할 의향까지 밝혔죠.
그렇다고 Arm에 대한 투자를 고려하자니, 최대 매출처인 스마트폰 시장 위축이 우려됩니다. 동사의 로열티 매출액은 결국 출하량과 연동되니까요.
■ 파생 투자 아이디어
1) 파운드리: CPU 마저 웨이퍼 수요에 기인하면, TSMC의 협상력은 더욱 올라갑니다. 단기 공급 부족이 너무 심각하면, 2~3위 업체로의 낙수 효과도 기대해 볼 수 있겠죠.
2) 장비: 더 많이 만들려면, 로직/파운드리 capa를 더 키울 수밖에 없습니다. 게다가 CPU는 다 선단 공정이죠. 글로벌 장비사들에게 긍정적입니다.
3) 메모리: 지금의 CPU 가격 상승의 근본적 배경은 AI 추론 수요 급증입니다. AI와 가격 인상에 주목하는 로직이라면, 가격 변동성이 훨씬 큰 메모리를 보는 게 더 합리적일 것입니다.
감사합니다.
(2026/03/26 공표자료)
Forwarded from [삼성 이영진] 글로벌 AI/SW
구글의 TurboQuant, 메모리 효율성 향상이 가져올 추론 수요 폭발
안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.
구글이 발표한 TurboQuant는 AI 추론 과정에서 발생하는 KV 캐시 병목을 해결하기 위한 알고리즘입니다.
KV 캐시는 자주 사용되는 정보를 저장해 방대한 데이터베이스 참조 없이 즉시 정보를 불러올 수 있도록 하는 일종의 메모장인데요
병목 완화를 위해 고차원 벡터 크기를 줄이는 전통적 벡터 양자화를 통한 압축 기술 적용이 기존에도 연구되었습니다. 하지만 전통적 방식은 추가 메모리 오버헤드와 정확도 손실이 발생하는데요
반면 TurboQuant는 PolarQuant와 QJL을 결합해 벡터 양자화에서 메모리 오버헤드 문제를 최적으로 해결하는 압축 알고리즘입니다.
PolarQuant는 벡터를 좌표에서 각도(극좌표)로 변환해 데이터 구조를 단순화하고, QJL은 값을 +1과 -1 비트로 표현하는 수학적 기법으로 남은 오차를 보정합니다.
1단계 PolarQuant로 대부분 압축을 실행하고, QJL로 오류를 보정하는 통합 구조입니다.
사람들이 주목한 것은 결과인데요
1) KV 메모리 크기를 최소 6배 축소
2) 추가 학습 및 파인튜닝 없이 KV 캐시를 3비트까지 양자화
3) 모델 정확도를 유지하면서 빠른 실행 속도 달성
특히 H100 기준 4비트 TurboQuant는 32비트 비양자화 대비 8배의 어텐션 연산 속도를 달성했습니다.
KV 캐시 압축을 비롯한 추론 최적화는 지속적으로 연구가 진행되던 분야입니다. 중국 기업들도 상당한 노력을 기울이고 있구요
과거 딥시크의 MLA나 DSA도 KV 캐시로 인한 메모리 및 연산 병목 완화 목적의 연구입니다. MLA는 구조 변경 DSA는 선택적 어텐션을 통해 접근했습니다.
물론 구글의 TurboQuant는 KV 저장 및 사용 구조를 유지하면서 모델 수정 없이 바로 적용이 가능하고 이론적으로 무손실에 가까운 압축을 달성한다는 점에서는 차별화되는 부분이 있습니다.
TurboQuant 알고리즘이 활용된다면 추론 비용 하락을 달성할 수 있습니다. 하지만 오히려 수요는 폭발 할 것입니다. 속도 및 퀄리티 하향 없이 장기 컨텍스트 윈도우 및 대규모 배치의 활용이 가능하니까요
또한 로컬 모델에서도 대규모 컨텍스트 윈도우 활용이 가능해집니다. 온디바이스 개화로도 이어질 수 있는 포인트입니다.
추론 작업에 대한 메모리 공간이 추가로 생긴다고 하더라도 에이전트 AI 확대 속 이를 상회하고도 남는 전체 추론 수요 상승 트렌드는 이미 이어지고 있습니다.
작년 딥시크 이슈 때도 대두되었던 제본스의 역설(비용 하락에 따른 수요 급증)이 재확인될 가능성이 높다고 생각합니다. 쿼리와 토큰량의 기울기는 다시 한 번 가팔라질 수 있습니다.
세상을 뒤흔들고 있지만, 방금 나온 따끈한 새로운 기술은 아닙니다. 이미 25년 4월에 논문으로 공개된 내용입니다. 시스템 레벨에서 적용한 사례가 추가되어 블로그에 게시된 것입니다.
그리고 공개된 연구인 만큼 AI 산업 내 다른 플레이어의 활용도 열려있습니다.
또한 알고리즘은 추론 측면에서 적용됩니다. 학습 측면에서 모델 스케일링에 기반한 반도체 필요성은 여전합니다.
마지막으로 연구 성과가 실제 환경에서 적용되는 것에서 괴리가 존재할 수 있습니다. 이건 구글이 향후에 증명해야하는 부분이겠지요
저희도 AI 투자와 반도체에 긍정적인 뉴스라는 의견입니다.
(2026/3/26 공표자료)
안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.
구글이 발표한 TurboQuant는 AI 추론 과정에서 발생하는 KV 캐시 병목을 해결하기 위한 알고리즘입니다.
KV 캐시는 자주 사용되는 정보를 저장해 방대한 데이터베이스 참조 없이 즉시 정보를 불러올 수 있도록 하는 일종의 메모장인데요
병목 완화를 위해 고차원 벡터 크기를 줄이는 전통적 벡터 양자화를 통한 압축 기술 적용이 기존에도 연구되었습니다. 하지만 전통적 방식은 추가 메모리 오버헤드와 정확도 손실이 발생하는데요
반면 TurboQuant는 PolarQuant와 QJL을 결합해 벡터 양자화에서 메모리 오버헤드 문제를 최적으로 해결하는 압축 알고리즘입니다.
PolarQuant는 벡터를 좌표에서 각도(극좌표)로 변환해 데이터 구조를 단순화하고, QJL은 값을 +1과 -1 비트로 표현하는 수학적 기법으로 남은 오차를 보정합니다.
1단계 PolarQuant로 대부분 압축을 실행하고, QJL로 오류를 보정하는 통합 구조입니다.
사람들이 주목한 것은 결과인데요
1) KV 메모리 크기를 최소 6배 축소
2) 추가 학습 및 파인튜닝 없이 KV 캐시를 3비트까지 양자화
3) 모델 정확도를 유지하면서 빠른 실행 속도 달성
특히 H100 기준 4비트 TurboQuant는 32비트 비양자화 대비 8배의 어텐션 연산 속도를 달성했습니다.
KV 캐시 압축을 비롯한 추론 최적화는 지속적으로 연구가 진행되던 분야입니다. 중국 기업들도 상당한 노력을 기울이고 있구요
과거 딥시크의 MLA나 DSA도 KV 캐시로 인한 메모리 및 연산 병목 완화 목적의 연구입니다. MLA는 구조 변경 DSA는 선택적 어텐션을 통해 접근했습니다.
물론 구글의 TurboQuant는 KV 저장 및 사용 구조를 유지하면서 모델 수정 없이 바로 적용이 가능하고 이론적으로 무손실에 가까운 압축을 달성한다는 점에서는 차별화되는 부분이 있습니다.
TurboQuant 알고리즘이 활용된다면 추론 비용 하락을 달성할 수 있습니다. 하지만 오히려 수요는 폭발 할 것입니다. 속도 및 퀄리티 하향 없이 장기 컨텍스트 윈도우 및 대규모 배치의 활용이 가능하니까요
또한 로컬 모델에서도 대규모 컨텍스트 윈도우 활용이 가능해집니다. 온디바이스 개화로도 이어질 수 있는 포인트입니다.
추론 작업에 대한 메모리 공간이 추가로 생긴다고 하더라도 에이전트 AI 확대 속 이를 상회하고도 남는 전체 추론 수요 상승 트렌드는 이미 이어지고 있습니다.
작년 딥시크 이슈 때도 대두되었던 제본스의 역설(비용 하락에 따른 수요 급증)이 재확인될 가능성이 높다고 생각합니다. 쿼리와 토큰량의 기울기는 다시 한 번 가팔라질 수 있습니다.
세상을 뒤흔들고 있지만, 방금 나온 따끈한 새로운 기술은 아닙니다. 이미 25년 4월에 논문으로 공개된 내용입니다. 시스템 레벨에서 적용한 사례가 추가되어 블로그에 게시된 것입니다.
그리고 공개된 연구인 만큼 AI 산업 내 다른 플레이어의 활용도 열려있습니다.
또한 알고리즘은 추론 측면에서 적용됩니다. 학습 측면에서 모델 스케일링에 기반한 반도체 필요성은 여전합니다.
마지막으로 연구 성과가 실제 환경에서 적용되는 것에서 괴리가 존재할 수 있습니다. 이건 구글이 향후에 증명해야하는 부분이겠지요
저희도 AI 투자와 반도체에 긍정적인 뉴스라는 의견입니다.
(2026/3/26 공표자료)
Forwarded from [삼성리서치] 테크는 역시 삼성증권
터보퀀트는 메모리 사용량을 줄일까?
[삼성증권 반도체, IT/이종욱]
어제 구글이 블로그를 통해 터보퀀트(TurboQuant) 기술을 소개했고, 마이크론 주가 하락(-3.4%)에 영향을 미친 것으로 보입니다.
1. 터보퀀트가 무엇일까
TurboQuant는 Transformer의 핵심 병목인 KV cache를 이론적 최적 수준으로 압축(양자화)하는 알고리즘입니다.
KV는 벡터값인데, 이 값을 바꾸는 것이 아니라 이 값을 읽은 기준선(좌표계) 바꿔서, 압축 손실을 최소화하는 최적의 좌표계를 찾는 방식입니다.
2. 터보퀀트가 메모리에 미치는 영향
계산량이 추가되고 캐시메모리 사용량을 줄이는 트레이드오프가 있긴 하지만, 현재 AI 속도의 병목은 캐시메모리이기 때문에 전체 속도를 높이고, 곧 AI 추론 비용을 낮출수 있습니다. 따라서 메모리를 덜 사용하면서 같은 성능을 낼 수 있는 AI 기술이라고 할수 있습니다.
3. 제본의 역설?
딥시크 이후로, 반도체 사용량을 최적화하려는 AI모델의 개선 노력은 계속되어 왔습니다. 그러나 효율적인 AI 모델은 오히려 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러오고 있습니다. 최적화 모델들은 반도체 수요를 낮추는 것이 아니라 같은 반도체 자원으로 더 높은 성능의 AI 서비스를 구현하는데 사용되고 있습니다.
4. 무엇이 메모리 사용량을 결정할까
제일 말씀드리고 싶은 것이 이것입니다. 그럼 AI 메모리 수요에 영향을 미치는 인자는 무엇이 있을까요? 지금은 인프라 선점효과가 필요한 구간이기 때문에 보통의 가격과 수급 사이의 관계는 크지 않습니다(낮은 가격탄력성). 오히려 비즈니스 구조와 전략적 선택의 문제(생존문제)로 접근해야 합니다.
- AI 메모리 수요 감소요인은 주로 AI 기능이 고착화되는 지점에서 나타날 것입니다: AI서비스 개선 속도 둔화, AI 모델 기업끼리의 경쟁 구도 완화, AI산업 TAM 성장 둔화
- 다음과 같은 것은 수요에 영향을 미치지 않습니다: 디램과 반도체 가격, 데이터센터 비용, AI모델이나 클라우드 기업의 수익성, AI모델의 최적화와 비용절감
결론적으로 AI 업체들이 비용경쟁이 아니라 성능 경쟁을 하는한 비용 최적화는 반도체 수요에 영향을 미치지 않습니다. 우리가 걱정해야 할 순간은 AI로 더 할수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출때입니다.
감사합니다.
(2026/3/26 공표자료)
[삼성증권 반도체, IT/이종욱]
어제 구글이 블로그를 통해 터보퀀트(TurboQuant) 기술을 소개했고, 마이크론 주가 하락(-3.4%)에 영향을 미친 것으로 보입니다.
1. 터보퀀트가 무엇일까
TurboQuant는 Transformer의 핵심 병목인 KV cache를 이론적 최적 수준으로 압축(양자화)하는 알고리즘입니다.
KV는 벡터값인데, 이 값을 바꾸는 것이 아니라 이 값을 읽은 기준선(좌표계) 바꿔서, 압축 손실을 최소화하는 최적의 좌표계를 찾는 방식입니다.
2. 터보퀀트가 메모리에 미치는 영향
계산량이 추가되고 캐시메모리 사용량을 줄이는 트레이드오프가 있긴 하지만, 현재 AI 속도의 병목은 캐시메모리이기 때문에 전체 속도를 높이고, 곧 AI 추론 비용을 낮출수 있습니다. 따라서 메모리를 덜 사용하면서 같은 성능을 낼 수 있는 AI 기술이라고 할수 있습니다.
3. 제본의 역설?
딥시크 이후로, 반도체 사용량을 최적화하려는 AI모델의 개선 노력은 계속되어 왔습니다. 그러나 효율적인 AI 모델은 오히려 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러오고 있습니다. 최적화 모델들은 반도체 수요를 낮추는 것이 아니라 같은 반도체 자원으로 더 높은 성능의 AI 서비스를 구현하는데 사용되고 있습니다.
4. 무엇이 메모리 사용량을 결정할까
제일 말씀드리고 싶은 것이 이것입니다. 그럼 AI 메모리 수요에 영향을 미치는 인자는 무엇이 있을까요? 지금은 인프라 선점효과가 필요한 구간이기 때문에 보통의 가격과 수급 사이의 관계는 크지 않습니다(낮은 가격탄력성). 오히려 비즈니스 구조와 전략적 선택의 문제(생존문제)로 접근해야 합니다.
- AI 메모리 수요 감소요인은 주로 AI 기능이 고착화되는 지점에서 나타날 것입니다: AI서비스 개선 속도 둔화, AI 모델 기업끼리의 경쟁 구도 완화, AI산업 TAM 성장 둔화
- 다음과 같은 것은 수요에 영향을 미치지 않습니다: 디램과 반도체 가격, 데이터센터 비용, AI모델이나 클라우드 기업의 수익성, AI모델의 최적화와 비용절감
결론적으로 AI 업체들이 비용경쟁이 아니라 성능 경쟁을 하는한 비용 최적화는 반도체 수요에 영향을 미치지 않습니다. 우리가 걱정해야 할 순간은 AI로 더 할수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출때입니다.
감사합니다.
(2026/3/26 공표자료)
[삼성 문준호의 반.전] 2026년 3월 27일 주요 테크 뉴스
■ Meta, 텍사스 엘패소에 건설 중인 AI 데이터센터 투자 규모를 100억 달러로 확대. 기존 계획 대비 6배 이상 증가
■ GlobalFoundries, Tower Semiconductor 상대로 특허 침해 소송 제기. 스마트폰 및 기타 전자기기에 사용되는 칩 제조 관련 특허 11건을 침해했다고 주장. Tower는 해당 주장에 대해 강하게 부인하며 적극적 대응 예고
■ 중동 지역 분쟁으로 인한 헬륨 공급 차질이 글로벌 기술 공급망 일부 생산에 이미 영향을 미치기 시작
■ Naura, Hybrid Bonding 진입. D2W 공정 고객 검증 완료
■ Apple, Siri를 현재의 ChatGPT 협력 범위를 넘어, 경쟁 인공지능 서비스에도 개방할 계획
■ Apple은 Bosch, Cirrus Logic, TDK, Qnity Electronics를 자사의 미국 제조 프로그램에 추가, 2030년까지 4억 달러 투자를 통해 미국 내 핵심 부품 생산 확대 계획
■ 일본 Rohm·Toshiba·Mitsubishi Electric, 전력 반도체 사업 통합 협의 개시
감사합니다.
■ Meta, 텍사스 엘패소에 건설 중인 AI 데이터센터 투자 규모를 100억 달러로 확대. 기존 계획 대비 6배 이상 증가
■ GlobalFoundries, Tower Semiconductor 상대로 특허 침해 소송 제기. 스마트폰 및 기타 전자기기에 사용되는 칩 제조 관련 특허 11건을 침해했다고 주장. Tower는 해당 주장에 대해 강하게 부인하며 적극적 대응 예고
■ 중동 지역 분쟁으로 인한 헬륨 공급 차질이 글로벌 기술 공급망 일부 생산에 이미 영향을 미치기 시작
■ Naura, Hybrid Bonding 진입. D2W 공정 고객 검증 완료
■ Apple, Siri를 현재의 ChatGPT 협력 범위를 넘어, 경쟁 인공지능 서비스에도 개방할 계획
■ Apple은 Bosch, Cirrus Logic, TDK, Qnity Electronics를 자사의 미국 제조 프로그램에 추가, 2030년까지 4억 달러 투자를 통해 미국 내 핵심 부품 생산 확대 계획
■ 일본 Rohm·Toshiba·Mitsubishi Electric, 전력 반도체 사업 통합 협의 개시
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 30일 주요 테크 뉴스
■ 마이크론, 일본 JDI의 모바라 LCD 생산 공장 인수 검토, 후공정 확장 추진
■ 인텔 Arrow Lake Refresh CPU, 출시 48시간 만에 권장소비자가 대비 최대 17% 상승
■ 화웨이 신형 AI 칩 950PR, 바이트댄스와 알리바바 등 엔비디아 칩 대안으로 채택 확대 계획
■ SMIC, 이란의 방산업체에 반도체 제조 기술 공급
■ 중국 군사 연구 대학들, Super Micro 통해 엔비디아 AI 칩 탑재 서버 확보
■ 애플, OpenAI 인재 유출 방어 위해 20만–40만 달러 규모 4년 보너스 지급
감사합니다.
■ 마이크론, 일본 JDI의 모바라 LCD 생산 공장 인수 검토, 후공정 확장 추진
■ 인텔 Arrow Lake Refresh CPU, 출시 48시간 만에 권장소비자가 대비 최대 17% 상승
■ 화웨이 신형 AI 칩 950PR, 바이트댄스와 알리바바 등 엔비디아 칩 대안으로 채택 확대 계획
■ SMIC, 이란의 방산업체에 반도체 제조 기술 공급
■ 중국 군사 연구 대학들, Super Micro 통해 엔비디아 AI 칩 탑재 서버 확보
■ 애플, OpenAI 인재 유출 방어 위해 20만–40만 달러 규모 4년 보너스 지급
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 31일 주요 테크 뉴스
■ Micron, 범용 GDDR 메모리를 적층하여 HBM과 유사한 구조를 구현하는 방안을 검토
■ 일부 DDR5 키트, 미국 소매 시장에서 20% 이상 하락
■ Microsoft, GPT–Claude 멀티모델 협업 기능과 Copilot Cowork 출시로 AI 생산성·정확도 강화 및 기업용 AI 경쟁력 제고 시도
■ Mistral AI, 8.3억 달러 차입 통해 Nvidia GPU 13,800개 확보 및 데이터센터 구축
■ Rapidus, 1nm 공정에서 TSMC와 격차를 6개월 수준으로 축소 목표. 2nm(2027 양산), 1.4nm(2029) 로드맵 가속 및 AI 수요 기반 고객 확보 진행
감사합니다.
■ Micron, 범용 GDDR 메모리를 적층하여 HBM과 유사한 구조를 구현하는 방안을 검토
■ 일부 DDR5 키트, 미국 소매 시장에서 20% 이상 하락
■ Microsoft, GPT–Claude 멀티모델 협업 기능과 Copilot Cowork 출시로 AI 생산성·정확도 강화 및 기업용 AI 경쟁력 제고 시도
■ Mistral AI, 8.3억 달러 차입 통해 Nvidia GPU 13,800개 확보 및 데이터센터 구축
■ Rapidus, 1nm 공정에서 TSMC와 격차를 6개월 수준으로 축소 목표. 2nm(2027 양산), 1.4nm(2029) 로드맵 가속 및 AI 수요 기반 고객 확보 진행
감사합니다.
[삼성 문준호의 반.전] 2026년 4월 1일 주요 테크 뉴스
■ 엔비디아, 마벨에 20억 달러 투자. 광학 인터커넥트 및 실리콘 포토닉스 기술에 중점 협력
■ 키옥시아, 2D NAND 및 BiCS Gen3 제품을 2028년까지 EOL 공지
■ 후지쯔, Rapidus와 협력해 1.4nm 공정 기반 NPU 개발 계획
■ Oracle, AI 인프라 투자 확대를 위해 수천 명 구조조정 진행
■ CoreWeave, AI 인프라 확장 위한 85억 달러 규모 대출 확보
■ Meta, 499달러 레이밴 스마트 안경 2종 출시
■ Counterpoint에 따르면, 글로벌 Foundry 2.0 시장 매출은 2025년 3,200억 달러로 전년 대비 16% 성장
■ Moore Threads, 약 9,550만 달러 규모 AI 클러스터 수주
감사합니다.
■ 엔비디아, 마벨에 20억 달러 투자. 광학 인터커넥트 및 실리콘 포토닉스 기술에 중점 협력
■ 키옥시아, 2D NAND 및 BiCS Gen3 제품을 2028년까지 EOL 공지
■ 후지쯔, Rapidus와 협력해 1.4nm 공정 기반 NPU 개발 계획
■ Oracle, AI 인프라 투자 확대를 위해 수천 명 구조조정 진행
■ CoreWeave, AI 인프라 확장 위한 85억 달러 규모 대출 확보
■ Meta, 499달러 레이밴 스마트 안경 2종 출시
■ Counterpoint에 따르면, 글로벌 Foundry 2.0 시장 매출은 2025년 3,200억 달러로 전년 대비 16% 성장
■ Moore Threads, 약 9,550만 달러 규모 AI 클러스터 수주
감사합니다.
[삼성 문준호의 반.전] 2026년 4월 2일 주요 테크 뉴스
■ 인텔, 아일랜드 공장(Fab 34)의 Apollo에 매각했던 49% 지분을 142억 달러에 재매입
■ 엔비디아 Rubin Ultra, 공급망 부담 고려해 4-다이 대신 듀얼 다이 설계로 축소. 패키지 내 통합 대신, 보드 레벨에서 2+2 구조를 구현
■ Arm, 신규 AGI CPU 중국 판매 추진
■ AMD, ‘Advancing AI 2026’ 행사 7월 22–23일 개최
■ TSMC, 2026년 COUPE 양산 목표. 삼성 파운드리, 2029년 CPO 턴키 서비스 목표
■ IDC에 따르면, 중국 GPU 및 AI 칩 제조업체들이 지난해 중국 AI 가속기 서버 시장의 약 41%를 차지
감사합니다.
■ 인텔, 아일랜드 공장(Fab 34)의 Apollo에 매각했던 49% 지분을 142억 달러에 재매입
■ 엔비디아 Rubin Ultra, 공급망 부담 고려해 4-다이 대신 듀얼 다이 설계로 축소. 패키지 내 통합 대신, 보드 레벨에서 2+2 구조를 구현
■ Arm, 신규 AGI CPU 중국 판매 추진
■ AMD, ‘Advancing AI 2026’ 행사 7월 22–23일 개최
■ TSMC, 2026년 COUPE 양산 목표. 삼성 파운드리, 2029년 CPO 턴키 서비스 목표
■ IDC에 따르면, 중국 GPU 및 AI 칩 제조업체들이 지난해 중국 AI 가속기 서버 시장의 약 41%를 차지
감사합니다.
[삼성 문준호의 반.전] 2026년 4월 3일 주요 테크 뉴스
■ TSMC, 구마모토 2공장에서 28년까지 3nm 칩 양산 시작 계획. 월 1만 5,000장의 캐파 목표
■ 미디어텍, 퀄컴, 4nm 웨이퍼 투입 축소. 메모리 가격 상승, 2nm 전환 영향으로 전년 대비 약 15% 감소
■ 브로드컴, 차기 CFO로 알파벳 최고회계책임자 Amie Thuener 선임
■ 인텔, CEO 립부 탄이 이사회 의장으로 있는 삼바노바SambaNova에 1,500만 달러 추가 투자 검토
■ 중국 3위 파운드리 Nexchip, 홍콩 상장 추진. 회사는 허페이 지역에 51억 달러 투자해, 40nm/28nm 공정 신규 팹 구축 계획
감사합니다.
■ TSMC, 구마모토 2공장에서 28년까지 3nm 칩 양산 시작 계획. 월 1만 5,000장의 캐파 목표
■ 미디어텍, 퀄컴, 4nm 웨이퍼 투입 축소. 메모리 가격 상승, 2nm 전환 영향으로 전년 대비 약 15% 감소
■ 브로드컴, 차기 CFO로 알파벳 최고회계책임자 Amie Thuener 선임
■ 인텔, CEO 립부 탄이 이사회 의장으로 있는 삼바노바SambaNova에 1,500만 달러 추가 투자 검토
■ 중국 3위 파운드리 Nexchip, 홍콩 상장 추진. 회사는 허페이 지역에 51억 달러 투자해, 40nm/28nm 공정 신규 팹 구축 계획
감사합니다.
[삼성 문준호의 반.전] 2026년 4월 6일 주요 테크 뉴스
■ 미국, ASML 등 겨냥해 대중 반도체 장비 수출 추가 규제 추진. 초안 법안으로, DUV 장비의 판매도 금지
■ TSMC, 4nm 생산라인을 3nm로 전환. 중저가 스마트폰 수요 급감 영향
■ 애플, AMD·NVIDIA eGPU를 AI용으로 Mac에서 구동 가능하도록 드라이버 승인
■ 인텔 저가형 Wildcat Lake CPU(2P+4LP-E, 15W) 스펙 유출. 보급형 시장 대응용 신제품 출시 임박
■ 이란, OpenAI 300억 달러 규모 Stargate AI 데이터센터 파괴 위협
■ 삼성전자, Arm 아키텍처를 벗어나 RISC-V 기반으로 독자 개발한 컨트롤러 칩을 SSD 신제품에 처음 도입
감사합니다.
■ 미국, ASML 등 겨냥해 대중 반도체 장비 수출 추가 규제 추진. 초안 법안으로, DUV 장비의 판매도 금지
■ TSMC, 4nm 생산라인을 3nm로 전환. 중저가 스마트폰 수요 급감 영향
■ 애플, AMD·NVIDIA eGPU를 AI용으로 Mac에서 구동 가능하도록 드라이버 승인
■ 인텔 저가형 Wildcat Lake CPU(2P+4LP-E, 15W) 스펙 유출. 보급형 시장 대응용 신제품 출시 임박
■ 이란, OpenAI 300억 달러 규모 Stargate AI 데이터센터 파괴 위협
■ 삼성전자, Arm 아키텍처를 벗어나 RISC-V 기반으로 독자 개발한 컨트롤러 칩을 SSD 신제품에 처음 도입
감사합니다.
Forwarded from [삼성 이영진] 글로벌 AI/SW
구글-브로드컴-앤스로픽, ‘27년부터 기가와트급 TPU 기반 AI 인프라 구축 및 공급 협력
: 앤스로픽은 구글 및 브로드컴과 차세대 TPU 캐파(수 기가와트 규모) 계약 체결. 2027년부터 가동 예정, 브로드컴 통해 약 3.5GW 확보
: 대규모 컴퓨팅 인프라는 Claude 모델 구동 및 글로벌 수요 대응 목적
: 연환산 매출(run-rate revenue) 300억 달러 돌파 (’25년 말 90억 → ’26년 2월 중순 140억 달러 → 3월 초 190억 달러)
: 연간 100만 달러 이상 지출 기업 고객 수 500개(2월) → 1,000개 이상으로 2배 증가
: 신규 인프라 대부분 미국 내 구축, ’25년 11월 발표한 500억 달러 규모 미국 컴퓨팅 인프라 투자 계획의 확장
: 실제 컴퓨트 사용량은 앤스로픽의 상업적 성과에 연동되는 구조
: 아마존은 여전히 주요 클라우드, 학습 파트너이며, AWS(Project Rainier) 협력 지속 강조 → 멀티클라우드 전략 유지
: 브로드컴은 8-K 공시 통해 구글과 TPU 장기 공급 계약 및 네트워킹 공급 보장 계약 체결도 별도 발표
https://www.anthropic.com/news/google-broadcom-partnership-compute
: 앤스로픽은 구글 및 브로드컴과 차세대 TPU 캐파(수 기가와트 규모) 계약 체결. 2027년부터 가동 예정, 브로드컴 통해 약 3.5GW 확보
: 대규모 컴퓨팅 인프라는 Claude 모델 구동 및 글로벌 수요 대응 목적
: 연환산 매출(run-rate revenue) 300억 달러 돌파 (’25년 말 90억 → ’26년 2월 중순 140억 달러 → 3월 초 190억 달러)
: 연간 100만 달러 이상 지출 기업 고객 수 500개(2월) → 1,000개 이상으로 2배 증가
: 신규 인프라 대부분 미국 내 구축, ’25년 11월 발표한 500억 달러 규모 미국 컴퓨팅 인프라 투자 계획의 확장
: 실제 컴퓨트 사용량은 앤스로픽의 상업적 성과에 연동되는 구조
: 아마존은 여전히 주요 클라우드, 학습 파트너이며, AWS(Project Rainier) 협력 지속 강조 → 멀티클라우드 전략 유지
: 브로드컴은 8-K 공시 통해 구글과 TPU 장기 공급 계약 및 네트워킹 공급 보장 계약 체결도 별도 발표
https://www.anthropic.com/news/google-broadcom-partnership-compute
Anthropic
Anthropic expands partnership with Google and Broadcom for multiple gigawatts of next-generation compute
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
[삼성 문준호의 반.전] 2026년 4월 7일 주요 테크 뉴스
■ 브로드컴과 구글, 장기 계약을 체결하여 차세대 TPU 개발 및 공급하고, 2031년까지 구글의 차세대 AI 랙에 사용될 네트워킹 및 기타 부품을 공급하기로 합의
■ 브로드컴과 구글, Anthropic, 현재의 전략적 협력을 확대하여, 2027년부터 Anthropic이 브로드컴을 통해 약 3.5GW의 차세대 TPU 기반 AI 컴퓨팅 용량을 사용할 수 있도록 합의
■ Qualcomm, 2nm 공정 전환에도 불구 Snapdragon 8 Elite Gen 6 Pro 및 Gen 6 CPU 성능 기대 이하 루머
■ 인텔, Raptor Lake CPU 및 DDR5/DDR4 하이브리드 메인보드 전략 유지
■ 엔비디아의 SchedMD 인수, AI 업계서 소프트웨어 접근성 우려 확산
감사합니다.
■ 브로드컴과 구글, 장기 계약을 체결하여 차세대 TPU 개발 및 공급하고, 2031년까지 구글의 차세대 AI 랙에 사용될 네트워킹 및 기타 부품을 공급하기로 합의
■ 브로드컴과 구글, Anthropic, 현재의 전략적 협력을 확대하여, 2027년부터 Anthropic이 브로드컴을 통해 약 3.5GW의 차세대 TPU 기반 AI 컴퓨팅 용량을 사용할 수 있도록 합의
■ Qualcomm, 2nm 공정 전환에도 불구 Snapdragon 8 Elite Gen 6 Pro 및 Gen 6 CPU 성능 기대 이하 루머
■ 인텔, Raptor Lake CPU 및 DDR5/DDR4 하이브리드 메인보드 전략 유지
■ 엔비디아의 SchedMD 인수, AI 업계서 소프트웨어 접근성 우려 확산
감사합니다.
[삼성 문준호의 반.전] 2026년 4월 8일 주요 테크 뉴스
■ 인텔, 테슬라, 스페이스X, xAI와 협력하여 테라팹 프로젝트에 참여
■ 인텔, 아마존, 알파벳 등 최소 두 곳 이상의 대형 고객과 첨단 패키징 서비스에 대해 논의를 진행 중
■ Foxconn, 2026년 1분기 기준 역대 최대 매출 규모를 달성. 1분기 전체 매출은 2.12조 대만달러로, 전분기 대비 18.18% 감소, 전년 대비 29.68% 증가. 클라우드 네트워크 제품이 가장 높은 연간 성장률을 기록, 부품, 소비자 스마트 디바이스, 기타 부문도 성장세
■ Apple, MacBook 생산의 40% 이상을 베트남으로 이전. 저가형 Neo 모델 포함
■ 팬아웃 패키징은 WMCM(모바일, TSMC 중심)과 FOPLP(HPC, OSAT 중심) 양축 경쟁 구도로 전환
감사합니다.
■ 인텔, 테슬라, 스페이스X, xAI와 협력하여 테라팹 프로젝트에 참여
■ 인텔, 아마존, 알파벳 등 최소 두 곳 이상의 대형 고객과 첨단 패키징 서비스에 대해 논의를 진행 중
■ Foxconn, 2026년 1분기 기준 역대 최대 매출 규모를 달성. 1분기 전체 매출은 2.12조 대만달러로, 전분기 대비 18.18% 감소, 전년 대비 29.68% 증가. 클라우드 네트워크 제품이 가장 높은 연간 성장률을 기록, 부품, 소비자 스마트 디바이스, 기타 부문도 성장세
■ Apple, MacBook 생산의 40% 이상을 베트남으로 이전. 저가형 Neo 모델 포함
■ 팬아웃 패키징은 WMCM(모바일, TSMC 중심)과 FOPLP(HPC, OSAT 중심) 양축 경쟁 구도로 전환
감사합니다.
Forwarded from [삼성리서치] 테크는 역시 삼성증권
디램 랠리, 길게 보자
[삼성증권 반도체, IT/이종욱]
삼성전자가 분기 영업이익 57.2조원(OPM 43%)이라는 역사적인 실적을 기록하였습니다.
반면에 실적 이후 주가를 보면 가격 상승 속도의 둔화가 급등으로 피로한 투자자들에게 차익실현의 계기로 보이는 것 같습니다.
저희는 이번 AI사이클의 본질이 가격 상승의 강도가 아니라 수요의 지속성과 공급 제약의 해소 여부에 달려 있다고 강조하고 싶습니다.
1. CSP들이 AI 인프라 투자의 정점이 단기간에 오지 않을 것이라는 일관된 정보를 제공하고 있고
2. 클린룸 확보의 물리적 한계가 공급 증가 시점은 27년 이후라는 것을 명확하게 보여주고 있으며
3. AI 인프라 수요가 디램 가격에 매우 비탄력적이라는 것이 가격 동향으로 증명되었습니다.
수요와 공급 모두 아직 S커브의 가속 구간에 진입하기 전이라고 판단되어 사이클은 여전히 전반전입니다.
디램 가격 상승 속도가 줄어든 3분기 이후의 견조한 디램 수요, AI Agent 고객사들의 침투 속도, 파운드리 부문으로의 모멘텀 확산, 한층 강화된 주주환원 정책이 향후 주가의 촉매제가 될 것이라고 생각합니다. 이제는 이익 지속성 게임입니다.
26년 영업이익 298조원, 목표주가 27만원을 제시합니다.
보고서 링크: https://bit.ly/4sX75Tf
감사합니다.
(2026/4/8 공표자료)
[삼성증권 반도체, IT/이종욱]
삼성전자가 분기 영업이익 57.2조원(OPM 43%)이라는 역사적인 실적을 기록하였습니다.
반면에 실적 이후 주가를 보면 가격 상승 속도의 둔화가 급등으로 피로한 투자자들에게 차익실현의 계기로 보이는 것 같습니다.
저희는 이번 AI사이클의 본질이 가격 상승의 강도가 아니라 수요의 지속성과 공급 제약의 해소 여부에 달려 있다고 강조하고 싶습니다.
1. CSP들이 AI 인프라 투자의 정점이 단기간에 오지 않을 것이라는 일관된 정보를 제공하고 있고
2. 클린룸 확보의 물리적 한계가 공급 증가 시점은 27년 이후라는 것을 명확하게 보여주고 있으며
3. AI 인프라 수요가 디램 가격에 매우 비탄력적이라는 것이 가격 동향으로 증명되었습니다.
수요와 공급 모두 아직 S커브의 가속 구간에 진입하기 전이라고 판단되어 사이클은 여전히 전반전입니다.
디램 가격 상승 속도가 줄어든 3분기 이후의 견조한 디램 수요, AI Agent 고객사들의 침투 속도, 파운드리 부문으로의 모멘텀 확산, 한층 강화된 주주환원 정책이 향후 주가의 촉매제가 될 것이라고 생각합니다. 이제는 이익 지속성 게임입니다.
26년 영업이익 298조원, 목표주가 27만원을 제시합니다.
보고서 링크: https://bit.ly/4sX75Tf
감사합니다.
(2026/4/8 공표자료)