[삼성 문준호의 반.전] 2026년 3월 11일 주요 테크 뉴스
■ Oracle, AI 데이터센터 수요에 힘입어 RPO 5,530억 달러(+325% YoY) 기록, 2027년 매출 가이던스 900억 달러(컨센 866억 달러 상회) 제시
■ Applied Materials, Micron 및 SK하이닉스와 AI용 차세대 메모리 공동 개발을 위해 50억 달러 규모 EPIC 연구센터 협력 발표
■ 엔비디아 오픈소스 AI에이전트 플랫폼 NemoClaw 준비 중. 파트너(Adobe·Cisco·Google 등) 대상 테스트 진행, 특정 GPU 의존 없이 다양한 하드웨어에서 실행 가능
■ 엔비디아, Thinking Machines Lab와 다년간 파트너십 체결해 Vera Rubin GPU 최소 1GW 규모 공급 및 투자 계획
■ 퀄컴, Wayve와 협력해 AI 기반 자율주행 시스템 공동 개발. Wayve의 AI Driver 소프트웨어와 Qualcomm의 Snapdragon Ride 소프트웨어를 결합하는 구조
■ Microsoft, 미 국방부가 Anthropic을 공급망 리스크로 지정하자, 법원에 Anthropic 지지 의견서를 제출하며 지정 효력 중단을 요청
■ Intel 차세대 Nova Lake CPU, DDR5-8000 메모리 공식 지원 가능성 제기
감사합니다.
■ Oracle, AI 데이터센터 수요에 힘입어 RPO 5,530억 달러(+325% YoY) 기록, 2027년 매출 가이던스 900억 달러(컨센 866억 달러 상회) 제시
■ Applied Materials, Micron 및 SK하이닉스와 AI용 차세대 메모리 공동 개발을 위해 50억 달러 규모 EPIC 연구센터 협력 발표
■ 엔비디아 오픈소스 AI에이전트 플랫폼 NemoClaw 준비 중. 파트너(Adobe·Cisco·Google 등) 대상 테스트 진행, 특정 GPU 의존 없이 다양한 하드웨어에서 실행 가능
■ 엔비디아, Thinking Machines Lab와 다년간 파트너십 체결해 Vera Rubin GPU 최소 1GW 규모 공급 및 투자 계획
■ 퀄컴, Wayve와 협력해 AI 기반 자율주행 시스템 공동 개발. Wayve의 AI Driver 소프트웨어와 Qualcomm의 Snapdragon Ride 소프트웨어를 결합하는 구조
■ Microsoft, 미 국방부가 Anthropic을 공급망 리스크로 지정하자, 법원에 Anthropic 지지 의견서를 제출하며 지정 효력 중단을 요청
■ Intel 차세대 Nova Lake CPU, DDR5-8000 메모리 공식 지원 가능성 제기
감사합니다.
[반.전] 다음 주 엔비디아 GTC가 개막합니다 - 관전 포인트
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
다음 주 엔비디아 GTC가 개막합니다. 젠슨 황의 키노트는 한국 시간 17일 (화) 새벽인데요,
그간의 젠슨 황의 행보를 트래킹하며 시장에서는 이미 여러 기출 문제(?)들이 언급되고 있습니다.
주요 관전 포인트를 꼽아 보자면,
1) GPU 로드맵 업데이트: CES에서는 Vera Rubin 세부 스펙까지만 공개한 상황. 차기 Vera Rubin Ultra 혹은 Feynman에 대한 디테일 공유 가능성. 세부 스펙까지는 아니더라도, 실물 외형이라도?
2) 추론 특화 신규 반도체: 젠슨 황은 '세상을 놀라게 할 칩'을 공개할 것이라 언급. 작년 말 추론 특화 반도체 LPU 스타트업 Groq을 200억 달러에 우회인수한 바 있기에, GPU가 아닌 새로운 솔루션 공개 예상.
3) 네트워킹 솔루션과 실리콘 포토닉스: 데이터센터에서 고속 통신의 중요성은 나날이 증가. 지난 실적 발표에서 자사를 '최대 네트워킹 업체'라고 자부한 바 있으며, 이미 작년 GTC에도 실리콘 포토닉스 솔루션을 공개한 바 있음.
4) 신규 NAND 솔루션, HBF?! 연초 CES의 화두 중 하나는 병목 해결을 위한 KV 캐시 전용 스토리지 플랫폼인 NVIDIA Inference Context Memory Storage Platform을 공개한 점. 관련 맥락으로 스토리지 단의 신규 솔루션, 특히 메모리 업체들이 개발 중인 HBF (High Bandwidth Flash)에 대한 업데이트 기대.
5) 매출 가시성 업데이트: 작년 10월 GTC에서 2025~2026년 Blackwell/Rubin 매출액과 수주잔고 규모를 공개한 바 있음. 이에, 2026~2027년에 대한 매출 전망을 업데이트 해줄 가능성도 존재. 이 경우, 엔비디아의 컨센서스도 상향될 가능성.
이 외로도, 단골 주제로는 로보틱스, 자율주행, 추론 소프트웨어 플랫폼 등이 있겠습니다.
이번 키노트가 엔비디아는 물론, 최근 변동성이 확대되고 있는 Tech 섹터에 대한 투자심리를 회복시켜 줄 수 있기를 바래 봅니다.
계속 업데이트 드리겠습니다.
감사합니다.
(2026/03/11 공표자료)
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
다음 주 엔비디아 GTC가 개막합니다. 젠슨 황의 키노트는 한국 시간 17일 (화) 새벽인데요,
그간의 젠슨 황의 행보를 트래킹하며 시장에서는 이미 여러 기출 문제(?)들이 언급되고 있습니다.
주요 관전 포인트를 꼽아 보자면,
1) GPU 로드맵 업데이트: CES에서는 Vera Rubin 세부 스펙까지만 공개한 상황. 차기 Vera Rubin Ultra 혹은 Feynman에 대한 디테일 공유 가능성. 세부 스펙까지는 아니더라도, 실물 외형이라도?
2) 추론 특화 신규 반도체: 젠슨 황은 '세상을 놀라게 할 칩'을 공개할 것이라 언급. 작년 말 추론 특화 반도체 LPU 스타트업 Groq을 200억 달러에 우회인수한 바 있기에, GPU가 아닌 새로운 솔루션 공개 예상.
3) 네트워킹 솔루션과 실리콘 포토닉스: 데이터센터에서 고속 통신의 중요성은 나날이 증가. 지난 실적 발표에서 자사를 '최대 네트워킹 업체'라고 자부한 바 있으며, 이미 작년 GTC에도 실리콘 포토닉스 솔루션을 공개한 바 있음.
4) 신규 NAND 솔루션, HBF?! 연초 CES의 화두 중 하나는 병목 해결을 위한 KV 캐시 전용 스토리지 플랫폼인 NVIDIA Inference Context Memory Storage Platform을 공개한 점. 관련 맥락으로 스토리지 단의 신규 솔루션, 특히 메모리 업체들이 개발 중인 HBF (High Bandwidth Flash)에 대한 업데이트 기대.
5) 매출 가시성 업데이트: 작년 10월 GTC에서 2025~2026년 Blackwell/Rubin 매출액과 수주잔고 규모를 공개한 바 있음. 이에, 2026~2027년에 대한 매출 전망을 업데이트 해줄 가능성도 존재. 이 경우, 엔비디아의 컨센서스도 상향될 가능성.
이 외로도, 단골 주제로는 로보틱스, 자율주행, 추론 소프트웨어 플랫폼 등이 있겠습니다.
이번 키노트가 엔비디아는 물론, 최근 변동성이 확대되고 있는 Tech 섹터에 대한 투자심리를 회복시켜 줄 수 있기를 바래 봅니다.
계속 업데이트 드리겠습니다.
감사합니다.
(2026/03/11 공표자료)
[삼성 문준호의 반.전] 2026년 3월 12일 주요 테크 뉴스
■ 엔비디아, Nebius에 20억 달러 투자. 주당 94.94달러에 지분 약 8.3%. Nebius는 2030년 말까지 5GW 이상의 데이터센터 전력 용량을 구축할 계획
■ Meta, 자체 AI 칩 로드맵 공개. MTIA 400 (전체 시스템을 설계, 서버 랙 규모 시스템, 액체 냉각 포함), MTIA 450 (추론 전용 AI 칩), MTIA 500 (추론용 차세대 칩)
■ AMD 리사 수, 18일 방한해 삼성전자, 네이버 등과 협력을 타진 예정
■ Synopsys, AI 칩 설계를 위한 신규 소프트웨어 툴 출시. 기계, 열, 구조 분석 툴을 기존 반도체 설계 소프트웨어에 통합하는 것이 특징. Ansys 인수의 배경
■ IBM–Lam Research, High-NA EUV 기반 1nm 이하 로직 스케일링 공동 연구
■ Phison Electronics CEO에 따르면 AI 데이터센터 구축 수요 급증으로 일부 NAND 가격이 하룻밤 사이 약 50% 인상될 정도로 공급 부족 심화
감사합니다.
■ 엔비디아, Nebius에 20억 달러 투자. 주당 94.94달러에 지분 약 8.3%. Nebius는 2030년 말까지 5GW 이상의 데이터센터 전력 용량을 구축할 계획
■ Meta, 자체 AI 칩 로드맵 공개. MTIA 400 (전체 시스템을 설계, 서버 랙 규모 시스템, 액체 냉각 포함), MTIA 450 (추론 전용 AI 칩), MTIA 500 (추론용 차세대 칩)
■ AMD 리사 수, 18일 방한해 삼성전자, 네이버 등과 협력을 타진 예정
■ Synopsys, AI 칩 설계를 위한 신규 소프트웨어 툴 출시. 기계, 열, 구조 분석 툴을 기존 반도체 설계 소프트웨어에 통합하는 것이 특징. Ansys 인수의 배경
■ IBM–Lam Research, High-NA EUV 기반 1nm 이하 로직 스케일링 공동 연구
■ Phison Electronics CEO에 따르면 AI 데이터센터 구축 수요 급증으로 일부 NAND 가격이 하룻밤 사이 약 50% 인상될 정도로 공급 부족 심화
감사합니다.
[반.전] 반도체 소부장 - 파운드리도 늘어납니다
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
대외 이슈로 주가 변동성이 크게 확대되고 있지만, 업황은 계속 강력해지고 있다는 것은 모든 분들이 공감하실 것 같습니다.
특히 그동안 DRAM과 DRAM CAPEX cycle에만 주목했다면, 최근에는 파운드리에 대한 관심도 대두되고 있는데요,
TSMC의 올해 CAPEX 계획은 가히 서프라이즈였고, Arizona fab 앞당기는 것만 봐도 연중 가이던스 범위 상단에 가까워질 가능성도 높아 보입니다.
삼성 파운드리도 국내 가동률이 회복됨에 따라 Taylor fab 증설을 확대할 가능성이 제기되고 있습니다. P4 파운드리 증설 계획을 취소한 지금, 증설 여력은 Taylor 뿐입니다.
저희는 아래 업체들에 주목합니다.
■ 원익IPS (240810/BUY/목표주가 150,000원): 2nm에 들어서며 매출 기회 확대. 강력한 DRAM CAPEX로 인해 기대치가 많이 올라가 있지만, 파운드리라는 추가 상향 여력 보유.
■ HPSP (403870/BUY/목표주가 55,000원): 전통적으로 선단 파운드리 노출 비중이 높아서 파운드리 투자 확대에 가장 민감한 업체 중 하나. 오버행 우려가 존재하지만, risk-on이 필요하다고 판단.
■ 파크시스템스 (140860/BUY/목표주가 370,000원): 최선단 공정 투자가 집중됨에 따라 기존 장비는 물론, 공정 난이도 증가에 따른 신규 장비 도입 확대 기대. 과거 trading range 대비 부담도 덜한 편.
■ 피에스케이 (319660/Not Rated): Dry strip 장비는 과거 미국 Austin fab에도 공급 이력 보유. 미중 역학 고려 시, 점유율 확대 가능성도 존재한다고 생각.
감사합니다.
보고서 링크: https://bit.ly/4rujaxU
(2026/03/12 공표자료)
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
대외 이슈로 주가 변동성이 크게 확대되고 있지만, 업황은 계속 강력해지고 있다는 것은 모든 분들이 공감하실 것 같습니다.
특히 그동안 DRAM과 DRAM CAPEX cycle에만 주목했다면, 최근에는 파운드리에 대한 관심도 대두되고 있는데요,
TSMC의 올해 CAPEX 계획은 가히 서프라이즈였고, Arizona fab 앞당기는 것만 봐도 연중 가이던스 범위 상단에 가까워질 가능성도 높아 보입니다.
삼성 파운드리도 국내 가동률이 회복됨에 따라 Taylor fab 증설을 확대할 가능성이 제기되고 있습니다. P4 파운드리 증설 계획을 취소한 지금, 증설 여력은 Taylor 뿐입니다.
저희는 아래 업체들에 주목합니다.
■ 원익IPS (240810/BUY/목표주가 150,000원): 2nm에 들어서며 매출 기회 확대. 강력한 DRAM CAPEX로 인해 기대치가 많이 올라가 있지만, 파운드리라는 추가 상향 여력 보유.
■ HPSP (403870/BUY/목표주가 55,000원): 전통적으로 선단 파운드리 노출 비중이 높아서 파운드리 투자 확대에 가장 민감한 업체 중 하나. 오버행 우려가 존재하지만, risk-on이 필요하다고 판단.
■ 파크시스템스 (140860/BUY/목표주가 370,000원): 최선단 공정 투자가 집중됨에 따라 기존 장비는 물론, 공정 난이도 증가에 따른 신규 장비 도입 확대 기대. 과거 trading range 대비 부담도 덜한 편.
■ 피에스케이 (319660/Not Rated): Dry strip 장비는 과거 미국 Austin fab에도 공급 이력 보유. 미중 역학 고려 시, 점유율 확대 가능성도 존재한다고 생각.
감사합니다.
보고서 링크: https://bit.ly/4rujaxU
(2026/03/12 공표자료)
[삼성 문준호의 반.전] 2026년 3월 13일 주요 테크 뉴스
■ 엔비디아, 향후 5년간 260억 달러 투자해 오픈 웨이트 AI 모델 개발 계획
■ 팔란티어, 엔비디아와 협력하여 소버린 AI용 레퍼런스 아키텍처를 구축할 계획. 엔비디아의 기업용 레퍼런스 아키텍처가 기반
■ AMD, 브로드컴, 엔비디아, 하이퍼스케일러들과 함께 AI 클러스터용 차세대 광(Optical) 스케일업 인터커넥트 정의. OCI MSA 그룹을 설립해 대형 AI 시스템과 서버 랙 내부에서 사용되는 스케일업 인터커넥트를 위한 개방형 광 연결 규격을 정의하는 것을 목표
■ 마이크로소프트, 차세대 Xbox ‘Project Helix’ 공개. AMD와 협력해 커스텀 반도체를 개발 (FSR Diamond)
■ KLA, 70억 달러 규모 추가 자사주 매입 및 배당 21% 인상 발표
감사합니다.
■ 엔비디아, 향후 5년간 260억 달러 투자해 오픈 웨이트 AI 모델 개발 계획
■ 팔란티어, 엔비디아와 협력하여 소버린 AI용 레퍼런스 아키텍처를 구축할 계획. 엔비디아의 기업용 레퍼런스 아키텍처가 기반
■ AMD, 브로드컴, 엔비디아, 하이퍼스케일러들과 함께 AI 클러스터용 차세대 광(Optical) 스케일업 인터커넥트 정의. OCI MSA 그룹을 설립해 대형 AI 시스템과 서버 랙 내부에서 사용되는 스케일업 인터커넥트를 위한 개방형 광 연결 규격을 정의하는 것을 목표
■ 마이크로소프트, 차세대 Xbox ‘Project Helix’ 공개. AMD와 협력해 커스텀 반도체를 개발 (FSR Diamond)
■ KLA, 70억 달러 규모 추가 자사주 매입 및 배당 21% 인상 발표
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 16일 주요 테크 뉴스
■ 아마존-세레브라스, AWS에서 AI 칩 서비스 협력. 세레브라스의 AI 칩이 AWS 데이터센터에 탑재되며, 아마존의 Trainium3와 함께 동작
■ 미 상무부, AI 칩 수출 규정 초안 철회
■ Meta, AI 인프라 투자 비용을 상쇄하고 AI 기반 업무 효율성 확대에 대비하기 위해, 회사 인력의 20% 이상에 영향을 줄 수 있는 대규모 구조조정을 검토
■ 일론 머스크, 테슬라의 AI 칩 생산 프로젝트 Terafab이 7일 내 시작될 것
■ Asus, 2026년 글로벌 PC 출하량이 10–15% 감소할 것으로 전망. 타이트한 메모리 수급은 최소 향후 2년 이상 지속될 것으로 예상. 이에 대응하기 위해 메모리 공급업체와 장기 계약을 확보
■ AWS ASIC 서버가 2026년 2분기 양산 돌입 예정
감사합니다.
■ 아마존-세레브라스, AWS에서 AI 칩 서비스 협력. 세레브라스의 AI 칩이 AWS 데이터센터에 탑재되며, 아마존의 Trainium3와 함께 동작
■ 미 상무부, AI 칩 수출 규정 초안 철회
■ Meta, AI 인프라 투자 비용을 상쇄하고 AI 기반 업무 효율성 확대에 대비하기 위해, 회사 인력의 20% 이상에 영향을 줄 수 있는 대규모 구조조정을 검토
■ 일론 머스크, 테슬라의 AI 칩 생산 프로젝트 Terafab이 7일 내 시작될 것
■ Asus, 2026년 글로벌 PC 출하량이 10–15% 감소할 것으로 전망. 타이트한 메모리 수급은 최소 향후 2년 이상 지속될 것으로 예상. 이에 대응하기 위해 메모리 공급업체와 장기 계약을 확보
■ AWS ASIC 서버가 2026년 2분기 양산 돌입 예정
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 17일 주요 테크 뉴스
■ 엔비디아, AI 칩 매출 기회가 2027년까지 최소 1조 달러 규모에 이를 수 있다고 전망
■ 엔비디아-Uber, 내년부터 28개 도시에서 엔비디아 자율주행 소프트웨어를 탑재한 로보택시 서비스 추진
■ 엔비디아, Infineon, NXP, STMicro와 휴머노이드 로봇 하드웨어, 전자제품 공급 협력
■ 네비우스, 메타와 최대 270억달러 규모의 AI 인프라 공급 계약을 체결하고 120억달러 투자를 유치. 네비우스는 엔비디아의 Vera Rubin 아키텍처 기반 인프라를 2027년 초부터 공급할 계획, 메타는 향후 5년간 최대 150억달러 규모의 추가 컴퓨팅 용량을 구매할 예정
■ 마이크론, 대만 Tongluo P5 인수 공장에 동일 규모의 두 번째 팹 건설 계획
■ 화훙그룹 산하 파운드리 기업 HLMC, 상하이 공장에서 7nm 공정 준비를 진행 중
감사합니다.
■ 엔비디아, AI 칩 매출 기회가 2027년까지 최소 1조 달러 규모에 이를 수 있다고 전망
■ 엔비디아-Uber, 내년부터 28개 도시에서 엔비디아 자율주행 소프트웨어를 탑재한 로보택시 서비스 추진
■ 엔비디아, Infineon, NXP, STMicro와 휴머노이드 로봇 하드웨어, 전자제품 공급 협력
■ 네비우스, 메타와 최대 270억달러 규모의 AI 인프라 공급 계약을 체결하고 120억달러 투자를 유치. 네비우스는 엔비디아의 Vera Rubin 아키텍처 기반 인프라를 2027년 초부터 공급할 계획, 메타는 향후 5년간 최대 150억달러 규모의 추가 컴퓨팅 용량을 구매할 예정
■ 마이크론, 대만 Tongluo P5 인수 공장에 동일 규모의 두 번째 팹 건설 계획
■ 화훙그룹 산하 파운드리 기업 HLMC, 상하이 공장에서 7nm 공정 준비를 진행 중
감사합니다.
[반.전] GTC 2026: Disaggregated Inference
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
대망의 GTC 키노트가 있었습니다. 어떻게 보면 시장에서 예상했던 내용들로 구성된 소문난 잔치였기도 했고,
또 1조 달러 가이던스가 크게 서프라이즈로 다가오지 않다보니, 주가는 1% 상승 마감에 그쳤는데요,
도파민이 떨어질 수는 있지만, 이번 GTC는 올해를 넘어 2027년과 이후로도 AI의 성장이 지속 가능하다는 것을 확인했다는 점에 의미를 둘 필요가 있다고 생각합니다.
특히 Groq LPU와 SRAM이 메모리 시장을 잠식하는 것 아닌가 하는 우려도 종종 보였는데요,
결과적으로 이는 기존 메모리 수요를 대체하기보다 전체 메모리 수요를 확장하는 셈입니다.
HBM이 탑재되는 Rubin GPU 서버를 대체하는 게 아니라, Groq 서버 랙이 옆에 붙어서 최종 성능 향상을 꾀하는 것이니까요.
저희 팀의 생각과 또 키노트에서 발표된 주요 내용들을 리포트로 정리했습니다.
자세한 내용은 아래 보고서 링크를 참고해 주시기 바랍니다.
감사합니다.
보고서 링크: https://bit.ly/4drgRIl
(2026/03/17 공표자료)
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
대망의 GTC 키노트가 있었습니다. 어떻게 보면 시장에서 예상했던 내용들로 구성된 소문난 잔치였기도 했고,
또 1조 달러 가이던스가 크게 서프라이즈로 다가오지 않다보니, 주가는 1% 상승 마감에 그쳤는데요,
도파민이 떨어질 수는 있지만, 이번 GTC는 올해를 넘어 2027년과 이후로도 AI의 성장이 지속 가능하다는 것을 확인했다는 점에 의미를 둘 필요가 있다고 생각합니다.
특히 Groq LPU와 SRAM이 메모리 시장을 잠식하는 것 아닌가 하는 우려도 종종 보였는데요,
결과적으로 이는 기존 메모리 수요를 대체하기보다 전체 메모리 수요를 확장하는 셈입니다.
HBM이 탑재되는 Rubin GPU 서버를 대체하는 게 아니라, Groq 서버 랙이 옆에 붙어서 최종 성능 향상을 꾀하는 것이니까요.
저희 팀의 생각과 또 키노트에서 발표된 주요 내용들을 리포트로 정리했습니다.
자세한 내용은 아래 보고서 링크를 참고해 주시기 바랍니다.
감사합니다.
보고서 링크: https://bit.ly/4drgRIl
(2026/03/17 공표자료)
[삼성 문준호의 반.전] 2026년 3월 18일 주요 테크 뉴스
■ 엔비디아, 중국 고객들을 대상으로 한 수출 라이선스를 확보했고, 이미 주문을 수주했으며, H200 생산을 재개
■ 아마존 CEO, AI로 AWS 매출 2036년까지 6,000억 달러 가능 전망
■ OpenAI, 자사의 AI 모델 접근 권한을 아마존 클라우드 사업부를 통해 미국 국방 및 정부 기관에 제공하는 계약을 체결
■ 엔비디아, GTC 2025에서 공개했던 GB300 탑재 DGX Station 워크스테이션 PC를 공식 출시
■ 무라타, 4월 1일부터 주요 MLCC 부품 가격 인상 확정
■ 중국, 첨단 포토레지스트 국산화 가속. Xuzhou B&C, KrF, ArF 대응 목표로 5년 내 양산 추진
감사합니다.
■ 엔비디아, 중국 고객들을 대상으로 한 수출 라이선스를 확보했고, 이미 주문을 수주했으며, H200 생산을 재개
■ 아마존 CEO, AI로 AWS 매출 2036년까지 6,000억 달러 가능 전망
■ OpenAI, 자사의 AI 모델 접근 권한을 아마존 클라우드 사업부를 통해 미국 국방 및 정부 기관에 제공하는 계약을 체결
■ 엔비디아, GTC 2025에서 공개했던 GB300 탑재 DGX Station 워크스테이션 PC를 공식 출시
■ 무라타, 4월 1일부터 주요 MLCC 부품 가격 인상 확정
■ 중국, 첨단 포토레지스트 국산화 가속. Xuzhou B&C, KrF, ArF 대응 목표로 5년 내 양산 추진
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 19일 주요 테크 뉴스
■ 마이크론, 3분기 매출 가이던스 335억 달러(±7.5억 달러)로 컨센서스 242.9억 달러 상회
■ 마이크론, FY2026 Capex 전망을 기존 200억 달러에서 250억 달러로 상향 조정. FY2027에는 Capex가 추가로 증가할 것으로 예상, 건설 관련 투자만 전년 대비 100억 달러 이상 증가할 것으로 전망
■ 삼성전자와 AMD, AI 메모리 협력 MOU 체결, 파운드리 협력도 검토
■ 엔비디아, Vera CPU에 대해 수요가 기대치를 상회하고 있으며, CPU 사업이 수십억 달러 규모 매출을 창출할 것으로 기대
■ 마이크로소프트, 500억 달러 규모 아마존–오픈AI 클라우드 계약 관련 법적 대응 검토
■ 알리바바, AI 전략을 에이전트 중심으로 전환하며 토큰 기반 수익화와 생태계 통합(커머스–물류–AI) 강화에 베팅
감사합니다.
■ 마이크론, 3분기 매출 가이던스 335억 달러(±7.5억 달러)로 컨센서스 242.9억 달러 상회
■ 마이크론, FY2026 Capex 전망을 기존 200억 달러에서 250억 달러로 상향 조정. FY2027에는 Capex가 추가로 증가할 것으로 예상, 건설 관련 투자만 전년 대비 100억 달러 이상 증가할 것으로 전망
■ 삼성전자와 AMD, AI 메모리 협력 MOU 체결, 파운드리 협력도 검토
■ 엔비디아, Vera CPU에 대해 수요가 기대치를 상회하고 있으며, CPU 사업이 수십억 달러 규모 매출을 창출할 것으로 기대
■ 마이크로소프트, 500억 달러 규모 아마존–오픈AI 클라우드 계약 관련 법적 대응 검토
■ 알리바바, AI 전략을 에이전트 중심으로 전환하며 토큰 기반 수익화와 생태계 통합(커머스–물류–AI) 강화에 베팅
감사합니다.
Forwarded from [삼성리서치] 테크는 역시 삼성증권
마이크론 실적 소회: 경쟁력을 의심하지 말자
[삼성증권 반도체,IT/이종욱]
마이크론이 FY2Q26 컨센서스를 상회하는 실적을 발표했습니다.
이미 주가가 오른 상황에서 주로 투자 상향 우려로 시간외 주가가 하락했다고 생각하지만
컨퍼런스콜은 마이크론의 경쟁력과 업황의 지속성을 강조하는 긍정적인 내용이었습니다.
메모리 산업과 마이크론의 성장 기대감은 연장되었다고 생각합니다.
1. 어닝 서프라이즈
매출액과 영업이익 결과는 컨센서스를 각각 21%, 36% 상회하였고, 매출과 EPS 가이던스는 컨센서스를 41%, 38% 상회했습니다. 디램과 낸드의 ASP 상승률은 각각 60%중반, 70%후반이었습니다.
저희는 상반기중 가시적으로 추가적인 실적 상향의 여지가 남아있다고 생각합니다. 당분간은 이익이 주가를 밀어 올리는 상황이 지속될 것으로 생각합니다.
2. SCA(전략적 고객 합의)
SCA는 LTA보다 더욱 밀접하게 고객과 연계하여 사업 모델의 가시성과 안정성을 높인다고 언급했습니다. 이와 더불어 5년단위 SCA 체결 사실을 공개했습니다. 고객과의 바인딩은 공급 과잉 국면이 도래했을때 마이크론의 이익 안정성에 기여할 것입니다. 하반기에는 디램 가격의 변동성이 줄면서 이익 지속성 문제가 가장 큰 화두가 될 것입니다. 우리는 SCA가 HBM 영역에서는 이익의 지속성을 높이는데 기여할 것으로 보이나, 범용 디램에서 잘 작동할 수 있는지는 다운턴에서 확인이 필요하다고 생각합니다.
3. 투자, 생산 상향
올해 디램 생산 증가율 가이던스를 20%에서 20%초반으로 소폭 늘렸습니다.
연간 CAPEX 계획은 $20B에서 $25B로 25% 확대했습니다. 이를 통해 내년에도 20% 내외의 bit growth를 목표로 할 것입니다.
마이크론을 포함한 메모리3사 모두 투자 확대의 방향성은 구체적이고 명확해졌습니다.
4. HBM4 진입 공식화
GTC에 이어 컨퍼런스콜에서도 HBM4 진입을 공식화했습니다. 엔비디아 HBM4 내에서 약 20%의 점유율을 기록할 것으로 보이며 전체 HBM과 SOCAMM, SSD에서 모두 20% 초반의 시장점유율 유지를 고수하고 있습니다. 마이크론의 절제된 경쟁 전략이 마이크론의 수익성을 높이고 시장 경쟁 강도를 완화하고 있습니다.
감사합니다.
(2026/3/19 공표자료)
[삼성증권 반도체,IT/이종욱]
마이크론이 FY2Q26 컨센서스를 상회하는 실적을 발표했습니다.
이미 주가가 오른 상황에서 주로 투자 상향 우려로 시간외 주가가 하락했다고 생각하지만
컨퍼런스콜은 마이크론의 경쟁력과 업황의 지속성을 강조하는 긍정적인 내용이었습니다.
메모리 산업과 마이크론의 성장 기대감은 연장되었다고 생각합니다.
1. 어닝 서프라이즈
매출액과 영업이익 결과는 컨센서스를 각각 21%, 36% 상회하였고, 매출과 EPS 가이던스는 컨센서스를 41%, 38% 상회했습니다. 디램과 낸드의 ASP 상승률은 각각 60%중반, 70%후반이었습니다.
저희는 상반기중 가시적으로 추가적인 실적 상향의 여지가 남아있다고 생각합니다. 당분간은 이익이 주가를 밀어 올리는 상황이 지속될 것으로 생각합니다.
2. SCA(전략적 고객 합의)
SCA는 LTA보다 더욱 밀접하게 고객과 연계하여 사업 모델의 가시성과 안정성을 높인다고 언급했습니다. 이와 더불어 5년단위 SCA 체결 사실을 공개했습니다. 고객과의 바인딩은 공급 과잉 국면이 도래했을때 마이크론의 이익 안정성에 기여할 것입니다. 하반기에는 디램 가격의 변동성이 줄면서 이익 지속성 문제가 가장 큰 화두가 될 것입니다. 우리는 SCA가 HBM 영역에서는 이익의 지속성을 높이는데 기여할 것으로 보이나, 범용 디램에서 잘 작동할 수 있는지는 다운턴에서 확인이 필요하다고 생각합니다.
3. 투자, 생산 상향
올해 디램 생산 증가율 가이던스를 20%에서 20%초반으로 소폭 늘렸습니다.
연간 CAPEX 계획은 $20B에서 $25B로 25% 확대했습니다. 이를 통해 내년에도 20% 내외의 bit growth를 목표로 할 것입니다.
마이크론을 포함한 메모리3사 모두 투자 확대의 방향성은 구체적이고 명확해졌습니다.
4. HBM4 진입 공식화
GTC에 이어 컨퍼런스콜에서도 HBM4 진입을 공식화했습니다. 엔비디아 HBM4 내에서 약 20%의 점유율을 기록할 것으로 보이며 전체 HBM과 SOCAMM, SSD에서 모두 20% 초반의 시장점유율 유지를 고수하고 있습니다. 마이크론의 절제된 경쟁 전략이 마이크론의 수익성을 높이고 시장 경쟁 강도를 완화하고 있습니다.
감사합니다.
(2026/3/19 공표자료)
[삼성 문준호의 반.전] 2026년 3월 20일 주요 테크 뉴스
■ 엔비디아, 2027년까지 아마존에 GPU 100만 개 공급 계약 체결. 계약 금액은 미공개, 엔비디아의 Spectrum 네트워킹 칩, Groq 칩 등 포함
■ 샤오미, 향후 3년간 AI에 최소 600억 위안(약 87억 달러) 투자 계획
■ 삼성전자, AI 반도체 시대 주도권 확보를 위해 올해 110조원 이상의 시설 및 R&D 투자를 집행
■ 일론 머스크, 테슬라 차세대 AI6 칩 12월 테이프아웃 가능성 언급
■ 제프 베조스, AI 기반 제조업 개편 위해 1,000억 달러 규모 펀드 조성 추진. 반도체, 방위산업, 항공우주 등 주요 산업 내 기업들을 투자 대상으로 삼을 계획
■ imec, ASML High-NA EUV EXE:5200 도입. sub-2nm 공정 목표, 2026년 4분기 검증 예정
■ 독일 반도체 기업 엘모스, 매각 검토 중. 잠재 인수 후보로 인피니온, 퀄컴 거론
감사합니다.
■ 엔비디아, 2027년까지 아마존에 GPU 100만 개 공급 계약 체결. 계약 금액은 미공개, 엔비디아의 Spectrum 네트워킹 칩, Groq 칩 등 포함
■ 샤오미, 향후 3년간 AI에 최소 600억 위안(약 87억 달러) 투자 계획
■ 삼성전자, AI 반도체 시대 주도권 확보를 위해 올해 110조원 이상의 시설 및 R&D 투자를 집행
■ 일론 머스크, 테슬라 차세대 AI6 칩 12월 테이프아웃 가능성 언급
■ 제프 베조스, AI 기반 제조업 개편 위해 1,000억 달러 규모 펀드 조성 추진. 반도체, 방위산업, 항공우주 등 주요 산업 내 기업들을 투자 대상으로 삼을 계획
■ imec, ASML High-NA EUV EXE:5200 도입. sub-2nm 공정 목표, 2026년 4분기 검증 예정
■ 독일 반도체 기업 엘모스, 매각 검토 중. 잠재 인수 후보로 인피니온, 퀄컴 거론
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 23일 주요 테크 뉴스
■ 일론 머스크, 200억 달러 규모 TeraFab 반도체 프로젝트 공개. 로직, 메모리, 패키징, 테스트, 마스크 생산 설비를 하나의 건물 내에 통합한 구조
■ 솔리다임, AI 데이터 수요 증가로 스토리지 반도체 공급도 타이트해질 가능성
■ 아마존, 스마트폰 재진출 추진. Transformer라는 코드명으로, 음성 비서 Alexa와 연동되고, 모바일 개인화 디바이스로 설계
■ 마이크론, 완성차 업체들이 L4 수준의 자율주행 차량을 도입할 경우, 자동차에 300GB 이상의 RAM이 필요하게 될 것으로 전망
■ 텐센트, 위챗에 OpenClaw AI 에이전트 통합
■ OpenAI, 2026년 말까지 직원 수를 현재 약 4,500명에서 8,000명으로 확대할 계획
■ Super Micro 공동창업자 리아우, AI 칩 밀수 혐의 이후 이사회 사임
감사합니다.
■ 일론 머스크, 200억 달러 규모 TeraFab 반도체 프로젝트 공개. 로직, 메모리, 패키징, 테스트, 마스크 생산 설비를 하나의 건물 내에 통합한 구조
■ 솔리다임, AI 데이터 수요 증가로 스토리지 반도체 공급도 타이트해질 가능성
■ 아마존, 스마트폰 재진출 추진. Transformer라는 코드명으로, 음성 비서 Alexa와 연동되고, 모바일 개인화 디바이스로 설계
■ 마이크론, 완성차 업체들이 L4 수준의 자율주행 차량을 도입할 경우, 자동차에 300GB 이상의 RAM이 필요하게 될 것으로 전망
■ 텐센트, 위챗에 OpenClaw AI 에이전트 통합
■ OpenAI, 2026년 말까지 직원 수를 현재 약 4,500명에서 8,000명으로 확대할 계획
■ Super Micro 공동창업자 리아우, AI 칩 밀수 혐의 이후 이사회 사임
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 24일 주요 테크 뉴스
■ TSMC, 미국 내 반도체 생산 수요로 2nm/A16 공정 예정인 애리조나 4공장은 이미 전량 예약 완료 상태
■ DigiTimes에 따르면, 엔비디아의 Rubin 랙 1대 가격은 약 300만~700만 달러 수준으로 추정. 서버 제조업체들의 경우, 세대가 진화할수록 수익성이 점차 하락하는 구조가 형성
■ Nebius, 43.4억 달러 전환사채 발행 완료. 회사 측은 이번 자금 조달을 통해 2026년 160억~200억 달러 규모 CAPEX 계획을 충분히 충당할 수 있는 재원을 확보했다고 설명
■ Apple, WWDC를 6월 8일~12일 동안 온라인으로 개최
■ 미국 연방통신위원회, 신규 외국산 소비자용 라우터의 수입을 전면 금지
감사합니다.
■ TSMC, 미국 내 반도체 생산 수요로 2nm/A16 공정 예정인 애리조나 4공장은 이미 전량 예약 완료 상태
■ DigiTimes에 따르면, 엔비디아의 Rubin 랙 1대 가격은 약 300만~700만 달러 수준으로 추정. 서버 제조업체들의 경우, 세대가 진화할수록 수익성이 점차 하락하는 구조가 형성
■ Nebius, 43.4억 달러 전환사채 발행 완료. 회사 측은 이번 자금 조달을 통해 2026년 160억~200억 달러 규모 CAPEX 계획을 충분히 충당할 수 있는 재원을 확보했다고 설명
■ Apple, WWDC를 6월 8일~12일 동안 온라인으로 개최
■ 미국 연방통신위원회, 신규 외국산 소비자용 라우터의 수입을 전면 금지
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 25일 주요 테크 뉴스
■ 브로드컴, TSMC 생산 능력 한계로 AI 칩 수요 충족 어려움. PCB 및 레이저 등 인접 공급망에서도 병목 현상 발생
■ Arm, 에이전틱 AI 시장 겨냥 AI 칩 ‘AGI CPU’ 공개. Meta가 핵심 파트너로 참여, TSMC 3나노 공정으로 생산
■ SK하이닉스, 약 11.95조원 규모 EUV 장비 발주(약 30대 수준 추정)
■ Tesla, 대만에서 TeraFab 관련 채용 확대. 10년 이상 경력의 시니어 공정 통합 엔지니어를 타깃
■ Microsoft, Oracle 및 OpenAI가 포기한 700MW 규모의 텍사스 데이터센터를 Crusoe와 임대 합의
■ Alibaba, RISC-V 기반 차세대 서버 CPU 공개. 에이전틱 AI 대응 및 자체 AI 칩, 플랫폼 수직통합
감사합니다.
■ 브로드컴, TSMC 생산 능력 한계로 AI 칩 수요 충족 어려움. PCB 및 레이저 등 인접 공급망에서도 병목 현상 발생
■ Arm, 에이전틱 AI 시장 겨냥 AI 칩 ‘AGI CPU’ 공개. Meta가 핵심 파트너로 참여, TSMC 3나노 공정으로 생산
■ SK하이닉스, 약 11.95조원 규모 EUV 장비 발주(약 30대 수준 추정)
■ Tesla, 대만에서 TeraFab 관련 채용 확대. 10년 이상 경력의 시니어 공정 통합 엔지니어를 타깃
■ Microsoft, Oracle 및 OpenAI가 포기한 700MW 규모의 텍사스 데이터센터를 Crusoe와 임대 합의
■ Alibaba, RISC-V 기반 차세대 서버 CPU 공개. 에이전틱 AI 대응 및 자체 AI 칩, 플랫폼 수직통합
감사합니다.
[삼성 문준호의 반.전] 2026년 3월 26일 주요 테크 뉴스
■ PC 제조사, Intel 및 AMD CPU 부족 직면, 리드타임 2주에서 최대 6개월 급증
■ 압축 알고리즘 Google TurboQuant, LLM 캐시 메모리 요구량 최소 6배 절감. H100 기준 최대 8배 성능 향상, KV 캐시를 3비트로 압축하면서 정확도 손실 없음
■ 키옥시아·샌디스크·솔리다임, 난야 테크놀로지 3자 배정 유상증자 참여
■ Micron의 240억 달러 규모 싱가포르 팹, 변압기 최대 500대 필요. 일반적인 웨이퍼 팹이 필요로 하는 것 대비 2배 이상
■ 삼성전자, 2.5인치 SATA SSD 라인업 8TB 모델 확장
■ 트럼프, 엔비디아·메타 CEO를 과학기술 자문위원회에 임명
■ Nintendo, 부진한 연말 판매 이후 Switch 2 생산량 33% 감축 검토. 계획 대비 200만 대 축소
감사합니다.
■ PC 제조사, Intel 및 AMD CPU 부족 직면, 리드타임 2주에서 최대 6개월 급증
■ 압축 알고리즘 Google TurboQuant, LLM 캐시 메모리 요구량 최소 6배 절감. H100 기준 최대 8배 성능 향상, KV 캐시를 3비트로 압축하면서 정확도 손실 없음
■ 키옥시아·샌디스크·솔리다임, 난야 테크놀로지 3자 배정 유상증자 참여
■ Micron의 240억 달러 규모 싱가포르 팹, 변압기 최대 500대 필요. 일반적인 웨이퍼 팹이 필요로 하는 것 대비 2배 이상
■ 삼성전자, 2.5인치 SATA SSD 라인업 8TB 모델 확장
■ 트럼프, 엔비디아·메타 CEO를 과학기술 자문위원회에 임명
■ Nintendo, 부진한 연말 판매 이후 Switch 2 생산량 33% 감축 검토. 계획 대비 200만 대 축소
감사합니다.
[반.전] 인텔, AMD 7% 급등...CPU를 따라가야할까?
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
전일 인텔과 AMD가 각각 7% 상승, Arm은 16% 급등했습니다. 마침내 이들의 시대가 오는걸까요?
■ 가격 인상 기대감
작년 하반기 AI 추론 시장의 개화와 함께 일반 서버 수요도 급증하기 시작했습니다. CPU 업체들은 서버 CPU 생산을 우선시하기 시작했고, 그 결과 전방 수요와 무관하게 PC CPU 수요도 공급 부족입니다.
이로 인해 인텔과 AMD CPU의 ASP가 10~15% 인상된다는 보도가 있었습니다.
Arm의 경우, 별개로, IP가 아닌 자체 CPU 완제품을 선보이며, 서버 CPU 시장 진입을 공식화했습니다.
■ 경쟁 심화 리스크 부각
가격 인상은 단연 실적에 긍정적이지만, 몇년 사이 CPU 시장은 경쟁이 더욱 심화되고 있습니다. 인텔과 AMD만의 텃밭이 아니게 된 지는 오래됐습니다.
Hyperscaler들은 진즉 CPU도 내재화 (ASIC)해 왔습니다. 엔비디아는 GPU를 무기로 CPU까지 끼워팔기 하고 있고, 최근 GTC에서 차기 Vera CPU를 별도 판매할 의향까지 밝혔죠.
그렇다고 Arm에 대한 투자를 고려하자니, 최대 매출처인 스마트폰 시장 위축이 우려됩니다. 동사의 로열티 매출액은 결국 출하량과 연동되니까요.
■ 파생 투자 아이디어
1) 파운드리: CPU 마저 웨이퍼 수요에 기인하면, TSMC의 협상력은 더욱 올라갑니다. 단기 공급 부족이 너무 심각하면, 2~3위 업체로의 낙수 효과도 기대해 볼 수 있겠죠.
2) 장비: 더 많이 만들려면, 로직/파운드리 capa를 더 키울 수밖에 없습니다. 게다가 CPU는 다 선단 공정이죠. 글로벌 장비사들에게 긍정적입니다.
3) 메모리: 지금의 CPU 가격 상승의 근본적 배경은 AI 추론 수요 급증입니다. AI와 가격 인상에 주목하는 로직이라면, 가격 변동성이 훨씬 큰 메모리를 보는 게 더 합리적일 것입니다.
감사합니다.
(2026/03/26 공표자료)
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
전일 인텔과 AMD가 각각 7% 상승, Arm은 16% 급등했습니다. 마침내 이들의 시대가 오는걸까요?
■ 가격 인상 기대감
작년 하반기 AI 추론 시장의 개화와 함께 일반 서버 수요도 급증하기 시작했습니다. CPU 업체들은 서버 CPU 생산을 우선시하기 시작했고, 그 결과 전방 수요와 무관하게 PC CPU 수요도 공급 부족입니다.
이로 인해 인텔과 AMD CPU의 ASP가 10~15% 인상된다는 보도가 있었습니다.
Arm의 경우, 별개로, IP가 아닌 자체 CPU 완제품을 선보이며, 서버 CPU 시장 진입을 공식화했습니다.
■ 경쟁 심화 리스크 부각
가격 인상은 단연 실적에 긍정적이지만, 몇년 사이 CPU 시장은 경쟁이 더욱 심화되고 있습니다. 인텔과 AMD만의 텃밭이 아니게 된 지는 오래됐습니다.
Hyperscaler들은 진즉 CPU도 내재화 (ASIC)해 왔습니다. 엔비디아는 GPU를 무기로 CPU까지 끼워팔기 하고 있고, 최근 GTC에서 차기 Vera CPU를 별도 판매할 의향까지 밝혔죠.
그렇다고 Arm에 대한 투자를 고려하자니, 최대 매출처인 스마트폰 시장 위축이 우려됩니다. 동사의 로열티 매출액은 결국 출하량과 연동되니까요.
■ 파생 투자 아이디어
1) 파운드리: CPU 마저 웨이퍼 수요에 기인하면, TSMC의 협상력은 더욱 올라갑니다. 단기 공급 부족이 너무 심각하면, 2~3위 업체로의 낙수 효과도 기대해 볼 수 있겠죠.
2) 장비: 더 많이 만들려면, 로직/파운드리 capa를 더 키울 수밖에 없습니다. 게다가 CPU는 다 선단 공정이죠. 글로벌 장비사들에게 긍정적입니다.
3) 메모리: 지금의 CPU 가격 상승의 근본적 배경은 AI 추론 수요 급증입니다. AI와 가격 인상에 주목하는 로직이라면, 가격 변동성이 훨씬 큰 메모리를 보는 게 더 합리적일 것입니다.
감사합니다.
(2026/03/26 공표자료)
Forwarded from [삼성 이영진] 글로벌 AI/SW
구글의 TurboQuant, 메모리 효율성 향상이 가져올 추론 수요 폭발
안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.
구글이 발표한 TurboQuant는 AI 추론 과정에서 발생하는 KV 캐시 병목을 해결하기 위한 알고리즘입니다.
KV 캐시는 자주 사용되는 정보를 저장해 방대한 데이터베이스 참조 없이 즉시 정보를 불러올 수 있도록 하는 일종의 메모장인데요
병목 완화를 위해 고차원 벡터 크기를 줄이는 전통적 벡터 양자화를 통한 압축 기술 적용이 기존에도 연구되었습니다. 하지만 전통적 방식은 추가 메모리 오버헤드와 정확도 손실이 발생하는데요
반면 TurboQuant는 PolarQuant와 QJL을 결합해 벡터 양자화에서 메모리 오버헤드 문제를 최적으로 해결하는 압축 알고리즘입니다.
PolarQuant는 벡터를 좌표에서 각도(극좌표)로 변환해 데이터 구조를 단순화하고, QJL은 값을 +1과 -1 비트로 표현하는 수학적 기법으로 남은 오차를 보정합니다.
1단계 PolarQuant로 대부분 압축을 실행하고, QJL로 오류를 보정하는 통합 구조입니다.
사람들이 주목한 것은 결과인데요
1) KV 메모리 크기를 최소 6배 축소
2) 추가 학습 및 파인튜닝 없이 KV 캐시를 3비트까지 양자화
3) 모델 정확도를 유지하면서 빠른 실행 속도 달성
특히 H100 기준 4비트 TurboQuant는 32비트 비양자화 대비 8배의 어텐션 연산 속도를 달성했습니다.
KV 캐시 압축을 비롯한 추론 최적화는 지속적으로 연구가 진행되던 분야입니다. 중국 기업들도 상당한 노력을 기울이고 있구요
과거 딥시크의 MLA나 DSA도 KV 캐시로 인한 메모리 및 연산 병목 완화 목적의 연구입니다. MLA는 구조 변경 DSA는 선택적 어텐션을 통해 접근했습니다.
물론 구글의 TurboQuant는 KV 저장 및 사용 구조를 유지하면서 모델 수정 없이 바로 적용이 가능하고 이론적으로 무손실에 가까운 압축을 달성한다는 점에서는 차별화되는 부분이 있습니다.
TurboQuant 알고리즘이 활용된다면 추론 비용 하락을 달성할 수 있습니다. 하지만 오히려 수요는 폭발 할 것입니다. 속도 및 퀄리티 하향 없이 장기 컨텍스트 윈도우 및 대규모 배치의 활용이 가능하니까요
또한 로컬 모델에서도 대규모 컨텍스트 윈도우 활용이 가능해집니다. 온디바이스 개화로도 이어질 수 있는 포인트입니다.
추론 작업에 대한 메모리 공간이 추가로 생긴다고 하더라도 에이전트 AI 확대 속 이를 상회하고도 남는 전체 추론 수요 상승 트렌드는 이미 이어지고 있습니다.
작년 딥시크 이슈 때도 대두되었던 제본스의 역설(비용 하락에 따른 수요 급증)이 재확인될 가능성이 높다고 생각합니다. 쿼리와 토큰량의 기울기는 다시 한 번 가팔라질 수 있습니다.
세상을 뒤흔들고 있지만, 방금 나온 따끈한 새로운 기술은 아닙니다. 이미 25년 4월에 논문으로 공개된 내용입니다. 시스템 레벨에서 적용한 사례가 추가되어 블로그에 게시된 것입니다.
그리고 공개된 연구인 만큼 AI 산업 내 다른 플레이어의 활용도 열려있습니다.
또한 알고리즘은 추론 측면에서 적용됩니다. 학습 측면에서 모델 스케일링에 기반한 반도체 필요성은 여전합니다.
마지막으로 연구 성과가 실제 환경에서 적용되는 것에서 괴리가 존재할 수 있습니다. 이건 구글이 향후에 증명해야하는 부분이겠지요
저희도 AI 투자와 반도체에 긍정적인 뉴스라는 의견입니다.
(2026/3/26 공표자료)
안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.
구글이 발표한 TurboQuant는 AI 추론 과정에서 발생하는 KV 캐시 병목을 해결하기 위한 알고리즘입니다.
KV 캐시는 자주 사용되는 정보를 저장해 방대한 데이터베이스 참조 없이 즉시 정보를 불러올 수 있도록 하는 일종의 메모장인데요
병목 완화를 위해 고차원 벡터 크기를 줄이는 전통적 벡터 양자화를 통한 압축 기술 적용이 기존에도 연구되었습니다. 하지만 전통적 방식은 추가 메모리 오버헤드와 정확도 손실이 발생하는데요
반면 TurboQuant는 PolarQuant와 QJL을 결합해 벡터 양자화에서 메모리 오버헤드 문제를 최적으로 해결하는 압축 알고리즘입니다.
PolarQuant는 벡터를 좌표에서 각도(극좌표)로 변환해 데이터 구조를 단순화하고, QJL은 값을 +1과 -1 비트로 표현하는 수학적 기법으로 남은 오차를 보정합니다.
1단계 PolarQuant로 대부분 압축을 실행하고, QJL로 오류를 보정하는 통합 구조입니다.
사람들이 주목한 것은 결과인데요
1) KV 메모리 크기를 최소 6배 축소
2) 추가 학습 및 파인튜닝 없이 KV 캐시를 3비트까지 양자화
3) 모델 정확도를 유지하면서 빠른 실행 속도 달성
특히 H100 기준 4비트 TurboQuant는 32비트 비양자화 대비 8배의 어텐션 연산 속도를 달성했습니다.
KV 캐시 압축을 비롯한 추론 최적화는 지속적으로 연구가 진행되던 분야입니다. 중국 기업들도 상당한 노력을 기울이고 있구요
과거 딥시크의 MLA나 DSA도 KV 캐시로 인한 메모리 및 연산 병목 완화 목적의 연구입니다. MLA는 구조 변경 DSA는 선택적 어텐션을 통해 접근했습니다.
물론 구글의 TurboQuant는 KV 저장 및 사용 구조를 유지하면서 모델 수정 없이 바로 적용이 가능하고 이론적으로 무손실에 가까운 압축을 달성한다는 점에서는 차별화되는 부분이 있습니다.
TurboQuant 알고리즘이 활용된다면 추론 비용 하락을 달성할 수 있습니다. 하지만 오히려 수요는 폭발 할 것입니다. 속도 및 퀄리티 하향 없이 장기 컨텍스트 윈도우 및 대규모 배치의 활용이 가능하니까요
또한 로컬 모델에서도 대규모 컨텍스트 윈도우 활용이 가능해집니다. 온디바이스 개화로도 이어질 수 있는 포인트입니다.
추론 작업에 대한 메모리 공간이 추가로 생긴다고 하더라도 에이전트 AI 확대 속 이를 상회하고도 남는 전체 추론 수요 상승 트렌드는 이미 이어지고 있습니다.
작년 딥시크 이슈 때도 대두되었던 제본스의 역설(비용 하락에 따른 수요 급증)이 재확인될 가능성이 높다고 생각합니다. 쿼리와 토큰량의 기울기는 다시 한 번 가팔라질 수 있습니다.
세상을 뒤흔들고 있지만, 방금 나온 따끈한 새로운 기술은 아닙니다. 이미 25년 4월에 논문으로 공개된 내용입니다. 시스템 레벨에서 적용한 사례가 추가되어 블로그에 게시된 것입니다.
그리고 공개된 연구인 만큼 AI 산업 내 다른 플레이어의 활용도 열려있습니다.
또한 알고리즘은 추론 측면에서 적용됩니다. 학습 측면에서 모델 스케일링에 기반한 반도체 필요성은 여전합니다.
마지막으로 연구 성과가 실제 환경에서 적용되는 것에서 괴리가 존재할 수 있습니다. 이건 구글이 향후에 증명해야하는 부분이겠지요
저희도 AI 투자와 반도체에 긍정적인 뉴스라는 의견입니다.
(2026/3/26 공표자료)
Forwarded from [삼성리서치] 테크는 역시 삼성증권
터보퀀트는 메모리 사용량을 줄일까?
[삼성증권 반도체, IT/이종욱]
어제 구글이 블로그를 통해 터보퀀트(TurboQuant) 기술을 소개했고, 마이크론 주가 하락(-3.4%)에 영향을 미친 것으로 보입니다.
1. 터보퀀트가 무엇일까
TurboQuant는 Transformer의 핵심 병목인 KV cache를 이론적 최적 수준으로 압축(양자화)하는 알고리즘입니다.
KV는 벡터값인데, 이 값을 바꾸는 것이 아니라 이 값을 읽은 기준선(좌표계) 바꿔서, 압축 손실을 최소화하는 최적의 좌표계를 찾는 방식입니다.
2. 터보퀀트가 메모리에 미치는 영향
계산량이 추가되고 캐시메모리 사용량을 줄이는 트레이드오프가 있긴 하지만, 현재 AI 속도의 병목은 캐시메모리이기 때문에 전체 속도를 높이고, 곧 AI 추론 비용을 낮출수 있습니다. 따라서 메모리를 덜 사용하면서 같은 성능을 낼 수 있는 AI 기술이라고 할수 있습니다.
3. 제본의 역설?
딥시크 이후로, 반도체 사용량을 최적화하려는 AI모델의 개선 노력은 계속되어 왔습니다. 그러나 효율적인 AI 모델은 오히려 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러오고 있습니다. 최적화 모델들은 반도체 수요를 낮추는 것이 아니라 같은 반도체 자원으로 더 높은 성능의 AI 서비스를 구현하는데 사용되고 있습니다.
4. 무엇이 메모리 사용량을 결정할까
제일 말씀드리고 싶은 것이 이것입니다. 그럼 AI 메모리 수요에 영향을 미치는 인자는 무엇이 있을까요? 지금은 인프라 선점효과가 필요한 구간이기 때문에 보통의 가격과 수급 사이의 관계는 크지 않습니다(낮은 가격탄력성). 오히려 비즈니스 구조와 전략적 선택의 문제(생존문제)로 접근해야 합니다.
- AI 메모리 수요 감소요인은 주로 AI 기능이 고착화되는 지점에서 나타날 것입니다: AI서비스 개선 속도 둔화, AI 모델 기업끼리의 경쟁 구도 완화, AI산업 TAM 성장 둔화
- 다음과 같은 것은 수요에 영향을 미치지 않습니다: 디램과 반도체 가격, 데이터센터 비용, AI모델이나 클라우드 기업의 수익성, AI모델의 최적화와 비용절감
결론적으로 AI 업체들이 비용경쟁이 아니라 성능 경쟁을 하는한 비용 최적화는 반도체 수요에 영향을 미치지 않습니다. 우리가 걱정해야 할 순간은 AI로 더 할수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출때입니다.
감사합니다.
(2026/3/26 공표자료)
[삼성증권 반도체, IT/이종욱]
어제 구글이 블로그를 통해 터보퀀트(TurboQuant) 기술을 소개했고, 마이크론 주가 하락(-3.4%)에 영향을 미친 것으로 보입니다.
1. 터보퀀트가 무엇일까
TurboQuant는 Transformer의 핵심 병목인 KV cache를 이론적 최적 수준으로 압축(양자화)하는 알고리즘입니다.
KV는 벡터값인데, 이 값을 바꾸는 것이 아니라 이 값을 읽은 기준선(좌표계) 바꿔서, 압축 손실을 최소화하는 최적의 좌표계를 찾는 방식입니다.
2. 터보퀀트가 메모리에 미치는 영향
계산량이 추가되고 캐시메모리 사용량을 줄이는 트레이드오프가 있긴 하지만, 현재 AI 속도의 병목은 캐시메모리이기 때문에 전체 속도를 높이고, 곧 AI 추론 비용을 낮출수 있습니다. 따라서 메모리를 덜 사용하면서 같은 성능을 낼 수 있는 AI 기술이라고 할수 있습니다.
3. 제본의 역설?
딥시크 이후로, 반도체 사용량을 최적화하려는 AI모델의 개선 노력은 계속되어 왔습니다. 그러나 효율적인 AI 모델은 오히려 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러오고 있습니다. 최적화 모델들은 반도체 수요를 낮추는 것이 아니라 같은 반도체 자원으로 더 높은 성능의 AI 서비스를 구현하는데 사용되고 있습니다.
4. 무엇이 메모리 사용량을 결정할까
제일 말씀드리고 싶은 것이 이것입니다. 그럼 AI 메모리 수요에 영향을 미치는 인자는 무엇이 있을까요? 지금은 인프라 선점효과가 필요한 구간이기 때문에 보통의 가격과 수급 사이의 관계는 크지 않습니다(낮은 가격탄력성). 오히려 비즈니스 구조와 전략적 선택의 문제(생존문제)로 접근해야 합니다.
- AI 메모리 수요 감소요인은 주로 AI 기능이 고착화되는 지점에서 나타날 것입니다: AI서비스 개선 속도 둔화, AI 모델 기업끼리의 경쟁 구도 완화, AI산업 TAM 성장 둔화
- 다음과 같은 것은 수요에 영향을 미치지 않습니다: 디램과 반도체 가격, 데이터센터 비용, AI모델이나 클라우드 기업의 수익성, AI모델의 최적화와 비용절감
결론적으로 AI 업체들이 비용경쟁이 아니라 성능 경쟁을 하는한 비용 최적화는 반도체 수요에 영향을 미치지 않습니다. 우리가 걱정해야 할 순간은 AI로 더 할수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출때입니다.
감사합니다.
(2026/3/26 공표자료)