Gromit 공부방
2.73K subscribers
6.26K photos
60 videos
196 files
1.67K links
그때는 맞고 지금은 틀리다. 그때그때 되는 것에 투기

시장은 항상 옳다. 시장을 평가하지 말고 비난하지 마라. 시장을 추종하라.

* 면책 조항
- 본 채널은 개인적인 스터디와 매매 복기, 자료 수집 등으로 사용되며 매수나 매도에 대한 추천을 하는 것이 아님.
- 본 채널에서 언급되는 모든 내용은 개인적인 견해일 뿐, 그 정확성이나 완전성을 보장할 수 없음.
Download Telegram
Amazon’s AI Resurgence: AWS & Anthropic’s Multi-Gigawatt Trainium Expansion

AWS, 클라우드 위기론 속에서 AI 반등 준비
‒ AWS는 아마존 그룹 전체 이익의 ~60%를 차지하는 핵심 사업이지만, GPU/XPU 클라우드 전환에서 Azure·Google에 밀리며 시장 내 입지 약화
‒ 2025년 상반기 기준 Microsoft Azure는 OpenAI 파트너십으로 > $10B 클라우드 매출 확보, Google은 TPU 강화로 AWS와 격차 축소
‒ AWS는 투자자들로부터 “GenAI 시대 낙오자”라는 평가를 받고 주가도 FAAMG 중 가장 부진
‒ 그러나 SemiAnalysis는 2025년 말 이후 AWS 성장률이 YoY 20% 이상으로 회복하는 “AI Resurgence” 시나리오 제시

Anthropic, AWS의 구원투수로 부상
‒ Anthropic은 2025년 YTD 매출 5배 급증(연환산 $5B), GenAI 시장의 최대 아웃퍼포머
‒ AWS는 2023년 $1.25B(옵션 포함 $4B) 투자로 Anthropic을 초기부터 지원, 2024년 11월 추가 $4B 투자 → Anthropic의 주요 LLM 훈련 파트너로 자리매김
‒ 현재 AWS는 Anthropic 단독 고객을 위해 1.3GW 규모 데이터센터 3곳을 건설 중, 역사상 최대 규모·최고 속도로 확장 진행
‒ 이 데이터센터는 거의 전량 Trainium2로 채워지며, 전력·자본투자 모두 멀티기가와트 단위 → Anthropic의 RL(강화학습) 중심 확장 전략과 일치

Trainium2: 사양 열세지만 TCO·메모리 대역폭에서 경쟁력 확보
‒ Nvidia GB200 대비 FP16 FLOPs 3.8배 뒤처짐(667 TFLOPs vs 2500 TFLOPs), 메모리 대역폭은 2.7배 차이(2.9TB/s vs 8TB/s)
‒ 그러나 TCO(Total Cost of Ownership) 대비 메모리 대역폭 효율에서 우위 확보 → Anthropic의 RL·사후학습(post-training) 워크로드에 최적화
‒ Anthropic은 AWS Annapurna Labs와 사실상 공동 설계(co-design) 진행, Trainium 로드맵을 맞춤화 → Google DeepMind와 함께 HW-SW 최적화 구조를 가진 유이한 AI 연구소로 부상
‒ 2026년 이후 Trainium3(NeuronLinkv3 탑재), Teton PDS·Max 아키텍처로 확장 예정 → Nvidia NVLink·Kyber Rack을 추격

AWS GenAI 시장 내 약점: 네트워킹·소프트웨어 생태계
‒ AWS는 고유 네트워킹 EFA(Elastic Fabric Adapter)로 차별화를 시도했으나, 성능·사용성에서 Nvidia InfiniBand, Spectrum-X, RoCEv2(Cisco/Arista/Juniper) 대비 열세
‒ 이로 인해 CoreWeave·Oracle·Azure 등 ‘ClusterMAX’ Gold/Platinum 등급 AI 클라우드 사업자 대비 멀티테넌트 GPU 시장 점유율에서 뒤처짐
‒ 소프트웨어 레이어(쿠버네티스·SLURM 관리형 서비스)도 경쟁사 대비 부족해 스타트업·중소 고객층 확보 부진

AWS의 전략적 해법: ‘Anchor Customer’ 확보
‒ Azure는 OpenAI, Google은 DeepMind/Anthropic, CoreWeave는 Meta·xAI와 같은 앵커 고객을 바탕으로 급성장
‒ AWS 역시 Anthropic을 중심으로 대규모 클러스터 구축 → 멀티기가와트 단위 AI 전력 수요 전용 데이터센터 확보
‒ 다만 단기적으로 Anthropic 클라우드 지출은 OpenAI 대비 절반 수준, inference는 Google TPU 의존도가 여전히 높음 → AWS 수익 기여는 2025년 하반기부터 본격화 예상

향후 전망: AWS Bedrock·내부 모델 + Anthropic 동반성장
‒ AWS Bedrock(관리형 GenAI API)과 내부 LLM(알렉사 등)은 여전히 Trainium·Inferentia 활용 계획 중
‒ Anthropic은 $13B 추가 자금조달(기업가치 $183B)로 AWS·Google·기타 클라우드와 장기 계약 확대 가능성
‒ 2025년 말~2027년 Trainium 램프업, 신규 SKU(Teton PDS/Max) 출하, NeuronLinkv3 네트워크 도입 → AWS 성장률 > 20% 회복 시나리오 강화

💡 정리:
» AWS는 GPU/XPU 클라우드 경쟁에서 후발로 평가받아왔으나, Anthropic이라는 앵커 고객 + Trainium의 TCO 기반 경쟁력 + 멀티GW 데이터센터 확장으로 구조적 반등의 계기를 마련.
» 단기적으로는 네트워킹 성능·소프트웨어 생태계 약점과 Anthropic의 Google TPU 의존도가 리스크.
» 중장기적으로는 AWS·Anthropic이 Nvidia·Google 대비 독자적 HW-SW 코드자인프라를 구축하며 시장 내 입지를 되찾을 가능성 높음.


source: semianalysis

#AMZN
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
PJM stakeholders overwhelmingly pan proposal for data center interconnection
: PJM 데이터센터 연결안, 업계 전방위 반발


‒ PJM은 데이터센터 전력수요 급증에 대응하기 위해 50MW 이상 신규 데이터센터를 ‘용량 미확보 부하(NCBL)’로 지정, 필요시 전력 차단하고 용량입찰 의무를 면제하는 방안을 제안

‒ 데이터센터 업계(구글·메타·MS·아마존 등)는 “99.999% 가동률이 필수인데 차단 전제는 불가능하다”며 PJM 권한 남용·시장 왜곡이라고 강력 반발했고, 대신 수요예측 개선·송전망 확충·자체 발전 연계 등을 요구

‒ PJM 시장모니터는 “수만 MW 부하가 용량 보강 없이 추가되면 정전 빈도가 급등한다”고 경고했으나, Constellation·LS Power·Exelon 등 발전사·유틸리티는 관할권 침해·시장 원칙 훼손·NERC 기준 불일치 등을 지적하며 제안을 부정적으로 평가

‒ East Kentucky Power는 “용량가격 상한효과로 투자 신호 왜곡, 발전소 신규투자 위축”을 우려했고, 주지사들(일리노이·메릴랜드·뉴저지·펜실베이니아)은 예측 불가성과 부작용 가능성을 경고하며 송전망 강화와 정확한 수요예측을 촉구

‒ 청정에너지 단체(AEU)는 “성급한 제안은 시장 신뢰를 해치고 데이터센터들이 PJM을 떠날 수 있다”며 연내 FERC 제출도 비현실적이라고 지적했고, 데이터센터 업계는 PJM 외 지역 연결 가능성을 공개적으로 언급

‒ Electricity Customer Alliance는 단계별 접근을 제시. 단기적으로는 2028/29 용량입찰 안정화, 장기적으로는 대형부하의 자체 발전 연계를 강조했으며, 대부분 이해관계자들은 졸속 차단안보다 시장신호 보존과 구조적 개편이 필요하다고 주장

‒ 결론적으로 이번 논란은 ‘AI·데이터센터 수요 폭증 vs 전력망·시장 규율 불일치’라는 구조적 갈등을 드러냈고, PJM은 신뢰성 확보와 투자유인 유지 사이에서 근본적인 제도 개편을 요구받는 국면에 직면

source: UTILITY DIVE
Forwarded from 루팡
[단독]카카오톡서 챗GPT 바로 쓴다

베일 벗은 카카오·오픈AI 동맹

채팅 탭 탑재…앱 전환 없이 사용

자체 LLM 결합 검색기능 고도화

23일 개발자 콘퍼런스서 첫 공개

늦어도 11월부터 실사용 가능할듯



오픈AI의 생성형 인공지능(AI) 챗GPT가 카카오(035720)의 대표 서비스 카카오톡에 탑재된다. 양 사가 올해 2월 전격적으로 전략적 제휴를 발표한 후 파급력이 가장 큰 협업 행보다. 오픈AI는 이용자가 4930만 명에 달하는 한국 대표 애플리케이션을 발판으로 삼아 한국 시장 영향력을 확대하고 카카오는 글로벌 AI 빅테크와 핵심 사업 협업을 통해 AI 기업으로의 전환에 속도를 낼 것으로 전망된다.

4일 정보기술(IT) 업계에 따르면 카카오는 카카오톡의 ‘채팅’ 탭에 챗GPT를 탑재할 예정이다. 이용자가 카카오톡 애플리케이션 이탈 없이 곧바로 챗GPT를 사용할 수 있게 하는 것이 골자다. 예컨대 친구와 연락할 때 채팅 탭의 해당 채팅방을 눌러 대화를 시작하는 것처럼, 채팅 탭에 별도로 마련된 챗GPT 아이콘을 눌러 생성형 AI 기능을 이용할 수 있는 식이다. 카카오는 챗GPT 이용자를 카카오톡에 ‘록인’하면 카카오톡 이용자들의 체류 시간이 증가할 것으로 기대하고 있다. 체류 시간은 수익과 직결되는 지점이다.


동시에 카카오는 카카오톡 채팅방의 ‘샵(#) 검색’에서도 챗GPT를 활용할 수 있는 방안을 검토 중이다. 챗GPT와 자체 대규모언어모델(LLM) ‘카나나’를 결합해 더 고도화된 검색 결과를 도출하는 것이 목표다. 현재 카카오의 AI 메이트 앱 ‘카나나’에서도 오픈AI의 모델과 자체 LLM이 함께 사용되고 있는 것으로 알려졌다. 이는 최근 급격히 커지고 있는 ‘AI 검색 서비스’ 시장에서 양 사가 영향력을 함께 키우기 위한 전략으로 해석된다.

카카오는 오픈AI와의 이 같은 협업 내용을 23일 개발자 콘퍼런스 ‘이프 카카오’에서 처음으로 공개할 것으로 보인다. 앞서 정신아 카카오 대표는 올해 2분기 실적 발표 콘퍼런스 콜에서 “이프 카카오에서 오픈AI와의 실제 프로덕트 형상을 공개할 예정”이라고 밝힌 바 있다. 또 정 대표가 “늦어도 다음 실적 발표 전에는 모두가 해당 프로덕트를 직접 사용할 수 있을 것”이라고 언급한 만큼 카카오톡에서의 챗GPT 이용은 11월부터 실제 가능할 것으로 예상된다.

https://www.sedaily.com/NewsView/2GXRTKW45O
Meta가 보여주는 데이터센터 전력 공급의 미래

‒ Meta는 루이지애나주에 최대 2GW 규모의 초대형 데이터센터 ‘하이퍼리온’을 건설 중이며, 이를 지원하기 위해 Entergy가 2.3GW급 천연가스 발전소 3기 건설 계획을 제출해 전력망 보강에 나섰음

‒ 데이터센터 전력 수요 폭증으로 미국 전력시장들은 신속 발전소 건설 제도를 도입하고 있으며, MISO는 ERAS(Expedited Resource Addition Study)를 통해 심사 기간을 단축하고 승인 속도를 크게 높임

‒ ERAS는 기존 수년 걸리던 절차를 몇 개월 내로 단축해 대규모 전력수요 지역에서 발전소를 신속히 착공할 수 있게 만든 제도로, 천연가스·원자력·재생에너지 프로젝트 전반을 포괄

‒ 실제 1차 ERAS 결과에서 전체 26.5GW 중 약 20GW(3/4)가 승인됐으며, 그중 다수는 천연가스 발전소로 단기 전력공급 안정성을 확보하는 핵심 역할을 맡음

‒ 한편 PJM은 올해 상반기 RRI(Reliability Resource Initiative)를 시행해 신규 가스 발전소 6.1GW와 기존 용량 확장 2.0GW를 합쳐 총 8.1GW를 승인했으나, 적용 범위와 속도에서는 ERAS에 비해 제한적

‒ MISO ERAS는 PJM RRI보다 훨씬 폭넓은 프로젝트와 지역에 적용될 가능성이 높아, 데이터센터 집중 지역에서의 전력 부족 리스크 완화에 더 직접적 기여가 기대됨

‒ 종합적으로 미국 전력망은 늘어나는 전력 수요 충당을 위해 재생에너지 확대 노력과 함께 단기적으로는 천연가스 발전을 빠르게 늘리는 움직임이 지속될 전망

*NH 정연우 위원님 자료 발췌(25.09.01)
Forwarded from 엄브렐라리서치_프리미엄_Jay의 주식투자교실
그렇군요..

기관과 헷지펀드의 뒤늦은 매수세가 다시 나타나기 시작합니다.

pain trade again
Ciena ($CIEN) FY3Q25 실적 요약

FY3Q25 실적 요약
‒ 매출: $1.22B (가이던스 상단 초과, QoQ +8%, YoY +30%)
‒ Non-GAAP Gross Margin: 41.9% (가이던스 대비 +90bps)
‒ Non-GAAP Operating Margin: 10.7% (YoY +270bps)
‒ Non-GAAP EPS: $0.67 (QoQ +60%, YoY +91%)

FY4Q25 가이던스
‒ 매출: $1.24B ~ $1.32B
‒ Non-GAAP Gross Margin: 42% ~ 43% (2Q25가 바닥, 점진적 개선 예상)
‒ Non-GAAP Opex: $390M ~ $400M
‒ 구조조정 비용: $20M (인력 4~5% 감축 포함)
‒ R&D 투자 재편: AI/클라우드 네트워크(광전송, 인터커넥트, Coherent Routing, DCOM)에 집중, 브로드밴드 포트폴리오는 제한적 유지

CEO 및 경영진 코멘트 요약
‒ AI 인프라 수요 폭발: 데이터센터 투자→네트워크 확장 필수, GPU 클러스터간 초저지연·고속 연결이 핵심 → WaveLogic 6·RLS 플랫폼·ZR 플러그 등 수요 급증
‒ 주요 고객: 글로벌 Hyperscaler 2곳 대상 ‘Industry-first’ 계약 (1) 분산 GPU 트레이닝용 전용 DCI 네트워크 (수백M$ 규모, RLS+WL6 기반), (2) 데이터센터 내 관리 네트워크(DCOM, 전력/공간 절감)
‒ Interconnect 포트폴리오: 2025년 매출 YoY 2배 성장 예상, 2026년에도 ‘2배+’ 성장 자신 → 플러그 출하량 QoQ +20%, YoY +140%
‒ Neoscaler(신흥 AI 클라우드/Colo/GPUaaS) 신규 고객 확대 → 중기 성장 기여 전망
‒ Service Provider: MOFN(Managed Optical Fiber Network) 투자 확대 + 기업 클라우드 트래픽 수요 견인, 3분기 Top5 고객 중 3곳이 통신사

주요 사업 모멘텀
‒ WaveLogic 6 Extreme: 고객수 60개, 직전 분기 신규 11개 추가, 포트 출하량 QoQ 2배 → 역사상 가장 빠른 램프업
‒ R&D 및 CapEx: 공급망 확대·수직통합 강화 → 공급제약 완화 추진
‒ M&A 및 협업: Hyperscaler와 신기술 공동개발 확대 (RLS, DCOM 등), 장기적 점유율 확대 자신

2026년 중기 전망
‒ 매출 성장: +17% YoY (25년과 유사, 3년 CAGR 목표 조기 달성)
‒ Non-GAAP Gross Margin: 43% ±1pp
‒ Non-GAAP OpEx: FY25 수준인 $1.5B 유지 (효율성 제고)
‒ 영업이익률 목표: 기존 2027년 → 2026년으로 1년 앞당겨 15~16% 달성 예상

💡 정리:
» Ciena는 AI 기반 데이터센터-네트워크 확장 수요 폭발을 직접 수혜, Hyperscaler·Neoscaler·통신사 전방위 고객층에서 매출 가속.
» Interconnect·WaveLogic6·RLS·DCOM 등 제품군이 차세대 성장축으로 자리 잡음.
» 강력한 수주잔고와 공급망 투자 기반으로 2026년에도 고성장·마진 개선 가속 전망.
» 전략적 R&D 집중 및 비용 효율화로, 기존 목표보다 1년 앞당겨 2026년 15~16% OPM 달성 가시화.

#CIEN
Please open Telegram to view this post
VIEW IN TELEGRAM
Ciena ($CIEN) FY3Q25 실적발표 주요 Q&A 정리

Q. Neoscaler(신흥 클라우드/AI 인프라 기업) 기회 규모와 2026년 성장 가이던스에 반영된 정도는? (J.P. Morgan)
‒ 초기 단계지만 네오스케일러들이 일찍부터 네트워크 투자 필요성 인식 → 신규 구축 활발
‒ Ciena는 이미 다수 수주 확보 및 파이프라인 존재, 2026년 가이던스(매출 +17%)에 일부 반영
‒ 향후 몇 년간 전체 성장의 점진적 비중 확대 예상

Q. 2026년 성장 구성이 2025년과 어떻게 다른지? (J.P. Morgan)
‒ Hyperscaler + Neoscaler 포함한 클라우드 비중이 전체의 ~50% 유지 예상
‒ 단, 서비스 사업자의 MOFN(Managed Optical Fiber Network) 투자와 AI edge workload 전달 역할 강화 → 서비스 사업자 기여도 확대
‒ 대규모 백로그 기반으로 2026년 성장 가시성 확보, 구성비 변화는 크지 않으나 AI 관련 workload 확대가 핵심

Q. ‘Scale Across’ 네트워크(멀티 GPU 클러스터 간 연결)와 Coherent Lite 포트폴리오 기회 비교? (Stifel)
‒ Scott McFeely: Scale Across는 데이터센터 외부에서 GPU 클러스터를 장거리 연결하는 초고속 네트워크 → 이번 첫 계약은 800G WaveLogic 6 nano 기반
‒ Coherent Lite는 여전히 기회 존재, 다만 적용 시점은 2027년 이후로 예상 → ‘언제’의 문제이지 ‘만약’의 문제가 아님
‒ 고객 맞춤형 요구(전력 공급 위치·거리)에 따라 고성능 광학이 필요해 Coherent Lite 대신 고성능 제품 채택됨

Q. 브로드밴드 사업(25G PON 등)의 향후 전략은? (Stifel)
‒ 신규 투자 중단, 기존 제품은 판매·지원 유지
‒ 고속 PON(25G·100G) 신규 개발은 중단하고, DCOM 등 데이터센터용 관리 솔루션 관련 영역만 제한적 투자 유지
‒ Optical/AI 네트워크 기회가 훨씬 크기 때문에 자원 우선 배분

Q. 최근 수백만 달러 규모의 DCI 전용 네트워크(훈련용 GPU 클러스터 연결) 계약은 기존 데이터센터 간 연결 기회와 무엇이 다른지? 또 Routing & Switching 성과 요인은? (Raymond James)
‒ 해당 계약은 특정 지역 내 GPU 트레이닝 전용, 초저지연·고속 전송용 → 기존 DCI와 달리 트레이닝 네트워크라는 점에서 차별화
‒ RLS 라인시스템 + 800G 모듈 사용, 향후 다른 지역·다른 고객에도 확대 가능 → TAM 크게 확대 전망
‒ Routing & Switching 매출은 ① 통신사 투자 회복, ② Coherent Routing(광학 통합 라우팅) 기회 확대, ③ 데이터센터 내 DCOM 기회 세 가지 요인 덕분

Q. 인터커넥트 플러그 비즈니스가 2025년 두 배 성장 후 2026년에도 다시 두 배 성장 가능하다 했는데, 고객 기반은 얼마나 넓은? 추가 수주 필요 여부는? (Barclays)
‒ 고객 수는 수십 곳, 이미 충분한 백로그 확보 → 추가 신규 수주 없이도 2026년 더블링 가능성 큼
‒ 6N DSP, 전기광학 부품 단품 판매도 본격화 → 매출 기여 확대
‒ 특정 Hyperscaler 훈련 네트워크 계약은 “수백M$ 규모”, Q4 소규모 매출 시작 후 FY26 1~2분기 본격 램프 전망
‒ 대규모 계약 덕분에 규모 효과 조기 달성 → 마진 개선에도 긍정적

Q. 공급망 제약 상황은? (Northland Capital Markets)
‒ 공급 제약은 일부 남아 있으나 대규모 선제적 투자 덕분에 30% YoY 성장 달성
‒ 2026년에도 지속적 설비 확장 계획 → 리드타임 단축 기대
‒ 현재 매출은 공급제약으로 억제된 상태, 추가 용량 확보 시 더 높은 매출 가능

Q. Hyperscaler와 공동 개발하는 솔루션(DCom, RLS 등)이 늘고 있는데, 시장 점유율 확대 가능성 있는지? (Evercore)
‒ RLS도 Hyperscaler와 공동 개발한 사례, 앞으로도 co-creation 방식 강화
‒ 고객 맞춤형 솔루션 제공으로 점유율 확대 불가피

Q. 2026년 성장 가이던스에 대한 확신은 백로그 기반인지, 아니면 신규 수주 모멘텀 때문인지? (UBS)
‒ 이미 확보된 수주잔고가 FY26 매출로 전환 예정 → 높은 가시성
‒ 공급제약 완화와 함께 FY26 수익 인식 확대 가능, 서비스 사업자 신규 투자도 모멘텀 강화
‒ AI 인프라 대규모 투자 사이클 초기 단계 → 장기적 수요 내구성 강함

Q. 모듈 비즈니스 더블링, Hyperscaler 전용 계약 등 기회를 고려하면 FY26에 이미 영업이익률 15% 목표 달성 가능한지? (BNP Paribas)
‒ FY27 달성 목표였던 15~16% 영업이익률을 FY26으로 1년 앞당겨 달성 예정
‒ FY25 대비 매출 +17% 성장, Opex flat(약 $1.5B) → 레버리지 효과로 마진 확장

Q. FY27까지 수주 가시성? (BNP Paribas)
‒ 이미 Hyperscaler/Neoscaler/서비스 사업자 모두 장기 대규모 투자 사이클 진입 → FY27 이후에도 지속적 성장 기반 확보
‒ 특히 데이터센터 내부 코히어런트 기술 도입은 아직 반영 전 → 추가 업사이드

Q. 광 모뎀·부품 자체 공급 vs 상용 부품 활용 비중? 공급망 대응 전략은? (Needham)
‒ Ciena는 업계 내 가장 높은 수직통합 수준의 공급망 보유
‒ 단, 리스크 완화를 위해 자체 부품과 서드파티 부품을 병행 활용, 공급 유연성 확보

Q. 노키아-인피네라 합병 등으로 북미 시장 점유율 변화가 있었나? (Needham)
‒ 자사 기술 리드(라인시스템, 모뎀, 도메인 매니지먼트) + 서비스 사업자 투자 재개 덕분에 시장점유율 확대 기회 발생
‒ AI workload 수요와 광학 중심 네트워크 전환이 Ciena에 구조적으로 유리 → 장기적 다년 성장 사이클 확신

#CIEN
Gromit 공부방
#VGT 또 ATH
올해의 GOAT 주식 #VGT 상한가 찍으며 또 ATH 경신

앞자리 숫자 바뀐지 얼마 안 된 것 같은데..
Gromit 공부방
#OPEN 52WH 시세 분출
#OPEN 금리 인하 찐수혜주는 바이오가 아니라 잡주 아니던가

아 국내 기준 그게 그건가