LSKP CFO의 개인 공간❤️
1.08K subscribers
21.1K photos
174 videos
249 files
23.1K links
해외 / 국내 경제, 증시 및 다양한 이슈를 전달합니다!

협업 문의 : yeominyoon1981@gmail.com

Disclaimer

- 본 채널/유튜브에서 업로드 되는 모든 종목은 작성자 및 작성자와 연관된 사람들이 보유하고 있을 가능성이 있습니다. 또한, 해당 종목 및 상품은 언제든 매도할 수 있습니다.

- 본 게시물에 올라온 종목 및 상품에 대한 투자 의사 결정 시, 전적으로 투자자의 책임과 판단하에 진행됨을 알립니다.
Download Telegram
이번 GTC 기조연설 영상 사이사이 노출된 한국기업.

=삼성전자 (팹 장비+디지털트윈 융합 기술)
=SK텔레콤 (데이터센터 관련)
=에이로봇(로봇 스타트업)
=보스턴다이내믹스(현대차 계열 로봇회사, 아틀라스)
[속보] 젠슨 황 “삼성 파운드리가 ‘그록 3 LPU’ 생산 중…3분기쯤 출하 시작” [GTC 2026] - 헤럴드경제

젠슨 황 엔비디아 최고경영자(CEO)가 ‘그록(Groq) 3 언어처리장치(LPU)’를 삼성전자가 제조하고 있다고 공식 언급했다.

황 CEO는 16일(현지시간) 미국 캘리포니아주 새너제이 SAP센터에서 열린 GTC 2026 기조연설에서 “삼성이 우리를 위해 ‘그록 3 LPU’ 칩을 제조하고 있다”며 “지금 가능한 한 최대한 빠르게 생산을 늘리고 있다. 삼성에게 정말 감사드린다”고 밝혔다.

이어 “현재 그록 칩은 생산 단계에 들어갔으며 올해 하반기, 아마도 3분기쯤 출하가 시작될 것”이라고 덧붙였다.

황 CEO가 엔비디아의 그록 3 LPU 칩 생산에 삼성전자 파운드리가 참여하고 있음을 공개적으로 밝힌 것은 이번이 처음이다.

최근 삼성전자는 6세대 고대역폭메모리(HBM4)를 엔비디아에 업계에서 가장 먼저 출하한 데 이어 엔비디아의 차세대 AI 칩을 수주하면서 양사의 협력이 메모리에 이어 파운드리 분야로 확대되는 모습이다.

https://mbiz.heraldcorp.com/article/10695617
* 유가가 모든 것을 주도: S&P500과 유가(역축)은 거의 동행. 3/4 이후 상관성 약 96%

油价主导一切!
标普500指数(黄线)和原油价格走势(蓝线代表油价反向)几乎完全呈反向同步。自3月4日以来,二者相关性约为96%。
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
​[NVIDIA의 GTC] 1조달러 규모의 매출 기회 전망

» 단순한 성능 향상보다 학습 중심의 시대에서 실제로 행동하고 판단하는 Agentic AI 시대로의 구조적 전환을 하드웨어로 구현

​» Nvidia가 차세대 AI 가속기 플랫폼인 베라 루빈(Vera Rubin)과 추론 전용 칩 Groq3 LPU를 전격 공개하며 AI 인프라의 패러다임 전환 선언

​» 기존 GPU가 대규모 연산에 집중했다면, 신규 라인업은 실시간 답변과 자율적 판단이 중요한 AI 에이전트 서비스의 저지연(Low-Latency) 추론 성능 극대화에 초점

​» 젠슨 황 CEO는 전 세계 데이터센터의 현대화와 Agentic AI 확산으로 인해 내년까지 AI 칩 매출 기회가 1조 달러에 달할 것으로 자신하며 시장 지배력 강화 시사

🔹Nvidia의 ​주요 신제품 공개

​» 베라 루빈(Vera Rubin) 플랫폼 : HBM4를 최초 탑재하고 독자 CPU인 베라(Vera)를 결합하여 추론 처리량을 이전 세대 대비 최대 35배 향상시킨 통합 시스템

​» Groq3 LPU(언어 처리 장치) : 엔비디아가 인수한 그록(Groq)의 기술을 이식한 추론 전용 칩으로, SRAM 기반의 초고속 처리를 통해 LLM 응답 속도를 혁신적으로 개선

​» 분산 추론 아키텍처 : 루빈 GPU가 문맥을 계산하고 Groq LPU가 답변을 생성하는 이원화 구조를 채택하여 에너지 효율과 연산 속도 간의 병목 현상 해결

​» 차세대 파인만(Feynman) GPU : 2028년 출시 예정인 차세대 아키텍처로, TSMC 1.6nm 공정과 실리콘 포토닉스 기술 도입을 통해 기술 격차를 2~3년 더 벌릴 계획
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
젠슨 황 엔비디아 최고경영자(CEO)가 연례 개발자 회의 'GTC 2026' 기조연설에서 삼성을 특별히 언급하며 감사를 표하면서 양사 간 긴밀한 협력이 부각됐다.

황 CEO는 16일(현지시간) 미국 캘리포니아주 새너제이 소재 SAP센터에서 진행한 기조연설에서 추론 전용 칩을 소개하면서 "삼성이 우리를 위해 '그록(Groq)3' 언어처리장치(LPU) 칩을 제조하고 있다"며 "지금 최대한 빠르게 생산을 늘리고 있다. 삼성에게 정말 감사드린다"고 말했다.

젠슨 황, GTC서 "삼성에 감사"…삼성, 엔비디아 긴밀 협력
- 삼성전자, 7세대 HBM 최초 공개…엔비디아 GPU·CPU·스토리지 전방위공급 부각
https://n.news.naver.com/article/001/0015962580?sid=104
그록3, 삼성파운드리에 맡긴다

엔비디아의 언어처리장치(LPU) '그록' 3세대가 삼성파운드리에서 제조하고 있다고 GTC2026에서 밝혔습니다. 2026년 3분기쯤 출하가 시작될 것이라고 합니다. LPU 안에는 HBM이 아닌 SRAM이 들어갑니다. 또한 LPU는 8개 단위로 모듈화돼 LPX라는 제품으로 판매됩니다.
삼성전자, GTC서 HBM4E 첫 공개…엔비디아 AI 동맹 넓힌다 - 전자신문

삼성전자가 차세대 고대역폭메모리(HBM) HBM4E 실물 칩을 처음 공개하며 인공지능(AI) 인프라 시장 공략에 속도를 낸다.

메모리뿐 아니라 파운드리·로직 설계·패키징을 결합한 '메모리 토털 솔루션'을 앞세워 엔비디아와 협력 범위를 확대하겠다는 전략이다.

삼성전자는 16일(현지시간)부터 미국 새너제이에서 열리는 엔비디아 GTC(GPU Technology Conference)에 참가해 차세대 HBM4E 기술과 AI 플랫폼용 메모리 솔루션을 공개했다고 밝혔다.

이번 행사에서 1c D램 공정과 파운드리 4나노 공정을 결합한 HBM4E 실물 칩과 코어 다이 웨이퍼를 처음으로 선보였다.

HBM4E는 핀당 16Gbps 속도와 최대 4TB/s 대역폭을 지원하는 차세대 HBM으로, AI 데이터센터용 고성능 GPU 시스템을 겨냥한 제품이다.

패키징 기술도 함께 공개했다. 삼성전자는 차세대 HBM 적층 기술인 HCB를 선보이며 기존 TCB 방식 대비 열 저항을 20% 이상 개선하고 16단 이상 고적층을 구현할 수 있다고 밝혔다.

https://m.etnews.com/20260316000425
삼성전자, 美 GTC서 업계 최고 속도 HBM4E 공개

(조선비즈) 삼성전자는 16일부터 19일(현지 시각)까지 미국 캘리포니아 새너제이에서 열리는 엔비디아 GTC 2026에 참가해 HBM4E 칩과 코어 다이 웨이퍼를 공개한다고 밝혔다. 이번 전시에는 지난 2월 업계 최초로 양산 출하에 성공한 HBM4 제품도 함께 소개됐다. 삼성전자는 이번 행사에서 ‘HBM4 히어로 월(Hero Wall)’ 전시를 통해 메모리와 파운드리, 패키징 기술을 결합한 반도체 개발 역량을 소개했다. 또한 베라 루빈 플랫폼에 적용되는 ▲루빈 GPU용 HBM4 ▲베라 CPU용 소캠(SOCAMM)2 ▲서버용 SSD PM1763 등을 함께 전시하며 엔비디아 AI 플랫폼을 구성하는 메모리 솔루션을 공개했다.
Hyundai Motor, Kia and NVIDIA Expand Strategic Partnership for Next-Generation Autonomous Driving Technology

* 현대차와 기아가 NVIDIA와 협력해 end-to-end AI 기반 자율주행 시스템 개발을 가속하겠다고 발표

* 단순 부품 공급이 아니라, 차량이 센서 데이터를 받아 스스로 판단·주행하는 AI 중심 소프트웨어 정의 차량(SDV) 체계를 강화하는 방향

* 현대차·기아는 NVIDIA의 Thor automotive-grade SoC와 NVIDIA DriveOS를 활용해 차세대 자율주행 플랫폼을 개발한다고 밝힘

* end-to-end 자율주행 아키텍처 개발: 카메라·레이더 등에서 들어온 데이터를 AI가 통합 처리하고, 경로 판단과 제어까지 이어지는 구조를 만들겠다는 의미

* 현대차·기아는 NVIDIA Cosmos를 이용해 대규모 주행 데이터를 기반으로 합성 데이터 생성, 시뮬레이션, 모델 학습을 진행한다고 설명

* 현대차·기아가 자율주행 경쟁력을 단순 센서나 ADAS 기능 수준이 아니라, AI 모델 학습 + 차량용 컴퓨트 + 운영 소프트웨어까지 포함한 풀스택으로 끌어올리려 한다는 점이 중요

* 차 안에서 돌아가는 Thor 칩 + DriveOS 기반 런타임 레이어 / 차 밖에서 자율주행 모델을 훈련시키는 Cosmos 기반 학습·시뮬레이션 레이어
> 차량용 칩 공급보다 넓은 개념의 협력


https://nvidianews.nvidia.com/news/hyundai-motor-kia-autonomous-driving
NVIDIA and Global Robotics Leaders Take Physical AI to the Real World

* NVIDIA가 글로벌 로보틱스 업체들과 함께 physical AI를 실제 산업 현장에 대규모로 배치하는 단계로 들어간다고 발표
> 핵심은 개별 로봇 1대를 잘 만드는 게 아니라, 시뮬레이션·합성데이터·오픈모델·엣지 컴퓨팅을 하나의 풀스택으로 묶어 로봇 개발과 배포를 표준화하는 것

* 파트너: ABB Robotics, AGIBOT, Agility, FANUC, Figure, Hexagon Robotics, KUKA, Skild AI, Universal Robots, YASKAWA, World Labs 등
> 특히 FANUC, ABB, YASKAWA, KUKA처럼 이미 전세계 설치 기반이 큰 산업용 로봇 회사들이 Omniverse와 Isaac 시뮬레이션 프레임워크를 자사 virtual commissioning에 통합. Jetson 모듈을 컨트롤러에 넣어 현장 추론을 강화하는 점이 중요

* NVIDIA는 이번에 새 Isaac 시뮬레이션 프레임워크, Cosmos 세계모델, Isaac GR00T 개방형 모델을 공개

* 로봇도 이제 자동차나 데이터센터처럼 “학습은 시뮬레이션과 데이터 팩토리에서, 실행은 엣지 컴퓨트에서”라는 구조
> 로보틱스 산업의 병목을 더 이상 기계 설계만이 아니라 데이터 생성, 물리 시뮬레이션, 정책 학습, 현장 추론의 통합 문제로 보고 있다는 뜻

* 1X, AGIBOT, Agility, Figure, Boston Dynamics, NEURA Robotics 등 휴머노이드 업체들이 Cosmos world models, Isaac Sim, Isaac Lab을 활용해 개발 속도를 높이고 있음
> AGIBOT, Humanoid, LG Electronics, NEURA Robotics, Noble Machines는 Isaac GR00T N 모델을 채택. 이 시스템들은 Jetson Thor robotic computing platform 기반으로 실제 배치까지 이어진다고 설명
> 즉 휴머노이드에서도 NVIDIA가 모델 + 시뮬레이션 + 온보드 컴퓨트를 같이 가져가려는 그림

* 의료 로봇까지 확장: CMR Surgical, Johnson & Johnson MedTech, Medtronic도 포함
> CMR은 Cosmos-H simulation으로 Versius 수술 로봇을 훈련·검증
> J&J는 Isaac Sim 및 Cosmos 기반 post-training workflow를 활용
> Medtronic은 IGX Thor를 검토 중
> 물류·공장뿐 아니라 규제와 안전 요건이 높은 의료 로봇까지 physical AI 플랫폼 범위를 넓히고 있음

* Skild AI는 ABB Robotics·Universal Robots와 generalized robot intelligence를 산업 현장에 넣고 있고, Foxconn과는 NVIDIA Blackwell 생산라인용 정밀 조립에 협업 중. KION은 NVIDIA와 Accenture와 함께 창고 디지털 트윈을 만들고 Jetson 기반 자율 포크리프트를 훈련·검증

* Microsoft Azure와 Nebius는 Physical AI Data Factory blueprint를 통합해 합성데이터 생성을 지원

https://nvidianews.nvidia.com/news/nvidia-and-global-robotics-leaders-take-physical-ai-to-the-real-world
젠슨 황 "현대차랑 로보택시 협력"
제네시스 등쟝
우주 데이터센터. 발표하는 것마다 도파민이네요🥹
엔비디아, 우주 데이터센터 사업 공식화 $NVDA

(Official) 엔비디아는 궤도 데이터센터의 연산에 쓰일 베라루빈 기반의 '스페이스-1'이라는 컴퓨팅 모듈을 내놨습니다. <IGX 토르> 및 <젯슨 오린>이라는 위성 내 실시간 데이터 처리를 위한 엣지 칩도 공개했습니다. RTX PRO 6000 블랙웰은 위성 이미지 분석에 사용됩니다. 젠슨 황은 "지능은 데이터가 생성되는 곳에 존재해야 한다"며, 위성 데이터를 지상으로 보내지 않고 궤도에서 즉시 분석하는 패러다임 전환을 강조했습니다. 플래닛랩스(PL), 엑시엄 스페이스, 케플러 커뮤니케이션즈, 소피아 스페이스, 스타 클라우드 등 주요 우주 기업들이 엔비디아 플랫폼을 채택해 차세대 미션을 수행 중이라고 밝혔습니다. 플래닛랩스는 엔비디아의 기후 시뮬레이션 모델인 CorrDiff AI를 활용해 위성 원천 데이터를 실시간에 가까운 '행성 지능' 데이터로 추출하고 있습니다. 이처럼 가속화된 위성 분석 기술은 산불·홍수 등 재난 대응, 정밀 기상 예측, 글로벌 에너지 망 모니터링 등에 즉각 투입됩니다.
엔비디아, 2027년 1조 달러 목표 $NVDA

젠슨 황이 2월 어닝콜에서 2025~2026년 누적 매출을 $500B로 전망했고, 이번 GTC2026에서 2025~2027년까지의 누적 매출을 $1T로 제시했습니다. 그러나 이미 컨센서스는 $1.05T 정도 반영하고 있기 때문에 시장의 기대치에 맞춰 내부 목표치를 올렸다고 봐야 합니다. 또 매출의 60%가 하이퍼스케일러에서 나올 것이라고 했는데 이는 기존의 50% 대비 상향된 수준입니다. 데이터센터용 CPU인 베라의 단독 판매, 그록 LPU, 우주 데이터센터용 칩 개발, 우버와 2028년 자율주행 플릿 등 새로운 사실도 공개했습니다.

1.6% 상승 마감. GTC 기조연설 중 급등하다 셀온
“내년에 엔비디아 매출 1조달러 돌파할 것” 주가 1.65%↑ - 뉴스1

젠슨 황 엔비디아 최고경영자(CEO)가 연례 개발자 모임 GTC에서 엔비디아 매출이 2027년에는 1조달러를 돌파할 것이라고 밝히자 엔비디아 주가가 1% 이상 상승했다.

이날 황 CEO는 GTC 기조연설에서 “여전히 인공지능(AI) 전용 칩에 대한 수요가 놀랍다”며 “올해 엔비디아 매출이 5000억달러를 돌파한 뒤 내년(2027년)에는 1조달러를 넘어설 것”이라고 전망했다.

그는 또 우주 데이터 센터용 AI 칩을 개발할 것이며, 차량 공유업체 우버와 협력, 2027년부터 자율주행차를 출시할 것이라고 밝히는 등 여러 가지 청사진을 제시했다.

이에 따라 엔비디아는 간만에 주가가 상승했다.

https://www.news1.kr/world/usa-canada/6103224
Forwarded from 루팡
마이크론, HBM4 및 PCIe Gen6 SSD 대량 양산 발표

1. HBM4 36GB 12H 양산 및 16H 샘플 출하
NVIDIA '베라 루빈' 최적화: 세계 최초로 HBM4 36GB 12단(12H) 제품의 대량 양산을 시작했습니다.

압도적 성능: 핀 속도 11Gb/s 이상, 총 대역폭 2.8TB/s를 달성했습니다. 이는 이전 세대(HBM3E) 대비 대역폭은 2.3배, 전력 효율은 20% 이상 향상된 수치입니다.

용량 확장: 더 높은 용량을 위해 16단 적층 구조인 HBM4 48GB 16H 샘플을 고객사에 출하하기 시작했습니다. (기존 대비 용량 33% 증가)


2. 업계 최초 PCIe Gen6 SSD (Micron 9650)

최고의 속도: 업계 최초로 PCIe Gen6 데이터센터 SSD인 '마이크론 9650'을 양산합니다.

성능 지표: Gen5 SSD 대비 읽기 성능은 최대 2배, 와트당 성능(전력 효율)은 100% 향상되었습니다.

AI 특화: NVIDIA BlueField-4 STX 아키텍처 기반의 에이전틱 AI(Agentic AI) 워크로드에 최적화되었으며, 순차 읽기 최대 28GB/s를 지원합니다.


3. SOCAMM2 메모리 솔루션
고용량 지원: 192GB SOCAMM2 제품을 양산하며, 48GB에서 256GB까지 폭넓은 라인업을 구축했습니다.

서버급 성능: NVIDIA 베라(Vera) CPU 플랫폼에 탑재되어 CPU당 최대 2TB의 메모리와 1.2TB/s의 대역폭을 제공합니다.

https://investors.micron.com/news-releases/news-release-details/micron-high-volume-production-hbm4-designed-nvidia-vera-rubin