Forwarded from 현대차 방산 담당 곽민정(Ph.D, Member of SPIE, Member of IEEE)
www.thelec.kr
국내 반도체 최대 행사 ‘IEIE 하계종합학술대회’ 28일 개막 - 전자부품 전문 미디어 디일렉
국내 반도체 학술 분야 최대 행사인 ‘대한전자공학회(IEIE) 2023년도 하계종합학술대회’가 28일 개막한다. 30일까지 사흘간 제주 서귀포시 롯데호텔 제주에서 열린다.올해는 반도체, 통신, 컴퓨터, 인공지능(AI...
Forwarded from MOM🧚🏼♀️ (S)
마크제이곱스 쇼 노트 작성은,
Open Ai, ChatGPT
챗Gpt 참여율이 하락하고 있다는 자료를 봤는데 저의 좁은 인맥으로 주변이야기를 보고 듣고 있으면 사업하는 친구들, 미국 친구들은 Ai이야기가 대부분이고 엊그제는 챗Gpt로 자료써서 PPT했다는 말도 듣고 흠 난리인 너낌이라 저도 적응하려 애쓰고 있었네요.
# 내가 오바하는 걸까 아니면 잘 생각해봐야 하는 시기인걸까?💬
Open Ai, ChatGPT
챗Gpt 참여율이 하락하고 있다는 자료를 봤는데 저의 좁은 인맥으로 주변이야기를 보고 듣고 있으면 사업하는 친구들, 미국 친구들은 Ai이야기가 대부분이고 엊그제는 챗Gpt로 자료써서 PPT했다는 말도 듣고 흠 난리인 너낌이라 저도 적응하려 애쓰고 있었네요.
# 내가 오바하는 걸까 아니면 잘 생각해봐야 하는 시기인걸까?
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Macrotrader - 금융치료
DIGITIMES
Nvidia rumored to secretly aid Amkor to support AI advanced packaging
Nvidia CEO Jensen Huang's exclamation of the arrival of "AI's iPhone moment" sparked an explosive demand for AI HPC (high-performance computing) chips. For 2.5D advanced packaging and testing, which is known for "low quantity, high quality," it's difficult…
Forwarded from 디일렉(THEELEC)
오는 2025년 글로벌 파운드리 업계에 2nm 양산 경쟁이 시작된다. 포문은 삼성전자가 열었다. 삼성전자는 2nm 양산의 구체적인 로드맵을 업계에선 처음으로 제시했다. 인텔, 일본 라피더스도 2nm 양산 고삐를 죄고 있다. 파운드리 1위 TSMC도 2025년 2nm 양산을 본격화할 예정이다. 업계에선 2nm 양산경쟁의 승부처로 수율과 고객사 확보를 꼽는다. 2nm 공정부터는 주요 파운드리 기업들이 모두 GAA(게이트올어라운드)를 적용할 예정인 가운데, 어떤 기업이 GAA 공정 수율을 안착시키느냐가 경쟁구도를 좌우할 전망이다. 삼성,
via 전자부품 전문 미디어 디일렉 - 전체기사 https://ift.tt/SnXLGlN
via 전자부품 전문 미디어 디일렉 - 전체기사 https://ift.tt/SnXLGlN
www.thelec.kr
'2025년 2나노 파운드리 경쟁' 시작...삼성전자·TSMC 승자는 누구? - 전자부품 전문 미디어 디일렉
오는 2025년 글로벌 파운드리 업계에 2nm 양산 경쟁이 시작된다. 포문은 삼성전자가 열었다. 삼성전자는 2nm 양산의 구체적인 로드맵을 업계에선 처음으로 제시했다. 인텔, 일본 라피더스도 2nm 양산 고삐를 죄고...
Forwarded from 엄브렐라리서치 Anakin의 투자노트
* 전일(6/26) Citi에서 반도체 리포트가 발간되었습니다
(AI’s Share in Total DRAM Revenue to Reach 41% in 2025E)
핵심적인 내용 5가지만 정리하면 다음과 같습니다.
1) HBM과 DDR5를 포함한 AI와 연관된 전체 DRAM(AI-related DRAM)의 출하는 2023년 전체 DRAM내 약 4%에서 2027년 34%까지 증가할 것
We expect AI-related DRAM shipments’ share in total DRAM, including HBM and DDR5 for AI system memory, to increase from 4% in 2023E to 34% in
2027E thanks to increased AI training and inference demand.
2) Nvidia DGX H100은 HBM3 640GB와 DDR5 2TB가 탑재. 기존 전통적인 서버에 DRAM이 450GB 탑재되는 점을 고려하면, DRAM content는 약 6배 더 증가
=> (640 + 2048)/450 = 5.97
With its 32 slots where 64GB DDR5 memory chips can be inserted, DGX H100 motherboard tray can support 2TB of DDR5 for system memory. Of note, DRAM content per traditional server is at 450GB, which means DGX H100’s DRAM content is 6x higher than that of the average servers.
3) Nvidia DGX GH200은 144TB의 DRAM을 탑재. ARM 기반의 CPU를 사용하며 HBM 사용량을 줄이고 LPDDR5 탑재량을 사용. 1 set당 592GB의 메모리를 탑재하는데, 총 256 set를 사용하여 전체적으로 144TB를 사용
Nvidia DGX GH200: 144TB DRAM (80GB HBM3 and 512GB LDDDR5 per GPUs) — Nvidia recently released DGX GH200 that was powered by its own ARM-based CPU Grace CPU instead of Intel’s CPU. GH200 is equipped with 256 set of GPUs and CPUs. Each set features 80GB of GPU memory (5 of 16GB
HBM3 + 1 dummy), and 512GB of system DRAM (16 x 32GB LPDDR5). As a result, a set of Grace CPU and Hopper GPU together features 592GB memory (80GB HBM3 + 512GB LPDDR5).
4) 장기적으로 DDR5의 탑재량이 HBM의 탑재량 대비 약 3배 규모로 증가할 것
Based on DGX H100’s 3x higher memory content adoption of DDR5 compared to HBM3 (2TB DDR5 vs. 640GB HBM3), we anticipate AI-related DDR5 demand will be 3x higher than AI-related HBM demand in the long run.
5) AI-related DRAM의 매출액은 2023년 16% => 2024년 31% => 2025년 41% => 2027년 56%까지 성장할 것
In terms of revenue, we expect AI’s contribution in the total DRAM revenue will increase from 16% in 2023E to 31% in 2024E, 41% in 2025E, and 56% in 2027E.
=> 'AI반도체는 HBM 뿐만 아니라 함께 탑재된 DDR5도 같이 계산해야된다'는 부분이 드디어 반영되기 시작했습니다.
=> Citi 추정치에 따르면, 당장 2024년에 전체 DRAM 매출액 내에서 AI DRAM이 약 30%를 차지하는 상황입니다. 기존 DRAM bit에서 약 30~40%를 차지하는 모바일과 기존 서버 수준의 규모입니다. 매출 규모가 30%이지, 실제 이익 기준으로는 AI related DRAM은 훨씬 클 수도 있습니다.
=> 즉, 메모리 수요의 새로운 application이 탄생하는 것과 마찬가지입니다. 그것도 사이클을 타는 커머디티 제품이 아닌, 가격 프리미엄이 계속 유지될 수 있는 제품입니다.
(AI’s Share in Total DRAM Revenue to Reach 41% in 2025E)
핵심적인 내용 5가지만 정리하면 다음과 같습니다.
1) HBM과 DDR5를 포함한 AI와 연관된 전체 DRAM(AI-related DRAM)의 출하는 2023년 전체 DRAM내 약 4%에서 2027년 34%까지 증가할 것
We expect AI-related DRAM shipments’ share in total DRAM, including HBM and DDR5 for AI system memory, to increase from 4% in 2023E to 34% in
2027E thanks to increased AI training and inference demand.
2) Nvidia DGX H100은 HBM3 640GB와 DDR5 2TB가 탑재. 기존 전통적인 서버에 DRAM이 450GB 탑재되는 점을 고려하면, DRAM content는 약 6배 더 증가
=> (640 + 2048)/450 = 5.97
With its 32 slots where 64GB DDR5 memory chips can be inserted, DGX H100 motherboard tray can support 2TB of DDR5 for system memory. Of note, DRAM content per traditional server is at 450GB, which means DGX H100’s DRAM content is 6x higher than that of the average servers.
3) Nvidia DGX GH200은 144TB의 DRAM을 탑재. ARM 기반의 CPU를 사용하며 HBM 사용량을 줄이고 LPDDR5 탑재량을 사용. 1 set당 592GB의 메모리를 탑재하는데, 총 256 set를 사용하여 전체적으로 144TB를 사용
Nvidia DGX GH200: 144TB DRAM (80GB HBM3 and 512GB LDDDR5 per GPUs) — Nvidia recently released DGX GH200 that was powered by its own ARM-based CPU Grace CPU instead of Intel’s CPU. GH200 is equipped with 256 set of GPUs and CPUs. Each set features 80GB of GPU memory (5 of 16GB
HBM3 + 1 dummy), and 512GB of system DRAM (16 x 32GB LPDDR5). As a result, a set of Grace CPU and Hopper GPU together features 592GB memory (80GB HBM3 + 512GB LPDDR5).
4) 장기적으로 DDR5의 탑재량이 HBM의 탑재량 대비 약 3배 규모로 증가할 것
Based on DGX H100’s 3x higher memory content adoption of DDR5 compared to HBM3 (2TB DDR5 vs. 640GB HBM3), we anticipate AI-related DDR5 demand will be 3x higher than AI-related HBM demand in the long run.
5) AI-related DRAM의 매출액은 2023년 16% => 2024년 31% => 2025년 41% => 2027년 56%까지 성장할 것
In terms of revenue, we expect AI’s contribution in the total DRAM revenue will increase from 16% in 2023E to 31% in 2024E, 41% in 2025E, and 56% in 2027E.
=> 'AI반도체는 HBM 뿐만 아니라 함께 탑재된 DDR5도 같이 계산해야된다'는 부분이 드디어 반영되기 시작했습니다.
=> Citi 추정치에 따르면, 당장 2024년에 전체 DRAM 매출액 내에서 AI DRAM이 약 30%를 차지하는 상황입니다. 기존 DRAM bit에서 약 30~40%를 차지하는 모바일과 기존 서버 수준의 규모입니다. 매출 규모가 30%이지, 실제 이익 기준으로는 AI related DRAM은 훨씬 클 수도 있습니다.
=> 즉, 메모리 수요의 새로운 application이 탄생하는 것과 마찬가지입니다. 그것도 사이클을 타는 커머디티 제품이 아닌, 가격 프리미엄이 계속 유지될 수 있는 제품입니다.
❤1
Forwarded from IH Research (Chris)
Amkor +11.4%
트렌드포스에 따르면 TSMC의 연말 CoWoS Capa는 12K/월 입니다. AMD도 전량 TSMC에 후공정을 맡길 것으로 알려져 있어서 TSMC의 12만으로는 전부 대응이 불가능해 후공정 업체들의 투자가 필요합니다.
https://www.digitimes.com/news/a20230626PD211/advanced-packaging-amkor-cowos-nvidia.html
트렌드포스에 따르면 TSMC의 연말 CoWoS Capa는 12K/월 입니다. AMD도 전량 TSMC에 후공정을 맡길 것으로 알려져 있어서 TSMC의 12만으로는 전부 대응이 불가능해 후공정 업체들의 투자가 필요합니다.
https://www.digitimes.com/news/a20230626PD211/advanced-packaging-amkor-cowos-nvidia.html
DIGITIMES
Nvidia rumored to secretly aid Amkor to support AI advanced packaging
Nvidia CEO Jensen Huang's exclamation of the arrival of "AI's iPhone moment" sparked an explosive demand for AI HPC (high-performance computing) chips. For 2.5D advanced packaging and testing, which is known for "low quantity, high quality," it's difficult…
Forwarded from 습관이 부자를 만든다. 🧘 (습 관)
말을 예쁘게 하는 것도 중요하지만 그 말들을 행동으로 보여 주는게 더 중요하다. 세상에는 달콤한 말만 해주고 금방 떠나는 사람들이 너무 많다. 자기가 한 말에 책임을 질 수 있는 사람이 진짜 좋은 사람이다.
Forwarded from 닥터다빈치 투자이야기
"돈을 번 사람들은 자주 베팅하지 않는다. 그들은 주식시장이나 경마를 유심히 관찰하지만, 가격이 잘못 매겨진 베팅 기회를 발견할 때까지 꿈쩍도 하지 않는다."
<찰리멍거>
<찰리멍거>
Forwarded from 닥터다빈치 투자이야기
"시간이 흐를수록 나는 자신이 잘 알고 경영진을 철두철미하게 믿을 수 있는 회사에 거액을 집어 넣는 것이 바른 투자방법이라고 더욱 확신한다네. 아는 것도 없고 특별히 믿을 이유도 없는 기업에 널리 분산투자하고서 위험이 감소했다고 생각하는 것은 착각이야."
<워렌버핏>
<워렌버핏>
Forwarded from Tom's Bio Analysis
정말 오래 기다리셨습니다...
제목부터 심상치 않아 보이는 글로 찾아오게 되었습니다.
해당 섹터에 투자하지 않으시는 분들도 실제 삶과 연관되어 있으니 이 글은 많이 알려졌으면 좋겠습니다.
핵심 메시지는 여러분들의 목숨은 그 무엇보다 소중하다는 것입니다.
너무 무서운 세상입니다.
임상 연구에 참여할 때에는 반드시 따져 보고 또 따져 봐야겠습니다.
솔직히 이 내용을 알고 화가 너무 나서 몇 주간 과몰입을 하게 되었습니다.
글을 다 쓰고 나니 그래도 조금 후련해졌는데요.
투자에 도움이 될 만한 주제로 돌아오겠습니다.
감사합니다.
https://blog.naver.com/jerry_bio_analysis/223141596723
제목부터 심상치 않아 보이는 글로 찾아오게 되었습니다.
해당 섹터에 투자하지 않으시는 분들도 실제 삶과 연관되어 있으니 이 글은 많이 알려졌으면 좋겠습니다.
핵심 메시지는 여러분들의 목숨은 그 무엇보다 소중하다는 것입니다.
너무 무서운 세상입니다.
임상 연구에 참여할 때에는 반드시 따져 보고 또 따져 봐야겠습니다.
솔직히 이 내용을 알고 화가 너무 나서 몇 주간 과몰입을 하게 되었습니다.
글을 다 쓰고 나니 그래도 조금 후련해졌는데요.
투자에 도움이 될 만한 주제로 돌아오겠습니다.
감사합니다.
https://blog.naver.com/jerry_bio_analysis/223141596723
NAVER
돈에 눈이 멀어 환자를 죽인 아스트라제네카: ADAURA 임상의 더러운 실체를 폭로합니다
* 이번 주제는 매우 민감할 수 있습니다.
BESI=하이브리드 본딩
BE Semiconductor Industries NV (BESI)
http://kr.investing.com/equities/be-semicond?utm_source=investing_app&utm_medium=share_link&utm_campaign=share_instrument
BE Semiconductor Industries NV (BESI)
http://kr.investing.com/equities/be-semicond?utm_source=investing_app&utm_medium=share_link&utm_campaign=share_instrument
Capital_Markets_Day__June_6__2023 (1).pdf
6.1 MB
Capital_Markets_Day__June_6__2023 (1).pdf