Forwarded from Buff
AMR/AGV 화물 로봇 현황과 방향성
https://blog.naver.com/invesqueeze/223140877438
https://blog.naver.com/invesqueeze/223140877438
NAVER
formular : AMR/AGV 화물 로봇 현황과 방향성
AGV(Automated Guided Vehicle/무인 운송 차량)는 QR/점자 등 코드를 통해 이동 루트 설정하는 물류 로봇. 이동 경로를 지속 입력 받아야 하기 때문에 로봇 이동 길에 별도 표기가 필요, 표기된 길 외 이동 불가능. AMR 대비 무거운 물류를 안정적 운반 가능, 시스템 상 운행 경로 정해져 있는 만큼 높은 정확성 확보. 현재 주로 물류/유통 회사서 채택.
Forwarded from 선진짱 주식공부방
NAVER
아는만큼 집중투자할 수 있다
어제 금융권에 잠시 몸담았다가 현재는 스타트업에서 재직하고 있는 동생과 점심을 먹었다. 이런저런 많은 ...
Forwarded from [충간지의 글로벌 의료기기/디지털 헬스 연구소]
하나는 실현이 됐고
하나는 진행 중. 나머지 하나는 과연 언제쯤?
하나는 진행 중. 나머지 하나는 과연 언제쯤?
제가 제일 처음 한 스터디는 반 이상이 성공했습니다.
지금도 건너서 들어오는 그들의 성공담을 들으며 고거를 회상해 보니 참 그럴 만한 친구들이 성공을 했습니다.
그런데 우리는 다 생존자들입니다.
많은 지인들이 스터디를 관두고 남은 생존자들 입니다.
중간중간 위기가 왔지만 누구는 운으로, 누구는 실력으로 살아남았고 시간이 지난 후 구 과정들을 다 보면 실력이 없고서는 오르지 못하는 수준이 있고, 결과물의 대단함은 결국 실력과 운의 복합체입니다.
저는 정말 어떤 날들은 0.01% 수익이 납니다.
어제도 그랬습니다.
그런 날들이 모여서 어떤 해는 지수 보다 나은 손실을
어떤 해는 지수 보다 더 큰 수익을 얻곤 합니다.
어제도 그렇게 많이 분산되었음에도 3개 종목이 그 수익을 이끌고 대다수 종목은 하락했습니다.
오늘도 전 포트 0.1프로 정도를 더 살 생각을 가지고 여러 궁리를 하고 있습니다.
비가 그렇게 온다더니 그래서 세차를 미뤘는데 비가 안 옵니다.
그냥 그렇다구요.
[출처] 결국은 적은 사람만 남더라.|작성자 리스크
https://blog.naver.com/limsk1212/223140763797
지금도 건너서 들어오는 그들의 성공담을 들으며 고거를 회상해 보니 참 그럴 만한 친구들이 성공을 했습니다.
그런데 우리는 다 생존자들입니다.
많은 지인들이 스터디를 관두고 남은 생존자들 입니다.
중간중간 위기가 왔지만 누구는 운으로, 누구는 실력으로 살아남았고 시간이 지난 후 구 과정들을 다 보면 실력이 없고서는 오르지 못하는 수준이 있고, 결과물의 대단함은 결국 실력과 운의 복합체입니다.
저는 정말 어떤 날들은 0.01% 수익이 납니다.
어제도 그랬습니다.
그런 날들이 모여서 어떤 해는 지수 보다 나은 손실을
어떤 해는 지수 보다 더 큰 수익을 얻곤 합니다.
어제도 그렇게 많이 분산되었음에도 3개 종목이 그 수익을 이끌고 대다수 종목은 하락했습니다.
오늘도 전 포트 0.1프로 정도를 더 살 생각을 가지고 여러 궁리를 하고 있습니다.
비가 그렇게 온다더니 그래서 세차를 미뤘는데 비가 안 옵니다.
그냥 그렇다구요.
[출처] 결국은 적은 사람만 남더라.|작성자 리스크
https://blog.naver.com/limsk1212/223140763797
NAVER
결국은 적은 사람만 남더라.
제가 제일 처음 한 스터디는 반 이상이 성공했습니다.
Forwarded from 현대차 방산 담당 곽민정(Ph.D, Member of SPIE, Member of IEEE)
www.thelec.kr
국내 반도체 최대 행사 ‘IEIE 하계종합학술대회’ 28일 개막 - 전자부품 전문 미디어 디일렉
국내 반도체 학술 분야 최대 행사인 ‘대한전자공학회(IEIE) 2023년도 하계종합학술대회’가 28일 개막한다. 30일까지 사흘간 제주 서귀포시 롯데호텔 제주에서 열린다.올해는 반도체, 통신, 컴퓨터, 인공지능(AI...
Forwarded from MOM🧚🏼♀️ (S)
마크제이곱스 쇼 노트 작성은,
Open Ai, ChatGPT
챗Gpt 참여율이 하락하고 있다는 자료를 봤는데 저의 좁은 인맥으로 주변이야기를 보고 듣고 있으면 사업하는 친구들, 미국 친구들은 Ai이야기가 대부분이고 엊그제는 챗Gpt로 자료써서 PPT했다는 말도 듣고 흠 난리인 너낌이라 저도 적응하려 애쓰고 있었네요.
# 내가 오바하는 걸까 아니면 잘 생각해봐야 하는 시기인걸까?💬
Open Ai, ChatGPT
챗Gpt 참여율이 하락하고 있다는 자료를 봤는데 저의 좁은 인맥으로 주변이야기를 보고 듣고 있으면 사업하는 친구들, 미국 친구들은 Ai이야기가 대부분이고 엊그제는 챗Gpt로 자료써서 PPT했다는 말도 듣고 흠 난리인 너낌이라 저도 적응하려 애쓰고 있었네요.
# 내가 오바하는 걸까 아니면 잘 생각해봐야 하는 시기인걸까?
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Macrotrader - 금융치료
DIGITIMES
Nvidia rumored to secretly aid Amkor to support AI advanced packaging
Nvidia CEO Jensen Huang's exclamation of the arrival of "AI's iPhone moment" sparked an explosive demand for AI HPC (high-performance computing) chips. For 2.5D advanced packaging and testing, which is known for "low quantity, high quality," it's difficult…
Forwarded from 디일렉(THEELEC)
오는 2025년 글로벌 파운드리 업계에 2nm 양산 경쟁이 시작된다. 포문은 삼성전자가 열었다. 삼성전자는 2nm 양산의 구체적인 로드맵을 업계에선 처음으로 제시했다. 인텔, 일본 라피더스도 2nm 양산 고삐를 죄고 있다. 파운드리 1위 TSMC도 2025년 2nm 양산을 본격화할 예정이다. 업계에선 2nm 양산경쟁의 승부처로 수율과 고객사 확보를 꼽는다. 2nm 공정부터는 주요 파운드리 기업들이 모두 GAA(게이트올어라운드)를 적용할 예정인 가운데, 어떤 기업이 GAA 공정 수율을 안착시키느냐가 경쟁구도를 좌우할 전망이다. 삼성,
via 전자부품 전문 미디어 디일렉 - 전체기사 https://ift.tt/SnXLGlN
via 전자부품 전문 미디어 디일렉 - 전체기사 https://ift.tt/SnXLGlN
www.thelec.kr
'2025년 2나노 파운드리 경쟁' 시작...삼성전자·TSMC 승자는 누구? - 전자부품 전문 미디어 디일렉
오는 2025년 글로벌 파운드리 업계에 2nm 양산 경쟁이 시작된다. 포문은 삼성전자가 열었다. 삼성전자는 2nm 양산의 구체적인 로드맵을 업계에선 처음으로 제시했다. 인텔, 일본 라피더스도 2nm 양산 고삐를 죄고...
Forwarded from 엄브렐라리서치 Anakin의 투자노트
* 전일(6/26) Citi에서 반도체 리포트가 발간되었습니다
(AI’s Share in Total DRAM Revenue to Reach 41% in 2025E)
핵심적인 내용 5가지만 정리하면 다음과 같습니다.
1) HBM과 DDR5를 포함한 AI와 연관된 전체 DRAM(AI-related DRAM)의 출하는 2023년 전체 DRAM내 약 4%에서 2027년 34%까지 증가할 것
We expect AI-related DRAM shipments’ share in total DRAM, including HBM and DDR5 for AI system memory, to increase from 4% in 2023E to 34% in
2027E thanks to increased AI training and inference demand.
2) Nvidia DGX H100은 HBM3 640GB와 DDR5 2TB가 탑재. 기존 전통적인 서버에 DRAM이 450GB 탑재되는 점을 고려하면, DRAM content는 약 6배 더 증가
=> (640 + 2048)/450 = 5.97
With its 32 slots where 64GB DDR5 memory chips can be inserted, DGX H100 motherboard tray can support 2TB of DDR5 for system memory. Of note, DRAM content per traditional server is at 450GB, which means DGX H100’s DRAM content is 6x higher than that of the average servers.
3) Nvidia DGX GH200은 144TB의 DRAM을 탑재. ARM 기반의 CPU를 사용하며 HBM 사용량을 줄이고 LPDDR5 탑재량을 사용. 1 set당 592GB의 메모리를 탑재하는데, 총 256 set를 사용하여 전체적으로 144TB를 사용
Nvidia DGX GH200: 144TB DRAM (80GB HBM3 and 512GB LDDDR5 per GPUs) — Nvidia recently released DGX GH200 that was powered by its own ARM-based CPU Grace CPU instead of Intel’s CPU. GH200 is equipped with 256 set of GPUs and CPUs. Each set features 80GB of GPU memory (5 of 16GB
HBM3 + 1 dummy), and 512GB of system DRAM (16 x 32GB LPDDR5). As a result, a set of Grace CPU and Hopper GPU together features 592GB memory (80GB HBM3 + 512GB LPDDR5).
4) 장기적으로 DDR5의 탑재량이 HBM의 탑재량 대비 약 3배 규모로 증가할 것
Based on DGX H100’s 3x higher memory content adoption of DDR5 compared to HBM3 (2TB DDR5 vs. 640GB HBM3), we anticipate AI-related DDR5 demand will be 3x higher than AI-related HBM demand in the long run.
5) AI-related DRAM의 매출액은 2023년 16% => 2024년 31% => 2025년 41% => 2027년 56%까지 성장할 것
In terms of revenue, we expect AI’s contribution in the total DRAM revenue will increase from 16% in 2023E to 31% in 2024E, 41% in 2025E, and 56% in 2027E.
=> 'AI반도체는 HBM 뿐만 아니라 함께 탑재된 DDR5도 같이 계산해야된다'는 부분이 드디어 반영되기 시작했습니다.
=> Citi 추정치에 따르면, 당장 2024년에 전체 DRAM 매출액 내에서 AI DRAM이 약 30%를 차지하는 상황입니다. 기존 DRAM bit에서 약 30~40%를 차지하는 모바일과 기존 서버 수준의 규모입니다. 매출 규모가 30%이지, 실제 이익 기준으로는 AI related DRAM은 훨씬 클 수도 있습니다.
=> 즉, 메모리 수요의 새로운 application이 탄생하는 것과 마찬가지입니다. 그것도 사이클을 타는 커머디티 제품이 아닌, 가격 프리미엄이 계속 유지될 수 있는 제품입니다.
(AI’s Share in Total DRAM Revenue to Reach 41% in 2025E)
핵심적인 내용 5가지만 정리하면 다음과 같습니다.
1) HBM과 DDR5를 포함한 AI와 연관된 전체 DRAM(AI-related DRAM)의 출하는 2023년 전체 DRAM내 약 4%에서 2027년 34%까지 증가할 것
We expect AI-related DRAM shipments’ share in total DRAM, including HBM and DDR5 for AI system memory, to increase from 4% in 2023E to 34% in
2027E thanks to increased AI training and inference demand.
2) Nvidia DGX H100은 HBM3 640GB와 DDR5 2TB가 탑재. 기존 전통적인 서버에 DRAM이 450GB 탑재되는 점을 고려하면, DRAM content는 약 6배 더 증가
=> (640 + 2048)/450 = 5.97
With its 32 slots where 64GB DDR5 memory chips can be inserted, DGX H100 motherboard tray can support 2TB of DDR5 for system memory. Of note, DRAM content per traditional server is at 450GB, which means DGX H100’s DRAM content is 6x higher than that of the average servers.
3) Nvidia DGX GH200은 144TB의 DRAM을 탑재. ARM 기반의 CPU를 사용하며 HBM 사용량을 줄이고 LPDDR5 탑재량을 사용. 1 set당 592GB의 메모리를 탑재하는데, 총 256 set를 사용하여 전체적으로 144TB를 사용
Nvidia DGX GH200: 144TB DRAM (80GB HBM3 and 512GB LDDDR5 per GPUs) — Nvidia recently released DGX GH200 that was powered by its own ARM-based CPU Grace CPU instead of Intel’s CPU. GH200 is equipped with 256 set of GPUs and CPUs. Each set features 80GB of GPU memory (5 of 16GB
HBM3 + 1 dummy), and 512GB of system DRAM (16 x 32GB LPDDR5). As a result, a set of Grace CPU and Hopper GPU together features 592GB memory (80GB HBM3 + 512GB LPDDR5).
4) 장기적으로 DDR5의 탑재량이 HBM의 탑재량 대비 약 3배 규모로 증가할 것
Based on DGX H100’s 3x higher memory content adoption of DDR5 compared to HBM3 (2TB DDR5 vs. 640GB HBM3), we anticipate AI-related DDR5 demand will be 3x higher than AI-related HBM demand in the long run.
5) AI-related DRAM의 매출액은 2023년 16% => 2024년 31% => 2025년 41% => 2027년 56%까지 성장할 것
In terms of revenue, we expect AI’s contribution in the total DRAM revenue will increase from 16% in 2023E to 31% in 2024E, 41% in 2025E, and 56% in 2027E.
=> 'AI반도체는 HBM 뿐만 아니라 함께 탑재된 DDR5도 같이 계산해야된다'는 부분이 드디어 반영되기 시작했습니다.
=> Citi 추정치에 따르면, 당장 2024년에 전체 DRAM 매출액 내에서 AI DRAM이 약 30%를 차지하는 상황입니다. 기존 DRAM bit에서 약 30~40%를 차지하는 모바일과 기존 서버 수준의 규모입니다. 매출 규모가 30%이지, 실제 이익 기준으로는 AI related DRAM은 훨씬 클 수도 있습니다.
=> 즉, 메모리 수요의 새로운 application이 탄생하는 것과 마찬가지입니다. 그것도 사이클을 타는 커머디티 제품이 아닌, 가격 프리미엄이 계속 유지될 수 있는 제품입니다.
❤1
Forwarded from IH Research (Chris)
Amkor +11.4%
트렌드포스에 따르면 TSMC의 연말 CoWoS Capa는 12K/월 입니다. AMD도 전량 TSMC에 후공정을 맡길 것으로 알려져 있어서 TSMC의 12만으로는 전부 대응이 불가능해 후공정 업체들의 투자가 필요합니다.
https://www.digitimes.com/news/a20230626PD211/advanced-packaging-amkor-cowos-nvidia.html
트렌드포스에 따르면 TSMC의 연말 CoWoS Capa는 12K/월 입니다. AMD도 전량 TSMC에 후공정을 맡길 것으로 알려져 있어서 TSMC의 12만으로는 전부 대응이 불가능해 후공정 업체들의 투자가 필요합니다.
https://www.digitimes.com/news/a20230626PD211/advanced-packaging-amkor-cowos-nvidia.html
DIGITIMES
Nvidia rumored to secretly aid Amkor to support AI advanced packaging
Nvidia CEO Jensen Huang's exclamation of the arrival of "AI's iPhone moment" sparked an explosive demand for AI HPC (high-performance computing) chips. For 2.5D advanced packaging and testing, which is known for "low quantity, high quality," it's difficult…
Forwarded from 습관이 부자를 만든다. 🧘 (습 관)
말을 예쁘게 하는 것도 중요하지만 그 말들을 행동으로 보여 주는게 더 중요하다. 세상에는 달콤한 말만 해주고 금방 떠나는 사람들이 너무 많다. 자기가 한 말에 책임을 질 수 있는 사람이 진짜 좋은 사람이다.
Forwarded from 닥터다빈치 투자이야기
"돈을 번 사람들은 자주 베팅하지 않는다. 그들은 주식시장이나 경마를 유심히 관찰하지만, 가격이 잘못 매겨진 베팅 기회를 발견할 때까지 꿈쩍도 하지 않는다."
<찰리멍거>
<찰리멍거>
Forwarded from 닥터다빈치 투자이야기
"시간이 흐를수록 나는 자신이 잘 알고 경영진을 철두철미하게 믿을 수 있는 회사에 거액을 집어 넣는 것이 바른 투자방법이라고 더욱 확신한다네. 아는 것도 없고 특별히 믿을 이유도 없는 기업에 널리 분산투자하고서 위험이 감소했다고 생각하는 것은 착각이야."
<워렌버핏>
<워렌버핏>