Forwarded from 하나 중국/신흥국 전략 김경환 (경환 김)
~26일 관세청에 따르면 지난 1월부터 10월까지 중국 해외직구 건수는 6775만건으로 집계됐다. 작년 동기 대비 64.9% 증가한 수치다. 불과 10개월 만에 지난해 전체 직구 건수(5541만건)를 넘어섰다. 지난 1~10월 직구 규모 또한 18억2400만달러로 지난해 전체 직구 규모(17억1200만달러)를 넘어선 상태다.
https://v.daum.net/v/20231126140111011
https://v.daum.net/v/20231126140111011
언론사 뷰
커지는 알리·테무·쉬인 존재감…中 직구 65%↑ '껑충'
중국 직구 시장 규모가 폭발적인 성장세를 보이고 있다. 초저가 상품, 무료 배송·반품 등 파격 혜택을 앞세운 중국 e커머스 업체들이 국내 시장 공략에 성공하고 있다는 평가다. 패션부터 가전, 생활용품까지 모든 카테고리에서 점유율을 키우며 국내 e커머스 업계를 위협하고 있다. 26일 관세청에 따르면 지난 1월부터 10월까지 중국 해외직구 건수는 6775만건으
Forwarded from 전종현의 인사이트
LLM 시대의 BM은 어떻게 형성될까요?
글에서는 Price to SLAs, Output-based pricing, Agent renting 방식을 언급
https://philipjclark.substack.com/p/beyond-saas
글에서는 Price to SLAs, Output-based pricing, Agent renting 방식을 언급
https://philipjclark.substack.com/p/beyond-saas
Forwarded from 재간둥이 송선생의 링크수집 창고
어릴 적 시골 촌구석에 살 때는 TV에 나온 사람들, 책 쓰는 사람들을 보면 엄청난 권위를 느꼈고, 성공한 사람들인 줄로만 알았는데. 머리 굵고 나서 보니 열심히 방송 나오고, 책 쓰는 사람들은 아직 삶이 힘든 사람들이어서 마케팅 열심히 하면서 사는 분들이 많고, 정작 본업에서 실력 없는 분들도 많다는 것을 알게됨. 그래서 책은 무조건 많이 읽는 것 보다는 정말 더욱 더 조심히 읽는 것이 중요하다 싶었고(장사꾼들은 사람들을 자신의 노예나 고객으로 만들기 위해서 가스라이팅도 심하기에), 더더욱 고전서에 집착하게 됨.
재간둥이 송선생의 링크수집 창고
어릴 적 시골 촌구석에 살 때는 TV에 나온 사람들, 책 쓰는 사람들을 보면 엄청난 권위를 느꼈고, 성공한 사람들인 줄로만 알았는데. 머리 굵고 나서 보니 열심히 방송 나오고, 책 쓰는 사람들은 아직 삶이 힘든 사람들이어서 마케팅 열심히 하면서 사는 분들이 많고, 정작 본업에서 실력 없는 분들도 많다는 것을 알게됨. 그래서 책은 무조건 많이 읽는 것 보다는 정말 더욱 더 조심히 읽는 것이 중요하다 싶었고(장사꾼들은 사람들을 자신의 노예나 고객으로 만들기…
'더더욱 고전서에 집착'
다독 이전에 이미 오랜 시간 속에서 검증을 끝낸 지혜의 보고를 먼저 익혀야 오래오래 지낼 수 있음.
다독 이전에 이미 오랜 시간 속에서 검증을 끝낸 지혜의 보고를 먼저 익혀야 오래오래 지낼 수 있음.
그냥 김라브😸
서점에 가보니 많은 사람들이 트렌드를 알고 싶어하고, 그 사람들에게 그럴싸한 책을 파는 것이 트렌드라는 것을 알 수 있었습니다.
트렌드를 알고 싶어 하는 수요를 충족시켜주는 것이 공급자들의 트렌드 중의 하나.
Microsoft 질주를 막을 수 있을까?
Copilot 시리즈로 본격 AI Agent 시장 개화와 Windows on ARM, Azure AI 와 자체 칩 설계
https://www.youtube.com/watch?v=5QLvjk8lfQI
Copilot 시리즈로 본격 AI Agent 시장 개화와 Windows on ARM, Azure AI 와 자체 칩 설계
https://www.youtube.com/watch?v=5QLvjk8lfQI
YouTube
Microsoft 질주를 막을 수 있을까? Copilot 시리즈로 본격 AI Agent 시장 개화와 Windows on ARM, Azure AI 와 자체 칩 설계까지!
Microsoft Ignite 2023 행사와 OpenAI Sam Altman 쿠데타 사건에 이어서 생성형 AI 시장에서 Microsoft의 입지는 확실히 확고해지고 있습니다. 그동안 AI 인프라 구축에 NVIDIA같은 기업이 주목되었다면, 이제 본격적으로 서비스를 함에 있어서 AI Agent 모델인 Copilot 시리즈로, 우리 생활과 업무, 서버 관리와 클라우드시스템 모두를 코파일럿으로 도움받아 어마무시한 효율성을 이끌어 낼 것으로 보이는데요. 기업…
Forwarded from 선진짱 주식공부방
코스닥 년평균 mdd가 20프로에 가까운데 이런 장에서 풀레버리지는 그냥 자살하는거랑 같습니다. 지수가 20프로씩 빠지면 개별종목은 그냥 반토막 납니다
👍1
Forwarded from 재간둥이 송선생의 링크수집 창고
자산의 평가금액에 의미를 두기보다 탄탄하게 현금흐름의 규모를 키워가야 합니다.
https://m.blog.naver.com/philkhj/223275372733
https://m.blog.naver.com/philkhj/223275372733
NAVER
부자는 빨리 되는 방법이 없습니다.
출처는 송종식님의 텔레방입니다. 제가 항상 감사하면서 공부하고 있는 채널입니다. 오래전 부동산 급등기...
Forwarded from 주식 급등일보🚀급등테마·대장주 탐색기 (텔레그램)
Naver
생성형AI 기술 빅뱅 터진다… AWS 신기술 ‘우르르’
아마존웹서비스(AWS)의 연례 최대 클라우드 행사 '리인벤트(re:Invent) 2023' 개막이 눈앞으로 다가왔다. 주요 경영진들이 키노트(기조연설) 세션에 대거 참가해 신규 서비스 및 클라우드 시장의 비전에 대해
Forwarded from 엄브렐라리서치 Anakin의 투자노트
수요: HBM, DDR5, 온디바이스AI(DRAM컨텐츠 증가)까지 3개의 축
사실 온디바이스AI는 엄청난 혁신적인 기기이기보다는 새로운 set 수요 증가 시기를 맞이하여 교체수요를 자극하는 역할.
결국 온디바이스AI도 AI서버를 통한 LLM 개발 등이 우선적으로 선행되어야 하는 요소. 대규모 AI서버와 컴퓨팅 파워 구축 없이 단순히 엣지단에 AI 기능을 끼워넣는 방식의 온디바이스AI는 큰 의미를 갖기는 어려울 것.
다만 온디바이스AI 또한 더 많은 대역폭을 가진 DRAM 탑재를 요구하고, 업체들이 이번 set 교체 주기를 맞이하여 더 많은 메모리 탑재를 통해 set 수요를 자극하려하는 등 메모리 입장에서 긍정적인 요소 존재.
=> 필자 생각으로는 온디바이스AI의 가장 큰 수혜는 NPU/ASIC 같은 칩셋보다는 오히려 ‘메모리’ 그 자체일 것이라 판단
HBM은 27년까지 장기성장하는 cagr 70%에 육박하는 성장을 보여주는 섹터. 특히 매년 새제품이 등장하면서 ASP가 높아지고 더 많은 DRAM 탑재량 증가와 대역폭 확대, 이에 수반되는 어드밴스드 패키징 기술 발전이 지속적으로 시장 성장을 이끌 것.
이미 삼성/하이닉스는 24년 캐파 계획 설립과 수주 물량 확보를 완료한 상황. 25년 이후에 대한 기술 개발과 수요 확대에 대응할 계획. 상대적으로 마이크론은 국내 업체들에 비해 지나치게 적은 캐파로, 시장 점유율을 DRAM 시장만큼 가져가기 어려울 것.
=> HBM이라는 고대역폭 메모리의 압도적인 수요는 오히려 ’AI GPU 경쟁 심화‘라는 내년 핵심적인 변화 사이클에서 수혜를 계속 입는 구조. 1) 빅테크 업체들의 AI가속기 자체 개발에도 여전히 HBM 수요 이어지고 있으며, 2) 엔비디아 vs AMD의 경쟁구도에서 가장 수혜를 입는 부분도 결국 HBM이 되는 구조. 즉, 더 높은 AI 성능 개선을 위한 막대한 컴퓨팅 경쟁에서 HBM의 성능이 차지하는 역할이 점점 확대되는 구조
DDR5는 HBM과 맞물리는 AI서버용 128GB 서버 모듈 부분이 역시 수혜를 입는 구조. 또한 HBM만큼은 아니지만 일반 커머디티 메모리보다 ASP가 높기 때문에 메모리 공급사들에게 유리한 구조.
특히 서버용 D5는 올해 3분기부터 본격적인 물량 출하가 시작되며 이에 수혜받는 소켓 업체들 등의 실적 개선이 동반되고 있는 사이클. HBM과 함께 서버용 D5 또한 메모리 이익 개선에 중요한 축을 담당할 것.
사실 온디바이스AI는 엄청난 혁신적인 기기이기보다는 새로운 set 수요 증가 시기를 맞이하여 교체수요를 자극하는 역할.
결국 온디바이스AI도 AI서버를 통한 LLM 개발 등이 우선적으로 선행되어야 하는 요소. 대규모 AI서버와 컴퓨팅 파워 구축 없이 단순히 엣지단에 AI 기능을 끼워넣는 방식의 온디바이스AI는 큰 의미를 갖기는 어려울 것.
다만 온디바이스AI 또한 더 많은 대역폭을 가진 DRAM 탑재를 요구하고, 업체들이 이번 set 교체 주기를 맞이하여 더 많은 메모리 탑재를 통해 set 수요를 자극하려하는 등 메모리 입장에서 긍정적인 요소 존재.
=> 필자 생각으로는 온디바이스AI의 가장 큰 수혜는 NPU/ASIC 같은 칩셋보다는 오히려 ‘메모리’ 그 자체일 것이라 판단
HBM은 27년까지 장기성장하는 cagr 70%에 육박하는 성장을 보여주는 섹터. 특히 매년 새제품이 등장하면서 ASP가 높아지고 더 많은 DRAM 탑재량 증가와 대역폭 확대, 이에 수반되는 어드밴스드 패키징 기술 발전이 지속적으로 시장 성장을 이끌 것.
이미 삼성/하이닉스는 24년 캐파 계획 설립과 수주 물량 확보를 완료한 상황. 25년 이후에 대한 기술 개발과 수요 확대에 대응할 계획. 상대적으로 마이크론은 국내 업체들에 비해 지나치게 적은 캐파로, 시장 점유율을 DRAM 시장만큼 가져가기 어려울 것.
=> HBM이라는 고대역폭 메모리의 압도적인 수요는 오히려 ’AI GPU 경쟁 심화‘라는 내년 핵심적인 변화 사이클에서 수혜를 계속 입는 구조. 1) 빅테크 업체들의 AI가속기 자체 개발에도 여전히 HBM 수요 이어지고 있으며, 2) 엔비디아 vs AMD의 경쟁구도에서 가장 수혜를 입는 부분도 결국 HBM이 되는 구조. 즉, 더 높은 AI 성능 개선을 위한 막대한 컴퓨팅 경쟁에서 HBM의 성능이 차지하는 역할이 점점 확대되는 구조
DDR5는 HBM과 맞물리는 AI서버용 128GB 서버 모듈 부분이 역시 수혜를 입는 구조. 또한 HBM만큼은 아니지만 일반 커머디티 메모리보다 ASP가 높기 때문에 메모리 공급사들에게 유리한 구조.
특히 서버용 D5는 올해 3분기부터 본격적인 물량 출하가 시작되며 이에 수혜받는 소켓 업체들 등의 실적 개선이 동반되고 있는 사이클. HBM과 함께 서버용 D5 또한 메모리 이익 개선에 중요한 축을 담당할 것.
Forwarded from 스탁이지 - AI 투자 어시스턴트
NAVER
타고 나는 사람?
투자는 운칠기삼 ㅋㅋㅋ
참석 작가 가운데 가장 연장자인 '공포의 외인구단'의 이현세 작가는 "만화웹툰 AI 센터 설립이 필요할 것 같다"며 "신인이든 원로이든 최소한 자기 스타일의 그림을 가진 만화가에게 자신의 캐릭터를 AI 모델링할 수 있는 지원이나 AI가 가져오는 웹툰 창작의 변화에 대응할 수 있을 것"이라고 제안했다.
박정서 카카오웹툰 총괄 대표는 "AI를 활용한 창작에 대한 윤리 기준은 정부 부처에서 제안해줘야 거기에 맞춰 준비할 수 있다"며 "사회적 합의가 빨리 이뤄져 창작자들이 AI를 무서워하지 않는 환경이 될 수 있도록 해달라"고 요청했다.
유 장관은 연말에 발표 예정인 AI 저작권 가이드라인을 언급하며 "우리나라에서 AI 창작과 관련해 선제적으로 법적 테두리를 정리할 것이다. 관심을 갖고 대처하겠다"며 이들을 안심시켰다.
https://www.newsis.com/view/?id=NISX20231127_0002536892
박정서 카카오웹툰 총괄 대표는 "AI를 활용한 창작에 대한 윤리 기준은 정부 부처에서 제안해줘야 거기에 맞춰 준비할 수 있다"며 "사회적 합의가 빨리 이뤄져 창작자들이 AI를 무서워하지 않는 환경이 될 수 있도록 해달라"고 요청했다.
유 장관은 연말에 발표 예정인 AI 저작권 가이드라인을 언급하며 "우리나라에서 AI 창작과 관련해 선제적으로 법적 테두리를 정리할 것이다. 관심을 갖고 대처하겠다"며 이들을 안심시켰다.
https://www.newsis.com/view/?id=NISX20231127_0002536892
뉴시스
유인촌 장관 "만화 웹툰, 이제 국가가 나서서 진흥하겠다"
[서울=뉴시스]신재우 기자 = "이제 만화·웹툰 분야는 국가가 나서서 본격적인 진흥이 필요하지 않은가 생각합니다."유인촌 문화체육관광부 장관은 만화·웹툰 분야 관계자들과 만나 업계 지원을 "한국만화영상진흥원을 통해서가 아닌 직접 기구도 키우고 문체부 정책에 있어서 중요한 부분을 차지하게 정리를 했으면 좋겠다"는 의지를 내비쳤다.27일 서울 마포구 웹툰 제작..
👍1
Forwarded from YM리서치
주요 업체별 엔비디아향 HBM 관련 타임라인(트렌드포스)
1. HBM3
- 삼성전자 HBM3(24GB) 12월 내 퀄 완료
2. HBM3e
- 주요 업체별 샘플 제공 이력(24GB, 8hi 기준) : 마이크론 7월, 하이닉스 8월, 삼성전자 10월
→ 연말까지 일부업체가 예비 결과를 받아볼 수 있겠으나, 최종 결과는 1Q24 타겟
3. HBM4
- 12hi 기준 '26년 출시 예정이며, 16hi는 27년 예정(하이브리드본딩 수요↑)
- HBM4 로직다이는 12nm 공정 웨이퍼 파운드리 생산 예정
& 각 수요자 맞춤형으로 SoC 위에 직접 HBM을 쌓는 것과 같은 형태로 전개
4. 엔비디아와 AMD, 하이엔드 칩 일정
- 엔비디아 : '24년 포트폴리오에 6개의 HBM3e 칩을 사용하는 H200과 8개의 HBM3e 칩을 사용하는 B100이 추가될 예정 & Arm 기반 CPU+GPU 칩인 GH200, GB200 출시 예정
- AMD : MI300에는 HBM3 탑재 → MI350에는 HBM3e 탑재 예정
: MI350은 '24년 하반기 퀄 진행하여, 1Q25 양산
1. HBM3
- 삼성전자 HBM3(24GB) 12월 내 퀄 완료
2. HBM3e
- 주요 업체별 샘플 제공 이력(24GB, 8hi 기준) : 마이크론 7월, 하이닉스 8월, 삼성전자 10월
→ 연말까지 일부업체가 예비 결과를 받아볼 수 있겠으나, 최종 결과는 1Q24 타겟
3. HBM4
- 12hi 기준 '26년 출시 예정이며, 16hi는 27년 예정(하이브리드본딩 수요↑)
- HBM4 로직다이는 12nm 공정 웨이퍼 파운드리 생산 예정
& 각 수요자 맞춤형으로 SoC 위에 직접 HBM을 쌓는 것과 같은 형태로 전개
4. 엔비디아와 AMD, 하이엔드 칩 일정
- 엔비디아 : '24년 포트폴리오에 6개의 HBM3e 칩을 사용하는 H200과 8개의 HBM3e 칩을 사용하는 B100이 추가될 예정 & Arm 기반 CPU+GPU 칩인 GH200, GB200 출시 예정
- AMD : MI300에는 HBM3 탑재 → MI350에는 HBM3e 탑재 예정
: MI350은 '24년 하반기 퀄 진행하여, 1Q25 양산
❤1