Forwarded from Yeouido Lab_여의도 톺아보기
'HD현대 함정 동맹' 美 헌팅턴 잉걸스, 핵잠수함 '오커스 프로젝트' 파트너사 선정
https://theguru.co.kr/mobile/article.html?no=85782
https://theguru.co.kr/mobile/article.html?no=85782
theguru.co.kr
[더구루] 'HD현대 함정 동맹' 美 헌팅턴 잉걸스, 핵잠수함 '오커스 프로젝트' 파트너사 선정
[더구루=정예린 기자] 미국 최대 방산 조선소 '헌팅턴 잉걸스 인더스트리(HII, 이하 헌팅턴 잉글스)'가 호주 핵 잠수함 공급 사업을 위한 현지 파트너사 선정에 속도를 내고 있다. 미국·영국·호주 등 3국의 안보협의체 '오커스(AUKUS)'를 바탕으로 핵심 기술과 산업 협력을 본격화하는 모습이다. [유료기사코드] 11일 헌팅턴 잉글스에 따르면 회사는 지난
💯1
Forwarded from 한투증권 중국/신흥국 정정영
* 시진핑 주석, 동남아 3국 (베트남, 말레이시아, 캄보디아) 방문
• 4/14~4/15 베트남
• 4/15~4/18 말레이시아 & 캄보디아
>> 관세로 흔들리는 주변국 챙기러 갑니다
外交部发言人宣布,应越南共产党中央委员会总书记苏林、越南社会主义共和国主席梁强邀请,中共中央总书记、国家主席习近平将于4月14日至15日对越南进行国事访问。应马来西亚最高元首易卜拉欣、柬埔寨国王西哈莫尼邀请,国家主席习近平将于4月15日至18日对马来西亚、柬埔寨进行国事访问。
• 4/14~4/15 베트남
• 4/15~4/18 말레이시아 & 캄보디아
>> 관세로 흔들리는 주변국 챙기러 갑니다
外交部发言人宣布,应越南共产党中央委员会总书记苏林、越南社会主义共和国主席梁强邀请,中共中央总书记、国家主席习近平将于4月14日至15日对越南进行国事访问。应马来西亚最高元首易卜拉欣、柬埔寨国王西哈莫尼邀请,国家主席习近平将于4月15日至18日对马来西亚、柬埔寨进行国事访问。
Forwarded from AWAKE 플러스
📌 한미반도체(시가총액: 6조 7,533억)
📁 기업가치제고계획(자율공시)
2025.04.11 12:08:24 (현재가 : 69,200원, +5.32%)
1. 기업 개요
2. 현황진단
3. 목표 설정
1) 지속적인 성장
- 신제품 출시를 통한 매출 목표 수립
2025년 매출목표: 1.2조원
2026년 매출목표: 2조원
- 미국법인 설립을 통한
북미 AI 반도체 시장 교두보 확보
2) 주주
- 비과세 배당 준비
- 지속적인 자사주 매입 추진
- 자사주 매입 후 이익 소각 계획
3) 주주와의 소통
- 국내외 기관투자가 및 개인 주주 대상 IR활동 강화
4. 계획 수립
공시링크: https://dart.fss.or.kr/dsaf001/main.do?rcpNo=20250411800234
회사정보: https://finance.naver.com/item/main.nhn?code=042700
📁 기업가치제고계획(자율공시)
2025.04.11 12:08:24 (현재가 : 69,200원, +5.32%)
1. 기업 개요
2. 현황진단
3. 목표 설정
1) 지속적인 성장
- 신제품 출시를 통한 매출 목표 수립
2025년 매출목표: 1.2조원
2026년 매출목표: 2조원
- 미국법인 설립을 통한
북미 AI 반도체 시장 교두보 확보
2) 주주
- 비과세 배당 준비
- 지속적인 자사주 매입 추진
- 자사주 매입 후 이익 소각 계획
3) 주주와의 소통
- 국내외 기관투자가 및 개인 주주 대상 IR활동 강화
4. 계획 수립
공시링크: https://dart.fss.or.kr/dsaf001/main.do?rcpNo=20250411800234
회사정보: https://finance.naver.com/item/main.nhn?code=042700
💯2
Naver
[속보]문재인 前 사위도 '뇌물수수' 입건
👏17💯5 5🐳1
Forwarded from 한투증권 중국/신흥국 정정영
* 베트남은 미국이 관세를 기존 46%에서 22-28% 수준으로 낮추기를 희망
>> 저는 베트남이 어떤 카드를 주고받는지가 중요하다고 보는 편입니다
消息人士:越南希望将美国的关税从46%降低至22%-28%。
=========================
~ In hope of avoiding punishing U.S. tariffs, Vietnam is prepared to crack down on Chinese goods being shipped to the United States via its territory and will tighten controls on sensitive exports to China, according to a person familiar with the matter and a government document seen by Reuters
~ Export-reliant Vietnam is hoping to get the duties reduced to a range of 22% to 28%, if not lower, according to three people with knowledge of the matter
https://www.reuters.com/world/asia-pacific/facing-trump-tariffs-vietnam-eyes-crackdown-some-china-trade-2025-04-11/
>> 저는 베트남이 어떤 카드를 주고받는지가 중요하다고 보는 편입니다
消息人士:越南希望将美国的关税从46%降低至22%-28%。
=========================
~ In hope of avoiding punishing U.S. tariffs, Vietnam is prepared to crack down on Chinese goods being shipped to the United States via its territory and will tighten controls on sensitive exports to China, according to a person familiar with the matter and a government document seen by Reuters
~ Export-reliant Vietnam is hoping to get the duties reduced to a range of 22% to 28%, if not lower, according to three people with knowledge of the matter
https://www.reuters.com/world/asia-pacific/facing-trump-tariffs-vietnam-eyes-crackdown-some-china-trade-2025-04-11/
Reuters
Exclusive: Facing Trump tariffs, Vietnam eyes crackdown on some China trade
In hope of avoiding punishing U.S. tariffs, Vietnam is prepared to crack down on Chinese goods being shipped to the United States via its territory and will tighten controls on sensitive exports to China, according to a person familiar with the matter and…
Forwarded from 루팡
OpenAI - 샘 알트먼) GPT-4.5에 이르기까지의 여정
영상 핵심 요약: GPT-4.5 개발 회고와 스케일링
1. GPT-4.5 목표
GPT-4 대비 10배 더 똑똑한 모델을 목표로 설계.
결과적으로 사용자 반응이 기대 이상으로 긍정적.
미묘한 추론, 상식, 문맥 이해 등 "정량화하기 어려운 지능 향상"이 있음.
2. 훈련 규모와 시스템 한계
훈련 초기부터 수많은 버그와 시스템 병목이 발생.
기존에는 단일 클러스터에서 훈련 → 4.5는 멀티 클러스터 학습 도입.
10,000개 → 100,000개 GPU 스케일로 확장 시, "희귀한 오류가 치명적인 오류"로 변모.
실제로 PyTorch sum 함수 버그가 모델 성능에 큰 영향을 주었음.
3. 모델 훈련의 새로운 병목은 데이터
과거에는 계산 자원(GPU) 부족이 병목이었다면,
이제는 양질의 학습 데이터 부족이 새로운 한계.
데이터 효율성을 높이는 알고리즘적 혁신이 다음 핵심 과제가 됨.
4. 스케일링 법칙(Scaling Laws) 유효성 재확인
테스트 손실(test loss)이 소폭 줄어들면, 지능은 비선형적으로 향상됨.
이는 아직도 유효한 법칙이며, GPT-5나 그 이상도 "계속해서 더 좋아질 것"이라는 근거.
(투자자 관점 - 루팡)
1. GPU 수요는 끝나지 않았다
인터뷰에서 10만 개 GPU 훈련이 "힘들지만 가능했다"고 밝힘.
향후 100만~1,000만 GPU 규모의 AI 훈련도 불가피하다고 언급.
이는 곧 GPU 수요의 기하급수적 증가를 의미.
2. 단순한 스케일이 아닌 "멀티 클러스터+시스템 병목 해소"가 핵심
GPU 수량만 늘리는 것은 부족. 메모리 대역폭, 네트워크 인프라, 파워, 시스템 설계도 병목.
(NVIDIA는 이와 관련된 NVLink, InfiniBand, Grace CPU, DGX/GB200 Superchip 등 엔드-투-엔드 AI 시스템 제공.
NVIDIA는 단순한 칩 공급업체가 아니라 AI 클러스터 전체 생태계 주도 기업.)
3. 데이터 효율성의 시대가 오고 있음
알고리즘 혁신이 새로운 전환점.
그러나 알고리즘만으로는 한계, 결국 더 많은 고성능 GPU와 새로운 컴퓨팅 아키텍처 필요.
NVIDIA는 AI 모델의 구조 변화(예: sparse model, mixture of experts)에도 최적화된 하드웨어 설계 제공.
4. Scaling Law → AI 투자의 가장 강력한 신호
Scaling law가 계속 유효하다는 것은, 모델이 클수록 무조건 더 똑똑해진다는 것.
그러므로 모델은 계속 커질 수밖에 없고, 이는 계속해서 GPU를 더 많이 필요로 함.
투자 측면에서 이는 NVIDIA의 TAM(Total Addressable Market)이 계속 확장되고 있다는 뜻.
https://youtu.be/6nJZopACRuQ?si=_NaUsMvuUIPTYczE
영상 핵심 요약: GPT-4.5 개발 회고와 스케일링
1. GPT-4.5 목표
GPT-4 대비 10배 더 똑똑한 모델을 목표로 설계.
결과적으로 사용자 반응이 기대 이상으로 긍정적.
미묘한 추론, 상식, 문맥 이해 등 "정량화하기 어려운 지능 향상"이 있음.
2. 훈련 규모와 시스템 한계
훈련 초기부터 수많은 버그와 시스템 병목이 발생.
기존에는 단일 클러스터에서 훈련 → 4.5는 멀티 클러스터 학습 도입.
10,000개 → 100,000개 GPU 스케일로 확장 시, "희귀한 오류가 치명적인 오류"로 변모.
실제로 PyTorch sum 함수 버그가 모델 성능에 큰 영향을 주었음.
3. 모델 훈련의 새로운 병목은 데이터
과거에는 계산 자원(GPU) 부족이 병목이었다면,
이제는 양질의 학습 데이터 부족이 새로운 한계.
데이터 효율성을 높이는 알고리즘적 혁신이 다음 핵심 과제가 됨.
4. 스케일링 법칙(Scaling Laws) 유효성 재확인
테스트 손실(test loss)이 소폭 줄어들면, 지능은 비선형적으로 향상됨.
이는 아직도 유효한 법칙이며, GPT-5나 그 이상도 "계속해서 더 좋아질 것"이라는 근거.
(투자자 관점 - 루팡)
1. GPU 수요는 끝나지 않았다
인터뷰에서 10만 개 GPU 훈련이 "힘들지만 가능했다"고 밝힘.
향후 100만~1,000만 GPU 규모의 AI 훈련도 불가피하다고 언급.
이는 곧 GPU 수요의 기하급수적 증가를 의미.
2. 단순한 스케일이 아닌 "멀티 클러스터+시스템 병목 해소"가 핵심
GPU 수량만 늘리는 것은 부족. 메모리 대역폭, 네트워크 인프라, 파워, 시스템 설계도 병목.
(NVIDIA는 이와 관련된 NVLink, InfiniBand, Grace CPU, DGX/GB200 Superchip 등 엔드-투-엔드 AI 시스템 제공.
NVIDIA는 단순한 칩 공급업체가 아니라 AI 클러스터 전체 생태계 주도 기업.)
3. 데이터 효율성의 시대가 오고 있음
알고리즘 혁신이 새로운 전환점.
그러나 알고리즘만으로는 한계, 결국 더 많은 고성능 GPU와 새로운 컴퓨팅 아키텍처 필요.
NVIDIA는 AI 모델의 구조 변화(예: sparse model, mixture of experts)에도 최적화된 하드웨어 설계 제공.
4. Scaling Law → AI 투자의 가장 강력한 신호
Scaling law가 계속 유효하다는 것은, 모델이 클수록 무조건 더 똑똑해진다는 것.
그러므로 모델은 계속 커질 수밖에 없고, 이는 계속해서 GPU를 더 많이 필요로 함.
투자 측면에서 이는 NVIDIA의 TAM(Total Addressable Market)이 계속 확장되고 있다는 뜻.
https://youtu.be/6nJZopACRuQ?si=_NaUsMvuUIPTYczE
YouTube
Pre-Training GPT-4.5
Sam Altman sits down with Amin Tootoonchian, Alex Paino, and Daniel Selsam to discuss the journey to get to GPT-4.5.