인공지능(AI) 스타트업 '퍼플렉시티 AI'(이하 퍼플렉시티)가 틱톡과의 합병을 추진하면서 지분 절반을 미국 정부에 넘기는 안을 제시했다고 미 경제매체 CNBC가 26일(현지시간) 보도했다.
CNBC는 앞서 지난 18일 퍼플렉시티가 틱톡 모회사인 바이트댄스에 자사와 틱톡 미국 법인의 합병을 통해 새로운 법인을 설립하겠다는 제안서를 제출했다고 보도했는데, 이날 퍼플렉시티가 합병 제안서 수정안을 바이트댄스 측에 건넸다고 전했다.
이 수정안에는 향후 퍼플렉시티와 틱톡 미국 법인을 결합하는 새로운 법인을 설립해 기업공개(IPO)를 할 때 미국 정부가 새 법인의 지분을 최대 50% 소유하도록 허용하는 방안이 담겨 있다고 CNBC는 보도했다.
https://m.yna.co.kr/view/AKR20250127012200075
CNBC는 앞서 지난 18일 퍼플렉시티가 틱톡 모회사인 바이트댄스에 자사와 틱톡 미국 법인의 합병을 통해 새로운 법인을 설립하겠다는 제안서를 제출했다고 보도했는데, 이날 퍼플렉시티가 합병 제안서 수정안을 바이트댄스 측에 건넸다고 전했다.
이 수정안에는 향후 퍼플렉시티와 틱톡 미국 법인을 결합하는 새로운 법인을 설립해 기업공개(IPO)를 할 때 미국 정부가 새 법인의 지분을 최대 50% 소유하도록 허용하는 방안이 담겨 있다고 CNBC는 보도했다.
https://m.yna.co.kr/view/AKR20250127012200075
연합뉴스
"퍼플렉시티AI, 美 정부에 틱톡 지분 50% 넘기는 합병 제안" | 연합뉴스
(로스앤젤레스=연합뉴스) 임미나 특파원 = 미국에서 중국계 동영상 플랫폼 틱톡의 매각 논의가 진행 중인 가운데 인공지능(AI) 스타트업 '퍼플렉...
👍3✍1
Forwarded from [삼성 문준호의 반도체를 전하다]
[반.전] 중국 딥시크의 공포, 엔비디아 팔아야 하나요?
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
지난주 중국 AI 스타트업 딥시크가 공개한 모델이 주말 사이 큰 주목을 받으며, 반도체 주도로 나스닥 시장의 급락을 야기했습니다 (나스닥 -3%, SOX -9%, 엔비디아 -17%, 브로드컴 -17%)
미국의 수출 규제에도 불구, 더 적은 자원(=GPU)과 비용으로 미국에 버금가는 AI 모델 개발에 성공했기 때문입니다.
그리고 이에 따른 조정의 로직은,
1) 딥시크의 추론 모델 R1은 오픈AI o1과 유사하는 수준의 성능을 기록하면서도 가격은 95% 이상 저렴. 더구나 오픈 소스로 공개
2) 그러나 막대한 엔비디아 최신 GPU로 개발해 온 오픈AI와 달리, 이전부터 딥시크는 더 적은 리소스와 비용으로 개발 추진해온 것으로 알려짐
2-1) 이전 공개된 딥시크 V3 모델의 경우, 메타 Llama 대비 파라미터가 1.5배 크면서도, 훈련 비용은 1/10인 600만달러 미만 (그것도 저사양의 엔비디아 H800 사용)
3) 그렇다면 스케일링 법칙 (더 많은 하드웨어와 더 많은 훈련=성능 개선)이 무효한 것 아닐까?
4) 반도체를 비롯한 범 AI 인프라 수요를 다시 생각해봐야 하나?
물론 딥시크의 훈련 비용과 방법에 대해서는 논란이 있습니다. H100을 썼을 거라는 의심의 시각도 있고요.
다만 중요한 것은 잠시 하드웨어 수요를 떠나, 중국의 AI 기술이 미국과 맞먹는 것처럼 보여진다는 겁니다. 미국이 가장 견제하는 분야에서요.
미국의 스타게이트 프로젝트가 마침 지난 주 발표된 것도 우연이 아닐 지 모릅니다 (딥시크 R1 공개 이후 발표).
위와 같은 이유로의 시장 급락이 이해는 가지만, 오히려 중국의 빠른 추격을 고려하면 미국은 격차를 더 벌려야 하는 상황입니다.
그렇다면 오히려 투자를 더 늘려야 할 수도 있지 않을까요? 최적화 방안을 연구할 시간이 없습니다. 스케일링 법칙이 아직 유효하다면, 투자는 계속되어야 합니다.
저희가 지난 주 스타게이트 프로젝트 발표 이후, AI 인프라 사이클 기대감이 유효함을 말씀 드렸던 배경이기도 합니다.
갑자게 크게 훼손된 투자 심리가 한 번에 돌아서기는 어렵지만, 우선 이번주부터 예정된 클라우드 실적 발표를 살펴야 겠습니다.
투자자들은 이들의 CAPEX 코멘트 (투자 계획, 효율성 등)에 더욱 주목할 것입니다. 작년 여름 피크아웃 논란도 거셌지만, 결국 클라우드 업체들의 한 마디로 정리된 바 있습니다.
AI 투자를 견인하고 있는 클라우드의 의지가 꺾이기 전까진 사이클의 끝이 아닙니다.
감사합니다.
(2024/1/28 공표자료)
안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.
지난주 중국 AI 스타트업 딥시크가 공개한 모델이 주말 사이 큰 주목을 받으며, 반도체 주도로 나스닥 시장의 급락을 야기했습니다 (나스닥 -3%, SOX -9%, 엔비디아 -17%, 브로드컴 -17%)
미국의 수출 규제에도 불구, 더 적은 자원(=GPU)과 비용으로 미국에 버금가는 AI 모델 개발에 성공했기 때문입니다.
그리고 이에 따른 조정의 로직은,
1) 딥시크의 추론 모델 R1은 오픈AI o1과 유사하는 수준의 성능을 기록하면서도 가격은 95% 이상 저렴. 더구나 오픈 소스로 공개
2) 그러나 막대한 엔비디아 최신 GPU로 개발해 온 오픈AI와 달리, 이전부터 딥시크는 더 적은 리소스와 비용으로 개발 추진해온 것으로 알려짐
2-1) 이전 공개된 딥시크 V3 모델의 경우, 메타 Llama 대비 파라미터가 1.5배 크면서도, 훈련 비용은 1/10인 600만달러 미만 (그것도 저사양의 엔비디아 H800 사용)
3) 그렇다면 스케일링 법칙 (더 많은 하드웨어와 더 많은 훈련=성능 개선)이 무효한 것 아닐까?
4) 반도체를 비롯한 범 AI 인프라 수요를 다시 생각해봐야 하나?
물론 딥시크의 훈련 비용과 방법에 대해서는 논란이 있습니다. H100을 썼을 거라는 의심의 시각도 있고요.
다만 중요한 것은 잠시 하드웨어 수요를 떠나, 중국의 AI 기술이 미국과 맞먹는 것처럼 보여진다는 겁니다. 미국이 가장 견제하는 분야에서요.
미국의 스타게이트 프로젝트가 마침 지난 주 발표된 것도 우연이 아닐 지 모릅니다 (딥시크 R1 공개 이후 발표).
위와 같은 이유로의 시장 급락이 이해는 가지만, 오히려 중국의 빠른 추격을 고려하면 미국은 격차를 더 벌려야 하는 상황입니다.
그렇다면 오히려 투자를 더 늘려야 할 수도 있지 않을까요? 최적화 방안을 연구할 시간이 없습니다. 스케일링 법칙이 아직 유효하다면, 투자는 계속되어야 합니다.
저희가 지난 주 스타게이트 프로젝트 발표 이후, AI 인프라 사이클 기대감이 유효함을 말씀 드렸던 배경이기도 합니다.
갑자게 크게 훼손된 투자 심리가 한 번에 돌아서기는 어렵지만, 우선 이번주부터 예정된 클라우드 실적 발표를 살펴야 겠습니다.
투자자들은 이들의 CAPEX 코멘트 (투자 계획, 효율성 등)에 더욱 주목할 것입니다. 작년 여름 피크아웃 논란도 거셌지만, 결국 클라우드 업체들의 한 마디로 정리된 바 있습니다.
AI 투자를 견인하고 있는 클라우드의 의지가 꺾이기 전까진 사이클의 끝이 아닙니다.
감사합니다.
(2024/1/28 공표자료)
👍3
트럼프 曰 마이크로소프트는 틱톡 인수 협상 중. 입찰 경쟁이 일어나길 기대
https://www.usnews.com/news/technology/articles/2025-01-27/trump-says-microsoft-is-in-talks-to-acquire-tiktok
https://www.usnews.com/news/technology/articles/2025-01-27/trump-says-microsoft-is-in-talks-to-acquire-tiktok
US News & World Report
Trump Says Microsoft Is in Talks to Acquire TikTok
(Reuters) - U.S. President Donald Trump told reporters on Monday that Microsoft is in talks to acquire TikTok and that he would like to see a bidding war over the app.
👍2
오픈AI, 미 정부 전용 챗GPT Gov 출시
: 미 연방 정부 포함 공공 부문의 챗GPT 활용 지원. 보안 및 규정 준수 요구 사항을 충족하도록 설계. 챗GPT Enterprise와 동일한 기능 포함. MS Azure 상업용 또는 정부 클라우드 환경에서 배포 가능
https://openai.com/global-affairs/introducing-chatgpt-gov/
: 미 연방 정부 포함 공공 부문의 챗GPT 활용 지원. 보안 및 규정 준수 요구 사항을 충족하도록 설계. 챗GPT Enterprise와 동일한 기능 포함. MS Azure 상업용 또는 정부 클라우드 환경에서 배포 가능
https://openai.com/global-affairs/introducing-chatgpt-gov/
Openai
Introducing ChatGPT Gov
ChatGPT Gov is designed to streamline government agencies’ access to OpenAI’s frontier models.
❤2👍1
트럼프 행정부의 AI 및 암호화폐 차르(Czar) 데이비드 삭스는 딥시크가 오픈AI 모델에서 지식을 증류(distilled)한 상당한 증거가 있다고 주장
국가안보위(NSC)가 딥시크 앱의 영향을 검토 중이며, 미 해군은 잠재적 보안 및 윤리 우려를 이유로 사용을 금지
https://techcrunch.com/2025/01/28/david-sacks-claims-theres-substantial-evidence-that-deepseek-used-openais-models-to-train-its-own/
국가안보위(NSC)가 딥시크 앱의 영향을 검토 중이며, 미 해군은 잠재적 보안 및 윤리 우려를 이유로 사용을 금지
https://techcrunch.com/2025/01/28/david-sacks-claims-theres-substantial-evidence-that-deepseek-used-openais-models-to-train-its-own/
TechCrunch
David Sacks claims there's 'substantial evidence' that DeepSeek used OpenAI's models to train its own | TechCrunch
David Sacks said there's evidence that DeepSeek 'distilled' knowledge from OpenAI's models, a process that Sacks equated to theft.
👍2
블룸버그와 로이터 등은 28일(현지시간) 중국 딥시크가 오픈AI의 데이터를 훔쳐 새로운 모델을 개발했다는 증거가 있으며, 이에 따라 오픈AI가 방지 조치에 나섰다고 보도했다.
우선 블룸버그는 정통한 소식통을 인용, 지난해 가을 마이크로소프트(MS)의 보안 연구원들이 오픈AI의 API를 사용해 대량의 데이터를 빼내는 사례를 목격했다고 전했다. 이는 딥시크와 관련된 인물이 저지른 것으로, MS는 이를 오픈AI에 통보했다고 알렸다. 이는 오픈AI의 서비스 약관을 위반하는 사례다.
이어 트럼프 행정부의 인공지능 정책을 담당하는 'AI 차르' 데이비드 색스는 이날 폭스 뉴스와의 인터뷰를 통해 "딥시크가 오픈AI 모델을 활용해 기술을 개발했다는 상당한 증거가 있다"라고 밝혔다
오픈AI의 모델로 합성 데이터를 만드는 스타트업들이 많다는 것은 이미 지난 2023년부터 널리 알려진 사실로, 샘 알트먼 오픈AI CEO도 이를 인지하고 있지만 강제로 막을지는 고민하겠다고 밝힌 바 있다.
특히 일부 AI 전문가들은 지난해 말 딥시크가 출시한 'V3' 모델이 답변 중 "나는 오픈AI의 GPT-4"라고 주장하는 모습을 X(트위터)를 통해 공개한 바 있다. V3가 오픈AI 모델로 만든 합성 데이터를 학습한 증거라는 주장이다.
오픈AI도 이런 점을 파악하기 위한 자체 조사에 나선 것으로 일려졌다. 알트먼 CEO는 전날 X를 통해 딥시크를 "인상적인 도전자"나 "상쾌한 도전"이라고 가볍게 받아 쳤지만, 사실은 이를 심각하게 생각하고 있다는 것이다.
결국 오픈AI는 이날 성명을 통해 "AI의 선도적 구축자로서 우리는 IP를 보호하기 위한 대책을 실행하고 있으며, 출시된 모델에 포함할 최첨단 역량에 대한 신중한 프로세스를 포함하고 있다"라고 발표했다.
이어 "앞으로 미국 정부와 긴밀히 협력, 적대자와 경쟁자가 미국 기술을 빼앗으려는 시도로부터 가장 유능한 모델을 보호하는 것이 매우 중요하다고 믿는다"라고 밝혔다.
https://www.aitimes.com/news/articleView.html?idxno=167533
우선 블룸버그는 정통한 소식통을 인용, 지난해 가을 마이크로소프트(MS)의 보안 연구원들이 오픈AI의 API를 사용해 대량의 데이터를 빼내는 사례를 목격했다고 전했다. 이는 딥시크와 관련된 인물이 저지른 것으로, MS는 이를 오픈AI에 통보했다고 알렸다. 이는 오픈AI의 서비스 약관을 위반하는 사례다.
이어 트럼프 행정부의 인공지능 정책을 담당하는 'AI 차르' 데이비드 색스는 이날 폭스 뉴스와의 인터뷰를 통해 "딥시크가 오픈AI 모델을 활용해 기술을 개발했다는 상당한 증거가 있다"라고 밝혔다
오픈AI의 모델로 합성 데이터를 만드는 스타트업들이 많다는 것은 이미 지난 2023년부터 널리 알려진 사실로, 샘 알트먼 오픈AI CEO도 이를 인지하고 있지만 강제로 막을지는 고민하겠다고 밝힌 바 있다.
특히 일부 AI 전문가들은 지난해 말 딥시크가 출시한 'V3' 모델이 답변 중 "나는 오픈AI의 GPT-4"라고 주장하는 모습을 X(트위터)를 통해 공개한 바 있다. V3가 오픈AI 모델로 만든 합성 데이터를 학습한 증거라는 주장이다.
오픈AI도 이런 점을 파악하기 위한 자체 조사에 나선 것으로 일려졌다. 알트먼 CEO는 전날 X를 통해 딥시크를 "인상적인 도전자"나 "상쾌한 도전"이라고 가볍게 받아 쳤지만, 사실은 이를 심각하게 생각하고 있다는 것이다.
결국 오픈AI는 이날 성명을 통해 "AI의 선도적 구축자로서 우리는 IP를 보호하기 위한 대책을 실행하고 있으며, 출시된 모델에 포함할 최첨단 역량에 대한 신중한 프로세스를 포함하고 있다"라고 발표했다.
이어 "앞으로 미국 정부와 긴밀히 협력, 적대자와 경쟁자가 미국 기술을 빼앗으려는 시도로부터 가장 유능한 모델을 보호하는 것이 매우 중요하다고 믿는다"라고 밝혔다.
https://www.aitimes.com/news/articleView.html?idxno=167533
❤1👍1
딜런 파텔(Dylan Patel), 딥시크가 GPU에 5억 달러 이상 지출했다고 추정
https://www.ft.com/content/ee83c24c-9099-42a4-85c9-165e7af35105
+) 딥시크의 H100 5만 장 보유 설에 대해 Hopper GPU 5만 장(H20, H800 + H100 일부) 언급이 와전되었다는 X 코멘트
Dylan Patel of chip consultancy SemiAnalysis has estimated that DeepSeek and its sister company, the hedge fund High-Flyer, have access to tens of thousands of Nvidia GPUs, which were used to train R1’s predecessors
“DeepSeek has spent well over $500mn on GPUs over the history of the company,” Patel said. “While their training run was very efficient, it required significant experimentation and testing to work.”
https://www.ft.com/content/ee83c24c-9099-42a4-85c9-165e7af35105
+) 딥시크의 H100 5만 장 보유 설에 대해 Hopper GPU 5만 장(H20, H800 + H100 일부) 언급이 와전되었다는 X 코멘트
👍4❤1🤔1
디 인포메이션은 28일(현지시간) 오픈AI 임원진이 최근 일부 주주에게 챗GPT 프로의 구독 수익이 기존 기업용 서비스인 월 20달러짜리 '챗GPT 엔터프라이즈'의 수익을 넘었다고 말한 사실을 보도했다.
정확한 수치는 알려지지 않았다. 그러나 오픈AI 리더들의 발언에 따르면 챗GPT 프로의 현재 월 수익은 최소 2,500만달러로, 이를 12개월로 곱한 연간반복매출(ARR)은 최소 3억달러에 달하는 것으로 알려졌다.
이는 가장 최근 알려진 챗GPT 엔터프라이즈의 지난 9월 수익이 2,500만달러라는데 따른 추정치다. 따라서 이번 발언이 등장한 1월 현재 챗GPT 엔터프라이즈 수익은 더 늘어났을 가능성이 크며, 챗GPT 프로의 수익이 2,500만달러라는 것은 아주 보수적인 계산이라는 설명이다.
https://www.aitimes.com/news/articleView.html?idxno=167541
정확한 수치는 알려지지 않았다. 그러나 오픈AI 리더들의 발언에 따르면 챗GPT 프로의 현재 월 수익은 최소 2,500만달러로, 이를 12개월로 곱한 연간반복매출(ARR)은 최소 3억달러에 달하는 것으로 알려졌다.
이는 가장 최근 알려진 챗GPT 엔터프라이즈의 지난 9월 수익이 2,500만달러라는데 따른 추정치다. 따라서 이번 발언이 등장한 1월 현재 챗GPT 엔터프라이즈 수익은 더 늘어났을 가능성이 크며, 챗GPT 프로의 수익이 2,500만달러라는 것은 아주 보수적인 계산이라는 설명이다.
https://www.aitimes.com/news/articleView.html?idxno=167541
AI타임스
오픈AI, 월 200달러 요금제 대박...8주 만에 '챗GPT 엔터프라이즈' 수익 초과
오픈AI가 지난달 5일 출시한 월 200달러짜리 \'챗GPT 프로\' 요금제가 대박을 터뜨린 것으로 알려졌다. 이 요금제는 \'o1-프로\'를 사용할 수 있는 유일한 방법이다.디 인포메이션은 28일(현지시간) 오픈AI 임원...
👍4❤1🤔1
[삼성 이영진] 마이크로소프트(MSFT) F2Q25 실적 요약
■ F2Q25 실적
: 매출 696.3억 달러(+12%)
vs 컨센 688.7억 달러
: EPS 3.23
vs 컨센 $3.10
: PBP 294.4억 달러(+14%, +13% CC)
vs 컨센 288.9억 달러, 가이던스 287-290억 달러
: IC 255.4억 달러(+19%, +19% CC)
vs 컨센 258.3억 달러, 가이던스 255.5-258.5억 달러
: MPC 146.5억 달러(+0%, +0% CC)
vs 컨센 142.9억 달러, 가이던스 138.5-142.5억 달러
: Azure 성장 +31%
vs 컨센 +30.8%
: Azure 성장(CC 기준) +31%
vs 컨센 32%, 가이던스 31~32%
: Azure 내 AI 기여도 13%p
: Azure 성장 추이(CC 기준)
30% → 31% → 35% → 35% → 34% → 31%
: CAPEX 158억 달러(금융 리스 자산 제외)
vs 컨센 154.8억 달러
: CAPEX 추이(리스 제외)
99.2 → 97.4 → 109.5 → 138.7 → 149.2 → 158억 달러
: CAPEX 226억 달러(리스 포함)
: CAPEX 추이(리스 포함)
112 → 115 → 140 → 190 → 200억 → 226억 달러
: AI 사업은 연 매출 run rate 130억 달러 규모 +175% YoY
■ 가이던스는 어닝콜에서 발표(F3Q25 컨센)
: 매출 698.1억 달러
: PBP 299.3억 달러
: IC 269억 달러
: MPC 130억 달러
: Azure 성장(CC 기준) +33.4%
https://view.officeapps.live.com/op/view.aspx?src=https://microsoft.com/en-us/investor/earnings/FY-2025-Q2/Document/DownloadDocument/SlidesFY25Q2.pptx
감사합니다.
■ F2Q25 실적
: 매출 696.3억 달러(+12%)
vs 컨센 688.7억 달러
: EPS 3.23
vs 컨센 $3.10
: PBP 294.4억 달러(+14%, +13% CC)
vs 컨센 288.9억 달러, 가이던스 287-290억 달러
: IC 255.4억 달러(+19%, +19% CC)
vs 컨센 258.3억 달러, 가이던스 255.5-258.5억 달러
: MPC 146.5억 달러(+0%, +0% CC)
vs 컨센 142.9억 달러, 가이던스 138.5-142.5억 달러
: Azure 성장 +31%
vs 컨센 +30.8%
: Azure 성장(CC 기준) +31%
vs 컨센 32%, 가이던스 31~32%
: Azure 내 AI 기여도 13%p
: Azure 성장 추이(CC 기준)
30% → 31% → 35% → 35% → 34% → 31%
: CAPEX 158억 달러(금융 리스 자산 제외)
vs 컨센 154.8억 달러
: CAPEX 추이(리스 제외)
99.2 → 97.4 → 109.5 → 138.7 → 149.2 → 158억 달러
: CAPEX 226억 달러(리스 포함)
: CAPEX 추이(리스 포함)
112 → 115 → 140 → 190 → 200억 → 226억 달러
: AI 사업은 연 매출 run rate 130억 달러 규모 +175% YoY
■ 가이던스는 어닝콜에서 발표(F3Q25 컨센)
: 매출 698.1억 달러
: PBP 299.3억 달러
: IC 269억 달러
: MPC 130억 달러
: Azure 성장(CC 기준) +33.4%
https://view.officeapps.live.com/op/view.aspx?src=https://microsoft.com/en-us/investor/earnings/FY-2025-Q2/Document/DownloadDocument/SlidesFY25Q2.pptx
감사합니다.
👍4
[삼성 이영진] 메타 플랫폼스(META) 4Q24 실적 요약
■ 4Q24 실적
: 매출 483.9억 달러(+21%)
vs 컨센 470억 달러, 가이던스 450~480억 달러
: EPS(GAAP) $8.02
vs 컨센 $6.76
: CAPEX 148.4억 달러
vs 컨센 152.5억 달러
■ 1Q25 및 FY25 가이던스
: 1Q25 매출 395-418억 달러 vs 컨센 417억 달러
: FY25 비용 114-119억 달러
: FY25 CAPEX 600-650억 달러(주커버그 코멘트와 동일) vs 컨센 526억 달러
https://s21.q4cdn.com/399680738/files/doc_news/Meta-Reports-Fourth-Quarter-and-Full-Year-2024-Results-2025.pdf
감사합니다.
■ 4Q24 실적
: 매출 483.9억 달러(+21%)
vs 컨센 470억 달러, 가이던스 450~480억 달러
: EPS(GAAP) $8.02
vs 컨센 $6.76
: CAPEX 148.4억 달러
vs 컨센 152.5억 달러
■ 1Q25 및 FY25 가이던스
: 1Q25 매출 395-418억 달러 vs 컨센 417억 달러
: FY25 비용 114-119억 달러
: FY25 CAPEX 600-650억 달러(주커버그 코멘트와 동일) vs 컨센 526억 달러
https://s21.q4cdn.com/399680738/files/doc_news/Meta-Reports-Fourth-Quarter-and-Full-Year-2024-Results-2025.pdf
감사합니다.
👍1
[삼성 이영진] 글로벌 AI/SW
[삼성 이영진] 마이크로소프트(MSFT) F2Q25 실적 요약 ■ F2Q25 실적 : 매출 696.3억 달러(+12%) vs 컨센 688.7억 달러 : EPS 3.23 vs 컨센 $3.10 : PBP 294.4억 달러(+14%, +13% CC) vs 컨센 288.9억 달러, 가이던스 287-290억 달러 : IC 255.4억 달러(+19%, +19% CC) vs 컨센 258.3억 달러, 가이던스 255.5-258.5억 달러 : MPC 146.5억…
마이크로소프트 F3Q25 가이던스
: PBP 294-297억 달러 vs 컨센 299.3억 달러
: IC 259-262억 달러 vs 컨센 269억 달러
: MPC 124-128억 달러 vs 컨센 130억 달러
: Azure 성장(CC 기준) +31-32% vs 컨센 +33.4%
https://view.officeapps.live.com/op/view.aspx?src=https://microsoft.com/en-us/investor/earnings/FY-2025-Q2/Document/DownloadDocument/57/OutlookFY25Q2.pptx
감사합니다.
: PBP 294-297억 달러 vs 컨센 299.3억 달러
: IC 259-262억 달러 vs 컨센 269억 달러
: MPC 124-128억 달러 vs 컨센 130억 달러
: Azure 성장(CC 기준) +31-32% vs 컨센 +33.4%
https://view.officeapps.live.com/op/view.aspx?src=https://microsoft.com/en-us/investor/earnings/FY-2025-Q2/Document/DownloadDocument/57/OutlookFY25Q2.pptx
감사합니다.
👍3
마이크로소프트, Azure AI Foundry에 딥시크 R1 모델 추가. 엄격한 안정성 평가와 보안 검토 진행
https://techcrunch.com/2025/01/29/microsoft-brings-a-deepseek-model-to-its-cloud/
https://techcrunch.com/2025/01/29/microsoft-brings-a-deepseek-model-to-its-cloud/
TechCrunch
Microsoft brings a DeepSeek model to its cloud | TechCrunch
Microsoft has brought one of DeepSeek's models to its cloud, and says that 'distilled' versions of the model will come to Copilot+ PCs soon.
👍1
메타 4Q24 어닝콜 주요 코멘트 - 1
■ Llama 4 관련
올해 Llama와 오픈 소스 AI 모델들이 가장 발전되고 널리 사용되는 해가 될 것이라고 생각합니다. Llama 4는 학습에서 큰 진전을 이루고 있으며, Llama 4 Mini는 사전 학습이 잘 진행되었고, 추론 모델과 큰 모델들도 좋은 성과를 보여주고 있습니다.
Llama 4는 멀티모달 모델이 될 것입니다. 이것은 옴니 모델로, 에이전틱 기능을 갖추게 될 것입니다. 따라서 매우 혁신적일 것이며, 많은 새로운 사용 사례를 열어줄 것입니다. 저는 올해 계획에 대해 앞으로 몇 달 안에 더 많은 정보를 공유할 수 있기를 기대하고 있습니다.
■ 에이전트 관련
저는 2025년이 코딩과 문제 해결 능력이 뛰어난 중급 엔지니어 수준의 AI 엔지니어링 에이전트를 구축할 수 있는 해가 될 것이라고 기대하고 있습니다. 매우 중요한 이정표가 될 것이며, 역사상 가장 중요한 혁신 중 하나로 자리잡을 가능성이 있습니다. 시간이 지나면서, 매우 큰 시장으로 성장할 가능성도 있습니다. 이 기술을 처음으로 구축하는 회사는 AI 연구를 발전시키고 이 분야를 선도하는 데 의미 있는 이점을 가질 것이라고 생각합니다. 올해가 미래를 위한 방향을 설정하는 해가 될 것이라고 믿는 또 다른 이유입니다.
물론 이 기술이 곧 외부 제품으로 출시될 것 같지는 않습니다. 우리의 목표는 AI 연구를 진전시키고 내부적으로 우리의 개발을 발전시키는 것입니다. 이 기술은 매우 중요한 영향을 미칠 것이라고 생각합니다. 시간이 지나면서 우리의 제품을 더 나아지게 만드는 데 기여할 것이라고 봅니다.
■ 인프라 관련
지난주에, 올해 약 1GW의 케파를 가동할 것으로 예상한다고 발표했습니다. 그리고 우리는 2GW, 또는 그보다 큰 AI 데이터센터를 구축하고 있습니다. 이 데이터센터는 너무 커서 맨해튼의 상당 부분을 차지할 정도의 규모가 될 것입니다. 우리는 데이터센터 구축을 진행하면서 동시에 AI 발전을 활용해 매출 성장을 가속화하는 여러 이니셔티브에 공격적으로 투자함으로써 자금을 조달할 계획입니다. 이러한 계획을 통해 앞으로 몇 년 동안 이니셔티브의 가속화를 기대하고 있습니다.
■ Llama 4 관련
I think this will very well be the year when Llama and open source become the most advanced and widely used AI models as well. Llama 4 is making great progress in training, Llama 4 Mini is done with pre-training and our reasoning models and larger model are looking good too.
올해 Llama와 오픈 소스 AI 모델들이 가장 발전되고 널리 사용되는 해가 될 것이라고 생각합니다. Llama 4는 학습에서 큰 진전을 이루고 있으며, Llama 4 Mini는 사전 학습이 잘 진행되었고, 추론 모델과 큰 모델들도 좋은 성과를 보여주고 있습니다.
Llama 4 will be natively multimodal. It's an omni model, and it will have agenetic capabilities. So it's going to be novel, and it's going to unlock a lot of new use cases, and I'm looking forward to sharing more of our plan for the year on that over the next couple of months.
Llama 4는 멀티모달 모델이 될 것입니다. 이것은 옴니 모델로, 에이전틱 기능을 갖추게 될 것입니다. 따라서 매우 혁신적일 것이며, 많은 새로운 사용 사례를 열어줄 것입니다. 저는 올해 계획에 대해 앞으로 몇 달 안에 더 많은 정보를 공유할 수 있기를 기대하고 있습니다.
■ 에이전트 관련
I also expect that 2025 will be the year when it becomes possible to build an AI engineering agent that has coding and problem-solving abilities of around a good mid-level engineer. And this is going to be a profound milestone and potentially one of the most important innovations in history, like as well as over time, potentially a very large market, whichever company builds this first, I think it's going to have a meaningful advantage in deploying it to advance their AI research and shape the field. So that's another reason why I think that this year is going to set the course for the future.
저는 2025년이 코딩과 문제 해결 능력이 뛰어난 중급 엔지니어 수준의 AI 엔지니어링 에이전트를 구축할 수 있는 해가 될 것이라고 기대하고 있습니다. 매우 중요한 이정표가 될 것이며, 역사상 가장 중요한 혁신 중 하나로 자리잡을 가능성이 있습니다. 시간이 지나면서, 매우 큰 시장으로 성장할 가능성도 있습니다. 이 기술을 처음으로 구축하는 회사는 AI 연구를 발전시키고 이 분야를 선도하는 데 의미 있는 이점을 가질 것이라고 생각합니다. 올해가 미래를 위한 방향을 설정하는 해가 될 것이라고 믿는 또 다른 이유입니다.
I don't know that that's going to be an external product anytime soon. But I think for what we're working on, our goal is to advance AI research and advance our own development internally. And I think it's just going to be a very profound thing. So I mean that's something that I think will show up through making our products better over time.
물론 이 기술이 곧 외부 제품으로 출시될 것 같지는 않습니다. 우리의 목표는 AI 연구를 진전시키고 내부적으로 우리의 개발을 발전시키는 것입니다. 이 기술은 매우 중요한 영향을 미칠 것이라고 생각합니다. 시간이 지나면서 우리의 제품을 더 나아지게 만드는 데 기여할 것이라고 봅니다.
■ 인프라 관련
I announced last week that we expect to bring online almost a 1 gigawatt of capacity this year. And we're building a 2 gigawatt and potentially bigger AI data center that is so big that it will cover a significant part of Manhattan if we were placed there. We're planning to fund all this by, at the same time, investing aggressively in initiatives that use these AI advances to increase revenue growth. So we've put together a plan that will hopefully accelerate the pace of these initiatives over the next few years.
지난주에, 올해 약 1GW의 케파를 가동할 것으로 예상한다고 발표했습니다. 그리고 우리는 2GW, 또는 그보다 큰 AI 데이터센터를 구축하고 있습니다. 이 데이터센터는 너무 커서 맨해튼의 상당 부분을 차지할 정도의 규모가 될 것입니다. 우리는 데이터센터 구축을 진행하면서 동시에 AI 발전을 활용해 매출 성장을 가속화하는 여러 이니셔티브에 공격적으로 투자함으로써 자금을 조달할 계획입니다. 이러한 계획을 통해 앞으로 몇 년 동안 이니셔티브의 가속화를 기대하고 있습니다.
👍4
메타 4Q24 어닝콜 주요 코멘트 - 2
■ 딥시크 관련
DeepSeek 질문에 대해 먼저 말씀드리겠습니다. 그들이 실행한 몇 가지 혁신적인 요소가 있다고 생각하며, 이를 분석하고 있는 중입니다. 일부는 우리가 시스템에 구현하려고 하는 부분도 있습니다. 이는 기술 분야의 특성 중 하나입니다. 그것이 중국 경쟁사이든 아니든, 새로운 회사가 출범하면서 혁신을 가져오면, 업계의 나머지 사람들이 그로부터 배우는 것은 기술 산업에서 흔히 있는 일입니다.
구체적으로 현 상황이 인프라와 CapEx 등에 어떤 영향을 미칠지에 대해서는 아직 판단하기 이르다고 생각합니다. 여러 트렌드가 동시에 진행되고 있기 때문입니다. 이미 컴퓨팅 인프라를 어떻게 사용할지에 대한 논의가 존재하고 있습니다. 우리가 사용하는 컴퓨팅 인프라 중 얼마나 많은 부분이 pre-training에 사용될지, 아니면 reasoning 시간이 많이 필요한 모델이나 추론 모델에 사용될지에 대한 것입니다. 추론에 더 많은 컴퓨팅 자원을 투입하면 높은 수준의 지능과 나은 품질의 서비스를 제공할 수 있죠. 이런 변화는 기존 인프라를 적용하는 방식에도 영향을 미칠 수 있습니다.
또 다른 요점은 우리가 Meta AI 같은 것을 구축하는 방식뿐만 아니라, AI를 피드, 광고 상품 등에 통합하는 방식에서도 차이가 있다는 것입니다. 우리는 수십억 명의 사람들에게 서비스를 제공하고 있으며, 이는 단순히 모델을 pre-train하는 것과는 다릅니다. 사전 학습 모델은 사용자 수에 대한 고려가 없지만, 우리의 경우는 수많은 사용자에게 서비스를 제공하는 데 따른 비용이 상당히 크기 때문입니다. 따라서 이 모든 것이 어떤 순효과를 가져올지는 아직 확실하지 않습니다.
CapEx와 인프라에 대한 대규모 투자가 시간이 지남에 따라 전략적 이점이 될 것이라고 계속 생각합니다. 언젠가는 그렇지 않을 수도 있다고 배울 가능성도 있지만, 현재로서는 이를 판단하기엔 훨씬 이른 시점이라고 봅니다. 현 시점에서 보자면, 이런 인프라를 구축할 수 있는 능력은 서비스 품질과 우리가 목표로 하는 규모로 서비스를 제공하는 역량에서 큰 이점이 될 가능성이 높다고 생각합니다.
■ 딥시크 관련
I can start on the DeepSeek question. I think there's a number of novel things that they did that I think we're still digesting. And there are a number of things that they have advances that we will hope to implement in our systems. And that's part of the nature of how this works, whether it's a Chinese competitor or not. I kind of expect that every new company that has an advance -- that has a launch is going to have some new advances that the rest of the field learns from. And that's sort of how the technology industry goes.
DeepSeek 질문에 대해 먼저 말씀드리겠습니다. 그들이 실행한 몇 가지 혁신적인 요소가 있다고 생각하며, 이를 분석하고 있는 중입니다. 일부는 우리가 시스템에 구현하려고 하는 부분도 있습니다. 이는 기술 분야의 특성 중 하나입니다. 그것이 중국 경쟁사이든 아니든, 새로운 회사가 출범하면서 혁신을 가져오면, 업계의 나머지 사람들이 그로부터 배우는 것은 기술 산업에서 흔히 있는 일입니다.
I don't know -- it's probably too early to really have a strong opinion on what this means for the trajectory around infrastructure and CapEx and things like that. There are a bunch of trends that that are happening here all at once. There's already sort of a debate around how much of the compute infrastructure that we're using is going to go towards pre-training versus as you get more of these reasoning time models or reasoning models where you get more of the intelligence by putting more of the compute into inference, whether just will mix shift how we use our compute infrastructure towards that.
구체적으로 현 상황이 인프라와 CapEx 등에 어떤 영향을 미칠지에 대해서는 아직 판단하기 이르다고 생각합니다. 여러 트렌드가 동시에 진행되고 있기 때문입니다. 이미 컴퓨팅 인프라를 어떻게 사용할지에 대한 논의가 존재하고 있습니다. 우리가 사용하는 컴퓨팅 인프라 중 얼마나 많은 부분이 pre-training에 사용될지, 아니면 reasoning 시간이 많이 필요한 모델이나 추론 모델에 사용될지에 대한 것입니다. 추론에 더 많은 컴퓨팅 자원을 투입하면 높은 수준의 지능과 나은 품질의 서비스를 제공할 수 있죠. 이런 변화는 기존 인프라를 적용하는 방식에도 영향을 미칠 수 있습니다.
The other thing is just that when we're building things like Meta AI, but also how we're implementing AI into all the feeds and ad products and things like that, we're just serving billions of people, which is different from, okay, you start to pre-train a model, and that model is sort of agnostic to how many people are using it, like at some level, it's going to be expensive for us to serve all of these people because we are serving a lot of people. And so I'm not sure what the kind of net effect of all of this is.
또 다른 요점은 우리가 Meta AI 같은 것을 구축하는 방식뿐만 아니라, AI를 피드, 광고 상품 등에 통합하는 방식에서도 차이가 있다는 것입니다. 우리는 수십억 명의 사람들에게 서비스를 제공하고 있으며, 이는 단순히 모델을 pre-train하는 것과는 다릅니다. 사전 학습 모델은 사용자 수에 대한 고려가 없지만, 우리의 경우는 수많은 사용자에게 서비스를 제공하는 데 따른 비용이 상당히 크기 때문입니다. 따라서 이 모든 것이 어떤 순효과를 가져올지는 아직 확실하지 않습니다.
And I continue to think that investing very heavily in CapEx and infra is going to be a strategic advantage over time. It's possible that we'll learn otherwise at some point, but I just think it's way too early to call that. And at this point, I would bet that the ability to build out that kind of infrastructure is going to be a major advantage for both the quality of the service and being able to serve the scale that we want to.
CapEx와 인프라에 대한 대규모 투자가 시간이 지남에 따라 전략적 이점이 될 것이라고 계속 생각합니다. 언젠가는 그렇지 않을 수도 있다고 배울 가능성도 있지만, 현재로서는 이를 판단하기엔 훨씬 이른 시점이라고 봅니다. 현 시점에서 보자면, 이런 인프라를 구축할 수 있는 능력은 서비스 품질과 우리가 목표로 하는 규모로 서비스를 제공하는 역량에서 큰 이점이 될 가능성이 높다고 생각합니다.
👍5❤1
소프트뱅크, 오픈AI에 최대 250억 달러 투자 방안 논의 보도
: 스타게이트 프로젝트와 별개로 오픈AI에 150~250억 달러 직접 투자 계획
: 마이크로소프트(130억 달러 투자)보다 높은 수준으로 최대 단일 투자자 등극 가능성
https://techcrunch.com/2025/01/29/softbank-in-talks-to-invest-as-much-as-25b-in-openai-report-says/
: 스타게이트 프로젝트와 별개로 오픈AI에 150~250억 달러 직접 투자 계획
: 마이크로소프트(130억 달러 투자)보다 높은 수준으로 최대 단일 투자자 등극 가능성
https://techcrunch.com/2025/01/29/softbank-in-talks-to-invest-as-much-as-25b-in-openai-report-says/
TechCrunch
OpenAI eyes $25 billion investment from SoftBank amid DeepSeek shock | TechCrunch
SoftBank is in talks to invest up to $25 billion in OpenAI as part of a broader partnership that could see the Japanese conglomerate spend more than $40 OpenAI is in talks to raise up to $25 billion from SoftBank amid DeepSeek shock.
👍1
다리오 아모데이, DeepSeek 기술 발전과 미국의 대중국 반도체 수출 통제 정책 관련 블로그
■ DeepSeek의 성과와 기술적 맥락
: V3: 혁신적 엔지니어링 효율성(Key-Value 캐시 관리 및 MoE 방식 개선)을 통해 비용 절감
: R1: R1은 강화 학습을 추가해 추론 능력을 강화했지만, 기술적 혁신보다는 기존 기술의 확장에 가까움
: 비용 효율성의 과대평가: DeepSeek의 성과는 인상적이지만, 비용 절감 비율이 기존 AI 발전 추세에서 크게 벗어나지 않으며, 미국 AI 기업들이 곧 이를 따라잡을 것 전망
■ AI 발전의 세 가지 동력
1. 스케일링 법칙(Scaling Laws): 더 많은 자원을 투입하면 AI 모델의 성능이 점진적으로 향상
2. 곡선 이동(Shifting the Curve): 알고리즘 및 하드웨어 개선으로 비용 효율성이 증가하지만, 더 큰 모델 개발로 이어져 총비용은 증가
3. 패러다임 전환(Shifting the Paradigm): 최근 강화 학습을 활용한 새로운 훈련 단계가 도입되며, 초기 투자 대비 큰 성과를 내고 있음
■ 수출 통제의 중요성
: 미국의 기술 우위 유지: 수출 통제는 민주주의 국가들이 AI 개발에서 우위를 유지하도록 돕는 핵심 도구
: 중국의 반도체 확보 차단: DeepSeek이 보유한 칩은 일부 밀수된 것으로 보이며, 이는 수출 통제가 효과적으로 작동하고 있다는 증거. 그러나 중국이 수백만 개의 칩을 확보하지 못하도록 추가적 통제 필요
■ 미래 시나리오
: 양극화 세계: 미국과 중국 모두 강력한 AI 시스템을 보유하며 과학 및 기술 발전이 가속화
: 단극화 세계: 미국과 동맹국만이 이러한 시스템을 보유하며, 이는 지속 가능한 기술적 우위를 제공할 가능성
https://darioamodei.com/on-deepseek-and-export-controls
■ DeepSeek의 성과와 기술적 맥락
: V3: 혁신적 엔지니어링 효율성(Key-Value 캐시 관리 및 MoE 방식 개선)을 통해 비용 절감
: R1: R1은 강화 학습을 추가해 추론 능력을 강화했지만, 기술적 혁신보다는 기존 기술의 확장에 가까움
: 비용 효율성의 과대평가: DeepSeek의 성과는 인상적이지만, 비용 절감 비율이 기존 AI 발전 추세에서 크게 벗어나지 않으며, 미국 AI 기업들이 곧 이를 따라잡을 것 전망
■ AI 발전의 세 가지 동력
1. 스케일링 법칙(Scaling Laws): 더 많은 자원을 투입하면 AI 모델의 성능이 점진적으로 향상
2. 곡선 이동(Shifting the Curve): 알고리즘 및 하드웨어 개선으로 비용 효율성이 증가하지만, 더 큰 모델 개발로 이어져 총비용은 증가
3. 패러다임 전환(Shifting the Paradigm): 최근 강화 학습을 활용한 새로운 훈련 단계가 도입되며, 초기 투자 대비 큰 성과를 내고 있음
■ 수출 통제의 중요성
: 미국의 기술 우위 유지: 수출 통제는 민주주의 국가들이 AI 개발에서 우위를 유지하도록 돕는 핵심 도구
: 중국의 반도체 확보 차단: DeepSeek이 보유한 칩은 일부 밀수된 것으로 보이며, 이는 수출 통제가 효과적으로 작동하고 있다는 증거. 그러나 중국이 수백만 개의 칩을 확보하지 못하도록 추가적 통제 필요
■ 미래 시나리오
: 양극화 세계: 미국과 중국 모두 강력한 AI 시스템을 보유하며 과학 및 기술 발전이 가속화
: 단극화 세계: 미국과 동맹국만이 이러한 시스템을 보유하며, 이는 지속 가능한 기술적 우위를 제공할 가능성
https://darioamodei.com/on-deepseek-and-export-controls
Darioamodei
Dario Amodei — On DeepSeek and Export Controls
👍3
[삼성 이영진] 글로벌 SW 헤드라인 (25/1/31)
■ 소프트뱅크, 오픈AI에 최대 250억 달러 투자 방안 논의 보도. 신규 펀딩 라운드는 3,400억 달러 밸류로 400억 달러 조달 목표
■ 오픈AI & 마이크로소프트, 로스앨러모스 국립연구소 내 슈퍼컴퓨터에 o시리즈 AI 모델 배치. 특히 핵 방어와 관련된 프로젝트에 활용 예정
■ 오픈AI, EU 포함 유럽 내 챗GPT 보이스모드에 비전 기능 확장 런칭
■ 구글, 제미나이 웹과 앱 전체 유저 대상으로 Gemini 2.0 Flash 모델 런칭
■ 구글, 안드로이드, 크롬, 픽셀 팀 직원 대상으로 자발적 퇴사 프로그램 발표
■ 웨이모, 애틀랜타 지역에서 자율주행 기술 확장. 직원들이 완전 자율주행 차량 호출 가능
■ 미스트랄 AI, Mistral Small 3 모델 공개. 파라미터 240억 개. 비용 효율성과 성능 강조
■ 스노우플레이크, Cortex AI에 딥시크 R1 모델 Private preview 형태로 추가
■ 퍼플렉시티, 미국 정부 기관 종사자 대상으로 pro 버전 제공 발표. .gov 이메일로 가입 가능
■ AI 오디오 스타트업 ElevenLabs, 시리즈 C 라운드에서 1.8억 달러 유치. 밸류는 33억 달러
감사합니다.
■ 소프트뱅크, 오픈AI에 최대 250억 달러 투자 방안 논의 보도. 신규 펀딩 라운드는 3,400억 달러 밸류로 400억 달러 조달 목표
■ 오픈AI & 마이크로소프트, 로스앨러모스 국립연구소 내 슈퍼컴퓨터에 o시리즈 AI 모델 배치. 특히 핵 방어와 관련된 프로젝트에 활용 예정
■ 오픈AI, EU 포함 유럽 내 챗GPT 보이스모드에 비전 기능 확장 런칭
■ 구글, 제미나이 웹과 앱 전체 유저 대상으로 Gemini 2.0 Flash 모델 런칭
■ 구글, 안드로이드, 크롬, 픽셀 팀 직원 대상으로 자발적 퇴사 프로그램 발표
■ 웨이모, 애틀랜타 지역에서 자율주행 기술 확장. 직원들이 완전 자율주행 차량 호출 가능
■ 미스트랄 AI, Mistral Small 3 모델 공개. 파라미터 240억 개. 비용 효율성과 성능 강조
■ 스노우플레이크, Cortex AI에 딥시크 R1 모델 Private preview 형태로 추가
■ 퍼플렉시티, 미국 정부 기관 종사자 대상으로 pro 버전 제공 발표. .gov 이메일로 가입 가능
■ AI 오디오 스타트업 ElevenLabs, 시리즈 C 라운드에서 1.8억 달러 유치. 밸류는 33억 달러
감사합니다.
👍2
마이크로소프트(MSFT US) F2Q25 실적 - 계속되는 기다림
안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.
마이크로소프트 F2Q 실적은 PBP와 MPC 부문이 기대치를 상회했지만, IC 부문이 아쉬운 모습을 보였습니다.
Azure 성장률도 +31%(고정환율 기준)은 가이던스 +31.5%와 Factset 컨센서스를 32%를 하회했습니다
AI의 Azure 매출 성장 기여도는 13%p로 상승했고, AI 서비스 성장률도 +157%에 달했지만,
Non AI 성장률 하락세가 심화되었습니다. 간접 판매 관련 세일즈 전략 변경 때문인데요 하반기에도 영향이 지속 될 것으로 전망했습니다.
시간외 하락 요인은 기대치를 하회한 F3Q 가이던스입니다. 부정적 환 효과를 추가로 고려해도 상당히 아쉬운 숫자입니다.
Azure 성장률 가이던스(+31~32%)도 이전 분기와 동일한 수준을 제시했습니다. 케파 제약 지속과 함께 Azure 성장 반등 확인이 지연되고 있습니다.
AI 산업을 둘러싼 여러 이슈들이 나오고 있습니다. 하지만 스케일링 법칙은 학습과 추론 모두에서 깊어지고 있고, 딥시크와 같은 모델 비용 감소 케이스는 서비스 확대로 연결될 수 있습니다.
"AI가 더 효율적이고 접근 가능해질수록 수요가 기하급수적으로 성장한다"는 사티아 나델라 CEO의 코멘트가 이러한 상황을 요약하고 있습니다.
AI에 대한 우려를 할 필요는 없습니다. MS의 AI 사업 연 매출은 130억 달러로 지난 분기 언급한 100억 달러 고지를 가볍게 상회했습니다. 자본 지출 의지도 재확인했구요
하지만 긍정적 내러티브와 다르게 실적으로 확인되는 숫자에는 기다림이 필요하다는 괴리가 생기고 있습니다.
밸류에이션상으로도 메리트가 크지 않은 만큼 향후 코파일럿 요금제 변경과 추론 중심의 AI 전략 변화의 성과에 주목할 필요가 있습니다.
자세한 내용은 발간된 보고서를 참고해주시기 바랍니다.
보고서 링크: https://bit.ly/3PXpuxm
(2025/1/31 공표자료)
안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.
마이크로소프트 F2Q 실적은 PBP와 MPC 부문이 기대치를 상회했지만, IC 부문이 아쉬운 모습을 보였습니다.
Azure 성장률도 +31%(고정환율 기준)은 가이던스 +31.5%와 Factset 컨센서스를 32%를 하회했습니다
AI의 Azure 매출 성장 기여도는 13%p로 상승했고, AI 서비스 성장률도 +157%에 달했지만,
Non AI 성장률 하락세가 심화되었습니다. 간접 판매 관련 세일즈 전략 변경 때문인데요 하반기에도 영향이 지속 될 것으로 전망했습니다.
시간외 하락 요인은 기대치를 하회한 F3Q 가이던스입니다. 부정적 환 효과를 추가로 고려해도 상당히 아쉬운 숫자입니다.
Azure 성장률 가이던스(+31~32%)도 이전 분기와 동일한 수준을 제시했습니다. 케파 제약 지속과 함께 Azure 성장 반등 확인이 지연되고 있습니다.
AI 산업을 둘러싼 여러 이슈들이 나오고 있습니다. 하지만 스케일링 법칙은 학습과 추론 모두에서 깊어지고 있고, 딥시크와 같은 모델 비용 감소 케이스는 서비스 확대로 연결될 수 있습니다.
"AI가 더 효율적이고 접근 가능해질수록 수요가 기하급수적으로 성장한다"는 사티아 나델라 CEO의 코멘트가 이러한 상황을 요약하고 있습니다.
AI에 대한 우려를 할 필요는 없습니다. MS의 AI 사업 연 매출은 130억 달러로 지난 분기 언급한 100억 달러 고지를 가볍게 상회했습니다. 자본 지출 의지도 재확인했구요
하지만 긍정적 내러티브와 다르게 실적으로 확인되는 숫자에는 기다림이 필요하다는 괴리가 생기고 있습니다.
밸류에이션상으로도 메리트가 크지 않은 만큼 향후 코파일럿 요금제 변경과 추론 중심의 AI 전략 변화의 성과에 주목할 필요가 있습니다.
자세한 내용은 발간된 보고서를 참고해주시기 바랍니다.
보고서 링크: https://bit.ly/3PXpuxm
(2025/1/31 공표자료)
👍3❤1
서비스나우(NOW US) 4Q24 실적 - 높아진 눈높이에 막힌 신기록
안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.
서비스나우가 다소 부진한 4Q 실적과 가이던스 발표 이후 하락했습니다. 다만 시장의 높아진 기대치를 맞추지 못했을 뿐 가이던스는 소폭 상회하는 실적이었습니다.
IT 지출 환경과 에이전틱 AI에 대한 톤과 자신감도 여전했습니다. Now Assist Service Desk 딜은 QoQ 150% 이상 성장했으며, 2개 이상의 생성 AI 기능 도입 고객은 QoQ 2배 성장했습니다.
부진한 가이던스에는 우선 강달러에 따른 부정적 환 효과가 반영되었습니다. 이외에도 사용량 기반 하이브리드 정책 강조와 신규 행정부 구성에 따른 정부 기관 매출의 계절성(하반기 집중)이 반영되었는데요
특히 회사 측 전략은 에이전트 기능을 기존 Pro Plus에 도입해 시트 기반 구독 유지 → 에이전트 기능 활용에 따른 케파의 조기 소진 → 추가 토큰 패키지 구매로 유도하는 전략입니다. 바로 매출이 찍힐 수 있는 추가 구독 플랜이나 애드 온 도입 대신 사용량 기반의 전략을 도입한 것에는 침투 가속화 목적이 있습니다.
내외부적 요인들로 인해 단기 불확실성이 대두되었지만, 과거 Now Assist 성공을 고려하면 경영진의 선택도 이해되는 부분입니다. 데이터 분야 솔루션 업그레이드 수요도 자극할 수 있으니까요
현재 삽업의 화두인 AI 모델의 커머디티화는 엔드 솔루션 기업 입장에서는 반가운 일입니다. 에이전트가 많아질 수록 이를 조율할 수 있는 플랫폼 역할도 강조되겠지요
서비스나우는 여전히 에이전틱 AI 대표 기업입니다. 단기 눈높이 조정이 필요하지만, 장기 관점에서 접근은 유효하다고 판단합니다.
자세한 내용은 발간된 보고서를 참고해주시기 바랍니다.
보고서 링크: https://bit.ly/4aI8pBm
(2025/1/31 공표자료)
안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.
서비스나우가 다소 부진한 4Q 실적과 가이던스 발표 이후 하락했습니다. 다만 시장의 높아진 기대치를 맞추지 못했을 뿐 가이던스는 소폭 상회하는 실적이었습니다.
IT 지출 환경과 에이전틱 AI에 대한 톤과 자신감도 여전했습니다. Now Assist Service Desk 딜은 QoQ 150% 이상 성장했으며, 2개 이상의 생성 AI 기능 도입 고객은 QoQ 2배 성장했습니다.
부진한 가이던스에는 우선 강달러에 따른 부정적 환 효과가 반영되었습니다. 이외에도 사용량 기반 하이브리드 정책 강조와 신규 행정부 구성에 따른 정부 기관 매출의 계절성(하반기 집중)이 반영되었는데요
특히 회사 측 전략은 에이전트 기능을 기존 Pro Plus에 도입해 시트 기반 구독 유지 → 에이전트 기능 활용에 따른 케파의 조기 소진 → 추가 토큰 패키지 구매로 유도하는 전략입니다. 바로 매출이 찍힐 수 있는 추가 구독 플랜이나 애드 온 도입 대신 사용량 기반의 전략을 도입한 것에는 침투 가속화 목적이 있습니다.
내외부적 요인들로 인해 단기 불확실성이 대두되었지만, 과거 Now Assist 성공을 고려하면 경영진의 선택도 이해되는 부분입니다. 데이터 분야 솔루션 업그레이드 수요도 자극할 수 있으니까요
현재 삽업의 화두인 AI 모델의 커머디티화는 엔드 솔루션 기업 입장에서는 반가운 일입니다. 에이전트가 많아질 수록 이를 조율할 수 있는 플랫폼 역할도 강조되겠지요
서비스나우는 여전히 에이전틱 AI 대표 기업입니다. 단기 눈높이 조정이 필요하지만, 장기 관점에서 접근은 유효하다고 판단합니다.
자세한 내용은 발간된 보고서를 참고해주시기 바랍니다.
보고서 링크: https://bit.ly/4aI8pBm
(2025/1/31 공표자료)
👍4
Forwarded from [삼성리서치] 테크는 역시 삼성증권
Seeking Deeper: DeepSeek 사건의 오해와 본질
(삼성증권 리서치센터)
이번 연휴는 DeepSeek에 대한 우려로 가득 차 있었습니다.
어디서 갑자기 중국 스타트업에서 사이드잡으로 뚝딱 만들었더니 미국 빅텍의 최신 AI 모델과 성능은 비슷하면서 비용을 10% 이하로 낮추었다는 이야기는 투자자들에게 공포감을 주기에 충분합니다.
반면 실제 비용은 더 컸을 것이다라는 내용부터 Open AI 모델을 카피했다는 이야기까지 다양한 반론이 난무하는 가운데, 반도체 주가는 폭락한 뒤 회복하지 못하고 있습니다. 과연 이 상황을 어떻게 해석해야 할까요.
저희 삼성증권 리서치센터에서 구정 연휴동안 생각을 모아 보았습니다. 우리는 1) 이 사건 자체에 오해가 너무 많이 쌓여 있고, 2) 오해의 원인은 미국의 과도한 투자에 대한 의심과 주식 쏠림 현상 때문이며, 3) 클라우드의 실적으로 극복할 것이라 생각합니다.
어떠한 일들이 벌어지고 있는지 Deep dive 하고 싶으신 분들은 저희 리포트를 확인해 주시기 바랍니다.
링크: https://bit.ly/4aCwUzy
감사합니다.
(삼성증권 리서치센터)
이번 연휴는 DeepSeek에 대한 우려로 가득 차 있었습니다.
어디서 갑자기 중국 스타트업에서 사이드잡으로 뚝딱 만들었더니 미국 빅텍의 최신 AI 모델과 성능은 비슷하면서 비용을 10% 이하로 낮추었다는 이야기는 투자자들에게 공포감을 주기에 충분합니다.
반면 실제 비용은 더 컸을 것이다라는 내용부터 Open AI 모델을 카피했다는 이야기까지 다양한 반론이 난무하는 가운데, 반도체 주가는 폭락한 뒤 회복하지 못하고 있습니다. 과연 이 상황을 어떻게 해석해야 할까요.
저희 삼성증권 리서치센터에서 구정 연휴동안 생각을 모아 보았습니다. 우리는 1) 이 사건 자체에 오해가 너무 많이 쌓여 있고, 2) 오해의 원인은 미국의 과도한 투자에 대한 의심과 주식 쏠림 현상 때문이며, 3) 클라우드의 실적으로 극복할 것이라 생각합니다.
어떠한 일들이 벌어지고 있는지 Deep dive 하고 싶으신 분들은 저희 리포트를 확인해 주시기 바랍니다.
링크: https://bit.ly/4aCwUzy
감사합니다.
👍5❤1