[삼성 이영진] 글로벌 AI/SW
7.3K subscribers
1.11K photos
8 videos
1.35K links
삼성증권 글로벌 AI/SW 담당 이영진
Download Telegram
[삼성 이영진] 마이크로소프트(MSFT) F2Q25 실적 요약

■ F2Q25 실적
: 매출 696.3억 달러(+12%)
vs 컨센 688.7억 달러
: EPS 3.23
vs 컨센 $3.10

: PBP 294.4억 달러(+14%, +13% CC)
vs 컨센 288.9억 달러, 가이던스 287-290억 달러

: IC 255.4억 달러(+19%, +19% CC)
vs 컨센 258.3억 달러, 가이던스 255.5-258.5억 달러

: MPC 146.5억 달러(+0%, +0% CC)
vs 컨센 142.9억 달러, 가이던스 138.5-142.5억 달러

: Azure 성장 +31%
vs 컨센 +30.8%
: Azure 성장(CC 기준) +31%
vs 컨센 32%, 가이던스 31~32%
: Azure 내 AI 기여도 13%p

: Azure 성장 추이(CC 기준)
30% → 31% → 35% → 35% → 34% → 31%

: CAPEX 158억 달러(금융 리스 자산 제외)
vs 컨센 154.8억 달러
: CAPEX 추이(리스 제외)
99.2 → 97.4 → 109.5 → 138.7 → 149.2 → 158억 달러

: CAPEX 226억 달러(리스 포함)
: CAPEX 추이(리스 포함)
112 → 115 → 140 → 190 → 200억 → 226억 달러

: AI 사업은 연 매출 run rate 130억 달러 규모 +175% YoY

■ 가이던스는 어닝콜에서 발표(F3Q25 컨센)
: 매출 698.1억 달러
: PBP 299.3억 달러
: IC 269억 달러
: MPC 130억 달러
: Azure 성장(CC 기준) +33.4%

https://view.officeapps.live.com/op/view.aspx?src=https://microsoft.com/en-us/investor/earnings/FY-2025-Q2/Document/DownloadDocument/SlidesFY25Q2.pptx

감사합니다.
👍4
[삼성 이영진] 메타 플랫폼스(META) 4Q24 실적 요약

■ 4Q24 실적
: 매출 483.9억 달러(+21%)
vs 컨센 470억 달러, 가이던스 450~480억 달러
: EPS(GAAP) $8.02
vs 컨센 $6.76
: CAPEX 148.4억 달러
vs 컨센 152.5억 달러

■ 1Q25 및 FY25 가이던스
: 1Q25 매출 395-418억 달러 vs 컨센 417억 달러
: FY25 비용 114-119억 달러
: FY25 CAPEX 600-650억 달러(주커버그 코멘트와 동일) vs 컨센 526억 달러

https://s21.q4cdn.com/399680738/files/doc_news/Meta-Reports-Fourth-Quarter-and-Full-Year-2024-Results-2025.pdf

감사합니다.
👍1
메타 4Q24 어닝콜 주요 코멘트 - 1

■ Llama 4 관련
 
I think this will very well be the year when Llama and open source become the most advanced and widely used AI models as well. Llama 4 is making great progress in training, Llama 4 Mini is done with pre-training and our reasoning models and larger model are looking good too.


올해 Llama와 오픈 소스 AI 모델들이 가장 발전되고 널리 사용되는 해가 될 것이라고 생각합니다. Llama 4는 학습에서 큰 진전을 이루고 있으며, Llama 4 Mini는 사전 학습이 잘 진행되었고, 추론 모델과 큰 모델들도 좋은 성과를 보여주고 있습니다.
 
Llama 4 will be natively multimodal. It's an omni model, and it will have agenetic capabilities. So it's going to be novel, and it's going to unlock a lot of new use cases, and I'm looking forward to sharing more of our plan for the year on that over the next couple of months.


Llama 4는 멀티모달 모델이 될 것입니다. 이것은 옴니 모델로, 에이전틱 기능을 갖추게 될 것입니다. 따라서 매우 혁신적일 것이며, 많은 새로운 사용 사례를 열어줄 것입니다. 저는 올해 계획에 대해 앞으로 몇 달 안에 더 많은 정보를 공유할 수 있기를 기대하고 있습니다.
 
■ 에이전트 관련
 
I also expect that 2025 will be the year when it becomes possible to build an AI engineering agent that has coding and problem-solving abilities of around a good mid-level engineer. And this is going to be a profound milestone and potentially one of the most important innovations in history, like as well as over time, potentially a very large market, whichever company builds this first, I think it's going to have a meaningful advantage in deploying it to advance their AI research and shape the field. So that's another reason why I think that this year is going to set the course for the future.


저는 2025년이 코딩과 문제 해결 능력이 뛰어난 중급 엔지니어 수준의 AI 엔지니어링 에이전트를 구축할 수 있는 해가 될 것이라고 기대하고 있습니다. 매우 중요한 이정표가 될 것이며, 역사상 가장 중요한 혁신 중 하나로 자리잡을 가능성이 있습니다. 시간이 지나면서, 매우 큰 시장으로 성장할 가능성도 있습니다. 이 기술을 처음으로 구축하는 회사는 AI 연구를 발전시키고 이 분야를 선도하는 데 의미 있는 이점을 가질 것이라고 생각합니다. 올해가 미래를 위한 방향을 설정하는 해가 될 것이라고 믿는 또 다른 이유입니다.
 
I don't know that that's going to be an external product anytime soon. But I think for what we're working on, our goal is to advance AI research and advance our own development internally. And I think it's just going to be a very profound thing. So I mean that's something that I think will show up through making our products better over time.

 
물론 이 기술이 곧 외부 제품으로 출시될 것 같지는 않습니다. 우리의 목표는 AI 연구를 진전시키고 내부적으로 우리의 개발을 발전시키는 것입니다. 이 기술은 매우 중요한 영향을 미칠 것이라고 생각합니다. 시간이 지나면서 우리의 제품을 더 나아지게 만드는 데 기여할 것이라고 봅니다.
 
■ 인프라 관련
 
I announced last week that we expect to bring online almost a 1 gigawatt of capacity this year. And we're building a 2 gigawatt and potentially bigger AI data center that is so big that it will cover a significant part of Manhattan if we were placed there. We're planning to fund all this by, at the same time, investing aggressively in initiatives that use these AI advances to increase revenue growth. So we've put together a plan that will hopefully accelerate the pace of these initiatives over the next few years.


지난주에, 올해 약 1GW의 케파를 가동할 것으로 예상한다고 발표했습니다. 그리고 우리는 2GW, 또는 그보다 큰 AI 데이터센터를 구축하고 있습니다. 이 데이터센터는 너무 커서 맨해튼의 상당 부분을 차지할 정도의 규모가 될 것입니다. 우리는 데이터센터 구축을 진행하면서 동시에 AI 발전을 활용해 매출 성장을 가속화하는 여러 이니셔티브에 공격적으로 투자함으로써 자금을 조달할 계획입니다. 이러한 계획을 통해 앞으로 몇 년 동안 이니셔티브의 가속화를 기대하고 있습니다.
👍4
메타 4Q24 어닝콜 주요 코멘트 - 2

■ 딥시크 관련
 
I can start on the DeepSeek question. I think there's a number of novel things that they did that I think we're still digesting. And there are a number of things that they have advances that we will hope to implement in our systems. And that's part of the nature of how this works, whether it's a Chinese competitor or not. I kind of expect that every new company that has an advance -- that has a launch is going to have some new advances that the rest of the field learns from. And that's sort of how the technology industry goes.

 
DeepSeek 질문에 대해 먼저 말씀드리겠습니다. 그들이 실행한 몇 가지 혁신적인 요소가 있다고 생각하며, 이를 분석하고 있는 중입니다. 일부는 우리가 시스템에 구현하려고 하는 부분도 있습니다. 이는 기술 분야의 특성 중 하나입니다. 그것이 중국 경쟁사이든 아니든, 새로운 회사가 출범하면서 혁신을 가져오면, 업계의 나머지 사람들이 그로부터 배우는 것은 기술 산업에서 흔히 있는 일입니다.

I don't know -- it's probably too early to really have a strong opinion on what this means for the trajectory around infrastructure and CapEx and things like that. There are a bunch of trends that that are happening here all at once. There's already sort of a debate around how much of the compute infrastructure that we're using is going to go towards pre-training versus as you get more of these reasoning time models or reasoning models where you get more of the intelligence by putting more of the compute into inference, whether just will mix shift how we use our compute infrastructure towards that.


구체적으로 현 상황이 인프라와 CapEx 등에 어떤 영향을 미칠지에 대해서는 아직 판단하기 이르다고 생각합니다. 여러 트렌드가 동시에 진행되고 있기 때문입니다. 이미 컴퓨팅 인프라를 어떻게 사용할지에 대한 논의가 존재하고 있습니다. 우리가 사용하는 컴퓨팅 인프라 중 얼마나 많은 부분이 pre-training에 사용될지, 아니면 reasoning 시간이 많이 필요한 모델이나 추론 모델에 사용될지에 대한 것입니다. 추론에 더 많은 컴퓨팅 자원을 투입하면 높은 수준의 지능과 나은 품질의 서비스를 제공할 수 있죠. 이런 변화는 기존 인프라를 적용하는 방식에도 영향을 미칠 수 있습니다.

The other thing is just that when we're building things like Meta AI, but also how we're implementing AI into all the feeds and ad products and things like that, we're just serving billions of people, which is different from, okay, you start to pre-train a model, and that model is sort of agnostic to how many people are using it, like at some level, it's going to be expensive for us to serve all of these people because we are serving a lot of people. And so I'm not sure what the kind of net effect of all of this is.


또 다른 요점은 우리가 Meta AI 같은 것을 구축하는 방식뿐만 아니라, AI를 피드, 광고 상품 등에 통합하는 방식에서도 차이가 있다는 것입니다. 우리는 수십억 명의 사람들에게 서비스를 제공하고 있으며, 이는 단순히 모델을 pre-train하는 것과는 다릅니다. 사전 학습 모델은 사용자 수에 대한 고려가 없지만, 우리의 경우는 수많은 사용자에게 서비스를 제공하는 데 따른 비용이 상당히 크기 때문입니다. 따라서 이 모든 것이 어떤 순효과를 가져올지는 아직 확실하지 않습니다.
 
And I continue to think that investing very heavily in CapEx and infra is going to be a strategic advantage over time. It's possible that we'll learn otherwise at some point, but I just think it's way too early to call that. And at this point, I would bet that the ability to build out that kind of infrastructure is going to be a major advantage for both the quality of the service and being able to serve the scale that we want to.


CapEx와 인프라에 대한 대규모 투자가 시간이 지남에 따라 전략적 이점이 될 것이라고 계속 생각합니다. 언젠가는 그렇지 않을 수도 있다고 배울 가능성도 있지만, 현재로서는 이를 판단하기엔 훨씬 이른 시점이라고 봅니다. 현 시점에서 보자면, 이런 인프라를 구축할 수 있는 능력은 서비스 품질과 우리가 목표로 하는 규모로 서비스를 제공하는 역량에서 큰 이점이 될 가능성이 높다고 생각합니다.
👍51
다리오 아모데이, DeepSeek 기술 발전과 미국의 대중국 반도체 수출 통제 정책 관련 블로그

■ DeepSeek의 성과와 기술적 맥락
: V3: 혁신적 엔지니어링 효율성(Key-Value 캐시 관리 및 MoE 방식 개선)을 통해 비용 절감

: R1: R1은 강화 학습을 추가해 추론 능력을 강화했지만, 기술적 혁신보다는 기존 기술의 확장에 가까움

: 비용 효율성의 과대평가: DeepSeek의 성과는 인상적이지만, 비용 절감 비율이 기존 AI 발전 추세에서 크게 벗어나지 않으며, 미국 AI 기업들이 곧 이를 따라잡을 것 전망

■ AI 발전의 세 가지 동력
1. 스케일링 법칙(Scaling Laws): 더 많은 자원을 투입하면 AI 모델의 성능이 점진적으로 향상

2. 곡선 이동(Shifting the Curve): 알고리즘 및 하드웨어 개선으로 비용 효율성이 증가하지만, 더 큰 모델 개발로 이어져 총비용은 증가

3. 패러다임 전환(Shifting the Paradigm): 최근 강화 학습을 활용한 새로운 훈련 단계가 도입되며, 초기 투자 대비 큰 성과를 내고 있음

■ 수출 통제의 중요성
: 미국의 기술 우위 유지: 수출 통제는 민주주의 국가들이 AI 개발에서 우위를 유지하도록 돕는 핵심 도구

: 중국의 반도체 확보 차단: DeepSeek이 보유한 칩은 일부 밀수된 것으로 보이며, 이는 수출 통제가 효과적으로 작동하고 있다는 증거. 그러나 중국이 수백만 개의 칩을 확보하지 못하도록 추가적 통제 필요

■ 미래 시나리오
: 양극화 세계: 미국과 중국 모두 강력한 AI 시스템을 보유하며 과학 및 기술 발전이 가속화

: 단극화 세계: 미국과 동맹국만이 이러한 시스템을 보유하며, 이는 지속 가능한 기술적 우위를 제공할 가능성

https://darioamodei.com/on-deepseek-and-export-controls
👍3
[삼성 이영진] 글로벌 SW 헤드라인 (25/1/31)

■ 소프트뱅크, 오픈AI에 최대 250억 달러 투자 방안 논의 보도. 신규 펀딩 라운드는 3,400억 달러 밸류로 400억 달러 조달 목표

■ 오픈AI & 마이크로소프트, 로스앨러모스 국립연구소 내 슈퍼컴퓨터에 o시리즈 AI 모델 배치. 특히 핵 방어와 관련된 프로젝트에 활용 예정

■ 오픈AI, EU 포함 유럽 내 챗GPT 보이스모드에 비전 기능 확장 런칭

■ 구글, 제미나이 웹과 앱 전체 유저 대상으로 Gemini 2.0 Flash 모델 런칭

■ 구글, 안드로이드, 크롬, 픽셀 팀 직원 대상으로 자발적 퇴사 프로그램 발표

■ 웨이모, 애틀랜타 지역에서 자율주행 기술 확장. 직원들이 완전 자율주행 차량 호출 가능

■ 미스트랄 AI, Mistral Small 3 모델 공개. 파라미터 240억 개. 비용 효율성과 성능 강조

■ 스노우플레이크, Cortex AI에 딥시크 R1 모델 Private preview 형태로 추가

■ 퍼플렉시티, 미국 정부 기관 종사자 대상으로 pro 버전 제공 발표. .gov 이메일로 가입 가능

■ AI 오디오 스타트업 ElevenLabs, 시리즈 C 라운드에서 1.8억 달러 유치. 밸류는 33억 달러

감사합니다.
👍2
마이크로소프트(MSFT US) F2Q25 실적 - 계속되는 기다림

안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.

마이크로소프트 F2Q 실적은 PBP와 MPC 부문이 기대치를 상회했지만, IC 부문이 아쉬운 모습을 보였습니다.

Azure 성장률도 +31%(고정환율 기준)은 가이던스 +31.5%와 Factset 컨센서스를 32%를 하회했습니다

AI의 Azure 매출 성장 기여도는 13%p로 상승했고, AI 서비스 성장률도 +157%에 달했지만,

Non AI 성장률 하락세가 심화되었습니다. 간접 판매 관련 세일즈 전략 변경 때문인데요 하반기에도 영향이 지속 될 것으로 전망했습니다.

시간외 하락 요인은 기대치를 하회한 F3Q 가이던스입니다. 부정적 환 효과를 추가로 고려해도 상당히 아쉬운 숫자입니다.

Azure 성장률 가이던스(+31~32%)도 이전 분기와 동일한 수준을 제시했습니다. 케파 제약 지속과 함께 Azure 성장 반등 확인이 지연되고 있습니다.

AI 산업을 둘러싼 여러 이슈들이 나오고 있습니다. 하지만 스케일링 법칙은 학습과 추론 모두에서 깊어지고 있고, 딥시크와 같은 모델 비용 감소 케이스는 서비스 확대로 연결될 수 있습니다.

"AI가 더 효율적이고 접근 가능해질수록 수요가 기하급수적으로 성장한다"는 사티아 나델라 CEO의 코멘트가 이러한 상황을 요약하고 있습니다.

AI에 대한 우려를 할 필요는 없습니다. MS의 AI 사업 연 매출은 130억 달러로 지난 분기 언급한 100억 달러 고지를 가볍게 상회했습니다. 자본 지출 의지도 재확인했구요

하지만 긍정적 내러티브와 다르게 실적으로 확인되는 숫자에는 기다림이 필요하다는 괴리가 생기고 있습니다.

밸류에이션상으로도 메리트가 크지 않은 만큼 향후 코파일럿 요금제 변경과 추론 중심의 AI 전략 변화의 성과에 주목할 필요가 있습니다.

자세한 내용은 발간된 보고서를 참고해주시기 바랍니다.

보고서 링크: https://bit.ly/3PXpuxm

(2025/1/31 공표자료)
👍31
서비스나우(NOW US) 4Q24 실적 - 높아진 눈높이에 막힌 신기록

안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.

서비스나우가 다소 부진한 4Q 실적과 가이던스 발표 이후 하락했습니다. 다만 시장의 높아진 기대치를 맞추지 못했을 뿐 가이던스는 소폭 상회하는 실적이었습니다.

IT 지출 환경과 에이전틱 AI에 대한 톤과 자신감도 여전했습니다. Now Assist Service Desk 딜은 QoQ 150% 이상 성장했으며, 2개 이상의 생성 AI 기능 도입 고객은 QoQ 2배 성장했습니다.

부진한 가이던스에는 우선 강달러에 따른 부정적 환 효과가 반영되었습니다. 이외에도 사용량 기반 하이브리드 정책 강조와 신규 행정부 구성에 따른 정부 기관 매출의 계절성(하반기 집중)이 반영되었는데요

특히 회사 측 전략은 에이전트 기능을 기존 Pro Plus에 도입해 시트 기반 구독 유지 → 에이전트 기능 활용에 따른 케파의 조기 소진 → 추가 토큰 패키지 구매로 유도하는 전략입니다. 바로 매출이 찍힐 수 있는 추가 구독 플랜이나 애드 온 도입 대신 사용량 기반의 전략을 도입한 것에는 침투 가속화 목적이 있습니다.

내외부적 요인들로 인해 단기 불확실성이 대두되었지만, 과거 Now Assist 성공을 고려하면 경영진의 선택도 이해되는 부분입니다. 데이터 분야 솔루션 업그레이드 수요도 자극할 수 있으니까요

현재 삽업의 화두인 AI 모델의 커머디티화는 엔드 솔루션 기업 입장에서는 반가운 일입니다. 에이전트가 많아질 수록 이를 조율할 수 있는 플랫폼 역할도 강조되겠지요

서비스나우는 여전히 에이전틱 AI 대표 기업입니다. 단기 눈높이 조정이 필요하지만, 장기 관점에서 접근은 유효하다고 판단합니다.

자세한 내용은 발간된 보고서를 참고해주시기 바랍니다.

보고서 링크: https://bit.ly/4aI8pBm

(2025/1/31 공표자료)
👍4
Seeking Deeper: DeepSeek 사건의 오해와 본질
(삼성증권 리서치센터)

이번 연휴는 DeepSeek에 대한 우려로 가득 차 있었습니다.

어디서 갑자기 중국 스타트업에서 사이드잡으로 뚝딱 만들었더니 미국 빅텍의 최신 AI 모델과 성능은 비슷하면서 비용을 10% 이하로 낮추었다는 이야기는 투자자들에게 공포감을 주기에 충분합니다.

반면 실제 비용은 더 컸을 것이다라는 내용부터 Open AI 모델을 카피했다는 이야기까지 다양한 반론이 난무하는 가운데, 반도체 주가는 폭락한 뒤 회복하지 못하고 있습니다. 과연 이 상황을 어떻게 해석해야 할까요.

저희 삼성증권 리서치센터에서 구정 연휴동안 생각을 모아 보았습니다. 우리는 1) 이 사건 자체에 오해가 너무 많이 쌓여 있고, 2) 오해의 원인은 미국의 과도한 투자에 대한 의심과 주식 쏠림 현상 때문이며, 3) 클라우드의 실적으로 극복할 것이라 생각합니다.

어떠한 일들이 벌어지고 있는지 Deep dive 하고 싶으신 분들은 저희 리포트를 확인해 주시기 바랍니다.

링크: https://bit.ly/4aCwUzy
감사합니다.
👍51
[삼성리서치] 테크는 역시 삼성증권
Seeking Deeper: DeepSeek 사건의 오해와 본질 (삼성증권 리서치센터) 이번 연휴는 DeepSeek에 대한 우려로 가득 차 있었습니다. 어디서 갑자기 중국 스타트업에서 사이드잡으로 뚝딱 만들었더니 미국 빅텍의 최신 AI 모델과 성능은 비슷하면서 비용을 10% 이하로 낮추었다는 이야기는 투자자들에게 공포감을 주기에 충분합니다. 반면 실제 비용은 더 컸을 것이다라는 내용부터 Open AI 모델을 카피했다는 이야기까지 다양한 반론이 난무하는…
DeepSeek 이슈와 글로벌 SW 섹터 투자 전략

안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.

DeepSeek 관련 합동 보고서를 작성했습니다.

링크: https://bit.ly/4aCwUzy

SW 섹터 임플리케이션에 대한 추가 코멘트해 드립니다.

■ 클라우드 기업은 Capex를 줄일 이유가 없다

학습과 추론 모두에서 수요가 확대된다면 클라우드 인프라 기업은 오히려 좋습니다.

추론 코스트는 지난 3년간 약 1,000배 이상 하락했습니다. 하지만 하이퍼스케일러 3사 클라우드 사업 영업 마진은 AI 사이클 시작 이후 지속 확대되었습니다. 수익성이 확인되는데 투자를 안할 이유가 없습니다.

DeepSeek은 이러한 트렌드를 가속화하는 역할입니다. 가성비 모델 등장에 따른 AI 서비스 증가는 추론 성장으로 이어집니다.

메타를 포함한 빅테크 기업은 추론 수요 확대를 염두에 두고 Capex 투자를 지속하고 있습니다(전일 실적에서 재확인). 추론용 인프라는 구성 및 운영 측면에서 효율적이라는 강점이 있습니다.

학습 수요도 사라지는 것이 아닙니다. 딥시크 논문에 나온 것처럼 증류 모델을 구축하기 위해서는 '좋은' 파운데이션 모델이 필요합니다. 차세대 모델 구축과 이를 강화하고 증류하기 위한 컴퓨팅 자원 필요도 계속 될 것입니다.


■ 엔터프라이즈 SW에게 주어진 기회를 잡을 기업은?

AI 인프라 기업 조정과 달리 AI SW 기업 주가는 호조를 보였습니다. 파운데이션 모델 레이어의 경쟁 심화가 어플리케이션 레이어에게는 나쁠 것이 없다는 로직(+수급 요인)이 작동한 것으로 판단합니다.

모델 레이어에서 알고리즘 효율성 향상에 따른 비용 감소는 API를 활용해 서비스를 제공하는 엔터프라이즈 소프트웨어 기업에게는 긍정적입니다.

인 풋 코스트를 줄여 마진 개선을 추구할 수 있고, 고객들의 SW 지출 확대도 기대할 수 있습니다.

특히 R1이 보여준 증류 모델 성과는 소형 및 도메인 맞춤형 모델 구축으로 연결될 수 있습니다. 다양한 서비스 확대를 통한 확장이 가능한 것이지요(이를 지원하는 데이터베이스 관련 기업에 주목)

2025년을 AI 서비스가 본격화되는 원년으로 예상하는 기반에는 똑똑한 추론 모델의 등장과 API 가격 하락이 있었습니다. 경량화와 효율화라는 모델 발전 방향이 지속 확인 되고 있습니다. 


“AI가 더 효율적이고 접근 가능해질수록 수요가 기하급수적으로 성장한다”는 샤티아 나델라 MS CEO 코멘트가 현재 상황을 적절히 요약하고 있습니다.

초기 SW 기업 실적 발표를 살펴보면 서비스나우 실적이 다소 아쉬웠지만, AI 모멘텀 둔화가 원인은 아니였습니다.

오히려 SAP(4Q 클라우드 주문 절반 이상이 AI 유즈 케이스 포함)과 IBM(생성 AI 사업 수준 50억 달러, +20억 달러 QoQ) 실적에서는 AI 기대감을 확인했습니다.

마이크로소프트의 Azure 사업 성장 가속화 지연도 Non AI 쪽이 발목을 세게 잡고 있는 것이지 AI 사업은 예상을 넘어서는 성장을 하고 있습니다.

산업 트렌드와 시장의 관심 측면에서 SW의 기대감이 높아지고 있습니다. 분명한 모멘텀이지만, 수혜를 누리는 것은 다른 차원의 이야기 입니다.

단순 기대감을 넘어 엔드 솔루션 SW 기업은 에이전틱 AI 산업 개화의 기회를 포착할 수 있는지, 미들웨어 SW는 추론 수요 상승과 맞춤형 솔루션 확대 수요를 누릴 수 있는지를 확인하는 작업이 필요하다고 판단됩니다.

(2025/1/31 공표자료)
👍82
[삼성 이영진] 글로벌 SW 기업 주요 일정(현지시간)

실적(E)은 잠정 일정으로 향후 변동 가능

■ 2월 1주 차
팔란티어 테크놀로지스(PLTR) - 2/3
알파벳(GOOGL) - 2/4
아마존(AMZN) - 2/6
클라우드플레어(NET) - 2/6
포티넷(FTNT) - 2/6

■ 2월 2주 차
앱러빈(APP) - 2/12
허브스팟(HUBS) - 2/12
트레이드 데스크(TTD) - 2/12
데이터도그(DDOG) - 2/13(개장 전)

■ 2월 3주 차
유니티 소프트웨어(U) - 2/20(개장전)

■ 2월 4주 차
팔로알토 네트웍스(PANW) - 2/25(E)
스노우플레이크(SNOW) - 2/26
엘라스틱(ESTC) - 2/27(E)
지스케일러(ZS) - 2/27(E)

■ 3월 1주 차
워크데이(WDAY) - 3/3(E)
세일즈포스(CRM) - 3/4(E)

■ 3월 2주 차
오라클(ORCL) - 3/10(E)
크라우드 스트라이크(CRWD) - 3/11(E)
몽고DB(MDB) - 3/11(E)
어도비(ADBE) - 3/13(E)
5
오픈AI, o3-mini & mini high 출시

: Medium 기준 수학, 코딩, 과학 분야에서 o1과 유사한 성능 + 빠른 응답 속도(o1-mini 대비 24% 빠름)

: Pro 사용자는 무제한 액세스, Plus 및 Team 사용자는 o1-mini 대비 3배(일 150회),단 high는 주 50회, 무료 유저도 사용 가능(reason 버튼 이용)

: 함수 호출, 구조화된 출력, 개발자 메시지 등 지원. 비전 기능은 지원하지 않음

: API는 Low, Medium, High의 추론 수준 선택. 티어 3~5 일부 개발자에 순차 오픈

: API 가격(백만토큰 당)

o3-mini
인 풋(Cached) $0.55 + 아웃풋 $4.4

vs 딥시크 R1
인풋(Cached) $0.14 + 아웃풋 $2.19

https://openai.com/index/openai-o3-mini/
👍4