[삼성 이영진] 글로벌 AI/SW
7.35K subscribers
1.12K photos
8 videos
1.35K links
삼성증권 글로벌 AI/SW 담당 이영진
Download Telegram
[삼성 이영진] 글로벌 SW 헤드라인 (25/1/24)

■ 오픈AI, 웹 브라우저를 통해 다양한 작업을 자동으로 수행하는 자율형 AI 에이전트 Operator 발표. Research Preview 형태. Pro 구독자에 우선 제공

■ 샘 알트먼, 챗GPT 무료 유저도 o3-mini를 활용 할 수 있다는 X 포스팅

■ 오픈AI 챗GPT 약 2시간 가량 서비스 장애 발생

■ 오픈AI, 코딩 전문 AI 에이전트 개발중. 고급 개발자 수준인 레벨 6 엔지니어를 대체할 수 있는 성능 지향

■ 퍼플렉시티, 안드로이드 앱 내 신규 AI 비서 Perplexity Assistant 출시. 검색 기능을 넘어 다양한 작업을 자동으로 수행

■ 마이크로소프트, 이스라엘 군과 협력을 통해 클라우드 및 AI 기술 제공 보도. 10월 가자 전쟁 격화 이후 이스라엘
방위군의 클라우드 의존도 급증

■ 앤스로픽, AI 응답을 특정 소스 문서에 근거하도록하는 신규 기능 Citations 발표

■ 크리스티안 클라인 SAP CEO, 미국의 스타게이트 프로젝트 관련해 유럽이 AI 혁신에서 뒤쳐지지 않기 위해 단결된 대응을 해야한다고 강조

■ 바이트댄스, o1과 경쟁할 수 있는 신규 추론 모델 두바오(Daubao)-1.5-프로 출시. 가격 경쟁력 강조

■ 허깅페이스, 가장 작은 크기의 비전 언어 모델 SmolVLM-265M과 500M 공개

감사합니다.
글로벌 Tech - Carrier Has Arrived (from Stargate)

안녕하세요 삼성증권 이영진, 문준호입니다.

연일 화두가 되고 있는 스타게이트 프로젝트(미국 내 새로운 AI 인프라 구축)를 조금 더 파 보았습니다.

저희가 내린 결론은 막대한 데이터센터 확장 프로젝트는 AI 사이클이 아직도 초기 단계라는 것을 의미하며, AI 경쟁이 다음 단계인 AGI로 넘어가는 만큼 하이퍼스케일러의 경쟁적 투자 증가도 기대할 수 있습니다는 점입니다.

추론 모델 확장과 피지컬 AI 시대 주인공이 될 자율주행과 휴머노이드가 발생시킬 무궁무진한 토큰을 처리하기 위한 인프라의 필요성이 상승하는 구간입니다.

클라우드 인프라에서는 참여 수준과 오픈AI 관계 변화에 따른 차이가 있겠지만, 프로젝트에 참여하는 오라클과 마이크로소프트 모두의 수혜를 전망합니다.

또한 거대한 트렌드를 지지하는 투자 규모를 확인했다는 측면에서 타 클라우드 인프라와 밸류체인도 부정적일 이유는 없습니다.

반도체 분야에서는 스타게이트 프로젝트로 한정하면 초기 기술 파트너인 Arm과 엔비디아가 우선적으로 수혜를 누릴 수 있습니다.

나아가 중장기적으로 1) 오픈AI 디자인 파트너 브로드컴, 2) HBM을 제공하는 DRAM 3사, 3) 이를 제조하는 TSMC를 잠재적 수혜주로 꼽아볼 수 있습니다.

트럼프 대통령 취임 후 일주일이 채 지나지 않았지만, 미국 AI 산업 성장의 가속화를 위한 노골적인 움직임이 지속되고 있습니다. 이는 가파르게 성장하는 중국의 AI 산업을 견제하려는 목적도 있을 것입니다.

미국을 위한 AI를 구축한다는 맨해튼 프로젝트는 이제 시작입니다. 인프라 투자 확장은 기초 중의 기초이지요. 군사적 활용을 비롯한 추가적 AI 정책의 업데이트를 기대합니다.

자세한 내용은 발간된 산업 보고서를 참고해 주시기 바랍니다.

보고서 링크: https://bit.ly/4g6BPdm

(2025/1/24 공표자료)
👍41👏1
오픈AI, AI 에이전트 오퍼레이터(Operator) 공개

안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.

1분기 출시가 예상되던 오픈AI의 AI 에이전트 기능 오퍼레이터(Operator)가 전격 공개되었습니다.

오퍼레이터는 사용자를 대신해 자체 웹 브라우저를 제어하고 특정한 독립 작업(온라인 쇼핑, 음식 배달, 레스토랑 및 숙박 예약) 수행이 가능합니다.

특정 API에 의존하는 것이 아니라 화면 스크린샷을 분석해 가상의 마우스와 키보드를 활용해 명령을 처리하는 방식인데요

GPT-4o 비전 기능과 강화 학습 기반으로 강화된 추론 능력을 결합한 CUA(Computer-Using Agent) 모델을 기반으로 합니다.

마치 반자율주행처럼 유저는 언제든 개입해 화면을 제어할 수 있는데요, 외부 작용이 있는 작업의 최종 확인 및 민감 작업에는 인간 개입이 요구됩니다.

또한 보안 이슈로 이메일 전송 같은 기능은 제한되며, 비밀번호 입력이나 캡차 체크 시에도 통제권을 유저가 이양받게 됩니다.

사실 엄청 새로운 기능은 아닙니다. 세부 장단점과 구동 환경의 차이가 존재하지만, 10월 공개된 앤스로픽의 Computer Use와 12월 공개된 구글의 Project Mariner도 유사한 범용 GUI 에이전트를 표방합니다.

완전 자율형이 아닌 반쪽짜리 자율 에이전트 같기도 하지만, 여러 독립 작업을 막힘없이 수행하는 것 만으로도 의미가 존재합니다.

오픈AI 측은 아직 기술 완벽하지 않다는 점을 강조했습니다. 하지만 초기 단계라는 것은 반대로 개선의 여지가 많다는 것으로 해석될 수 있습니다.

o1에 o3으로, 인간과 유사한 지능을 달성하는데 소요된 시간은 불과 3개월이니까요

오퍼레이터는 리서치 프리뷰 상태로 미국 내 챗GPT Pro($200/월) 요금제 유저에게 먼저 제공됩니다. 현재는 별도 웹 페이지를 통해야하지만 향후 챗GPT 통합 계획이 존재하는데요

Pro 유저에게만 제공하는 이유에 기술의 불완정성 외에 소요되는 컴퓨팅 자원이 단순 챗 봇보다 높을 것이다라는 점도 생각해볼 필요가 있습니다.

또한 오픈AI는 CUA 모델의 API 제공까지도 생각하고 있습니다. 개발자는 CUA 기술을 활용해 커스텀된 에이전트 개발이 가능합니다.

처리할 수 있는 업무 범위의 확대와 함께 AI가 수동적 툴에서 능동적 참여자로 변화하는 초기 국면을 지나고 있습니다.

(2025/1/24 공표자료)
👍3👏1
저커버그 AI 및 Capex 코멘트

: 25년 ~1GW 규모 컴퓨팅 가동 계획
: GPU 130만 장 이상 보유 전망
: Capex 600-650억 달러 투자 계획
: AI팀 상당하게 확장 중
: 향후 몇 년간 지속적으로 투자할 자본 보유
👍2👏1
샘 알트먼, plus 구독의 o3 mini 쿼리 제한 코멘트

: Plus 구독은 1) o3 mini 일 100회 쿼리, 2) 오퍼레이터 기능 곧 추가, 3) 다음 에이전트 기능은 plus 구독에도 제공
👍2👏1
인공지능(AI) 스타트업 '퍼플렉시티 AI'(이하 퍼플렉시티)가 틱톡과의 합병을 추진하면서 지분 절반을 미국 정부에 넘기는 안을 제시했다고 미 경제매체 CNBC가 26일(현지시간) 보도했다.

CNBC는 앞서 지난 18일 퍼플렉시티가 틱톡 모회사인 바이트댄스에 자사와 틱톡 미국 법인의 합병을 통해 새로운 법인을 설립하겠다는 제안서를 제출했다고 보도했는데, 이날 퍼플렉시티가 합병 제안서 수정안을 바이트댄스 측에 건넸다고 전했다.

이 수정안에는 향후 퍼플렉시티와 틱톡 미국 법인을 결합하는 새로운 법인을 설립해 기업공개(IPO)를 할 때 미국 정부가 새 법인의 지분을 최대 50% 소유하도록 허용하는 방안이 담겨 있다고 CNBC는 보도했다.

https://m.yna.co.kr/view/AKR20250127012200075
👍31
[반.전] 중국 딥시크의 공포, 엔비디아 팔아야 하나요?

안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.

지난주 중국 AI 스타트업 딥시크가 공개한 모델이 주말 사이 큰 주목을 받으며, 반도체 주도로 나스닥 시장의 급락을 야기했습니다 (나스닥 -3%, SOX -9%, 엔비디아 -17%, 브로드컴 -17%)

미국의 수출 규제에도 불구, 더 적은 자원(=GPU)과 비용으로 미국에 버금가는 AI 모델 개발에 성공했기 때문입니다.

그리고 이에 따른 조정의 로직은,

1) 딥시크의 추론 모델 R1은 오픈AI o1과 유사하는 수준의 성능을 기록하면서도 가격은 95% 이상 저렴. 더구나 오픈 소스로 공개

2) 그러나 막대한 엔비디아 최신 GPU로 개발해 온 오픈AI와 달리, 이전부터 딥시크는 더 적은 리소스와 비용으로 개발 추진해온 것으로 알려짐

2-1) 이전 공개된 딥시크 V3 모델의 경우, 메타 Llama 대비 파라미터가 1.5배 크면서도, 훈련 비용은 1/10인 600만달러 미만 (그것도 저사양의 엔비디아 H800 사용)

3) 그렇다면 스케일링 법칙 (더 많은 하드웨어와 더 많은 훈련=성능 개선)이 무효한 것 아닐까?

4) 반도체를 비롯한 범 AI 인프라 수요를 다시 생각해봐야 하나?

물론 딥시크의 훈련 비용과 방법에 대해서는 논란이 있습니다. H100을 썼을 거라는 의심의 시각도 있고요.

다만 중요한 것은 잠시 하드웨어 수요를 떠나, 중국의 AI 기술이 미국과 맞먹는 것처럼 보여진다는 겁니다. 미국이 가장 견제하는 분야에서요.

미국의 스타게이트 프로젝트가 마침 지난 주 발표된 것도 우연이 아닐 지 모릅니다 (딥시크 R1 공개 이후 발표).

위와 같은 이유로의 시장 급락이 이해는 가지만, 오히려 중국의 빠른 추격을 고려하면 미국은 격차를 더 벌려야 하는 상황입니다.

그렇다면 오히려 투자를 더 늘려야 할 수도 있지 않을까요? 최적화 방안을 연구할 시간이 없습니다. 스케일링 법칙이 아직 유효하다면, 투자는 계속되어야 합니다.

저희가 지난 주 스타게이트 프로젝트 발표 이후, AI 인프라 사이클 기대감이 유효함을 말씀 드렸던 배경이기도 합니다.

갑자게 크게 훼손된 투자 심리가 한 번에 돌아서기는 어렵지만, 우선 이번주부터 예정된 클라우드 실적 발표를 살펴야 겠습니다.

투자자들은 이들의 CAPEX 코멘트 (투자 계획, 효율성 등)에 더욱 주목할 것입니다. 작년 여름 피크아웃 논란도 거셌지만, 결국 클라우드 업체들의 한 마디로 정리된 바 있습니다.

AI 투자를 견인하고 있는 클라우드의 의지가 꺾이기 전까진 사이클의 끝이 아닙니다.


감사합니다.

(2024/1/28 공표자료)
👍3
샘 알트먼, DeepSeek 관련 코멘트

: DeepSeek R1 모델은 특히 가격 대비 성능 면에서 인상적이라고 평가

: 오픈AI는 더 나은 모델을 제공할 것이며, 경쟁이 자극제가 된다는 점에서 긍정적으로 평가. 곧 새로운 발표를 암시

: 연구 로드맵을 계속 실행해 나갈 것이며, 성공을 위해 컴퓨팅 자원이 어느 때보다 중요하다고 강조

: 세계가 AI를 광범위하게 사용할 것이며, 차세대 AI 모델들이 사람들을 놀라게 할 것

: 마지막으로, AGI와 그 이상의 기술을 제공하겠다는 포부를 밝힘
👍8
오픈AI, 미 정부 전용 챗GPT Gov 출시

: 미 연방 정부 포함 공공 부문의 챗GPT 활용 지원. 보안 및 규정 준수 요구 사항을 충족하도록 설계. 챗GPT Enterprise와 동일한 기능 포함. MS Azure 상업용 또는 정부 클라우드 환경에서 배포 가능

https://openai.com/global-affairs/introducing-chatgpt-gov/
2👍1
트럼프 행정부의 AI 및 암호화폐 차르(Czar) 데이비드 삭스는 딥시크가 오픈AI 모델에서 지식을 증류(distilled)한 상당한 증거가 있다고 주장

국가안보위(NSC)가 딥시크 앱의 영향을 검토 중이며, 미 해군은 잠재적 보안 및 윤리 우려를 이유로 사용을 금지

https://techcrunch.com/2025/01/28/david-sacks-claims-theres-substantial-evidence-that-deepseek-used-openais-models-to-train-its-own/
👍2
블룸버그와 로이터 등은 28일(현지시간) 중국 딥시크가 오픈AI의 데이터를 훔쳐 새로운 모델을 개발했다는 증거가 있으며, 이에 따라 오픈AI가 방지 조치에 나섰다고 보도했다.

우선 블룸버그는 정통한 소식통을 인용, 지난해 가을 마이크로소프트(MS)의 보안 연구원들이 오픈AI의 API를 사용해 대량의 데이터를 빼내는 사례를 목격했다고 전했다. 이는 딥시크와 관련된 인물이 저지른 것으로, MS는 이를 오픈AI에 통보했다고 알렸다. 이는 오픈AI의 서비스 약관을 위반하는 사례다.

이어 트럼프 행정부의 인공지능 정책을 담당하는 'AI 차르' 데이비드 색스는 이날 폭스 뉴스와의 인터뷰를 통해 "딥시크가 오픈AI 모델을 활용해 기술을 개발했다는 상당한 증거가 있다"라고 밝혔다

오픈AI의 모델로 합성 데이터를 만드는 스타트업들이 많다는 것은 이미 지난 2023년부터 널리 알려진 사실로, 샘 알트먼 오픈AI CEO도 이를 인지하고 있지만 강제로 막을지는 고민하겠다고 밝힌 바 있다.

특히 일부 AI 전문가들은 지난해 말 딥시크가 출시한 'V3' 모델이 답변 중 "나는 오픈AI의 GPT-4"라고 주장하는 모습을 X(트위터)를 통해 공개한 바 있다. V3가 오픈AI 모델로 만든 합성 데이터를 학습한 증거라는 주장이다.

오픈AI도 이런 점을 파악하기 위한 자체 조사에 나선 것으로 일려졌다. 알트먼 CEO는 전날 X를 통해 딥시크를 "인상적인 도전자"나 "상쾌한 도전"이라고 가볍게 받아 쳤지만, 사실은 이를 심각하게 생각하고 있다는 것이다.

결국 오픈AI는 이날 성명을 통해 "AI의 선도적 구축자로서 우리는 IP를 보호하기 위한 대책을 실행하고 있으며, 출시된 모델에 포함할 최첨단 역량에 대한 신중한 프로세스를 포함하고 있다"라고 발표했다. 

이어 "앞으로 미국 정부와 긴밀히 협력, 적대자와 경쟁자가 미국 기술을 빼앗으려는 시도로부터 가장 유능한 모델을 보호하는 것이 매우 중요하다고 믿는다"라고 밝혔다. 

https://www.aitimes.com/news/articleView.html?idxno=167533
1👍1
딜런 파텔(Dylan Patel), 딥시크가 GPU에 5억 달러 이상 지출했다고 추정

Dylan Patel of chip consultancy SemiAnalysis has estimated that DeepSeek and its sister company, the hedge fund High-Flyer, have access to tens of thousands of Nvidia GPUs, which were used to train R1’s predecessors

“DeepSeek has spent well over $500mn on GPUs over the history of the company,” Patel said. “While their training run was very efficient, it required significant experimentation and testing to work.”


https://www.ft.com/content/ee83c24c-9099-42a4-85c9-165e7af35105

+) 딥시크의 H100 5만 장 보유 설에 대해 Hopper GPU 5만 장(H20, H800 + H100 일부) 언급이 와전되었다는 X 코멘트
👍41🤔1
디 인포메이션은 28일(현지시간) 오픈AI 임원진이 최근 일부 주주에게 챗GPT 프로의 구독 수익이 기존 기업용 서비스인 월 20달러짜리 '챗GPT 엔터프라이즈'의 수익을 넘었다고 말한 사실을 보도했다.

정확한 수치는 알려지지 않았다. 그러나 오픈AI 리더들의 발언에 따르면 챗GPT 프로의 현재 월 수익은 최소 2,500만달러로, 이를 12개월로 곱한 연간반복매출(ARR)은 최소 3억달러에 달하는 것으로 알려졌다.

이는 가장 최근 알려진 챗GPT 엔터프라이즈의 지난 9월 수익이 2,500만달러라는데 따른 추정치다. 따라서 이번 발언이 등장한 1월 현재 챗GPT 엔터프라이즈 수익은 더 늘어났을 가능성이 크며, 챗GPT 프로의 수익이 2,500만달러라는 것은 아주 보수적인 계산이라는 설명이다.

https://www.aitimes.com/news/articleView.html?idxno=167541
👍41🤔1
[삼성 이영진] 마이크로소프트(MSFT) F2Q25 실적 요약

■ F2Q25 실적
: 매출 696.3억 달러(+12%)
vs 컨센 688.7억 달러
: EPS 3.23
vs 컨센 $3.10

: PBP 294.4억 달러(+14%, +13% CC)
vs 컨센 288.9억 달러, 가이던스 287-290억 달러

: IC 255.4억 달러(+19%, +19% CC)
vs 컨센 258.3억 달러, 가이던스 255.5-258.5억 달러

: MPC 146.5억 달러(+0%, +0% CC)
vs 컨센 142.9억 달러, 가이던스 138.5-142.5억 달러

: Azure 성장 +31%
vs 컨센 +30.8%
: Azure 성장(CC 기준) +31%
vs 컨센 32%, 가이던스 31~32%
: Azure 내 AI 기여도 13%p

: Azure 성장 추이(CC 기준)
30% → 31% → 35% → 35% → 34% → 31%

: CAPEX 158억 달러(금융 리스 자산 제외)
vs 컨센 154.8억 달러
: CAPEX 추이(리스 제외)
99.2 → 97.4 → 109.5 → 138.7 → 149.2 → 158억 달러

: CAPEX 226억 달러(리스 포함)
: CAPEX 추이(리스 포함)
112 → 115 → 140 → 190 → 200억 → 226억 달러

: AI 사업은 연 매출 run rate 130억 달러 규모 +175% YoY

■ 가이던스는 어닝콜에서 발표(F3Q25 컨센)
: 매출 698.1억 달러
: PBP 299.3억 달러
: IC 269억 달러
: MPC 130억 달러
: Azure 성장(CC 기준) +33.4%

https://view.officeapps.live.com/op/view.aspx?src=https://microsoft.com/en-us/investor/earnings/FY-2025-Q2/Document/DownloadDocument/SlidesFY25Q2.pptx

감사합니다.
👍4
[삼성 이영진] 메타 플랫폼스(META) 4Q24 실적 요약

■ 4Q24 실적
: 매출 483.9억 달러(+21%)
vs 컨센 470억 달러, 가이던스 450~480억 달러
: EPS(GAAP) $8.02
vs 컨센 $6.76
: CAPEX 148.4억 달러
vs 컨센 152.5억 달러

■ 1Q25 및 FY25 가이던스
: 1Q25 매출 395-418억 달러 vs 컨센 417억 달러
: FY25 비용 114-119억 달러
: FY25 CAPEX 600-650억 달러(주커버그 코멘트와 동일) vs 컨센 526억 달러

https://s21.q4cdn.com/399680738/files/doc_news/Meta-Reports-Fourth-Quarter-and-Full-Year-2024-Results-2025.pdf

감사합니다.
👍1
메타 4Q24 어닝콜 주요 코멘트 - 1

■ Llama 4 관련
 
I think this will very well be the year when Llama and open source become the most advanced and widely used AI models as well. Llama 4 is making great progress in training, Llama 4 Mini is done with pre-training and our reasoning models and larger model are looking good too.


올해 Llama와 오픈 소스 AI 모델들이 가장 발전되고 널리 사용되는 해가 될 것이라고 생각합니다. Llama 4는 학습에서 큰 진전을 이루고 있으며, Llama 4 Mini는 사전 학습이 잘 진행되었고, 추론 모델과 큰 모델들도 좋은 성과를 보여주고 있습니다.
 
Llama 4 will be natively multimodal. It's an omni model, and it will have agenetic capabilities. So it's going to be novel, and it's going to unlock a lot of new use cases, and I'm looking forward to sharing more of our plan for the year on that over the next couple of months.


Llama 4는 멀티모달 모델이 될 것입니다. 이것은 옴니 모델로, 에이전틱 기능을 갖추게 될 것입니다. 따라서 매우 혁신적일 것이며, 많은 새로운 사용 사례를 열어줄 것입니다. 저는 올해 계획에 대해 앞으로 몇 달 안에 더 많은 정보를 공유할 수 있기를 기대하고 있습니다.
 
■ 에이전트 관련
 
I also expect that 2025 will be the year when it becomes possible to build an AI engineering agent that has coding and problem-solving abilities of around a good mid-level engineer. And this is going to be a profound milestone and potentially one of the most important innovations in history, like as well as over time, potentially a very large market, whichever company builds this first, I think it's going to have a meaningful advantage in deploying it to advance their AI research and shape the field. So that's another reason why I think that this year is going to set the course for the future.


저는 2025년이 코딩과 문제 해결 능력이 뛰어난 중급 엔지니어 수준의 AI 엔지니어링 에이전트를 구축할 수 있는 해가 될 것이라고 기대하고 있습니다. 매우 중요한 이정표가 될 것이며, 역사상 가장 중요한 혁신 중 하나로 자리잡을 가능성이 있습니다. 시간이 지나면서, 매우 큰 시장으로 성장할 가능성도 있습니다. 이 기술을 처음으로 구축하는 회사는 AI 연구를 발전시키고 이 분야를 선도하는 데 의미 있는 이점을 가질 것이라고 생각합니다. 올해가 미래를 위한 방향을 설정하는 해가 될 것이라고 믿는 또 다른 이유입니다.
 
I don't know that that's going to be an external product anytime soon. But I think for what we're working on, our goal is to advance AI research and advance our own development internally. And I think it's just going to be a very profound thing. So I mean that's something that I think will show up through making our products better over time.

 
물론 이 기술이 곧 외부 제품으로 출시될 것 같지는 않습니다. 우리의 목표는 AI 연구를 진전시키고 내부적으로 우리의 개발을 발전시키는 것입니다. 이 기술은 매우 중요한 영향을 미칠 것이라고 생각합니다. 시간이 지나면서 우리의 제품을 더 나아지게 만드는 데 기여할 것이라고 봅니다.
 
■ 인프라 관련
 
I announced last week that we expect to bring online almost a 1 gigawatt of capacity this year. And we're building a 2 gigawatt and potentially bigger AI data center that is so big that it will cover a significant part of Manhattan if we were placed there. We're planning to fund all this by, at the same time, investing aggressively in initiatives that use these AI advances to increase revenue growth. So we've put together a plan that will hopefully accelerate the pace of these initiatives over the next few years.


지난주에, 올해 약 1GW의 케파를 가동할 것으로 예상한다고 발표했습니다. 그리고 우리는 2GW, 또는 그보다 큰 AI 데이터센터를 구축하고 있습니다. 이 데이터센터는 너무 커서 맨해튼의 상당 부분을 차지할 정도의 규모가 될 것입니다. 우리는 데이터센터 구축을 진행하면서 동시에 AI 발전을 활용해 매출 성장을 가속화하는 여러 이니셔티브에 공격적으로 투자함으로써 자금을 조달할 계획입니다. 이러한 계획을 통해 앞으로 몇 년 동안 이니셔티브의 가속화를 기대하고 있습니다.
👍4
메타 4Q24 어닝콜 주요 코멘트 - 2

■ 딥시크 관련
 
I can start on the DeepSeek question. I think there's a number of novel things that they did that I think we're still digesting. And there are a number of things that they have advances that we will hope to implement in our systems. And that's part of the nature of how this works, whether it's a Chinese competitor or not. I kind of expect that every new company that has an advance -- that has a launch is going to have some new advances that the rest of the field learns from. And that's sort of how the technology industry goes.

 
DeepSeek 질문에 대해 먼저 말씀드리겠습니다. 그들이 실행한 몇 가지 혁신적인 요소가 있다고 생각하며, 이를 분석하고 있는 중입니다. 일부는 우리가 시스템에 구현하려고 하는 부분도 있습니다. 이는 기술 분야의 특성 중 하나입니다. 그것이 중국 경쟁사이든 아니든, 새로운 회사가 출범하면서 혁신을 가져오면, 업계의 나머지 사람들이 그로부터 배우는 것은 기술 산업에서 흔히 있는 일입니다.

I don't know -- it's probably too early to really have a strong opinion on what this means for the trajectory around infrastructure and CapEx and things like that. There are a bunch of trends that that are happening here all at once. There's already sort of a debate around how much of the compute infrastructure that we're using is going to go towards pre-training versus as you get more of these reasoning time models or reasoning models where you get more of the intelligence by putting more of the compute into inference, whether just will mix shift how we use our compute infrastructure towards that.


구체적으로 현 상황이 인프라와 CapEx 등에 어떤 영향을 미칠지에 대해서는 아직 판단하기 이르다고 생각합니다. 여러 트렌드가 동시에 진행되고 있기 때문입니다. 이미 컴퓨팅 인프라를 어떻게 사용할지에 대한 논의가 존재하고 있습니다. 우리가 사용하는 컴퓨팅 인프라 중 얼마나 많은 부분이 pre-training에 사용될지, 아니면 reasoning 시간이 많이 필요한 모델이나 추론 모델에 사용될지에 대한 것입니다. 추론에 더 많은 컴퓨팅 자원을 투입하면 높은 수준의 지능과 나은 품질의 서비스를 제공할 수 있죠. 이런 변화는 기존 인프라를 적용하는 방식에도 영향을 미칠 수 있습니다.

The other thing is just that when we're building things like Meta AI, but also how we're implementing AI into all the feeds and ad products and things like that, we're just serving billions of people, which is different from, okay, you start to pre-train a model, and that model is sort of agnostic to how many people are using it, like at some level, it's going to be expensive for us to serve all of these people because we are serving a lot of people. And so I'm not sure what the kind of net effect of all of this is.


또 다른 요점은 우리가 Meta AI 같은 것을 구축하는 방식뿐만 아니라, AI를 피드, 광고 상품 등에 통합하는 방식에서도 차이가 있다는 것입니다. 우리는 수십억 명의 사람들에게 서비스를 제공하고 있으며, 이는 단순히 모델을 pre-train하는 것과는 다릅니다. 사전 학습 모델은 사용자 수에 대한 고려가 없지만, 우리의 경우는 수많은 사용자에게 서비스를 제공하는 데 따른 비용이 상당히 크기 때문입니다. 따라서 이 모든 것이 어떤 순효과를 가져올지는 아직 확실하지 않습니다.
 
And I continue to think that investing very heavily in CapEx and infra is going to be a strategic advantage over time. It's possible that we'll learn otherwise at some point, but I just think it's way too early to call that. And at this point, I would bet that the ability to build out that kind of infrastructure is going to be a major advantage for both the quality of the service and being able to serve the scale that we want to.


CapEx와 인프라에 대한 대규모 투자가 시간이 지남에 따라 전략적 이점이 될 것이라고 계속 생각합니다. 언젠가는 그렇지 않을 수도 있다고 배울 가능성도 있지만, 현재로서는 이를 판단하기엔 훨씬 이른 시점이라고 봅니다. 현 시점에서 보자면, 이런 인프라를 구축할 수 있는 능력은 서비스 품질과 우리가 목표로 하는 규모로 서비스를 제공하는 역량에서 큰 이점이 될 가능성이 높다고 생각합니다.
👍51