[삼성 이영진] 글로벌 AI/SW
7.9K subscribers
1.3K photos
8 videos
1.58K links
삼성증권 글로벌 AI/SW 담당 이영진
Download Telegram
[삼성 이영진] 글로벌 AI/SW
딥시크, 최초 외부 자금 유치 추진 : 최소 100억 달러 밸류 기준으로 최소 3억 달러 조달 계획. 외부 자금 유치를 통한 컴퓨팅 자원 투자 및 연구인력 보상 가능 : 딥시크 V4는 2월 출시 보도가 있었으나, 엔지니어링 문제(화웨이 칩 구동) 등으로 일정 연기. 4월 말 발표 거론 https://t.me/Samsung_Global_AI_SW
딥시크 자금 조달에 텐센트, 알리바바 참여 논의 보도

: 밸류 200억 달러 이상 기준으로 자금 조달 추진. 앞서 밸류 100억 달러 기준 최소 3억 달러 조달 추진 보도

: 기준점은 문샷 AI. 현재 180억 달러 밸류 기준 신규 라운드 마무리(10억 달러 조달)

: Z. ai와 미니맥스는 홍콩 상장 당시 100억 달러 미만의 밸류였으나, 현재 시가총액은 400억 달러 및 300억 달러 이상

: 딥시크는 미국의 무역 제재리스트는 아니지만, 미 의회의 비판은 미국 VC 투자에 일부 걸림돌

: 신규 자금은 컴퓨팅 파워 확보와 인재 유지를 위해 불가피한 상황

https://t.me/Samsung_Global_AI_SW
👍31
구글 Cloud Next ’26 주요 발표 내용

: 생성형 AI 단계를 넘어 기업 운영 전반에 AI 에이전트를 내재화하는 Agentic Enterprise 시대 선언

: Gemini Enterprise를 중심으로 데이터, 앱, 직원, 에이전트를 하나의 운영 체계로 통합

: 기업이 구글 클라우드를 선택하는 이유 3가지
1) 완전히 통합된 AI 스택
2) 보안 중심 설계
3) Gemini Enterprise 기반 최첨단 AI 구축, 사용, 배포, 관리

: 주요 고객 지표 성장
- Google Cloud 고객의 약 75%가 AI 제품 사용
- 최근 12개월간 330개 고객사가 1조 토큰 이상 처리
- 35개 고객사는 10조 토큰 돌파
- 고객 API 기준 분당 160억 토큰 처리(vs 전분기 100억)

Gemini Enterprise Agent Platform

: 기업용 에이전트 운영 플랫폼 출시. 다양한 AI 에이전트를 중앙 통제, 관리하는 운영체제 역할

: Vertex AI 기반에 기능 추가로 구축, 배포, 확장, 거버넌스, 모니터링 전 과정 통합

Gemini Enterprise App

: 모든 직원이 직접 AI 에이전트를 만들고 활용하는 업무용 앱

: 일정, 이벤트 기반 자동화 Agent Designer 지원. 장기 실행 에이전트, 작업 Inbox, 반복 업무 Skills, 문서 작업 Canvas 포함

AI Infrastructure

: 8세대 TPU 공개
- TPU 8t → AI 학습용
- TPU 8i → 초저지연 추론용

: Managed Lustre 스토리지(초당 10TB), Virgo Networking 등 인프라 스택 강화

Agentic Data Cloud

: 에이전트 시대용 데이터 플랫폼

: Knowledge Catalog로 기업 데이터 맥락 제공. Cross-cloud Lakehouse로 멀티클라우드 데이터 통합. Data Agent Kit으로 AI 기반 데이터 분석·작성 지원

Agentic Defense

: Google 보안 플랫폼 + Wiz 결합한 AI 보안 스택

: 위협 탐지·대응·복구 자동화 에이전트 제공. 코드, 클라우드, 런타임, AI 앱까지 전 영역 보호

Agentic Taskforce

: 고객 서비스용 AI 기능 강화. Google Workspace 내 Workspace Intelligence 추가

: 앱 전반 통합 컨텍스트 제공으로 업무 생산성 향상

https://cloud.google.com/blog/topics/google-cloud-next/welcome-to-google-cloud-next26
3👍1
[삼성 이영진] 글로벌 AI/SW
구글 Cloud Next ’26 주요 발표 내용 : 생성형 AI 단계를 넘어 기업 운영 전반에 AI 에이전트를 내재화하는 Agentic Enterprise 시대 선언 : Gemini Enterprise를 중심으로 데이터, 앱, 직원, 에이전트를 하나의 운영 체계로 통합 : 기업이 구글 클라우드를 선택하는 이유 3가지 1) 완전히 통합된 AI 스택 2) 보안 중심 설계 3) Gemini Enterprise 기반 최첨단 AI 구축, 사용, 배포, 관리…
구글, 8세대 TPU 공개: 에이전트 시대를 겨냥한 이원화 전략

: TPU 8t → 초거대 모델 학습을 위한 고성능 학습 칩

- 이전 세대 대비 Pod당 연산 성능 약 3배
- 단일 Superpod 9,600개 칩 연결
- 2PB 고대역폭 공유 메모리
- 121 ExaFlops 연산 성능
- 칩 간 대역폭 2배 개선
- 저장장치 접근 속도 10배 향상
- 와트 당 성능 이전 세대 대비 124%

: TPU 8i → 에이전트, 추론용 저지연 추론 칩

- 288GB HBM 메모리
- 384MB 온칩 SRAM (이전 대비 3배)
- Google Axion ARM CPU 호스트 적용
- ICI 대역폭 19.2 Tb/s
- Collectives Acceleration Engine 탑재
- 온칩 지연 최대 5배 감소
- 성능/달러 80% 개선
- 동일 비용 처리량 2배 가까이 확대
- 와트 당 성능 이전 시대 대비 117%
- 달러 당 성능 이전 시대 대비 80% 향상

: 두 칩 모두 구글 딥마인드와 공동 설계. 올해 말 정식 출시 예정. Google AI Hypercomputer 인프라에서 제공 예정

https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/eighth-generation-tpu-agentic-era/
👍31
[삼성 이영진] 글로벌 AI/SW
구글, 8세대 TPU 공개: 에이전트 시대를 겨냥한 이원화 전략 : TPU 8t → 초거대 모델 학습을 위한 고성능 학습 칩 - 이전 세대 대비 Pod당 연산 성능 약 3배 - 단일 Superpod 9,600개 칩 연결 - 2PB 고대역폭 공유 메모리 - 121 ExaFlops 연산 성능 - 칩 간 대역폭 2배 개선 - 저장장치 접근 속도 10배 향상 - 와트 당 성능 이전 세대 대비 124% : TPU 8i → 에이전트, 추론용 저지연 추론 칩 …
순다르 피차이 구글 Cloud Next ‘26에서 내부 AI 활용 사례 공유

: 최고의 파트너가 되기 위해 스스로 먼저 고객이 되어 기술의 내부 활용 지속

1) 코딩 생산성 혁신

: 신규 코드의 75%를 AI가 생성 후 엔지니어 승인 (작년 가을 50%)

: 복잡한 코드 마이그레이션은 AI 에이전트+인간 협업으로 6배 빠르게 완료

: Mac용 Gemini 앱 초기 버전도 내부 에이전트 개발 플랫폼으로 수일 내 프로토타입 제작

2) 보안 자동화

: 보안 운영센터 AI 에이전트가 매달 수만 건의 위협 리포트를 자동 분류. 위협 대응 시간 90% 이상 단축

: CodeMender 등 AI 에이전트가 소프트웨어 취약점 탐지 및 수정 수행

3) 마케팅·운영 효율화

: Gemini in Chrome 출시 시 AI로 수천 개 광고 소재를 빠르게 생성. 제작 속도 70% 개선, 전환율 20% 상승

https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/cloud-next-2026-sundar-pichai/
👍3
[삼성 이영진] 글로벌 AI/SW 뉴스 🤖 (26/4/23)

■ 서비스나우 1Q26 실적 - 매출 37.7억 달러(vs 컨센 37.5억 달러) EPS $0.97(vs 컨센 $0.97)

■ 서비스나우 2Q26 가이던스 - 구독 매출 38.15~38.2억 달러(vs 컨센 37.5억 달러), 영업마진 26.5%(vs 컨센 30.1%)

■ 서비스나우 FY26 가이던스 - 구독 매출 157.35~157.75억 달러(vs 컨센 155.5억 달러), 영업마진 31.5%(vs 컨센 32%)

■ 구글, Cloud Next ‘26에서 8세대 TPU 라인업 공개. 제품군을 TPU 8t(학습용) 과 TPU 8i(추론용)으로 분리

■ 구글, Chrome에 Gemini 기반 auto browse 기능 도입. 기업 유저가 브라우저 안에서 반복 업무 자동화

■ 구글, Cloud Next ‘26에서 기업용 AI 에이전트 구축 플랫폼 Gemini Enterprise Agent Platform 공개

■ 구글, Thinking Machines Lab과 AI 인프라 확대를 위한 수십억 달러 규모 신규 계약 체결. 구글 클라우드의 최신 시스템과 엔비디아 GB300 기반 인프라 제공

■ 엔비디아-구글 클라우드, 에이전틱 및 피지컬 AI 팩토리 협력 확대 발표

■ 오픈AI, 챗GPT 내 Workspace Agents 공개. 팀이 공동으로 사용하는 클라우드 기반 에이전트. Codex 기반 구동

■ 오픈AI, ChatGPT for Google Sheets 출시

■ 오픈AI, 모델 및 생태계를 OpenClaw의 기본 선택지로 만들기 위해 작업 중. 다음주 추가 발표 예고

■ 오픈AI, 인포시스와 제휴. Topaz AI 플랫폼에 오픈AI 기술을 통합해 엔터프라이즈 시장 공략

■ 코어위브, ‘30년까지 5GW 캐파를 추가해 활성 전력 캐파 8GW+ 목표

■ 마이크로소프트, Foundry Agent Service에 ‘Hosted Agents’ 공개. 기업용 에이전트 전용 클라우드 런타임 강화

■ 마이크로소프트, 내부 개발한 멀티모델 AI 보안 스캐닝 솔루션 제품화 계획. 6월 프리뷰 버전 공개

■ 팔란티어, 미국 농무부(USDA)와 3억 달러 규모 계약 체결. 목적은 미국 농업 서비스 현대화

■ 샤오미, MiMo-V2.5 모델 시리즈 발표

■ xAI, 최근 몇 주간 Cursor, 미스트랄 AI와 3자 협력 가능성 논의

감사합니다.
👍62
오픈AI, 챗GPT workspace agents 발표

: 기존 개인형 GPTs 의 진화형. 조직 내 공유 가능한 장기 실행형 AI 에이전트로, 팀 단위 업무 자동화를 목표로 설계. 프로세스 준수, 승인 요청, 부서 간 핸드오프 지원

: 보고서 작성, 코드 작성, 이메일 응답, 데이터 분석 등 수행. 클라우드에서 지속 실행되며 파일·코드·앱·메모리 활용 가능

: 오픈AI 내부에서도 세일즈·제품·회계팀이 사용 중. 챗GPT 사이드바 Agents 메뉴에서 자연어로 생성 가능

: ChatGPT Business, Enterprise, Edu, Teachers 대상 프리뷰 출시. 5월 6일까지 무료, 이후 크레딧 기반 과금 예정

https://openai.com/index/introducing-workspace-agents-in-chatgpt/
👍1
서비스나우(NOW US) 1Q26 리뷰

안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.

서비스나우가 1Q SW 섹터 실적의 시작을 열었지만, 시간 외 12% 하락과 함께 섹터 전반에 부정적 영향을 주었습니다.

실적은 나쁘지 않았습니다. 중동 지역 발 매크로 불확실성과 중동 대형 온프레미스 딜 체결 지연 영향에도 딜, 고객 수 등 주요 지표는 긍정적이었습니다.

AI에 대해서도 긍정적 톤을 유지했습니다. 26년 AI 커밋은 기존 10억 달러 목표에서 50% 상향된 15억 달러를 제시했습니다.

AI 기능은 모든 SKU에 포함되었고, 단순 AI 기능 제공을을 넘어 데이터, 보안, 옵저버빌리티 등 스택을 통합한 개방형 플랫폼을 지향하고 있습니다.

축적된 기업 운영 데이터 기반 컨텍스트 엔진은 차별화 포인트입니다. 종말론과 진화론 사이에서 진화하는 그룹으로 분류될 수 있는 기반입니다.

하지만 시장에 퍼져있는 소프트웨어 비관론에 대한 대답은 이전부터 나오던 것이긴 합니다.

AI 모델 기업이 손쉽게 글로벌 대기업의 업무를 모두 처리할 수 있는 것은 아니며,

고객들은 AI에 대한 기대가 크지만, 무엇을 해야할지 정확히 모르는 상태가 지속된다는 입장입니다.

실적에서 문제는 Armis 인수 완료에 따른 영향 속 다소 혼재된 가이던스입니다. 

인수는 탑라인 성장에는 긍정적으로 작용하고 있으나, 반대로 마진에는 부정적으로 작용하고 있습니다.

또한 인수 효과를 제외하면 FY26 구독 매출 가이던스는 오히려 낮아지는 모습입니다.

단기 부정적 마진 이슈는 통합에 따른 플랫폼 레버리지와 내부 AI 효율성 기반 정상화를 전망하고 있습니다.

결론적으로 시장은 유기적 성장의 가속화를 기대했지만, 다음 분기가 지나야 확인이 가능할 것으로 보이는 상황입니다.

비관론이 순간 순간 고개를 드는 상황에서 선제적인 베팅을 할 필요는 없다는 생각입니다.

(2026/4/23 공표자료)
😢1
샤오미, MiMo-V2.5 시리즈 발표

■ MiMo-V2.5 Pro

: 에이전트형 작업과 장기 과제 수행 능력이 향상된 최신 모델(베타). 향후 오픈소스 공개 예정

: 1,000회 이상 툴 호출이 필요한 초창기 작업에서도 높은 문맥 일관성 유지. 스스로 오류를 감지, 수정하며 작업 지속

: API, AI 스튜디오 등 전 플랫폼에 동일 가격으로 배포. 미국 프론티어 모델 대비 40~60% 적은 토큰 사용량 강조

링크: https://mimo.xiaomi.com/mimo-v2-5-pro/

■ MiMo-V2.5

: 에이전트 성능과 멀티모달 이해력을 개폭 강화한 신규 모델. 이미지 및 오디오를 네이티브로 지원하는 멀티모달 에이전트 지향. 최대 100만 토큰 컨텍스트 지원

링크: https://mimo.xiaomi.com/mimo-v2-5/
👍1
소프트뱅크그룹(9984 JP), OpenAI 지분 담보 자금조달 검토

1) 딜 개요


- 조달 규모: 약 100억달러 (약 1.6조엔)
- 방식: 보유 자산 담보 대출
- 담보: OpenAI 비상장 지분
- 만기: 2년 + 1년 연장 옵션 검토
- 과거에도 Arm Holdings 상장 전 지분을 담보로 자금조달 경험 존재

2) AI 투자 확대에 따른 자금 수요 증가

- OpenAI 300억달러 추가 투자(2026년 2월), 누적 646억달러, 지분 약 13% 수준
- 미국 AI 데이터센터 투자 총 5,000억달러 프로젝트 (오하이오), SBG도 일부 투자 참여

3) 최근 자금조달 흐름

- 3월: 최대 400억달러 브릿지론 확보(1년 만기)
- 4월: 외화채 발행, 일부 브릿지론 상환
- 이번 OpenAI 지분 담보 추가 레버리지 검토
- 자금조달 구조 확대 중

4) 투자 관점 주요 포인트

(1) OpenAI 지분 ‘금융자산화’

- 단순 전략적 투자에서 실질 담보 자산으로 활용
- 비상장 자산이지만 높은 밸류 신뢰 반영

(2) 레버리지 확대 지속

- 브릿지론, 회사채, 담보대출
- 총부채 증가 구조
- 과거 Vision Fund 시기와 유사한 패턴 재현 가능성

(3) AI 올인 전략 강화

- 플랫폼(OpenAI) + 인프라(데이터센터) 동시 투자
- 자금조달 자체가 AI 투자 가속의 시그널

5) 리스크 요인

- 비상장 지분 담보 리스크(밸류 변동 시 담보가치 훼손 가능성
레버리지 상승)
- 금리/시장 변동 민감도 확대
- 유동성 롤오버 리스크(단기 차입 비중 증가)

[삼성증권 이창희] 일본주식

채널 링크

https://t.me/samsungpe
1👍1
마이크로소프트, 오피스 Copilot Agent 기능 확대 정식 출시

: Copilot이 단순 질의응답형 보조를 넘어, Word·Excel·PowerPoint 안에서 직접 다단계 앱 네이티브 작업을 수행하는 형태로 진화

: 문서 초안 작성, 재작성, 구조 재편, 데이터 분석, 시각화, 발표자료 업데이트 등 결과물 완성까지 이어지는 작업을 앱 내에서 연속 수행

: 사용자는 변경 사항을 검토·선택·조정할 수 있어, 완전 자율형이라기보다 human-in-the-loop 협업 구조에 가까움

https://www.microsoft.com/en-us/microsoft-365/blog/2026/04/22/copilots-agentic-capabilities-in-word-excel-and-powerpoint-are-generally-available/

+ 홍보를 위해 1990년대 엑셀 엘리베이터 광고의 2026년 버전 공개

‘26년 광고 https://youtu.be/iEVx2ylAbI4

’90년 광고 https://youtu.be/HegoJaXOIqQ
👍4
SK하이닉스 최고 실적의 소회 - 장기 호황 진입
[삼성증권 반도체, IT/이종욱]


SK하이닉스의 1Q 실적을 어떻게 보셨을지 궁금합니다. 만족감과 한계를 동시에 느끼는 자리였습니다. 중요하다고 생각할만한 세 가지를 꼽아 보았습니다.

1. 장기 호황의 확인
- 회사가 직간접적으로 공급 증가가 나타나기 힘들다는 것을 강조했습니다. 투자는 상향되지만 27년 생산 증가율은 오히려 둔화될 가능성이 높습니다.
- 수요의 가격 탄력성이 매우 낮습니다. 메모리를 더 많이 쓰는 AI 기술이나, 비용을 감내하는 성능 경쟁이 변화하지 않는 한 제한적 공급 속에 호황은 끝나지 않을 것입니다.

2. LTA와 이익 안정화
- LTA의 도입은 시장이 호황이 장기화될 것이라는 강력한 증거라고 판단하며 긍정적입니다.
- 그러나 투자자의 입장에서 보면 Duration이 문제입니다. LTA의 효익은 장기간에 걸쳐 주가에 반영되겠지만 LTA로 인한 이익 업사이드 제한은 단기적으로 주가에 영향을 미칠 것이기 때문입니다.
- 동사가 적극적으로 LTA를 도입하기로 결정했면, 투자 판단도 이에 맞춰 장기적인 업사이드에 맞춰야 할 것입니다.

3. 명확한 주주환원 정책이 필요
- 업황보다 정책이 더 모호한 순간입니다. 투자자들의 관심사는 얼마나 벌 것이냐에서 어떻게 분배할 것이냐로 확장되고 있습니다.
- 기업에서는 연내 명확한 주주환원 정책을 제시하겠다고 밝혔습니다. 이는 주가의 하방 경직성을 강화할 것으로 기대합니다.

27년까지 호황이 이어지는 구체적인 증가들이 나타날 때마다 주식은 내년의 추가 성장을 반영할 것입니다.
ROE 86%의 수익성 속에서 디레이팅 속도가 북밸류 증가 속도를 이기기는 어렵습니다.
우리는 26년과 27년 영업이익을 각각 228조원과 284조원으로 추정하며 목표주가 180만원을 유지합니다.

보고서 링크: https://bit.ly/4e42fzc

감사합니다.

(2026/4/23 공표자료)
👍4
오픈AI, GPT-5.5 발표

: 실제 업무(real work)에 최적화된 차세대 플래그십 모델. 단순 답변형 AI를 넘어 복잡한 작업을 스스로 계획·실행·검증하는 에이전트형 AI 지향

: 코딩, 디버깅, 리서치, 데이터 분석, 문서 작성, 스프레드시트 생성, 앱 조작 등 전반적 업무 자동화 능력 강화

: 긴 문맥 유지, 다단계 작업 처리, 툴 연동, 오류 수정 및 재시도 능력 개선

: GPT-5.4와 동일한 응답 속도를 유지하면서 더 적은 토큰으로 동일 작업 수행 → 비용 효율성 상승

: NVIDIA GB200·GB300 NVL72 인프라에 맞춰 설계·훈련·서빙. Codex는 GPT-5.5 인프라 최적화 코드 작성에도 활용

: API 출시 예정 가격 기준 GPT-5.5는 입력 $5 및 출력 $30, GPT-5.5 Pro는 입력 $30 및 출력 $180 / 백만 토큰

https://openai.com/index/introducing-gpt-5-5/
👍1
[삼성 이영진] 글로벌 AI/SW 뉴스 🤖 (26/4/24)

■ 오픈AI, GPT-5.5 발표. 실제 업무에 최적화된 차세대 플래그십 모델. 단순 답변형 AI를 넘어 복잡한 작업을 스스로 계획·실행·검증하는 에이전트형 AI 지향

■ 오픈AI, 임상 관련 업무를 지원하도록 설계된 전용 챗GPT for Clinicians 출시

■ 메타, 전체 인력의 10%인 8,000명 규모 감원 추진. 추가 채용 예정인 6,000개 포지션도 철회

■ 마이크로소프트, 최대 7% 미국 직원 대상 자발적 퇴직 프로그램 실시

■ 마이크로소프트, 29년까지 호주에 180억 달러를 투자해 AI 클라우드 인프라 확장 추진

■ 아마존, 구글 출신 반도체 설계 베테랑 Steve Molloy를 AI Silicon 부사장 직위로 영입

■ 앤스로픽, Connectors for everyday life 공개. 개인이 매일 사용하는 서비스와 연결해 실제 생활 업무 자동화

■ 앤스로픽, 유럽 데이터센터 계약 확보 추진. 현지 컴퓨트 캐파 협상 전담 인력 채용 진행

■ 구글, 오스트리아 Kronstorf에 알프스 지역 첫 데이터센터 투자 계획 발표

■ 백악관, 중국 중심 외국 기관의 대규모 AI 증류 정황에 따른 대응 예고,

■ 텐센트, Hy3 Preview 모델을 허깅페이스와 깃허브에 오픈소스로 공개

■ 어플라이드 디지털, 430MW 규모 Delta Forga 1 AI 팩토리 캠퍼스에 미국 기반 하이퍼스케일러 계약 체결 발표. 15년 임대 계약 가치 75억 달러

감사합니다.
👍2
[삼성 이영진] 글로벌 AI/SW
오픈AI, GPT-5.5 발표 : 실제 업무(real work)에 최적화된 차세대 플래그십 모델. 단순 답변형 AI를 넘어 복잡한 작업을 스스로 계획·실행·검증하는 에이전트형 AI 지향 : 코딩, 디버깅, 리서치, 데이터 분석, 문서 작성, 스프레드시트 생성, 앱 조작 등 전반적 업무 자동화 능력 강화 : 긴 문맥 유지, 다단계 작업 처리, 툴 연동, 오류 수정 및 재시도 능력 개선 : GPT-5.4와 동일한 응답 속도를 유지하면서 더 적은 토큰으로…
오픈AI-엔비디아, GPT-5.5 기반 협력 강조

<샘 올트먼은 젠슨 황과 주고받은 이메일 공개>

: 오픈AI Codex는 최신 모델 GPT-5.5 기반으로 구동되며, NVIDIA GB200 NVL72 시스템 위에서 운영

: 엔비디아 내 엔지니어링, 제품, 법무, 마케팅, 재무, 영업, HR 등 전 부문에서 1만 명 이상 직원이 GPT-5.5 기반 Codex 조기 사용

: 내부 직원 반응은 “mind-blowing”, “life-changing” 수준으로 표현

: NVIDIA GB200 NVL72 기준 이전 세대 대비 백만 토큰당 비용 35배 절감, MW당 초당 토큰 처리량 50배 향상

: 프론티어 모델 추론을 대기업 규모에서도 경제적으로 운영 가능하다고 강조

https://blogs.nvidia.com/blog/openai-codex-gpt-5-5-ai-agents
👍3
앤스로픽, Claude Code 품질 이슈에 대한 업데이트

■ 핵심 결론

: 최근 Claude Code 성능 저하 보고는 모델 자체 열화가 아니라 제품 운영·프롬프트·세션 관리 변경 3건의 복합 영향 때문이었다고 설명

: Claude API 및 추론 엔진은 영향 없었으며, 문제는 Claude Code / Agent SDK / Cowork 환경에 국한

: 모든 이슈는 4월 20일 v2.1.116 기준 수정 완료, 구독자 사용 한도도 전면 리셋

■ 성능 저하 원인 ① 기본 추론 강도 하향

: 3월 4일 Claude Code 기본 추론 강도를 high → medium으로 변경. 긴 응답 지연과 UI 멈춤 현상을 줄이기 위한 조치였으나, 사용자들은 “덜 똑똑해졌다”고 체감

: 4월 7일 롤백. 현재는 Opus 4.7 = xhigh, 기타 모델 = high 기본값

■ 성능 저하 원인 ② 메모리/맥락 삭제 버그

: 1시간 이상 유휴 세션 재개 시 오래된 thinking 기록을 한 번만 정리하도록 변경했으나, 버그로 이후 매 턴마다 reasoning 기록 삭제

: 결과적으로 Claude가 이전 맥락을 잊고 반복 답변, 이상한 툴 선택, 작업 흐름 붕괴 발생. 캐시 미스로 사용 한도 소모가 빨라졌을 가능성도 제시. 4월 10일 수정 완료

■ 성능 저하 원인 ③ 과도한 간결화 프롬프트

: 4월 16일 “툴 호출 사이 25단어 이하 / 최종 답변 100단어 이하” 시스템 프롬프트 추가

: 장황함을 줄이려던 목적이었지만 다른 프롬프트 변경과 결합되며 코딩 품질 저하 발생. 내부 평가에서 약 3% 성능 하락 확인 후 4월 20일 철회

■ 왜 광범위한 성능 저하처럼 보였나

: 세 가지 변경이 서로 다른 날짜·사용자 그룹·트래픽에 적용돼, 사용자 입장에서는 전체적으로 성능이 흔들린 것으로 체감

■ 향후 개선책

1. 공개 빌드를 내부 직원들이 더 많이 직접 사용
2. 내부 코드 리뷰 도구 개선 후 고객에도 제공
3. 시스템 프롬프트 변경 통제 강화
4. 지능과 트레이드오프 있는 변경은 점진 배포
5. X에 ClaudeDevs 계정 개설

https://www.anthropic.com/engineering/april-23-postmortem
👍3
딥시크, DeepSeek-V4 프리뷰 발표

: V4 Pro → 1.6조 파라미터, 490억 활성 파라미터

: V4 Flash → 2,840억 파라미터, 130억 활성 파라미터

: Pro와 Flash 모두 100만 토큰 컨텍스트

1. 하이브리드 어텐션 아키텍처
: CSA + HCA 결합 하이브리드 어텐션 매커니즘. 긴 문맥 처리 효율 향상
: V3.2 대비 단일 추론 FLOPs의 27%만 필요. KV 캐시는 10% 사용

2. mHC(Manifold-Constrained Hyper-Connections)
: 잔차 연결 강화 목적. 레이어 전반의 신호 전달 안정성 향상. 모델 표현력 유지 달성

3. Muon 옵티마이저
: 수렴 속도 향상과 학습 안정성을 위한 Muon 옵티마이저 적용

: 사전학습에 32조 토큰 이상 활용. 사후학습은 SFT, GRPO 기반 강화학습(RL), On Policy 증류를 통한 통합 모델 정제 적용

https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro
👍3
오픈AI GPT-5.5, 모두가 쓸 수 있는 프런티어 AI

안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.

오픈AI가 GPT-5.5를 발표하며 프런티어 AI 경쟁에서 다시 앞서가는 모습을 보여줬습니다.

실제 업무에 최적화된 차세대 플래그십 모델로 정의하고 있는데요

전반적 업무 자동화 능력이 강화되었고, 에이전틱 코딩, 컴퓨터 활용, 지식 노동, 초기 과학 연구 분야 등의 성과가 강조되었습니다.

기반에는 장기 문맥 유지, 다단계 작업 처리, 툴 연동, 오류 수정 및 재시도 능력의 개선이 있습니다.

벤치마크에 대한 의견은 엇갈리지만, 상당한 개선을 달성한 업데이트라는 것은 분명하고, 실체감에서도 긍정적 평가가 이어지고 있습니다.

중요한 것은 GPT-5.4와 동일한 응답 속도를 유지하며, 더 적은 토큰으로 동일 작업 수행이 가능하다는 점입니다.

즉, 속도나 비용 측면의 효율성 개선을 지속하고 있습니다. 기반에는 엔비디아 GB200 활용 협력과 Codex 활용 등이 꼽히는데요

API 가격이 2배 올랐지만, 토큰 사용량이 감소해 체감되는 비용 단의 변화를 제한하고 있습니다.

현재 프런티어 AI 기업은 모두 엔터프라이즈 AI 분야 확장을 노리고 있는데요

화두가 되는 것은 컴퓨팅 캐파 제약입니다. 특히 앤스로픽은 캐파 부족에서 발생하는 노이즈가 지속되고 있는 상황입니다.

오픈AI는 효율적 모델과 추론 스택, 컴퓨트 확보를 강조하며, 앤스로픽의 아픈 부분을 지속 공략하고 있습니다.

엄청난 성능의 모델(Mythos)도 좋지만, 당장 안정적으로 쓸 수 있는 최적화 모델은 강력한 장점이 됩니다.

자세한 내용은 보고서 참고 부탁드립니다.

보고서 링크: https://bit.ly/4txulaR

(2026/4/24 공표자료)
7👍3
[삼성 이영진] 글로벌 AI/SW
딥시크, DeepSeek-V4 프리뷰 발표 : V4 Pro → 1.6조 파라미터, 490억 활성 파라미터 : V4 Flash → 2,840억 파라미터, 130억 활성 파라미터 : Pro와 Flash 모두 100만 토큰 컨텍스트 1. 하이브리드 어텐션 아키텍처 : CSA + HCA 결합 하이브리드 어텐션 매커니즘. 긴 문맥 처리 효율 향상 : V3.2 대비 단일 추론 FLOPs의 27%만 필요. KV 캐시는 10% 사용 2. mHC(Manifold…
딥시크, DeepSeek-V4 발표

안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.

오픈AI의 GPT-5.5를 기다린듯 딥시크의 DeepSeek-V4 프리뷰 버전이 발표되었습니다.

이번 주 알리바바 Qwen3.6-Max, 문샷 AI Kimi-K2.6, 샤오미 MiMo-V2.5 시리즈에 이어 중국에서 4번째 모델 발표입니다.

50 페이지가 넘는 기술 보고서에서 효율 최적화에 대한 디테일한 내용이 담겨있는데요. 우선 기본적 내용 전달드립니다.

모델은 Pro와 Flash로 구성됩니다. Pro는 1.6조(활성 490억) 파라미터, Flash는 2,840억(활성 130억)파라미터 구성입니다. 모두 100만 컨텍스트를 지원하는데요

벤치마크 측면에서는 Opus 4.6이나 GPT-5.4와 유사한  수준입니다. Kimi-K2.6을 넘어 오픈소스 및 중국 1위를 달성할 것으로 보입니다.

Claude Code, OpenClaw, OpenCode 같은 에이전틱 워크플로우 최적화도 강조되었습니다.

물론 출시가 이렇게 지연된 것 치고, 성능이 아쉬워 보일 수 있지만, 딥시크는 원래도 미국 기업을 넘은 적은 없습니다.

주요 특징 중 mHC(잔차 연결 강화 목적)와 Muon 옵티마이저(수렴 속도 향상과 학습 안정성 목적)는 이미 논문으로 발표되었고, 다른 기업도 활용하던 부분이지만,

CSA(압축 희소 어텐션)와 HCA(초압축 요약형 어텐션)를 결합한 하이브리드 어텐션 매커니즘이 중요합니다.

쉽게 표현하면 초장문 컨텍스트를 현실적으로 처리하기 위해 압축 어텐션을 섞어 쓰는 구조입니다.


CSA는 토큰을 압축 후 중요한 일부만 선택해서 집중하는 방식이고, HCA는 더 큰 단위로 강하게 압축한 뒤 전체를 효율적으로 보는 방식입니다.

기존 V3.2에 적용된 DSA를 확장 및 진화시켜 정확도와 비용의 균형점을 찾았습니다.

그 결과, V4-Pro는 V3.2 대비 단일 추론 FLOPs의 27%만 필요하고, KV 캐시는 10%만 사용합니다. Flash는 FLOPs 10% 및 KV 캐시 7% 수준의 절감입니다.

API 가격은 Pro 인풋 $1.74 및 아웃풋 $3.48, Flash 인풋 $0.14 및 아웃풋 $0.28 입니다. Pro 기준 V3.2(인풋 $0.28 및 아웃풋 $0.42)보다는 높은데요

높은 연산 수요 영향으로 Pro 서비스가 제한적으로 제공되고 있고, 하반기 화웨이 Ascend 950 클러스터 가동에 따른 Pro 가격 인하를 시사했습니다.

컴퓨팅 예산에 맞춘 세가지 추론 모드 제공, 세밀한 정밀도 설정도 특유의 가성비를 강화하고 있습니다.

(2026/4/24 공표자료)
👍4
메타, AWS의 Graviton 칩 도입 협력

: 메타가 수천만 개 규모의 AWS Graviton 코어를 자사 컴퓨트 포트폴리오에 편입. 세계 최대 Graviton 고객 중 하나가 될 전망

: 에이전틱 AI 확대에 따라 GPU뿐 아니라 CPU 기반 시스템 운영·데이터 처리 수요도 증가

: AWS Graviton5 코어는 빠른 데이터 처리와 높은 대역폭을 제공하며 해당 수요 대응 목적

: 메타는 자체 칩, GPU, 외부 클라우드 칩을 병행하는 멀티아키텍처 인프라 전략 강화

: AWS 입장에선 Graviton이 내부 인프라용을 넘어 외부 초대형 고객사까지 확장됐음을 보여주는 사례

https://about.fb.com/news/2026/04/meta-partners-with-aws-on-graviton-chips-to-power-agentic-ai/
👍4