๋ฏธ๊ตญ์์ ์ง๋ด๋ฉด์ ๋ค์๋ ์ฌ๋ฌ๊ฐ์ง ์๊ฐ๋ค์ ์ ์ด๋ดค์ต๋๋ค. ๋์์๋ ๊ธฐ๋ก๋ค์ด์ง๋ง ๋์ค์ ๋์ด์ผ ๋ดค์ ๋์ ์ด ๋์ ์ ๋ฅผ ๊ธฐ์ตํ ์ ์๋ ์๋จ์ผ ๊ฒ ๊ฐ์ ๊ธฐ๋กํ๊ณ ํน์ ๋๊ตฐ๊ฐ์๊ฒ ๋์์ด ๋ ์ ์์๊น ํด์ ๊ณต๊ฐํฉ๋๋ค.
์ ๋ฏธ๊ตญ์ ์๋์ง ์์ ์ด๋ค ๊ฒ์ ๋ณด๊ณ ๋๋ผ๊ณ ์๋์ง, AI์ ๋ํด์๋ ์ด๋ค ์๊ฐ์ ๊ฐ์ง๊ณ ์๋์ง, ๋ฏธ๊ตญ์์ ํด๋ณผ๋งํ ์ฌ์ ์ ๊ธฐํ์ ๋ํด์, ๋ฏธ๊ตญ์์ ๋ค์ ์ ์ฉ์ ์์๊ฐ๋ ์ํฉ, ์ข์ ์ธ์์ ์ด๊ธฐ ์ํด ๋ ธ๋ ฅํ๋ ๊ฒ๋ค, ์ฐฐ๋ฆฌ ๋ฉ๊ฑฐ๊ฐ ๋จ๊ธด Legacy, ์ฌ๋ฐ๊ฒ ์ฝ์๋ ๊ธ์ ๋ํด์ ๋ฉ๋ชจํด๋ดค์ต๋๋ค.
https://www.notion.so/matthewcontinuouslearning/23-Oct-Nov-9fdc28312ac54dd0b975c495ee4bfff9?pvs=4
์ ๋ฏธ๊ตญ์ ์๋์ง ์์ ์ด๋ค ๊ฒ์ ๋ณด๊ณ ๋๋ผ๊ณ ์๋์ง, AI์ ๋ํด์๋ ์ด๋ค ์๊ฐ์ ๊ฐ์ง๊ณ ์๋์ง, ๋ฏธ๊ตญ์์ ํด๋ณผ๋งํ ์ฌ์ ์ ๊ธฐํ์ ๋ํด์, ๋ฏธ๊ตญ์์ ๋ค์ ์ ์ฉ์ ์์๊ฐ๋ ์ํฉ, ์ข์ ์ธ์์ ์ด๊ธฐ ์ํด ๋ ธ๋ ฅํ๋ ๊ฒ๋ค, ์ฐฐ๋ฆฌ ๋ฉ๊ฑฐ๊ฐ ๋จ๊ธด Legacy, ์ฌ๋ฐ๊ฒ ์ฝ์๋ ๊ธ์ ๋ํด์ ๋ฉ๋ชจํด๋ดค์ต๋๋ค.
https://www.notion.so/matthewcontinuouslearning/23-Oct-Nov-9fdc28312ac54dd0b975c495ee4bfff9?pvs=4
KIM MINSEOK's Notion on Notion
23 Oct-Nov ๋ฏธ๊ตญ์์ ์ํํ๋ฉฐ ์๊ฐํ ๊ฒ๋ค | Built with Notion
2๋ฌ๊ฐ ๋ฏธ๊ตญ์์ ๋จธ๋ฌผ๋ฉด์ ์๊ฐํ๋ ๊ฒ๋ค์ ๋์์์ด ๋ฉ๋ชจํด๋ดค๋ค. ์ผ๊ธฐ์ฅ ๊ฐ์ ๊ธฐ๋ก๋ค์ด์ง๋ง ๋์ค์ ๋์ด์ผ ๋ดค์ ๋์ ๊ทธ ๋์ ๋๋ฅผ ๊ธฐ์ตํ ์ ์๋ ์๋จ์ผ ๊ฒ ๊ฐ์ ๊ธฐ๋กํ๊ณ ํน์ ๋๊ตฐ๊ฐ์๊ฒ ๋์์ด ๋ ์ ์์๊น ํด์ ๊ณต๊ฐํฉ๋๋ค.
๐ฅ3
๋จ๋ฐฑ์ง ํ๋ก๊ทธ๋๋ฐ ํ๋ซํผ ๊ตฌ์ถํ๋ Cradle, $24M ๊ท๋ชจ์ Series A ์๊ธ ์กฐ๋ฌ
- ๋จ๋ฐฑ์ง์ ์๋ฏธ๋ ธ์ฐ ์์ด์ด โ์ธ๊ณ์ ํ๋ก๊ทธ๋๋ฐ ์ธ์ด์ ๋น์ทํ๋คโ๋ ํต์ฐฐ์ ๋ฐํ์ผ๋ก AI ๋ชจ๋ธ์ ๋ถ์ ๊ตฌ์กฐ ํ์ต
- ๋จ๋ฐฑ์ง์ ์๋ฏธ๋ ธ์ฐ ์์ด์ด โ์ธ๊ณ์ ํ๋ก๊ทธ๋๋ฐ ์ธ์ด์ ๋น์ทํ๋คโ๋ ํต์ฐฐ์ ๋ฐํ์ผ๋ก AI ๋ชจ๋ธ์ ๋ถ์ ๊ตฌ์กฐ ํ์ต
TechCrunch
Cradleโs AI-powered protein programming platform levels up with $24M in new funding
Biotech and AI startup Cradle is finding success with its generative approach to protein design, landing big customers and a hefty $24 million of new
Stability AI, ํ์ฌ ๋งค๊ฐ ๊ฒํ ์ค(๋ธ๋ฃธ๋ฒ๊ทธ)
- ๊ธฐ์ ์ ๋ถ์์ ํ ์ฌ๋ฌด ์ํ์ ๋ํ ํฌ์์๋ค์ ์๋ฐ๊ณผ CEO ์ฌ์ ์ด๊ตฌ ๋ฑ์ผ๋ก, ํ์ฌ ๋งค๊ฐ์ ๊ฒํ ์ค
- ๊ธฐ์ ์ ๋ถ์์ ํ ์ฌ๋ฌด ์ํ์ ๋ํ ํฌ์์๋ค์ ์๋ฐ๊ณผ CEO ์ฌ์ ์ด๊ตฌ ๋ฑ์ผ๋ก, ํ์ฌ ๋งค๊ฐ์ ๊ฒํ ์ค
Bloomberg.com
Stability AI Has Explored Sale as Investor Urges CEO to Resign
Stability AI, the British artificial intelligence startup behind the Stable Diffusion image generator, has explored selling the company as management faces increased pressure from investors over its financial position.
https://news.hada.io/topic?id=12187&utm_source=slack&utm_medium=bot&utm_campaign=T05AXQMJY68
์ ์ธ๊ณ ๋ ผ๋ฌธ์ AI๊ฐ ์๋์ผ๋ก ํ๊ธ ๋ฒ์ญ, ์์ฝ, ๋ถ์, QnA๋ฅผ ํ๋ฐฉ์!!!
*ArXiv๋ ๊ธ๋ก๋ฒ ๋ ผ๋ฌธ ๊ฒ์ ํฌํธ ์๋น์ค์ ๋๋ค.
ArXiv GPT ์ ํ๋ธ ์๊ฐ ๋์์: https://youtu.be/-kpz0mjAd3Y
ArXiv์ ์ ์ธ๊ณ ๋ชจ๋ ๋ ผ๋ฌธ์ AI๊ฐ ํ๊ธ๋ก ์ ๋ฌธ ๋ฒ์ญ, ์์ฝ, ๋ถ์, QnA๋ฅผ ์ง์ํฉ๋๋ค.
ArXiv๋ ๊ธ๋ก๋ฒ ๋ ผ๋ฌธ ๊ฒ์ ํฌํธ ์๋น์ค์ ๋๋ค.
์ ์ธ๊ณ ๋ ผ๋ฌธ์ AI๊ฐ ์๋์ผ๋ก ํ๊ธ ๋ฒ์ญ, ์์ฝ, ๋ถ์, QnA๋ฅผ ํ๋ฐฉ์!!!
*ArXiv๋ ๊ธ๋ก๋ฒ ๋ ผ๋ฌธ ๊ฒ์ ํฌํธ ์๋น์ค์ ๋๋ค.
ArXiv GPT ์ ํ๋ธ ์๊ฐ ๋์์: https://youtu.be/-kpz0mjAd3Y
ArXiv์ ์ ์ธ๊ณ ๋ชจ๋ ๋ ผ๋ฌธ์ AI๊ฐ ํ๊ธ๋ก ์ ๋ฌธ ๋ฒ์ญ, ์์ฝ, ๋ถ์, QnA๋ฅผ ์ง์ํฉ๋๋ค.
ArXiv๋ ๊ธ๋ก๋ฒ ๋ ผ๋ฌธ ๊ฒ์ ํฌํธ ์๋น์ค์ ๋๋ค.
GeekNews
ArXiv GPT - ์ ์ธ๊ณ ๋
ผ๋ฌธ์ AI๊ฐ ์๋์ผ๋ก ํ๊ธ ๋ฒ์ญ, ์์ฝ, ๋ถ์, QnA๋ฅผ ํ | GeekNews
ArXiv GPT์ ์ธ๊ณ ๋
ผ๋ฌธ์ AI๊ฐ ์๋์ผ๋ก ํ๊ธ ๋ฒ์ญ, ์์ฝ, ๋ถ์, QnA๋ฅผ ํ๋ฐฉ์!!!*ArXiv๋ ๊ธ๋ก๋ฒ ๋
ผ๋ฌธ ๊ฒ์ ํฌํธ ์๋น์ค์
๋๋ค.ArXiv GPT ์ ํ๋ธ ์๊ฐ ๋์์: https://youtu.be/-kpz0mjAd3YArXiv์ ์ ์ธ๊ณ ๋ชจ๋ ๋
ผ๋ฌธ์ AI๊ฐ ํ๊ธ๋ก ์ ๋ฌธ ๋ฒ์ญ, ์์ฝ, ๋ถ์, QnA๋ฅผ ์ง์ํฉ๋๋ค.ArXiv๋ ๊ธ๋ก๋ฒ ๋
ผ๋ฌธ ๊ฒ์ ํฌ
MS, Copilot์ ์ถ์ ์์ ๊ธฐ๋ฅ ๊ณต๊ฐ
- ํฅํ ๋ช ์ฃผ ๋ด์ GPT-4 turbo ๊ธฐ๋ฅ ํ์ฌ
- Bing ์ด๋ฏธ์ง ๊ฒ์, GPT-4 Vision, ์น ๊ฒ์ ๋ฐ์ดํฐ๋ฅผ ๊ฒฐํฉํ ๋ฉํฐ๋ชจ๋ฌ ๊ฒ์ ๊ธฐ๋ฅ๊ณผ ์ฝ๋ ์ธํฐํ๋ฆฌํฐ ๊ธฐ๋ฅ ํ์ฌ ์์
- ์ฌ์ฉ์์ ์ง๋ฌธ์ ๋ํ ์๋๋ฅผ ํ์ ํ์ฌ, ์๋์ ๋ง๊ฒ ํ์ฅ๋ ๊ฒ์์ ์งํํ๋ โDeep Searchโ ๊ธฐ๋ฅ ํ์ฌ ์์
- ํฅํ ๋ช ์ฃผ ๋ด์ GPT-4 turbo ๊ธฐ๋ฅ ํ์ฌ
- Bing ์ด๋ฏธ์ง ๊ฒ์, GPT-4 Vision, ์น ๊ฒ์ ๋ฐ์ดํฐ๋ฅผ ๊ฒฐํฉํ ๋ฉํฐ๋ชจ๋ฌ ๊ฒ์ ๊ธฐ๋ฅ๊ณผ ์ฝ๋ ์ธํฐํ๋ฆฌํฐ ๊ธฐ๋ฅ ํ์ฌ ์์
- ์ฌ์ฉ์์ ์ง๋ฌธ์ ๋ํ ์๋๋ฅผ ํ์ ํ์ฌ, ์๋์ ๋ง๊ฒ ํ์ฅ๋ ๊ฒ์์ ์งํํ๋ โDeep Searchโ ๊ธฐ๋ฅ ํ์ฌ ์์
The Official Microsoft Blog
Celebrating the first year of Copilot with significant new innovations
This year will be remembered as the moment that we, as individuals, began to harness the power of AI in our daily lives. The last 10 months reflect years of AI research, close partnerships, and breakthrough innovations coming together. This culmination isโฆ
ํ๋์ค์ LLM ๊ตฌ์ถ ์คํํธ์
Mistral AI, ์ค๋ฆฝ ๋ฐ ๋
๋ง์ ๊ณง ์ ๋์ฝ ๋ฑ๊ทน
- ์ฝ $2B(์ฝ 2์กฐ 6,000์ต ์)์ ๊ธฐ์ ๊ฐ์น๋ก a16z ์ฃผ๋์ ํฌ์ ํ์ ์งํ ์ค(๋ธ๋ฃธ๋ฒ๊ทธ)
- ์ฝ $2B(์ฝ 2์กฐ 6,000์ต ์)์ ๊ธฐ์ ๊ฐ์น๋ก a16z ์ฃผ๋์ ํฌ์ ํ์ ์งํ ์ค(๋ธ๋ฃธ๋ฒ๊ทธ)
Bloomberg.com
OpenAI Rival Mistral Nears $2 Billion Valuation With Andreessen Horowitz Backing
Mistral AI is in the final stages of raising roughly โฌ450 million ($487 million) from investors including Nvidia Corp. and Salesforce Inc. in a funding round that values the OpenAI rival at about $2 billion, according to people familiar with the deal.
Continuous Learning_Startup & Investment pinned ยซ๋ฏธ๊ตญ์์ ์ง๋ด๋ฉด์ ๋ค์๋ ์ฌ๋ฌ๊ฐ์ง ์๊ฐ๋ค์ ์ ์ด๋ดค์ต๋๋ค. ๋์์๋ ๊ธฐ๋ก๋ค์ด์ง๋ง ๋์ค์ ๋์ด์ผ ๋ดค์ ๋์ ์ด ๋์ ์ ๋ฅผ ๊ธฐ์ตํ ์ ์๋ ์๋จ์ผ ๊ฒ ๊ฐ์ ๊ธฐ๋กํ๊ณ ํน์ ๋๊ตฐ๊ฐ์๊ฒ ๋์์ด ๋ ์ ์์๊น ํด์ ๊ณต๊ฐํฉ๋๋ค. ์ ๋ฏธ๊ตญ์ ์๋์ง ์์ ์ด๋ค ๊ฒ์ ๋ณด๊ณ ๋๋ผ๊ณ ์๋์ง, AI์ ๋ํด์๋ ์ด๋ค ์๊ฐ์ ๊ฐ์ง๊ณ ์๋์ง, ๋ฏธ๊ตญ์์ ํด๋ณผ๋งํ ์ฌ์
์ ๊ธฐํ์ ๋ํด์, ๋ฏธ๊ตญ์์ ๋ค์ ์ ์ฉ์ ์์๊ฐ๋ ์ํฉ, ์ข์ ์ธ์์ ์ด๊ธฐ ์ํด ๋
ธ๋ ฅํ๋ ๊ฒ๋ค, ์ฐฐ๋ฆฌ ๋ฉ๊ฑฐ๊ฐ ๋จ๊ธด Legacyโฆยป
Forwarded from ๊ธ๋ก๋ฒ ๋ฐ์ด์คํฌ์ค์ผ์ด ๋ด์ค
(๊ธ๋ก๋ฒ ํฑ ๊ณผํ์ + ํฌ์์ + $50mil. ์๊ธ ๋ฐ์ ํ ์ค๋ฆฝ 2๋
๋ง์ ๋ฌธ๋ซ๋ ๋ฐ์ด์คํ
)
============
ํ๋ฒ๋/MIT์ ๋ธ๋ก๋์ฐ๊ตฌ์, David Liu ๊ต์๊ฐ ์ฐฝ์ ํ ์ค๋ฆฝ 2๋ ๋ Resonance Medicine๊ฐ ๋ฌธ์ ๋ซ๋๋ค.
์ด ํ์ฌ๋ Atlas Venture, ARCH Venture Partners, F-Prime Capital, GV, Newpath Partners๊ณผ ๊ฐ์ด ์์ํ ๋ฐ์ด์ค ์ ๋ฌธ VC๋ค๋ก๋ถํฐ $50mil. ์ด์์ ํฌ์์ ์น๋ฅผ ๋ฐ์๊ณ , ์์ง ์คํธ์ค ๋ชจ๋์ ์์๋ค.
David Liu ๊ต์๋ ์ ์ ์ ํธ์ง ๋ถ์ผ์ ๊ธ๋ก๋ฒ ํฑ ๊ณผํ์์ด๋ฉฐ. ์ด ๋ถ์ผ ํฑ ๋ฐ์ด์คํ Editas Medicine, Beam Therapeutics, Prime Medicine ์ ์ฐฝ์ ์์ด๊ธฐ๋ ํ๋ค.
๊ทธ๋ฐ๋ฐ ์ง๋ ๊ธ์์ผ์ ์์ง์๋ค์๊ฒ ํ์ฌ๋ฅผ ๋ฌธ๋ซ๊ธฐ๋ก ํ๋ค๊ณ ํต๋ณดํ๋ค๊ณ ํ๋ค.
===========
Resonance์ ํน์ ๋จ๋ฐฑ์ง์ ํ๊ฒ์ผ๋ก ํ ๋จ๋ฐฑ์ง ๋ถํด์ (protease)๋ฅผ ์์ง๋์ด๋งํ์ฌ ์น๋ฃ์ ๋ก ๊ฐ๋ฐํ๋ ค๊ณ ํ์๋ค.
์ ์ ์ ํธ์ง ๋ถ์ผ๋ ์๋์ง๋ง Liu ๊ต์๋ ํจ์ ์์ง๋์ด๋ง ์ ๋ฌธ ์ํํ์์ด๋ฏ๋ก ๊ด๋ จ์ด ์๋ค.
ํ์ฌ๋ฅผ ์ ์ ๋์ง ๋ฐํ์ง๋ ์์์ผ๋ ์ธ๋ถ ํ๋ฉ ํ๊ฒฝ ๋๋ฌธ์ ์๋๋ผ๊ณ ํ๋, ์๋ง ๊ธฐ์ ์ ์ธ ์ด์์ผ ๊ฒ์ผ๋ก ์ถ์ ๋๋ค. ํ๋ฉ ํ๊ฒฝ์ด ์๋ฌด๋ฆฌ ์ด๋ ค์๋ David Liu ๊ต์์ ์ ๋ช ์ธ์ ํฌ์์ ๋ฆฌ์คํธ๋ฅผ ๋ณผ ๋, ๊ธฐ์ ๋ง ์ ๋๋ก ์ฆ๋ช ๋๋ฉด ํฌ๊ฒ ํฌ์์ ์น๋ฅผ ํ ์ ์์์ ๊ฒ์ด๋ค.
์๋ฌด๋ฆฌ ๊ธ๋ก๋ฒ ํฑ ๊ณผํ์, ํฌ์์, ์๊ธ์ด ์์ด๋ ๊ธฐ์ ์ด ์๋๋ค๊ณ ํ๋จํ๋ฉด ๋นจ๋ฆฌ ์ ๋ฆฌํ๋ ๊ฒ ์ด์ต์ด๋ผ๊ณ ์๊ฐํ ๋ฏ ํ๋ค.
==========
(written by ์ฌ์๋ฏผ, ํํธ๋์ค์ธ๋ฒ ์คํธ๋จผํธ)
ํ ๋ ๊ทธ๋จ ์ฑ๋: https://t.me/global_biohealthcare_news
https://endpts.com/scoop-resonance-medicine-a-protease-biotech-from-david-lius-lab-shuts-down/
============
ํ๋ฒ๋/MIT์ ๋ธ๋ก๋์ฐ๊ตฌ์, David Liu ๊ต์๊ฐ ์ฐฝ์ ํ ์ค๋ฆฝ 2๋ ๋ Resonance Medicine๊ฐ ๋ฌธ์ ๋ซ๋๋ค.
์ด ํ์ฌ๋ Atlas Venture, ARCH Venture Partners, F-Prime Capital, GV, Newpath Partners๊ณผ ๊ฐ์ด ์์ํ ๋ฐ์ด์ค ์ ๋ฌธ VC๋ค๋ก๋ถํฐ $50mil. ์ด์์ ํฌ์์ ์น๋ฅผ ๋ฐ์๊ณ , ์์ง ์คํธ์ค ๋ชจ๋์ ์์๋ค.
David Liu ๊ต์๋ ์ ์ ์ ํธ์ง ๋ถ์ผ์ ๊ธ๋ก๋ฒ ํฑ ๊ณผํ์์ด๋ฉฐ. ์ด ๋ถ์ผ ํฑ ๋ฐ์ด์คํ Editas Medicine, Beam Therapeutics, Prime Medicine ์ ์ฐฝ์ ์์ด๊ธฐ๋ ํ๋ค.
๊ทธ๋ฐ๋ฐ ์ง๋ ๊ธ์์ผ์ ์์ง์๋ค์๊ฒ ํ์ฌ๋ฅผ ๋ฌธ๋ซ๊ธฐ๋ก ํ๋ค๊ณ ํต๋ณดํ๋ค๊ณ ํ๋ค.
===========
Resonance์ ํน์ ๋จ๋ฐฑ์ง์ ํ๊ฒ์ผ๋ก ํ ๋จ๋ฐฑ์ง ๋ถํด์ (protease)๋ฅผ ์์ง๋์ด๋งํ์ฌ ์น๋ฃ์ ๋ก ๊ฐ๋ฐํ๋ ค๊ณ ํ์๋ค.
์ ์ ์ ํธ์ง ๋ถ์ผ๋ ์๋์ง๋ง Liu ๊ต์๋ ํจ์ ์์ง๋์ด๋ง ์ ๋ฌธ ์ํํ์์ด๋ฏ๋ก ๊ด๋ จ์ด ์๋ค.
ํ์ฌ๋ฅผ ์ ์ ๋์ง ๋ฐํ์ง๋ ์์์ผ๋ ์ธ๋ถ ํ๋ฉ ํ๊ฒฝ ๋๋ฌธ์ ์๋๋ผ๊ณ ํ๋, ์๋ง ๊ธฐ์ ์ ์ธ ์ด์์ผ ๊ฒ์ผ๋ก ์ถ์ ๋๋ค. ํ๋ฉ ํ๊ฒฝ์ด ์๋ฌด๋ฆฌ ์ด๋ ค์๋ David Liu ๊ต์์ ์ ๋ช ์ธ์ ํฌ์์ ๋ฆฌ์คํธ๋ฅผ ๋ณผ ๋, ๊ธฐ์ ๋ง ์ ๋๋ก ์ฆ๋ช ๋๋ฉด ํฌ๊ฒ ํฌ์์ ์น๋ฅผ ํ ์ ์์์ ๊ฒ์ด๋ค.
์๋ฌด๋ฆฌ ๊ธ๋ก๋ฒ ํฑ ๊ณผํ์, ํฌ์์, ์๊ธ์ด ์์ด๋ ๊ธฐ์ ์ด ์๋๋ค๊ณ ํ๋จํ๋ฉด ๋นจ๋ฆฌ ์ ๋ฆฌํ๋ ๊ฒ ์ด์ต์ด๋ผ๊ณ ์๊ฐํ ๋ฏ ํ๋ค.
==========
(written by ์ฌ์๋ฏผ, ํํธ๋์ค์ธ๋ฒ ์คํธ๋จผํธ)
ํ ๋ ๊ทธ๋จ ์ฑ๋: https://t.me/global_biohealthcare_news
https://endpts.com/scoop-resonance-medicine-a-protease-biotech-from-david-lius-lab-shuts-down/
"Mamba: Linear-Time Sequence Modeling with Selective State Spaces" is a research paper by Albert Gu and Tri Dao that introduces a new neural network architecture called Mamba. This architecture is designed to address the computational inefficiency of Transformer models, particularly when dealing with long sequences of data
What is Mamba?
Mamba is a sequence model that integrates a selection mechanism into state space models (SSMs), leading to improved results in general sequence modeling, including language. It is a simplified end-to-end neural network architecture that does not rely on attention or multilayer perceptron (MLP) blocks.
The key innovation in Mamba is the introduction of selective SSMs, which allow the model to selectively propagate or forget information along the sequence length dimension depending on the current token. This selection mechanism enables context-dependent reasoning, which is a significant improvement over previous models that struggled with content-based reasoning.
Mamba is designed to be efficient, with fast inference and linear scaling in sequence length. It achieves up to 5 times higher throughput than Transformers. It also performs well on real data up to million-length sequences.
Performance and Applications
Mamba has demonstrated state-of-the-art performance across several modalities such as language, audio, and genomics. In language modeling, the Mamba-3B model outperforms Transformers of the same size and matches Transformers twice its size, both in pretraining and downstream evaluation. This makes Mamba a promising foundational model for different domains, especially those that require processing of long context sequences.
Limitations
While the paper and the Mamba model have shown promising results, it's important to note that these are initial findings. As with any new model or approach, replication and further testing by the broader scientific community are necessary to fully understand its strengths and limitations. The model's performance on a wider range of tasks and its adaptability to different settings and requirements need to be explored.
Conclusion and Future Work
Mamba represents a significant step forward in sequence modeling, offering a compelling alternative to the widely-used Transformer architecture. Its ability to handle long sequences efficiently and its strong performance across various modalities make it a promising tool for a range of applications.
As for future work, further exploration and testing of Mamba's capabilities are needed. This includes applying the model to a wider range of tasks, exploring its adaptability to different settings, and refining its architecture and algorithms based on feedback and results from these tests. The authors have made the Mamba codebase available for use and further development, which will facilitate these future explorations.
What is Mamba?
Mamba is a sequence model that integrates a selection mechanism into state space models (SSMs), leading to improved results in general sequence modeling, including language. It is a simplified end-to-end neural network architecture that does not rely on attention or multilayer perceptron (MLP) blocks.
The key innovation in Mamba is the introduction of selective SSMs, which allow the model to selectively propagate or forget information along the sequence length dimension depending on the current token. This selection mechanism enables context-dependent reasoning, which is a significant improvement over previous models that struggled with content-based reasoning.
Mamba is designed to be efficient, with fast inference and linear scaling in sequence length. It achieves up to 5 times higher throughput than Transformers. It also performs well on real data up to million-length sequences.
Performance and Applications
Mamba has demonstrated state-of-the-art performance across several modalities such as language, audio, and genomics. In language modeling, the Mamba-3B model outperforms Transformers of the same size and matches Transformers twice its size, both in pretraining and downstream evaluation. This makes Mamba a promising foundational model for different domains, especially those that require processing of long context sequences.
Limitations
While the paper and the Mamba model have shown promising results, it's important to note that these are initial findings. As with any new model or approach, replication and further testing by the broader scientific community are necessary to fully understand its strengths and limitations. The model's performance on a wider range of tasks and its adaptability to different settings and requirements need to be explored.
Conclusion and Future Work
Mamba represents a significant step forward in sequence modeling, offering a compelling alternative to the widely-used Transformer architecture. Its ability to handle long sequences efficiently and its strong performance across various modalities make it a promising tool for a range of applications.
As for future work, further exploration and testing of Mamba's capabilities are needed. This includes applying the model to a wider range of tasks, exploring its adaptability to different settings, and refining its architecture and algorithms based on feedback and results from these tests. The authors have made the Mamba codebase available for use and further development, which will facilitate these future explorations.
๐2
์ค๋ ๋ฏธ๋ผํด ๋ ํฐ(์ด๋์ฃผ ๊ธฐ์๋) ๊ธ์์ ์ธ์์ ์ธ ๋ถ๋ถ
์ค๋ฆฌ์ฝ๋ฐธ๋ฆฌ ํฌ์ ๊ตฌ๋ฃจ ๋น๋ ธ๋ ์ฝ์ฌ๋ผ
์ฒซ์งธ, ๋ฐํ๋ฅผ ์์ํ์ง 60์ด ์์ ๋ด๊ฐ ํ๊ณ ์ถ์ ์๊ธฐ๊ฐ ๋ฌด์์ธ์ง๋ฅผ ํฌ์์๋ค์ด ์์์ผํด์. (์๋ก ์ด ๊ธธ์ง ๋ง๊ณ ๋ฐ๋ก ๋ณธ๋ก ์ผ๋ก ๋ค์ด๊ฐ์ผํ๋ค๋ ๊ฒ์ด์ฃ )
๋๋ฒ์งธ, โ๋ด๊ฐ ์ด๊ฒ์ ์ ์ฆํ๋ฉด ์ด๋ฐ ๋ฉ์ง ์ผ์ด ๋ฒ์ด์ง๋คโ๋ ๊ฑธ ๋ณด์ฌ์ค์ผํด์. (ํฌ์์๋ค์๊ฒ ๊ฐ๋ฅ์ฑ๊ณผ ์คํ ๋ฆฌ๋ฅผ ๋ณด์ฌ์ค์ผํด์)
์ธ๋ฒ์งธ, ๊ณต๋ตํ๋ ์์ฅ์ด ๋งค์ฐ ํฌ๊ฑฐ๋, ์๋๋ฉด ์๋กญ๊ณ ํฅ๋ฏธ๋ก์ด ์์ฅ์ด๋ผ๋ ๊ฑธ ๋ณด์ฌ์ค์ผํด์. (ํฐ ์์ฅ ํน์ ๋ฏธ์ง์ ์์ฅ์ ๋ณด์ฌ์ค์ ํฌ์์๋ค์ ํ์์ ์๊ทนํ๋๊ฑฐ์ฃ )
๋ค๋ฒ์งธ, PMF(Product Market Fit) ์ ์ ์ฆํ๊ฑฐ๋ ์ ์ฆํ ์ ์๋ค๋ ๊ฑธ ๋ณด์ฌ์ค์ผํด์.
(์คํํธ์ ์ด๋ ๊ฒฐ๊ตญ PMF ๋ฅผ ์ฐพ๋ ๊ฒ!)
๋ค์ฏ๋ฒ์งธ, ๊ธฐ์ ์ ์ธ ๋ฌธ์ ๋ ๊ด๋ฆฌํ ์ ์๊ณ , ์์ฅ๋ ๋ช ํํ๋ค๋ ๊ฑธ ๋ณด์ฌ์ค์ผํด์.
์ข์ ํ์ ๊ฐ๊ณ ์๋ค๋ ๊ฒ์ ๋ง์ง๋ง์ ์๊ธฐํด์ฃผ๋ฉด ๋๋ค๊ณ ํฉ๋๋ค.
์ฝ์ฌ๋ผ๋ ํผ์นญ ๋ฑ์ ๋ง๋ค ๋ ๊ฐ์ฅ ์ฒ์ ํด์ผํ ์ผ์ โ์ฐ๋ฆฌ ํ์ฌ์ ํฌ์ํด์ผํ ์ด์ โ์ โํฌ์ํ์ง ๋ง์์ผํ ์ด์ โ๋ฅผ ๋ธ๋ ์ธ์คํ ๋ฐํ๋ ๊ฒ์ด๋ผ๊ณ ํ์ด์.
์ด๋ ๊ทธ์ ๊ฐ์ฐ ๋ด์ฉ ์ค์ ๊ฐ์ฅ ์ธ์ ๊น์๋ ๋ถ๋ถ. ๋ฐ๋ก ์ฑ๊ณตํ๋ ์ฐฝ์ ์๊ฐ ๊ณตํต์ ์ผ๋ก ๊ฐ์ง ๋ฅ๋ ฅ์ ๋ฐ๋ก '๋น ๋ฅธ ํ์ต๋ฅ๋ ฅ'์ด๋ผ๋ ๊ฒ์ด์์ด์. ์ฐฝ์ ์๋ค์ ๋ง์ ์ฌ๋์ ๋ง๋๊ณ , ๋ง์ ์ ๋ณด๋ฅผ ์์งํด์, ์ต๋ํ ๋ง์ ์ธํ์ ์ค์ค๋ก์๊ฒ ํฌ์ ํ๋ค๊ณ ํด์. ๊ทธ๋ฆฌ๊ณ ์๋ง์ ์ธํ์ ๋ฐํ์ผ๋ก ์ค์ํ ์์ฌ๊ฒฐ์ ์ ๋ด๋ฆฝ๋๋ค. ๋๊ตฌ์ ์ํฅ๋ ๋ฐ์ง ์๊ณ ์ค์ค๋ก์ ์๊ฐ์ผ๋ก ๊ฒฐ์ ์ ๋ด๋ฆฝ๋๋ค. ์ด๋ฐ ๊ฒฐ์ ์ ์ํด์ ์ค์ํ ๊ฒ์? ๋ฐ๋ก ๋ง์ ์ธํ!
์ค๋ฆฌ์ฝ๋ฐธ๋ฆฌ ํฌ์ ๊ตฌ๋ฃจ ๋น๋ ธ๋ ์ฝ์ฌ๋ผ
์ฒซ์งธ, ๋ฐํ๋ฅผ ์์ํ์ง 60์ด ์์ ๋ด๊ฐ ํ๊ณ ์ถ์ ์๊ธฐ๊ฐ ๋ฌด์์ธ์ง๋ฅผ ํฌ์์๋ค์ด ์์์ผํด์. (์๋ก ์ด ๊ธธ์ง ๋ง๊ณ ๋ฐ๋ก ๋ณธ๋ก ์ผ๋ก ๋ค์ด๊ฐ์ผํ๋ค๋ ๊ฒ์ด์ฃ )
๋๋ฒ์งธ, โ๋ด๊ฐ ์ด๊ฒ์ ์ ์ฆํ๋ฉด ์ด๋ฐ ๋ฉ์ง ์ผ์ด ๋ฒ์ด์ง๋คโ๋ ๊ฑธ ๋ณด์ฌ์ค์ผํด์. (ํฌ์์๋ค์๊ฒ ๊ฐ๋ฅ์ฑ๊ณผ ์คํ ๋ฆฌ๋ฅผ ๋ณด์ฌ์ค์ผํด์)
์ธ๋ฒ์งธ, ๊ณต๋ตํ๋ ์์ฅ์ด ๋งค์ฐ ํฌ๊ฑฐ๋, ์๋๋ฉด ์๋กญ๊ณ ํฅ๋ฏธ๋ก์ด ์์ฅ์ด๋ผ๋ ๊ฑธ ๋ณด์ฌ์ค์ผํด์. (ํฐ ์์ฅ ํน์ ๋ฏธ์ง์ ์์ฅ์ ๋ณด์ฌ์ค์ ํฌ์์๋ค์ ํ์์ ์๊ทนํ๋๊ฑฐ์ฃ )
๋ค๋ฒ์งธ, PMF(Product Market Fit) ์ ์ ์ฆํ๊ฑฐ๋ ์ ์ฆํ ์ ์๋ค๋ ๊ฑธ ๋ณด์ฌ์ค์ผํด์.
(์คํํธ์ ์ด๋ ๊ฒฐ๊ตญ PMF ๋ฅผ ์ฐพ๋ ๊ฒ!)
๋ค์ฏ๋ฒ์งธ, ๊ธฐ์ ์ ์ธ ๋ฌธ์ ๋ ๊ด๋ฆฌํ ์ ์๊ณ , ์์ฅ๋ ๋ช ํํ๋ค๋ ๊ฑธ ๋ณด์ฌ์ค์ผํด์.
์ข์ ํ์ ๊ฐ๊ณ ์๋ค๋ ๊ฒ์ ๋ง์ง๋ง์ ์๊ธฐํด์ฃผ๋ฉด ๋๋ค๊ณ ํฉ๋๋ค.
์ฝ์ฌ๋ผ๋ ํผ์นญ ๋ฑ์ ๋ง๋ค ๋ ๊ฐ์ฅ ์ฒ์ ํด์ผํ ์ผ์ โ์ฐ๋ฆฌ ํ์ฌ์ ํฌ์ํด์ผํ ์ด์ โ์ โํฌ์ํ์ง ๋ง์์ผํ ์ด์ โ๋ฅผ ๋ธ๋ ์ธ์คํ ๋ฐํ๋ ๊ฒ์ด๋ผ๊ณ ํ์ด์.
์ด๋ ๊ทธ์ ๊ฐ์ฐ ๋ด์ฉ ์ค์ ๊ฐ์ฅ ์ธ์ ๊น์๋ ๋ถ๋ถ. ๋ฐ๋ก ์ฑ๊ณตํ๋ ์ฐฝ์ ์๊ฐ ๊ณตํต์ ์ผ๋ก ๊ฐ์ง ๋ฅ๋ ฅ์ ๋ฐ๋ก '๋น ๋ฅธ ํ์ต๋ฅ๋ ฅ'์ด๋ผ๋ ๊ฒ์ด์์ด์. ์ฐฝ์ ์๋ค์ ๋ง์ ์ฌ๋์ ๋ง๋๊ณ , ๋ง์ ์ ๋ณด๋ฅผ ์์งํด์, ์ต๋ํ ๋ง์ ์ธํ์ ์ค์ค๋ก์๊ฒ ํฌ์ ํ๋ค๊ณ ํด์. ๊ทธ๋ฆฌ๊ณ ์๋ง์ ์ธํ์ ๋ฐํ์ผ๋ก ์ค์ํ ์์ฌ๊ฒฐ์ ์ ๋ด๋ฆฝ๋๋ค. ๋๊ตฌ์ ์ํฅ๋ ๋ฐ์ง ์๊ณ ์ค์ค๋ก์ ์๊ฐ์ผ๋ก ๊ฒฐ์ ์ ๋ด๋ฆฝ๋๋ค. ์ด๋ฐ ๊ฒฐ์ ์ ์ํด์ ์ค์ํ ๊ฒ์? ๋ฐ๋ก ๋ง์ ์ธํ!
๐1
Forwarded from ์ฒํ๋ก์ ์ฝํ
์ธ ๋ชจ์๋ฐฉ
์ฐฐ๋ฆฌ ๋ฉ๊ฑฐ์ ์ถ์ฒ๋์ ๋ชฉ๋ก
1. ๋ก๋ฒํธ ์น์๋๋, ์ค๋์ ์ฌ๋ฆฌํ
2. ๋ง์ฝค ๊ธ๋๋์ฐ, ์์๋ผ์ด์ด
3. ๋ฆฌ์ฒ๋ ๋ํจ์ค, ์ด๊ธฐ์ ์ ์ ์
4. ์ ๋ ๋ ๋ค์ด์๋ชฌ๋, ์ด๊ท ์
5. Peter Bevelin, Seeking Wisdom
6. ๋ฒค์๋ฏผ ํ๋ญํด๋ฆฐ, ํ๋ญํด๋ฆฐ ์์์
7. ๋ก ์ฒ๋ ธ, ๋ถ์ ์ ๊ตญ ๋กํ ๋ฌ
8. ์ค๋๋ฅ ๊ทธ๋ก๋ธ, ํธ์ง๊ด๋ง์ด ์ด์๋จ๋๋ค.
9. ์๋ฆฌ์ ์๋ค์ดํฌ, ํ๊ธ์ ์ฌ๋ฐ๊ฒฌ
10. ์๋ฆฌ์์ ๋ฆฌ&๋ก์ ํผ์ , YES๋ฅผ ์ด๋์ด๋ด๋ ํ์๋ฒ
11. ์กด ๋ณด๊ธ, ๋ชจ๋ ์ฃผ์์ ์์ ํ๋ผ
12. ์คํฐ๋ธ ๋ ๋น, In The Plex 0๊ณผ 1๋ก ์ธ์์ ๋ฐ๊พธ๋ ๊ตฌ๊ธ, ๊ทธ ๋ชจ๋ ์ด์ผ๊ธฐ
13. ๋งคํธ ๋ฆฌ๋ค๋ฆฌ, ์๋ช ์ค๊ณ๋, ๊ฒ๋
14. James Wallace, Hard Drive
15. ๋งฅ์ค ๋ฒ ์ด์ ๋ง, ํ๋จ๊ณผ ๊ฒฐ์
16. ๋ฐ์ด๋น๋ ๋์ฆ, ๊ตญ๊ฐ์ ๋ถ์ ๋น๊ณค
17. Garrett hardin, Living Wihtin Limits
18. ๋ก๋ฒํธ ์น์๋๋, ์ค๋์ ์ฌ๋ฆฌํ3 (Yes!)
19. ์กด ๊ทธ๋ฆฌ๋น, ๋นํ๊ธฐ
20. Herbert A.Simon, Models of My Life
21. Lawrence M.Krauss, A Universe of Degrees
22. ๋ก๋ฒํธ ํด๊ทธ์คํธ๋กฌ, ์๋ ๋ฒํซ ํฌํธํด๋ฆฌ์ค
23. Gino Segre, A matter of Degrees
24. ๋ก๋ฒํธ ๋ผ์ดํธ, 3์ธ์ ๊ณผํ์์ ๊ทธ๋ค์ ์
25. ์กด ๊ทธ๋ฆฌ๋น, ๋ฅ ์ฌํ๋ฆฌ์ํฐ
26. Connie Bruck, Master of the Game
27. Arthur Herman, How the scots Invented the Modern World
28. Frank Partnoy, Fiasco:ํ์๊ธ์ต์ํ ์ธ์ผ์ฆ๋งจ์ ๊ณ ๋ฐฑ
29. Carl Van Doren, Benjamin Franklin
30. Gregory Zuckerman, The Greatest Trade Ever
31. ์ฌ๋ฌ๋ ๋ค์ด์๋ชฌ๋, ์ 3์ ์นจํฌ์ง
32. Joseph Frazier Wall, Andrew Carnegie
33. Rober Caro, The Years of Lyndon Johnson (4 books)
34. Istvan Hargittai, The Martians of Science
35. ๋ก๋ฒํธ ํด๊ทธ์คํธ๋กฌ, ์๋ ๋ฒํ ํฌํธํด๋ฆฌ์ค
36. Roger Done, Getting It Done
37. Les Schwab, Pride in Performance
38. ์ํฐ ์์ด์์จ, ์์ธ์ํ์ธ ์ถ๊ณผ ์ฐ์ฃผ
39. ์ํฐ ์์ด์์จ, ๋ฒค์๋ฏผ ํ๋ญํด๋ฆฐ
40. Lawrence M. Krauss, A Universe from Nothing
41. Joe Nocera, A Piece of Action
42. ๋ธ์ ํฌ๋ธ์ค, ํจ๋ฌ๋ฐ์ด์ ๋งฅ์ค์ฐ
43. ๋ฆฌ์ฒ๋ ๋ํจ์ค, ๋๋จผ์๊ณ๊ณต
1. ๋ก๋ฒํธ ์น์๋๋, ์ค๋์ ์ฌ๋ฆฌํ
2. ๋ง์ฝค ๊ธ๋๋์ฐ, ์์๋ผ์ด์ด
3. ๋ฆฌ์ฒ๋ ๋ํจ์ค, ์ด๊ธฐ์ ์ ์ ์
4. ์ ๋ ๋ ๋ค์ด์๋ชฌ๋, ์ด๊ท ์
5. Peter Bevelin, Seeking Wisdom
6. ๋ฒค์๋ฏผ ํ๋ญํด๋ฆฐ, ํ๋ญํด๋ฆฐ ์์์
7. ๋ก ์ฒ๋ ธ, ๋ถ์ ์ ๊ตญ ๋กํ ๋ฌ
8. ์ค๋๋ฅ ๊ทธ๋ก๋ธ, ํธ์ง๊ด๋ง์ด ์ด์๋จ๋๋ค.
9. ์๋ฆฌ์ ์๋ค์ดํฌ, ํ๊ธ์ ์ฌ๋ฐ๊ฒฌ
10. ์๋ฆฌ์์ ๋ฆฌ&๋ก์ ํผ์ , YES๋ฅผ ์ด๋์ด๋ด๋ ํ์๋ฒ
11. ์กด ๋ณด๊ธ, ๋ชจ๋ ์ฃผ์์ ์์ ํ๋ผ
12. ์คํฐ๋ธ ๋ ๋น, In The Plex 0๊ณผ 1๋ก ์ธ์์ ๋ฐ๊พธ๋ ๊ตฌ๊ธ, ๊ทธ ๋ชจ๋ ์ด์ผ๊ธฐ
13. ๋งคํธ ๋ฆฌ๋ค๋ฆฌ, ์๋ช ์ค๊ณ๋, ๊ฒ๋
14. James Wallace, Hard Drive
15. ๋งฅ์ค ๋ฒ ์ด์ ๋ง, ํ๋จ๊ณผ ๊ฒฐ์
16. ๋ฐ์ด๋น๋ ๋์ฆ, ๊ตญ๊ฐ์ ๋ถ์ ๋น๊ณค
17. Garrett hardin, Living Wihtin Limits
18. ๋ก๋ฒํธ ์น์๋๋, ์ค๋์ ์ฌ๋ฆฌํ3 (Yes!)
19. ์กด ๊ทธ๋ฆฌ๋น, ๋นํ๊ธฐ
20. Herbert A.Simon, Models of My Life
21. Lawrence M.Krauss, A Universe of Degrees
22. ๋ก๋ฒํธ ํด๊ทธ์คํธ๋กฌ, ์๋ ๋ฒํซ ํฌํธํด๋ฆฌ์ค
23. Gino Segre, A matter of Degrees
24. ๋ก๋ฒํธ ๋ผ์ดํธ, 3์ธ์ ๊ณผํ์์ ๊ทธ๋ค์ ์
25. ์กด ๊ทธ๋ฆฌ๋น, ๋ฅ ์ฌํ๋ฆฌ์ํฐ
26. Connie Bruck, Master of the Game
27. Arthur Herman, How the scots Invented the Modern World
28. Frank Partnoy, Fiasco:ํ์๊ธ์ต์ํ ์ธ์ผ์ฆ๋งจ์ ๊ณ ๋ฐฑ
29. Carl Van Doren, Benjamin Franklin
30. Gregory Zuckerman, The Greatest Trade Ever
31. ์ฌ๋ฌ๋ ๋ค์ด์๋ชฌ๋, ์ 3์ ์นจํฌ์ง
32. Joseph Frazier Wall, Andrew Carnegie
33. Rober Caro, The Years of Lyndon Johnson (4 books)
34. Istvan Hargittai, The Martians of Science
35. ๋ก๋ฒํธ ํด๊ทธ์คํธ๋กฌ, ์๋ ๋ฒํ ํฌํธํด๋ฆฌ์ค
36. Roger Done, Getting It Done
37. Les Schwab, Pride in Performance
38. ์ํฐ ์์ด์์จ, ์์ธ์ํ์ธ ์ถ๊ณผ ์ฐ์ฃผ
39. ์ํฐ ์์ด์์จ, ๋ฒค์๋ฏผ ํ๋ญํด๋ฆฐ
40. Lawrence M. Krauss, A Universe from Nothing
41. Joe Nocera, A Piece of Action
42. ๋ธ์ ํฌ๋ธ์ค, ํจ๋ฌ๋ฐ์ด์ ๋งฅ์ค์ฐ
43. ๋ฆฌ์ฒ๋ ๋ํจ์ค, ๋๋จผ์๊ณ๊ณต
๋ฒ์จ ๋ช ๋
์ ์ผ์ด๋ค. NCSL ์ฐ๊ตฌ์ค ํ๋ฐฐ์ ๊ฒฐํผ์์ ๊ณ๊ธฐ๋ก ์ฐ๊ตฌ์ค ์ฌ๋๋ค์ด ์์์ฅ์ ๋ชจ์๋ค. ํ๋ฐฐ์ ๊ฒฐํผ์์ด ๋๋ ํ ์ง๋๊ต์๋๊ณผ ๋๋ด๋ ์ด์ผ๊ธฐ ์ค์ ๊ผฌ๋ฆฌ๊ฐ ๊ธธ์ด์ ธ ์ง๊ธ๊น์ง๋ ๋จธ๋ฆฟ์ ํ ํธ์ ๋ถ์กํ ์ฃผ์ ๊ฐ ์๋ค.
๊ฒฐ๊ตญ ์ง๊ธ ์ผ์ ๊ณ์ํ์ ๋์ ๋ชฉํ์ ๋น์ ์ด ๋ญ๊ฐ? ๋ผ๋ ์ง๋ฌธ์ ๋ฐ์๋ค. ์์ผ๋ก ์ฌ ๊ฒ์ผ๋ก ์๊ฐํ๋ ์๋์ โmachine-driven scienceโ ์๋๋ผ๋ ์ด๋ฆ์ ๋ถ์ด๊ณ ์ค๋ช ํด ๋ณด์๋ค.
๊ทธ ๋๋ ๋ฏธ๋์ ๋ํ ์๊ฐ์ด์์ง๋ง, 2023๋ ์ ๊ทธ ๋ฏธ๋๊ฐ ์ด์ ๋์๊น์ง ์๋ค.
์ค์ฉ์ธ๊ณต์ง๋ฅํํ์์ ๊ฐ์ฌํ๊ฒ๋ ํ์์ ์ด์ผ๊ธฐํ ๊ธฐํ๊ฐ ๋ณ๋ก ์๋ ์ฃผ์ ๋ฅผ ๊บผ๋ผ ์ ์๋ ์๊ฐ์ ๋ง๋ค์ด์ฃผ์ จ๋ค. ๋ด์ผ ์ค์ ํค๋ ธํธ๋ฅผ ์ค๋นํ๋ ์ค ์ค๋๋ ๊ธฐ์ต๊ณผ ์๊ฐ์ด ๋ชฐ๋ ค์ ์ ์ ์ ์ด๋๋ค.
*
๊ธฐ์ ์ฃผ๋์ ๊ณผํ ๋ฐ์ ์๋
The era of technology-driven science
์ด ๊ฐ์ฐ์์๋ ๊ณผํ์ ๋ฐ์ ์ด ๋ ์ด์ ์ธ๊ฐ์ ์์ผ๋ก๋ง ์ด๋ฃจ์ด์ง์ง ์๋ ์๋์ ๋๋์ ๋ํด ์ด์ผ๊ธฐํฉ๋๋ค. ์ธ๋ฅ๋ 19์ธ๊ธฐ, 20์ธ๊ธฐ๋ฅผ ์ง๋๋ฉฐ ๊ณผํ์ ๋ฐ์ ๊ณผ ํจ๊ป ๋๋ผ์ด ์ ์ ์ ๋ฌ์ฑํ์ต๋๋ค. 20์ธ๊ธฐ์๋ ์ํ์์ ์ ๊ธฐ๋ก์ ์๋์ง ์ ํ, ์ฆ๊ธฐ๊ธฐ๊ด์์ ๋ก์ผ์ผ๋ก ์ด์ด์ง ์ด์ก ์๋จ์ ๋ณํ ๋ฑ ๋์ญํ ๋ถ์ผ์ ํ์ ์ด ์์์ต๋๋ค. ๋์์ ์ธ๋ฅ๋ ๋์ ๋ณด์ด์ง ์๋ ๋ฏธ๋์์ ๊ตฌ์ถํ์ต๋๋ค. ์ ์ , ์ปดํจํฐ, ๋คํธ์ํฌ๋ก ์ด์ด์ง๋ ์ ๋ณด ์ฒด๊ณ์ ์งํ๋ 20์ธ๊ธฐ ๋ฐ 21์ธ๊ธฐ ์ด๋ฅผ ํตํ์ด ์ผ์ด๋ ๊ฑฐ๋ํ ๋ณํ๋ฅผ ์ด๋์์ต๋๋ค. ์ด์ ์ฐ๋ฆฌ๋ ์ ๋ณด ์ฒ๋ฆฌ ๋ถ์ผ์ ํ์ ์ด ๋ฅ ๋ฌ๋์ ํตํด ์ ๋ณด ์์ฑ ๋ถ์ผ๋ก ์ด์ด์ง๋ ์์ ์ ์ ์์ต๋๋ค. ์ธ๊ฐ์ ์์ํ๊ณ ์์์ ํตํด ํ์ตํ๋ ๋ฅ๋ ฅ์ด ์์ต๋๋ค. ๋ฅ๋ฌ๋์ ์งํ์ ํฉ์ฑ ๋ฐ์ดํฐ ๋ฐ ์ธ์ด ๋ชจ๋ธ์ ๊ฑฐ๋ํ๊ฐ ์ด๋ป๊ฒ ์ํธ ์ฐ๊ฒฐ๋์ด ์๋ก์ด ๊ณผํ์ ๋ฐฉ๋ฒ๋ก ์ ์๋๋ฅผ ๋ง๋ค์ด๋ด๋์ง ์ดํด๋ด ์๋ค.
#AAiCON
๊ฒฐ๊ตญ ์ง๊ธ ์ผ์ ๊ณ์ํ์ ๋์ ๋ชฉํ์ ๋น์ ์ด ๋ญ๊ฐ? ๋ผ๋ ์ง๋ฌธ์ ๋ฐ์๋ค. ์์ผ๋ก ์ฌ ๊ฒ์ผ๋ก ์๊ฐํ๋ ์๋์ โmachine-driven scienceโ ์๋๋ผ๋ ์ด๋ฆ์ ๋ถ์ด๊ณ ์ค๋ช ํด ๋ณด์๋ค.
๊ทธ ๋๋ ๋ฏธ๋์ ๋ํ ์๊ฐ์ด์์ง๋ง, 2023๋ ์ ๊ทธ ๋ฏธ๋๊ฐ ์ด์ ๋์๊น์ง ์๋ค.
์ค์ฉ์ธ๊ณต์ง๋ฅํํ์์ ๊ฐ์ฌํ๊ฒ๋ ํ์์ ์ด์ผ๊ธฐํ ๊ธฐํ๊ฐ ๋ณ๋ก ์๋ ์ฃผ์ ๋ฅผ ๊บผ๋ผ ์ ์๋ ์๊ฐ์ ๋ง๋ค์ด์ฃผ์ จ๋ค. ๋ด์ผ ์ค์ ํค๋ ธํธ๋ฅผ ์ค๋นํ๋ ์ค ์ค๋๋ ๊ธฐ์ต๊ณผ ์๊ฐ์ด ๋ชฐ๋ ค์ ์ ์ ์ ์ด๋๋ค.
*
๊ธฐ์ ์ฃผ๋์ ๊ณผํ ๋ฐ์ ์๋
The era of technology-driven science
์ด ๊ฐ์ฐ์์๋ ๊ณผํ์ ๋ฐ์ ์ด ๋ ์ด์ ์ธ๊ฐ์ ์์ผ๋ก๋ง ์ด๋ฃจ์ด์ง์ง ์๋ ์๋์ ๋๋์ ๋ํด ์ด์ผ๊ธฐํฉ๋๋ค. ์ธ๋ฅ๋ 19์ธ๊ธฐ, 20์ธ๊ธฐ๋ฅผ ์ง๋๋ฉฐ ๊ณผํ์ ๋ฐ์ ๊ณผ ํจ๊ป ๋๋ผ์ด ์ ์ ์ ๋ฌ์ฑํ์ต๋๋ค. 20์ธ๊ธฐ์๋ ์ํ์์ ์ ๊ธฐ๋ก์ ์๋์ง ์ ํ, ์ฆ๊ธฐ๊ธฐ๊ด์์ ๋ก์ผ์ผ๋ก ์ด์ด์ง ์ด์ก ์๋จ์ ๋ณํ ๋ฑ ๋์ญํ ๋ถ์ผ์ ํ์ ์ด ์์์ต๋๋ค. ๋์์ ์ธ๋ฅ๋ ๋์ ๋ณด์ด์ง ์๋ ๋ฏธ๋์์ ๊ตฌ์ถํ์ต๋๋ค. ์ ์ , ์ปดํจํฐ, ๋คํธ์ํฌ๋ก ์ด์ด์ง๋ ์ ๋ณด ์ฒด๊ณ์ ์งํ๋ 20์ธ๊ธฐ ๋ฐ 21์ธ๊ธฐ ์ด๋ฅผ ํตํ์ด ์ผ์ด๋ ๊ฑฐ๋ํ ๋ณํ๋ฅผ ์ด๋์์ต๋๋ค. ์ด์ ์ฐ๋ฆฌ๋ ์ ๋ณด ์ฒ๋ฆฌ ๋ถ์ผ์ ํ์ ์ด ๋ฅ ๋ฌ๋์ ํตํด ์ ๋ณด ์์ฑ ๋ถ์ผ๋ก ์ด์ด์ง๋ ์์ ์ ์ ์์ต๋๋ค. ์ธ๊ฐ์ ์์ํ๊ณ ์์์ ํตํด ํ์ตํ๋ ๋ฅ๋ ฅ์ด ์์ต๋๋ค. ๋ฅ๋ฌ๋์ ์งํ์ ํฉ์ฑ ๋ฐ์ดํฐ ๋ฐ ์ธ์ด ๋ชจ๋ธ์ ๊ฑฐ๋ํ๊ฐ ์ด๋ป๊ฒ ์ํธ ์ฐ๊ฒฐ๋์ด ์๋ก์ด ๊ณผํ์ ๋ฐฉ๋ฒ๋ก ์ ์๋๋ฅผ ๋ง๋ค์ด๋ด๋์ง ์ดํด๋ด ์๋ค.
#AAiCON
Forwarded from ์ฌ๋ฐ๋ฅธ
๊ตฌ๊ธ, ์ ๋ฏธ๋ 'Gemini 1.0' ์ ์๋ฐํ (์๋ฃ: Google Blog)
- ์๋ค๋ฅด ํผ์ฐจ์ด CEO, ์ฌ๋ฌ ์ฃผ์ ๋ฒค์น๋งํฌ์์ ์ต์ฒจ๋จ ์ฑ๋ฅ ๋ฌ์ฑํ Gemini์ ๋ํด ์์ . ์ฌํด ์ด Google Brain + DeepMind๊ฐ ํฉ์ํด์ ๋ง๋ ์ฒซ LLM
- ์ํ๊ณ ์ ์ฃผ์ญ ๋ฐ๋ฏธ์ค ํ์ฌ๋น์ค๊ฐ ์ฃผ๋. ํ ์คํธ, ๋ฉํฐ๋ชจ๋ฌ ๋ฒค์น๋งํฌ ์ฌ๋ฌ ๋ถ๋ฌธ์์ GPT-4๋ฅผ ๋ฅ๊ฐ (์ค์ ์ฑ๋ฅ์ ์กฐ๊ธ ๋ ๋ด์ผ ํ ๊ฒ์ผ๋ก ์์)
์ ๋ฏธ๋ ๋ชจ๋ธ์ ์ด 3๊ฐ์ง
- Gemini Ultra : ์ต๊ณ ์ฑ๋ฅ์ ์ํ ๊ฐ์ฅ ํฌ๊ณ , ๋ฐ์ด๋ ๋ชจ๋ธ
- Gemini Pro : ๊ด๋ฒ์ํ ์์ ์ ํ์ฅ ๊ฐ๋ฅํ ๋ชจ๋ธ
- Gemini Nano : ์จ๋๋ฐ์ด์ค AI ์์ ์ ์ํ ๊ฐ์ฅ ํจ์จ์ ๋ชจ๋ธ
- ์ค๋๋ถํฐ Bard๋ Gemini Pro ๋ชจ๋ธ์ ์ฌ์ฉํ ๊ฒ, ๋ํ ๊ตฌ๊ธ ํฝ์ 8 ํ๋ก ์ ํ์์ Gemini Nano ์คํํ๋๋ก ํ ๊ฒ. ํฅํ ๊ฒ์/๊ด๊ณ /ํฌ๋กฌ/๋์ฃAI ๋ฑ ๋ ๋ง์ ์ ํ์ ๋ฐฐํฌํ ์์ PaLM์ ๋์ฒดํ๋ ๊ฒ
- 12์ 13์ผ๋ถํฐ ๊ฐ๋ฐ์/๊ธฐ์ ๊ณ ๊ฐ์ Google Vertex AI (=์์ ๋ง์ AI ๊ตฌ์ถํ๋ ์๋น์ค)๋ฅผ ํตํด Gemini Pro ์ฌ์ฉ ๊ฐ๋ฅ
- ๊ฐ์ฅ ๋ฐ์ด๋๊ณ ํฐ ๋ฒ์ ์ธ Gemini Ultra๋ ๋ด๋ ์ด ์ถ์ํ๊ธฐ ์ ์ ์ ํ๋ ๊ณ ๊ฐ๊ณผ ํํธ๋์๊ฒ ์ด๊ธฐ ์คํ์ฉ์ผ๋ก ๋ฐฐํฌํ ๊ฒ. ๋ํ ๋ด๋ ์ด Ultra ํ์ฌํ 'Bard Advanced'๋ ์ถ์ํ ์์
- ์๋ค๋ฅด ํผ์ฐจ์ด CEO, ์ฌ๋ฌ ์ฃผ์ ๋ฒค์น๋งํฌ์์ ์ต์ฒจ๋จ ์ฑ๋ฅ ๋ฌ์ฑํ Gemini์ ๋ํด ์์ . ์ฌํด ์ด Google Brain + DeepMind๊ฐ ํฉ์ํด์ ๋ง๋ ์ฒซ LLM
- ์ํ๊ณ ์ ์ฃผ์ญ ๋ฐ๋ฏธ์ค ํ์ฌ๋น์ค๊ฐ ์ฃผ๋. ํ ์คํธ, ๋ฉํฐ๋ชจ๋ฌ ๋ฒค์น๋งํฌ ์ฌ๋ฌ ๋ถ๋ฌธ์์ GPT-4๋ฅผ ๋ฅ๊ฐ (์ค์ ์ฑ๋ฅ์ ์กฐ๊ธ ๋ ๋ด์ผ ํ ๊ฒ์ผ๋ก ์์)
์ ๋ฏธ๋ ๋ชจ๋ธ์ ์ด 3๊ฐ์ง
- Gemini Ultra : ์ต๊ณ ์ฑ๋ฅ์ ์ํ ๊ฐ์ฅ ํฌ๊ณ , ๋ฐ์ด๋ ๋ชจ๋ธ
- Gemini Pro : ๊ด๋ฒ์ํ ์์ ์ ํ์ฅ ๊ฐ๋ฅํ ๋ชจ๋ธ
- Gemini Nano : ์จ๋๋ฐ์ด์ค AI ์์ ์ ์ํ ๊ฐ์ฅ ํจ์จ์ ๋ชจ๋ธ
- ์ค๋๋ถํฐ Bard๋ Gemini Pro ๋ชจ๋ธ์ ์ฌ์ฉํ ๊ฒ, ๋ํ ๊ตฌ๊ธ ํฝ์ 8 ํ๋ก ์ ํ์์ Gemini Nano ์คํํ๋๋ก ํ ๊ฒ. ํฅํ ๊ฒ์/๊ด๊ณ /ํฌ๋กฌ/๋์ฃAI ๋ฑ ๋ ๋ง์ ์ ํ์ ๋ฐฐํฌํ ์์ PaLM์ ๋์ฒดํ๋ ๊ฒ
- 12์ 13์ผ๋ถํฐ ๊ฐ๋ฐ์/๊ธฐ์ ๊ณ ๊ฐ์ Google Vertex AI (=์์ ๋ง์ AI ๊ตฌ์ถํ๋ ์๋น์ค)๋ฅผ ํตํด Gemini Pro ์ฌ์ฉ ๊ฐ๋ฅ
- ๊ฐ์ฅ ๋ฐ์ด๋๊ณ ํฐ ๋ฒ์ ์ธ Gemini Ultra๋ ๋ด๋ ์ด ์ถ์ํ๊ธฐ ์ ์ ์ ํ๋ ๊ณ ๊ฐ๊ณผ ํํธ๋์๊ฒ ์ด๊ธฐ ์คํ์ฉ์ผ๋ก ๋ฐฐํฌํ ๊ฒ. ๋ํ ๋ด๋ ์ด Ultra ํ์ฌํ 'Bard Advanced'๋ ์ถ์ํ ์์
Google
Introducing Gemini: our largest and most capable AI model
Gemini is our most capable and general model, built to be multimodal and optimized for three different sizes: Ultra, Pro and Nano.
โค1
Gemini is finally out. Its technical report, while 60 pages long, is light in details. I did a quick read-through and here's the summary.
1. Gemini was written in Jax and trained using TPUs. The architecture, while not explained in details, seems similar to that of DeepMind's Flamigo, with separate text encoder and vision encoder.
2. Gemini Pro's performance is similar to GPT-3.5 and Gemini Ultra is reported to be better than GPT-4. Nano-1 (1.8B params) and Nano-2 (3.25B params) are designed to run on-device.
3. 32K context length.
4. Very good at understanding vision and speech.
5. Coding ability: the big jump in HumanEval compared to GPT-4 (74.4% vs. 67%), if true, is awesome. However, the Natural2Code benchmark (no leakage on the Internet) shows a much smaller gap (74.9% vs. 73.9%).
6. On MMLU: using COT to show that Gemini is better than GPT-4 seems forced. In 5-shot setting, GPT-4 is better (86.4% vs. 83.7%).
7. No information at all on the training data, other than they ensured "all data enrichment workers are paid at least a local living wage."
1. Gemini was written in Jax and trained using TPUs. The architecture, while not explained in details, seems similar to that of DeepMind's Flamigo, with separate text encoder and vision encoder.
2. Gemini Pro's performance is similar to GPT-3.5 and Gemini Ultra is reported to be better than GPT-4. Nano-1 (1.8B params) and Nano-2 (3.25B params) are designed to run on-device.
3. 32K context length.
4. Very good at understanding vision and speech.
5. Coding ability: the big jump in HumanEval compared to GPT-4 (74.4% vs. 67%), if true, is awesome. However, the Natural2Code benchmark (no leakage on the Internet) shows a much smaller gap (74.9% vs. 73.9%).
6. On MMLU: using COT to show that Gemini is better than GPT-4 seems forced. In 5-shot setting, GPT-4 is better (86.4% vs. 83.7%).
7. No information at all on the training data, other than they ensured "all data enrichment workers are paid at least a local living wage."