This media is not supported in your browser
VIEW IN TELEGRAM
متا از هوش مصنوعی متا با قابلیت تولید صدا رونمایی کرد - رقیب مدل صوتی پیشرفته OpenAI
متا مجموعه جدیدی از مدلهای Llama 3.2 رو برای متن (1B، 3B) و بینایی (11B، 90B) منتشر کرد.
به صورت خلاصه :
مدلهای جدید متنی 1B و 3B با 9 تریلیون توکن آموزش دیدن
مدلهای چندوجهی بینایی جدید 11B و 90B روی 6 میلیارد زوج تصویر و متن آموزش دیدن
طول متن قابل پردازش 128K هست
مدلهای 1B و 3B از برخی روشهای تقطیر مدلهای 8B و 70B استفاده کردن
ارزیابیها برای مدلهای کوچک 1B و 3B و مدلهای چندوجهی بینایی 11B و 90B بسیار خوبه. 1B در آزمون MMLU نمره 49.3 و 3B نمره 63.4 رو کسب کردن. مدلهای چندوجهی بینایی در آزمون MMMU نمره 50.7 و 90B نمره 60.3 رو کسب کردن
https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf
به صورت خلاصه :
مدلهای جدید متنی 1B و 3B با 9 تریلیون توکن آموزش دیدن
مدلهای چندوجهی بینایی جدید 11B و 90B روی 6 میلیارد زوج تصویر و متن آموزش دیدن
طول متن قابل پردازش 128K هست
مدلهای 1B و 3B از برخی روشهای تقطیر مدلهای 8B و 70B استفاده کردن
ارزیابیها برای مدلهای کوچک 1B و 3B و مدلهای چندوجهی بینایی 11B و 90B بسیار خوبه. 1B در آزمون MMLU نمره 49.3 و 3B نمره 63.4 رو کسب کردن. مدلهای چندوجهی بینایی در آزمون MMMU نمره 50.7 و 90B نمره 60.3 رو کسب کردن
https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf
huggingface.co
Llama 3.2 - a meta-llama Collection
This collection hosts the transformers and original repos of the Llama 3.2 and Llama Guard 3
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI
یک رابط کاربری جدید به نام "Canvas" معرفی کرده که به کاربران اجازه میده در کنار چت معمولی، روی پروژههای نوشتن و کدنویسی کار کنن. این ابزار یه فضای کاری جداگانه در یک پنجره جدید باز میکنه که کاربران میتونن در اون متن یا کد تولید کنن و بخشهایی رو برای ویرایش مشخص کنن
Canvas
از روز گذشته برای کاربران ChatGPT Plus و Teams در دسترسهو هفته آینده برای کاربران Enterprise و Edu ارائه میشه.
این قابلیت شبیه به ابزارهای دیگری مانند "Artifacts" از Anthropic و "Cursor" هست که برای کمک به کدنویسی طراحی شدن. با استفاده از Canvas، کاربران میتونن خروجی مدل هوش مصنوعی رو بدون نیاز به نوشتن مجدد تمام متن یا کد ویرایش کنن
Canvas
همچنین ابزارهای جدیدی برای کدنویسی ارائه میده، مانند اضافه کردن مستندات به کد یا بررسی و پیشنهاد اصلاحات برای رفع باگها. این ابزار به زودی پس از پایان نسخه بتا برای کاربران رایگان نیز عرضه خواهد شد.
یک رابط کاربری جدید به نام "Canvas" معرفی کرده که به کاربران اجازه میده در کنار چت معمولی، روی پروژههای نوشتن و کدنویسی کار کنن. این ابزار یه فضای کاری جداگانه در یک پنجره جدید باز میکنه که کاربران میتونن در اون متن یا کد تولید کنن و بخشهایی رو برای ویرایش مشخص کنن
Canvas
از روز گذشته برای کاربران ChatGPT Plus و Teams در دسترسهو هفته آینده برای کاربران Enterprise و Edu ارائه میشه.
این قابلیت شبیه به ابزارهای دیگری مانند "Artifacts" از Anthropic و "Cursor" هست که برای کمک به کدنویسی طراحی شدن. با استفاده از Canvas، کاربران میتونن خروجی مدل هوش مصنوعی رو بدون نیاز به نوشتن مجدد تمام متن یا کد ویرایش کنن
Canvas
همچنین ابزارهای جدیدی برای کدنویسی ارائه میده، مانند اضافه کردن مستندات به کد یا بررسی و پیشنهاد اصلاحات برای رفع باگها. این ابزار به زودی پس از پایان نسخه بتا برای کاربران رایگان نیز عرضه خواهد شد.
یه سری مقالات از یه آزمایشگاه هوش مصنوعی تو دانشگاه بریتیش کلمبیا اخیراً منتشر شدن که در نگاه اول خیلی خاص به نظر نمیان، ولی جالبیشون اینه که این تحقیقات توسط یه "دانشمند هوش مصنوعی" ساخته شدن. این پروژه با همکاری دانشگاه آکسفورد و استارتاپ Sakana AI ایجاد شده و هدفش اینه که به هوش مصنوعی یاد بده خودش ایدههای جدید خلق و کشف کنه.
الان بیشتر مدل های هوشمند نیاز به دادههای انسانی دارن، اما اگه بتونن خودشون بتنهایی ایدههای جالب کشف کنن، ممکنه خیلی فراتر از تواناییهای فعلی پیش برن. مثلاً تو این پروژه، یه "دانشمند هوش مصنوعی" خودکار آزمایشها و کدها رو مینویسه و اجرا میکنه.
https://arxiv.org/abs/2408.06292
نتایجش فعلاً خارقالعاده نیست، ولی محققینی مثل Jeff Clune باور دارن با افزایش قدرت محاسباتی، این سیستمها خیلی قویتر میشن.
البته یه سری محقق دیگه مثل Tom Hope میگن این سیستمها هنوز خیلی قابل اعتماد نیستن و نمیشه بهشون برای کشفهای بزرگ علمی تکیه کرد.
با این حال، این یادگیری آزاد ممکنه کلید ساخت هوش مصنوعی قدرتمندتر باشه.Clune اخیراً پروژهای رو معرفی کرده که در اون هوش مصنوعی نمایندگانی طراحی کرده که تو بعضی وظایف مثل ریاضیات و درک مطلب از انسانها بهتر عمل میکنن. البته Clune هشدار داده که این تکنولوژی ممکنه خطرناک باشه و باید با احتیاط پیش رفت.
https://arxiv.org/abs/2408.08435
الان بیشتر مدل های هوشمند نیاز به دادههای انسانی دارن، اما اگه بتونن خودشون بتنهایی ایدههای جالب کشف کنن، ممکنه خیلی فراتر از تواناییهای فعلی پیش برن. مثلاً تو این پروژه، یه "دانشمند هوش مصنوعی" خودکار آزمایشها و کدها رو مینویسه و اجرا میکنه.
https://arxiv.org/abs/2408.06292
نتایجش فعلاً خارقالعاده نیست، ولی محققینی مثل Jeff Clune باور دارن با افزایش قدرت محاسباتی، این سیستمها خیلی قویتر میشن.
البته یه سری محقق دیگه مثل Tom Hope میگن این سیستمها هنوز خیلی قابل اعتماد نیستن و نمیشه بهشون برای کشفهای بزرگ علمی تکیه کرد.
با این حال، این یادگیری آزاد ممکنه کلید ساخت هوش مصنوعی قدرتمندتر باشه.Clune اخیراً پروژهای رو معرفی کرده که در اون هوش مصنوعی نمایندگانی طراحی کرده که تو بعضی وظایف مثل ریاضیات و درک مطلب از انسانها بهتر عمل میکنن. البته Clune هشدار داده که این تکنولوژی ممکنه خطرناک باشه و باید با احتیاط پیش رفت.
https://arxiv.org/abs/2408.08435
arXiv.org
The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery
One of the grand challenges of artificial general intelligence is developing agents capable of conducting scientific research and discovering new knowledge. While frontier models have already been...
This media is not supported in your browser
VIEW IN TELEGRAM
Facepoke: Realtime head transformation
Code : https://github.com/jbilcke-hf/FacePoke?tab=readme-ov-file#introduction
Demo: https://huggingface.co/spaces/jbilcke-hf/FacePoke
Code : https://github.com/jbilcke-hf/FacePoke?tab=readme-ov-file#introduction
Demo: https://huggingface.co/spaces/jbilcke-hf/FacePoke
💵ثروت مدیرعامل انویدیا از کل ارزش اینتل بیشتر شد
🔹پیشروی جنونآمیز هوش مصنوعی باعث شده سهام #انویدیا، بهعنوان یکی از بزرگترین تولیدکنندگان پردازشگرهای گرافیکی هوش مصنوعی، افزایش یابد. جهش سهام انویدیا برای جنسن هوانگ که بیش از ۷۵ میلیون سهم شرکت را در اختیار دارد، نتیجهای عالی داشت. براساس شاخص میلیاردرهای بلومبرگ، دارایی جنسن هوانگ اکنون ۱۰۹.۲ میلیارد دلار است و در رتبه سیزدهم ثروتمندان جهان قرار دارد. از سویی، ارزش بازار اینتل نیز ۹۶.۵۹ میلیارد دلار است.
🔹اگرچه جنسن هوانگ میتواند #اینتل را بخرد و حدود ۱۳ میلیارد دلار نیز از ثروتش باقی میماند، چنین کاری بسیار بعید است.
———————-
🙏منبع: @Digiato
🔹پیشروی جنونآمیز هوش مصنوعی باعث شده سهام #انویدیا، بهعنوان یکی از بزرگترین تولیدکنندگان پردازشگرهای گرافیکی هوش مصنوعی، افزایش یابد. جهش سهام انویدیا برای جنسن هوانگ که بیش از ۷۵ میلیون سهم شرکت را در اختیار دارد، نتیجهای عالی داشت. براساس شاخص میلیاردرهای بلومبرگ، دارایی جنسن هوانگ اکنون ۱۰۹.۲ میلیارد دلار است و در رتبه سیزدهم ثروتمندان جهان قرار دارد. از سویی، ارزش بازار اینتل نیز ۹۶.۵۹ میلیارد دلار است.
🔹اگرچه جنسن هوانگ میتواند #اینتل را بخرد و حدود ۱۳ میلیارد دلار نیز از ثروتش باقی میماند، چنین کاری بسیار بعید است.
———————-
🙏منبع: @Digiato
Forwarded from ByteSize Brains ™
آکادمی سلطنتی علوم سوئد جایزه نوبل فیزیک ۲۰۲۴ رو به جان جی. هاپفیلد و جفری هینتون اهدا کردن «به خاطر کشفیات و اختراعات بنیادی که یادگیری ماشین با شبکههای عصبی مصنوعی رو ممکن کردن.»
https://youtu.be/SBGG4WNweEc
کاملاً سزاوار بود برای کسانی که در عمل بکپراپگیشن، شبکههای پیشخور و «یادگیری عمیق» رو توسعه دادن.
این دو نفر در واقع نیوتون دنیای یادگیری ماشین هستن. نه تنها الگوریتمهایی رو پایهگذاری کردن که به سیستمهایی که امروزه استفاده میکنیم مقیاس دادن، بلکه برای اولین بار تئوریهایی رو فرموله کردن که میتونستن رفتار آینده مدلها رو پیشبینی کنن، که این کار، به جای اینکه فقط یه نقطه عطف مهندسی باشه، واقعا یه تحول در فیزیک محسوب میشه.
https://youtu.be/SBGG4WNweEc
کاملاً سزاوار بود برای کسانی که در عمل بکپراپگیشن، شبکههای پیشخور و «یادگیری عمیق» رو توسعه دادن.
این دو نفر در واقع نیوتون دنیای یادگیری ماشین هستن. نه تنها الگوریتمهایی رو پایهگذاری کردن که به سیستمهایی که امروزه استفاده میکنیم مقیاس دادن، بلکه برای اولین بار تئوریهایی رو فرموله کردن که میتونستن رفتار آینده مدلها رو پیشبینی کنن، که این کار، به جای اینکه فقط یه نقطه عطف مهندسی باشه، واقعا یه تحول در فیزیک محسوب میشه.
YouTube
Announcement of the 2024 Nobel Prize in Physics
The Royal Swedish Academy of Sciences has decided to award the Nobel Prize in Physics 2024 to John J. Hopfield and Geoffrey E. Hinton “for foundational discoveries and inventions that enable machine learning with artificial neural networks”.
#NobelPrize…
#NobelPrize…
ترنسفورمرها معمولا توجه زیادی به اطلاعات نامربوط دارن که این موضوع میتونه دقتشون رو در کارهای مختلف یادگیری ماشین مثل خلاصهسازی متن یا پاسخ دادن به سوالات کم کنه.
برای حل این مشکل، محققین مایکروسافت Diff Transformer رو در این مقاله ارایه دادن. در واقع در این مقاله روش جدیدی به نام مکانیزم توجه تفاضلی ارایه شده. بهجای اینکه نمرات توجه رو بطور یکپارچه محاسبه کنه، از تفریق دو نگاشت توجه استفاده میکنه.
این کار باعث میشه نویز و اطلاعات نامربوط حذف بشه و الگوهای توجه پراکنده(Sparce attention) تشویق بشن.
نتایج آزمایشها نشون میده که Diff Transformer نه تنها توی آزمایشها عملکرد بهتری داره، بلکه در کاربردهای واقعی هم مزایای زیادی داره.
مثلاً در متون طولانی، بازیابی اطلاعات کلیدی و کاهش توهمات(hallucinations) در مدلهای زبانی، پیشرفتهای قابلتوجهی داشته.
https://arxiv.org/abs/2410.05258
برای حل این مشکل، محققین مایکروسافت Diff Transformer رو در این مقاله ارایه دادن. در واقع در این مقاله روش جدیدی به نام مکانیزم توجه تفاضلی ارایه شده. بهجای اینکه نمرات توجه رو بطور یکپارچه محاسبه کنه، از تفریق دو نگاشت توجه استفاده میکنه.
این کار باعث میشه نویز و اطلاعات نامربوط حذف بشه و الگوهای توجه پراکنده(Sparce attention) تشویق بشن.
نتایج آزمایشها نشون میده که Diff Transformer نه تنها توی آزمایشها عملکرد بهتری داره، بلکه در کاربردهای واقعی هم مزایای زیادی داره.
مثلاً در متون طولانی، بازیابی اطلاعات کلیدی و کاهش توهمات(hallucinations) در مدلهای زبانی، پیشرفتهای قابلتوجهی داشته.
https://arxiv.org/abs/2410.05258
Tensorflow(@CVision)
آکادمی سلطنتی علوم سوئد جایزه نوبل فیزیک ۲۰۲۴ رو به جان جی. هاپفیلد و جفری هینتون اهدا کردن «به خاطر کشفیات و اختراعات بنیادی که یادگیری ماشین با شبکههای عصبی مصنوعی رو ممکن کردن.» https://youtu.be/SBGG4WNweEc کاملاً سزاوار بود برای کسانی که در عمل بکپراپگیشن،…
Hinton: “I'm particularly proud of the fact that one of my students fired Sam Altman.” 😂
https://www.youtube.com/live/H7DgMFqrON0?si=8TKFda6xiI1Gd6Yn
https://www.youtube.com/live/H7DgMFqrON0?si=8TKFda6xiI1Gd6Yn
YouTube
University of Toronto Press Conference - Professor Geoffrey Hinton, Nobel Prize in Physics 2024
Geoffrey Hinton, a University Professor Emeritus of computer science at the University of Toronto, discusses winning the 2024 Nobel Prize in Physics. He is joined by University of Toronto President Meric Gertler.
Widely regarded as the “godfather of AI…
Widely regarded as the “godfather of AI…
Tensorflow(@CVision)
Hinton: “I'm particularly proud of the fact that one of my students fired Sam Altman.” 😂 https://www.youtube.com/live/H7DgMFqrON0?si=8TKFda6xiI1Gd6Yn
"If you believe in something, don't give up on it, until you understand why it is wrong! ... Don't let people tell you it's nonsense, if you can't see why it is nonsense"
در دومین موفقیت نوبل برای هوش مصنوعی، آکادمی علوم سلطنتی سوئد نیمی از جایزه نوبل شیمی ۲۰۲۴ رو به دمیس هاسابیس، یکی از بنیانگذاران و مدیرعامل گوگل دیپمایند، و جان ام. جامپر، مدیر همین شرکت، برای کارشون روی استفاده از هوش مصنوعی برای پیشبینی ساختار پروتئینهااهدا کرد . نیمه دیگه جایزه به دیوید بیکر، استاد بیوشیمی دانشگاه واشنگتن، برای کارش در طراحی محاسباتی پروتئین رسید
https://www.businessinsider.com/google-deepmind-ceo-wins-nobel-prize-chemistry-demis-hassabis-2024-10
https://www.businessinsider.com/google-deepmind-ceo-wins-nobel-prize-chemistry-demis-hassabis-2024-10
Business Insider
Google DeepMind CEO wins joint Nobel Prize in chemistry for work on AlphaFold
Demis Hassabis and fellow DeepMinder John Jumper have won one half of the Nobel Prize in chemistry.
Tensorflow(@CVision)
در دومین موفقیت نوبل برای هوش مصنوعی، آکادمی علوم سلطنتی سوئد نیمی از جایزه نوبل شیمی ۲۰۲۴ رو به دمیس هاسابیس، یکی از بنیانگذاران و مدیرعامل گوگل دیپمایند، و جان ام. جامپر، مدیر همین شرکت، برای کارشون روی استفاده از هوش مصنوعی برای پیشبینی ساختار پروتئینهااهدا…
اگه علاقه مندید بایستی عرض کنم که نوبل به خاطر مقاله مهم AlphaFold اهدا شد. این روش یه پیشرفت انقلابی در زمینه زیستشناسیه که به یکی از بزرگترین و پیچیده ترین مسائل علمی یعنی پیش بینی ساختار سه بعدی پروتئینها، پس از ۵۰ سال تلاش، پاسخ داده.
پروتئینها بعد از ساخته شدن، خودشون به صورت خودکار و بر اساس قوانین فیزیکی به شکل سه بعدی خاصی تا میخورن. این شکل سه بعدی برای انجام وظایف اونها بسیار مهمه.
در حال حاضر، ما کد ژنتیکی مربوط به ۲۰۰ میلیون پروتئین رو می دونیم و هر ساله دهها میلیون پروتئین جدید کشف میشن. اما بهترین روشی که قبلا برای تعیین شکل سه بعدی یه پروتئین وجود داشت، حدود یک سال زمان میبرد و هزینه ای در حدود ۱۲۰ هزار دلار داشت.
با این روش، فقط تونستند شکل کمتر از ۲۰۰ هزار پروتئین را پیدا کنن. این یعنی این روش برای مقیاس بزرگ (مثل فهمیدن عملکرد همه پروتئینهای بدن انسان) جوابگو نبود.
اگه بتونیم مشکل تاشدگی پروتئینها رو حل کنیم، محققان قادر خواهند بود که یه رشته DNA رو که عملکردش ناشناخته ست، بگیرن و یه مدل سه بعدی از پروتئینی که این DNA کدگذاری میکنه، بسازن.
با بررسی این مدل سه بعدی، میتونن عملکرد اون پروتئین رو بفهمن.
این مسئله خیلی مهمه، چون بسیاری از بیماریها به دلیل تا شدگی اشتباه پروتئینها به وجود میان.
اگه ما پروسه تا شدگی پروتئینها رو درک کنیم، محققان میتونن پروتئینهای جدیدی بسازن که عملکرد پروتئینهای دیگه روتغییر بدن، مثلا پروتئینی بسازن که مشکل تا شدگی اشتباه یه پروتئین دیگه رو اصلاح کنه یا مثلاً میتونن آنزیمهای جدیدی خلق کنن که به باکتریها کمک کنن تا پلاستیکها رو تجزیه کنه.
آلفا فولد میتونه به پیشبینی نحوهی واکنش ساختارها و جهشهای خاص پروتئینهای یه فرد به داروهای مختلف کمک کنه. این موضوع منجر به درمانهای شخصی سازیشده و بسیار مؤثر خواهد شد.
این پیشرفت میتونه به طور کلی بهداشت و درمان را متحول کنه و باعث بشه درمانها دقیقتر شن و از روشهای آزمون و خطا که در حال حاضر استفاده میشن، کاسته شه
https://www.nature.com/articles/s41586-021-03819-2
پروتئینها بعد از ساخته شدن، خودشون به صورت خودکار و بر اساس قوانین فیزیکی به شکل سه بعدی خاصی تا میخورن. این شکل سه بعدی برای انجام وظایف اونها بسیار مهمه.
در حال حاضر، ما کد ژنتیکی مربوط به ۲۰۰ میلیون پروتئین رو می دونیم و هر ساله دهها میلیون پروتئین جدید کشف میشن. اما بهترین روشی که قبلا برای تعیین شکل سه بعدی یه پروتئین وجود داشت، حدود یک سال زمان میبرد و هزینه ای در حدود ۱۲۰ هزار دلار داشت.
با این روش، فقط تونستند شکل کمتر از ۲۰۰ هزار پروتئین را پیدا کنن. این یعنی این روش برای مقیاس بزرگ (مثل فهمیدن عملکرد همه پروتئینهای بدن انسان) جوابگو نبود.
اگه بتونیم مشکل تاشدگی پروتئینها رو حل کنیم، محققان قادر خواهند بود که یه رشته DNA رو که عملکردش ناشناخته ست، بگیرن و یه مدل سه بعدی از پروتئینی که این DNA کدگذاری میکنه، بسازن.
با بررسی این مدل سه بعدی، میتونن عملکرد اون پروتئین رو بفهمن.
این مسئله خیلی مهمه، چون بسیاری از بیماریها به دلیل تا شدگی اشتباه پروتئینها به وجود میان.
اگه ما پروسه تا شدگی پروتئینها رو درک کنیم، محققان میتونن پروتئینهای جدیدی بسازن که عملکرد پروتئینهای دیگه روتغییر بدن، مثلا پروتئینی بسازن که مشکل تا شدگی اشتباه یه پروتئین دیگه رو اصلاح کنه یا مثلاً میتونن آنزیمهای جدیدی خلق کنن که به باکتریها کمک کنن تا پلاستیکها رو تجزیه کنه.
آلفا فولد میتونه به پیشبینی نحوهی واکنش ساختارها و جهشهای خاص پروتئینهای یه فرد به داروهای مختلف کمک کنه. این موضوع منجر به درمانهای شخصی سازیشده و بسیار مؤثر خواهد شد.
این پیشرفت میتونه به طور کلی بهداشت و درمان را متحول کنه و باعث بشه درمانها دقیقتر شن و از روشهای آزمون و خطا که در حال حاضر استفاده میشن، کاسته شه
https://www.nature.com/articles/s41586-021-03819-2
Nature
Highly accurate protein structure prediction with AlphaFold
Nature - AlphaFold predicts protein structures with an accuracy competitive with experimental structures in the majority of cases using a novel deep learning architecture.
مصرف انرژی سیستمهای هوش مصنوعی، بهخصوص مدلهای زبانی بزرگ، توی چند سال اخیر خیلی بحثبرانگیز شده.
آمارها نشون میده که اوایل سال ۲۰۲۳، مصرف روزانه برق مدل ChatGPT بهطور میانگین ۵۶۴ مگاوات ساعت بوده که برابر با مصرف روزانه برق ۱۸ هزار خونهی آمریکاست.
تو بدترین حالت، سرویسهای هوش مصنوعی گوگل ممکنه به اندازهی کل کشور ایرلند برق مصرف کنن، یعنی چیزی حدود ۲۹.۳ تراوات ساعت در سال.
در مدلهای زبانی بزرگ مبتنی بر transformator مکانیزم توجه (attention) یکی از موانع اصلی محسوب میشه که کارایی محاسبات رو محدود میکنه
با داشتن یه ورودی شامل N توکن، پیچیدگی محاسبات مکانیزم توجه استاندارد O(N²) هست که شامل ضرب کردن تنسورهای با ابعاد بالا میشه.
علاوه بر مکانیزم توجه، مقدار زیادی محاسبات ضرب عنصر به عنصر (element-wise) و تبدیلات خطی هم وجود داره که به افزایش حجم محاسبات کمک میکنه.
ادامه داره...
آمارها نشون میده که اوایل سال ۲۰۲۳، مصرف روزانه برق مدل ChatGPT بهطور میانگین ۵۶۴ مگاوات ساعت بوده که برابر با مصرف روزانه برق ۱۸ هزار خونهی آمریکاست.
تو بدترین حالت، سرویسهای هوش مصنوعی گوگل ممکنه به اندازهی کل کشور ایرلند برق مصرف کنن، یعنی چیزی حدود ۲۹.۳ تراوات ساعت در سال.
در مدلهای زبانی بزرگ مبتنی بر transformator مکانیزم توجه (attention) یکی از موانع اصلی محسوب میشه که کارایی محاسبات رو محدود میکنه
با داشتن یه ورودی شامل N توکن، پیچیدگی محاسبات مکانیزم توجه استاندارد O(N²) هست که شامل ضرب کردن تنسورهای با ابعاد بالا میشه.
علاوه بر مکانیزم توجه، مقدار زیادی محاسبات ضرب عنصر به عنصر (element-wise) و تبدیلات خطی هم وجود داره که به افزایش حجم محاسبات کمک میکنه.
ادامه داره...
Tensorflow(@CVision)
مصرف انرژی سیستمهای هوش مصنوعی، بهخصوص مدلهای زبانی بزرگ، توی چند سال اخیر خیلی بحثبرانگیز شده. آمارها نشون میده که اوایل سال ۲۰۲۳، مصرف روزانه برق مدل ChatGPT بهطور میانگین ۵۶۴ مگاوات ساعت بوده که برابر با مصرف روزانه برق ۱۸ هزار خونهی آمریکاست. …
یه مقاله جالب با عنوان "ADDITION IS ALL YOU NEED" اخیرا از دانشگاه MIT منتشر شده و روش جدیدی رو ارائه میده که هدفش کاهش قابلتوجه مصرف انرژی در مدلهای زبانی بزرگ هست.
تکنیک جدید میتونه مصرف انرژی توی محاسبات ترنسفورمرها رو بهطور چشمگیری کم کنه.
الگوریتم جدید به اسم "ضرب با پیچیدگی خطی" (L-Mul)، ضربهای عددی شناور (floating-point) رو با استفاده از جمع اعداد صحیح که انرژی کمتری مصرف میکنه، به جای ضربهای پرهزینه، تقریب میزنه.
در سختافزارهای مدرن کامپیوتر، ضرب اعداد شناور (floating-point) خیلی بیشتر از جمع انرژی مصرف میکنه. به طور خاص، ضرب دو عدد اعشاری ۳۲ بیتی (fp32) چهار برابر بیشتر از جمع دو عدد fp32 انرژی میبره و ۳۷ برابر بیشتر از جمع دو عدد صحیح ۳۲ بیتی (int32) هزینه داره.
در ضرب اعداد شناور سنتی قسمتی که بیشترین بار محاسباتی رو داره ضرب مانتیساهای(قسمت اعشار) اعداد هستند که در روش پیشنهادی به جای استفاده از ضرب مستقیم مانتیساها، تقریب مناسبی برای اون ارائه میدن تا از جمع استفاده کنن که انرژی بسیار کمتری مصرف میکنه
در مقاله گفته شد که بدون کاهش دقت و عملکرد مدل، مصرف انرژی تا ۸۰ درصد کاهش پیدا میکنه!
https://arxiv.org/html/2410.00907v2
به عنوان یادآوری ضرب اعداد اعشاری در سیستم باینری این ویدیو پیشنهاد میشه:
https://youtu.be/I0ol63OXojc?feature=shared
تکنیک جدید میتونه مصرف انرژی توی محاسبات ترنسفورمرها رو بهطور چشمگیری کم کنه.
الگوریتم جدید به اسم "ضرب با پیچیدگی خطی" (L-Mul)، ضربهای عددی شناور (floating-point) رو با استفاده از جمع اعداد صحیح که انرژی کمتری مصرف میکنه، به جای ضربهای پرهزینه، تقریب میزنه.
در سختافزارهای مدرن کامپیوتر، ضرب اعداد شناور (floating-point) خیلی بیشتر از جمع انرژی مصرف میکنه. به طور خاص، ضرب دو عدد اعشاری ۳۲ بیتی (fp32) چهار برابر بیشتر از جمع دو عدد fp32 انرژی میبره و ۳۷ برابر بیشتر از جمع دو عدد صحیح ۳۲ بیتی (int32) هزینه داره.
در ضرب اعداد شناور سنتی قسمتی که بیشترین بار محاسباتی رو داره ضرب مانتیساهای(قسمت اعشار) اعداد هستند که در روش پیشنهادی به جای استفاده از ضرب مستقیم مانتیساها، تقریب مناسبی برای اون ارائه میدن تا از جمع استفاده کنن که انرژی بسیار کمتری مصرف میکنه
در مقاله گفته شد که بدون کاهش دقت و عملکرد مدل، مصرف انرژی تا ۸۰ درصد کاهش پیدا میکنه!
https://arxiv.org/html/2410.00907v2
به عنوان یادآوری ضرب اعداد اعشاری در سیستم باینری این ویدیو پیشنهاد میشه:
https://youtu.be/I0ol63OXojc?feature=shared
YouTube
2 Multiplying Floating Point Numbers
اگر شما هم تو خونه یه کامپیوتر خوب بستید که بهش ریموت بزنید مدل Train کنید، یا تو شرکت یه سرور برای Train گذاشتن دارید، لازم نیست همیشه سیستمتونو روشن بزارید، با یه پکت ساده میتونید سیستمتونو روشن کنید یا از حالت Sleep در بیاریدش
اگر قبلا با WoL کار نکردید و به کارتون میاد این پست را بخونید...
اگر قبلا با WoL کار نکردید و به کارتون میاد این پست را بخونید...
کلاسویژن
روشن کردن سرور با یک کلیک: همه چیز درباره Wake on LAN - کلاسویژن
اگر شما هم از اون دسته از افرادی هستید که در شرکت یا منزل یک سیستم حرفه ای برای آموزش مدلهای دیپلرنینگ دارید، احتمالاً این سناریو براتون آشناست: میخواید به
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل Gemini: قابلیت تولید تصویر با مدل Imagen 3 الان برای همهی کاربران Gemini در سراسر دنیا بصورت رایگان در دسترسه.