Tensorflow(@CVision)
14K subscribers
1.17K photos
240 videos
68 files
2.24K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت دوره
http://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
متا از هوش مصنوعی متا با قابلیت تولید صدا رونمایی کرد - رقیب مدل صوتی پیشرفته OpenAI
متا مجموعه جدیدی از مدل‌های Llama 3.2 رو برای متن (1B، 3B) و بینایی (11B، 90B) منتشر کرد. 

به صورت خلاصه :

مدل‌های جدید متنی 1B و 3B با 9 تریلیون توکن آموزش دیدن

مدل‌های چندوجهی بینایی جدید 11B و 90B روی 6 میلیارد زوج تصویر و متن آموزش دیدن

طول متن قابل پردازش 128K هست

مدل‌های 1B و 3B از برخی روش‌های تقطیر مدل‌های 8B و 70B استفاده کردن


ارزیابی‌ها برای مدل‌های کوچک 1B و 3B و مدل‌های چندوجهی بینایی 11B و 90B بسیار خوبه. 1B در آزمون MMLU نمره 49.3 و 3B نمره 63.4 رو کسب کردن. مدل‌های چندوجهی بینایی در آزمون MMMU نمره 50.7 و 90B نمره 60.3 رو کسب کردن


https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI

یک رابط کاربری جدید به نام "Canvas" معرفی کرده که به کاربران اجازه میده در کنار چت معمولی، روی پروژه‌های نوشتن و کدنویسی کار کنن. این ابزار یه فضای کاری جداگانه در یک پنجره جدید باز میکنه که کاربران میتونن در اون متن یا کد تولید کنن و بخش‌هایی رو برای ویرایش مشخص کنن

Canvas

از روز گذشته برای کاربران ChatGPT Plus و Teams در دسترسهو هفته آینده برای کاربران Enterprise و Edu ارائه میشه.

این قابلیت شبیه به ابزارهای دیگری مانند "Artifacts" از Anthropic و "Cursor" هست که برای کمک به کدنویسی طراحی شدن. با استفاده از Canvas، کاربران میتونن خروجی مدل هوش مصنوعی رو بدون نیاز به نوشتن مجدد تمام متن یا کد ویرایش کنن

Canvas

همچنین ابزارهای جدیدی برای کدنویسی ارائه میده، مانند اضافه کردن مستندات به کد یا بررسی و پیشنهاد اصلاحات برای رفع باگ‌ها. این ابزار به زودی پس از پایان نسخه بتا برای کاربران رایگان نیز عرضه خواهد شد.
یه سری مقالات از یه آزمایشگاه هوش مصنوعی تو دانشگاه بریتیش کلمبیا اخیراً منتشر شدن که در نگاه اول خیلی خاص به نظر نمیان، ولی جالبیشون اینه که این تحقیقات توسط یه "دانشمند هوش مصنوعی" ساخته شدن. این پروژه با همکاری دانشگاه آکسفورد و استارتاپ Sakana AI ایجاد شده و هدفش اینه که به هوش مصنوعی یاد بده خودش ایده‌های جدید خلق و کشف کنه.

الان بیشتر مدل های هوشمند نیاز به داده‌های انسانی دارن، اما اگه بتونن خودشون ‌بتنهایی ایده‌های جالب کشف کنن، ممکنه خیلی فراتر از توانایی‌های فعلی پیش برن. مثلاً تو این پروژه، یه "دانشمند هوش مصنوعی" خودکار آزمایش‌ها و کدها رو می‌نویسه و اجرا می‌کنه.

https://arxiv.org/abs/2408.06292

نتایجش فعلاً خارق‌العاده نیست، ولی محققینی مثل Jeff Clune باور دارن با افزایش قدرت محاسباتی، این سیستم‌ها خیلی قوی‌تر می‌شن.

البته یه سری محقق دیگه مثل Tom Hope میگن این سیستم‌ها هنوز خیلی قابل اعتماد نیستن و نمی‌شه بهشون برای کشف‌های بزرگ علمی تکیه کرد.

با این حال، این یادگیری آزاد ممکنه کلید ساخت هوش مصنوعی قدرتمندتر باشه.Clune  اخیراً پروژه‌ای رو معرفی کرده که در اون هوش مصنوعی نمایندگانی طراحی کرده که تو بعضی وظایف مثل ریاضیات و درک مطلب از انسان‌ها بهتر عمل می‌کنن. البته Clune هشدار داده که این تکنولوژی ممکنه خطرناک باشه و باید با احتیاط پیش رفت.

https://arxiv.org/abs/2408.08435
💵ثروت مدیرعامل انویدیا از کل ارزش اینتل بیشتر شد

🔹پیشروی جنون‌آمیز هوش مصنوعی باعث شده سهام #انویدیا، به‌عنوان یکی از بزرگ‌ترین تولیدکنندگان پردازشگرهای گرافیکی هوش مصنوعی، افزایش یابد. جهش سهام انویدیا برای جنسن هوانگ که بیش از ۷۵ میلیون سهم شرکت را در اختیار دارد، نتیجه‌ای عالی داشت. براساس شاخص میلیاردرهای بلومبرگ، دارایی جنسن هوانگ اکنون ۱۰۹.۲ میلیارد دلار است و در رتبه سیزدهم ثروتمندان جهان قرار دارد. از سویی، ارزش بازار اینتل نیز ۹۶.۵۹ میلیارد دلار است.

🔹اگرچه جنسن هوانگ می‌تواند #اینتل را بخرد و حدود ۱۳ میلیارد دلار نیز از ثروتش باقی می‌ماند، چنین کاری بسیار بعید است.

———————-
🙏منبع: @Digiato
Forwarded from ByteSize Brains
آکادمی سلطنتی علوم سوئد جایزه نوبل فیزیک ۲۰۲۴ رو به جان جی. هاپفیلد و جفری هینتون اهدا کردن «به خاطر کشفیات و اختراعات بنیادی که یادگیری ماشین با شبکه‌های عصبی مصنوعی رو ممکن کردن.»
https://youtu.be/SBGG4WNweEc

کاملاً سزاوار بود برای کسانی که در عمل بک‌پراپگیشن، شبکه‌های پیش‌خور و «یادگیری عمیق» رو توسعه دادن.

این دو نفر در واقع نیوتون دنیای یادگیری ماشین هستن. نه تنها الگوریتم‌هایی رو پایه‌گذاری کردن که به سیستم‌هایی که امروزه استفاده می‌کنیم مقیاس دادن، بلکه برای اولین بار تئوری‌هایی رو فرموله کردن که می‌تونستن رفتار آینده مدل‌ها رو پیش‌بینی کنن، که این کار، به جای اینکه فقط یه نقطه عطف مهندسی باشه، واقعا یه تحول در فیزیک محسوب می‌شه.
ترنسفورمرها معمولا توجه زیادی به اطلاعات نامربوط دارن که این موضوع میتونه دقتشون رو در کارهای مختلف یادگیری ماشین مثل خلاصه‌سازی متن یا پاسخ دادن به سوالات کم کنه.

برای حل این مشکل، محققین مایکروسافت Diff Transformer  رو در این مقاله ارایه دادن. در واقع در این مقاله روش جدیدی به نام مکانیزم توجه تفاضلی ارایه شده. به‌جای اینکه نمرات توجه رو بطور یکپارچه محاسبه کنه، از تفریق دو نگاشت توجه استفاده می‌کنه.

این کار باعث میشه نویز و اطلاعات نامربوط حذف بشه و الگوهای توجه پراکنده(Sparce attention) تشویق بشن.
نتایج آزمایش‌ها نشون میده که  Diff Transformer نه تنها توی آزمایش‌ها عملکرد بهتری داره، بلکه در کاربردهای واقعی هم مزایای زیادی داره.

مثلاً در متون طولانی، بازیابی اطلاعات کلیدی و کاهش توهمات(hallucinations) در مدل‌های زبانی، پیشرفت‌های قابل‌توجهی داشته.

https://arxiv.org/abs/2410.05258
جایزه نوبل فیزیک به دو دانشمند کامپیوتر جفری هینتون و هاپفیلد به پاس امکان پذیر کردن یادگیری در شبکه های عصبی تعلق گرفت .
دلیل اختصاص نوبل فیزیک استفاده از مفاهیم فیزیک در ماشین بولتزمان و شبکه هاپفیلد است .
Tensorflow(@CVision)
Hinton: “I'm particularly proud of the fact that one of my students fired Sam Altman.” 😂 https://www.youtube.com/live/H7DgMFqrON0?si=8TKFda6xiI1Gd6Yn
"If you believe in something, don't give up on it, until you understand why it is wrong! ... Don't let people tell you it's nonsense, if you can't see why it is nonsense"
در دومین موفقیت نوبل برای هوش مصنوعی، آکادمی علوم سلطنتی سوئد نیمی از جایزه نوبل شیمی ۲۰۲۴ رو به دمیس هاسابیس، یکی از بنیان‌گذاران و مدیرعامل گوگل دیپ‌مایند، و جان ام. جامپر، مدیر همین شرکت، برای کارشون روی استفاده از هوش مصنوعی برای پیش‌بینی ساختار پروتئین‌هااهدا کرد . نیمه دیگه جایزه به دیوید بیکر، استاد بیوشیمی دانشگاه واشنگتن، برای کارش در طراحی محاسباتی پروتئین رسید 

https://www.businessinsider.com/google-deepmind-ceo-wins-nobel-prize-chemistry-demis-hassabis-2024-10
Forwarded from School of AI (Hamidreza Hosseinkhani)
نوبل شیمی هم به سازندگان AlphaFold رسید…
Tensorflow(@CVision)
در دومین موفقیت نوبل برای هوش مصنوعی، آکادمی علوم سلطنتی سوئد نیمی از جایزه نوبل شیمی ۲۰۲۴ رو به دمیس هاسابیس، یکی از بنیان‌گذاران و مدیرعامل گوگل دیپ‌مایند، و جان ام. جامپر، مدیر همین شرکت، برای کارشون روی استفاده از هوش مصنوعی برای پیش‌بینی ساختار پروتئین‌هااهدا…
اگه علاقه مندید بایستی عرض کنم که نوبل به خاطر مقاله مهم AlphaFold اهدا شد. این روش یه پیشرفت انقلابی در زمینه زیست‌شناسیه که به یکی از بزرگترین و پیچیده‌ ترین مسائل علمی یعنی پیش ‌بینی ساختار سه ‌بعدی پروتئین‌ها، پس از ۵۰ سال تلاش، پاسخ داده.

پروتئین‌ها بعد از ساخته شدن، خودشون به صورت خودکار و بر اساس قوانین فیزیکی به شکل سه ‌بعدی خاصی تا می‌خورن. این شکل سه ‌بعدی برای انجام وظایف اونها بسیار مهمه.

در حال حاضر، ما کد ژنتیکی مربوط به ۲۰۰ میلیون پروتئین رو می دونیم و هر ساله ده‌ها میلیون پروتئین جدید کشف میشن. اما بهترین روشی که قبلا برای تعیین شکل سه ‌بعدی یه پروتئین وجود داشت، حدود یک سال زمان میبرد  و هزینه‌ ای در حدود ۱۲۰ هزار دلار داشت.

با این روش، فقط تونستند شکل کمتر از ۲۰۰ هزار پروتئین را پیدا کنن. این یعنی این روش برای مقیاس بزرگ (مثل فهمیدن عملکرد همه پروتئین‌های بدن انسان) جوابگو نبود.

اگه بتونیم مشکل تاشدگی پروتئین‌ها رو حل کنیم، محققان قادر خواهند بود که یه رشته DNA رو که عملکردش ناشناخته ست، بگیرن و یه مدل سه‌ بعدی از پروتئینی که این DNA کدگذاری میکنه، بسازن.

با بررسی این مدل سه ‌بعدی، میتونن عملکرد اون پروتئین رو بفهمن.
 این مسئله خیلی مهمه، چون بسیاری از بیماری‌ها به دلیل تا شدگی اشتباه پروتئین‌ها به وجود میان.

اگه ما پروسه ‌تا شدگی پروتئین‌ها رو درک کنیم، محققان میتونن پروتئین‌های جدیدی بسازن که عملکرد پروتئین‌های دیگه روتغییر بدن، مثلا پروتئینی بسازن که مشکل تا شدگی اشتباه یه پروتئین دیگه رو اصلاح کنه یا مثلاً میتونن آنزیم‌های جدیدی خلق کنن که به باکتری‌ها کمک کنن تا پلاستیک‌ها رو تجزیه کنه.

آلفا فولد میتونه به پیش‌بینی نحوه‌ی واکنش ساختارها و جهش‌های خاص پروتئین‌های یه فرد به داروهای مختلف کمک کنه. این موضوع منجر به درمان‌های شخصی‌ سازی‌شده و بسیار مؤثر خواهد شد.

این پیشرفت میتونه به‌ طور کلی بهداشت و درمان را متحول کنه و باعث بشه درمان‌ها دقیق‌تر شن و از روش‌های آزمون و خطا که در حال حاضر استفاده میشن، کاسته شه
 
https://www.nature.com/articles/s41586-021-03819-2
مصرف انرژی سیستم‌های هوش مصنوعی، به‌خصوص مدل‌های زبانی بزرگ، توی چند سال اخیر خیلی بحث‌برانگیز شده.

آمارها نشون می‌ده که اوایل سال ۲۰۲۳، مصرف روزانه برق مدل ChatGPT به‌طور میانگین ۵۶۴ مگاوات ساعت بوده که برابر با مصرف روزانه برق ۱۸ هزار خونه‌ی آمریکاست.

تو بدترین حالت، سرویس‌های هوش مصنوعی گوگل ممکنه به اندازه‌ی کل کشور ایرلند برق مصرف کنن، یعنی چیزی حدود ۲۹.۳ تراوات ساعت در سال.

در مدل‌های زبانی بزرگ مبتنی بر transformator مکانیزم توجه (attention) یکی از موانع اصلی محسوب می‌شه که کارایی محاسبات رو محدود می‌کنه

با داشتن یه ورودی شامل N توکن، پیچیدگی محاسبات مکانیزم توجه استاندارد O(N²) هست که شامل ضرب کردن تنسورهای با ابعاد بالا می‌شه. 

علاوه بر مکانیزم توجه، مقدار زیادی محاسبات ضرب عنصر به عنصر (element-wise) و تبدیلات خطی هم وجود داره که به افزایش حجم محاسبات کمک می‌کنه.

ادامه داره...
Tensorflow(@CVision)
مصرف انرژی سیستم‌های هوش مصنوعی، به‌خصوص مدل‌های زبانی بزرگ، توی چند سال اخیر خیلی بحث‌برانگیز شده. آمارها نشون می‌ده که اوایل سال ۲۰۲۳، مصرف روزانه برق مدل ChatGPT به‌طور میانگین ۵۶۴ مگاوات ساعت بوده که برابر با مصرف روزانه برق ۱۸ هزار خونه‌ی آمریکاست. …
یه مقاله جالب با عنوان "ADDITION IS ALL YOU NEED" اخیرا از دانشگاه MIT منتشر شده و روش جدیدی رو ارائه می‌ده که هدفش کاهش قابل‌توجه مصرف انرژی در مدل‌های زبانی بزرگ هست. 

تکنیک جدید می‌تونه مصرف انرژی توی محاسبات ترنسفورمرها رو به‌طور چشمگیری کم کنه.

الگوریتم جدید به اسم "ضرب با پیچیدگی خطی" (L-Mul)، ضرب‌های عددی شناور (floating-point) رو با استفاده از جمع اعداد صحیح که انرژی کمتری مصرف می‌کنه، به جای ضرب‌های پرهزینه، تقریب می‌زنه.

در سخت‌افزارهای مدرن کامپیوتر، ضرب اعداد شناور (floating-point) خیلی بیشتر از جمع انرژی مصرف می‌کنه. به طور خاص، ضرب دو عدد اعشاری ۳۲ بیتی (fp32) چهار برابر بیشتر از جمع دو عدد fp32 انرژی می‌بره و ۳۷ برابر بیشتر از جمع دو عدد صحیح ۳۲ بیتی (int32) هزینه داره.

در ضرب اعداد شناور سنتی قسمتی که بیشترین بار محاسباتی رو داره ضرب مانتیساهای(قسمت اعشار) اعداد هستند که در روش پیشنهادی به جای استفاده از ضرب مستقیم مانتیساها، تقریب مناسبی برای اون ارائه میدن تا از جمع استفاده کنن که انرژی بسیار کمتری مصرف می‌کنه

در مقاله گفته شد که بدون کاهش دقت و عملکرد مدل، مصرف انرژی تا ۸۰ درصد کاهش پیدا می‌کنه!

https://arxiv.org/html/2410.00907v2

به عنوان یادآوری ضرب اعداد اعشاری در سیستم باینری این ویدیو پیشنهاد میشه:

https://youtu.be/I0ol63OXojc?feature=shared
اگر شما هم تو خونه یه کامپیوتر خوب بستید که بهش ریموت بزنید مدل Train کنید، یا تو شرکت یه سرور برای Train گذاشتن دارید، لازم نیست همیشه سیستمتونو روشن بزارید، با یه پکت ساده میتونید سیستمتونو روشن کنید یا از حالت Sleep در بیاریدش
اگر قبلا با WoL کار نکردید و به کارتون میاد این پست را بخونید...
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل Gemini: قابلیت تولید تصویر با مدل Imagen 3 الان برای همه‌ی کاربران Gemini در سراسر دنیا بصورت رایگان در دسترسه.