This media is not supported in your browser
VIEW IN TELEGRAM
تولید نما(View Synthesis) زمینهای تحقیقاتی است، در مورد تولید نماهایی تازه از یک منظره، با موجود داشتن تعدادی تصویر از آن.
در پستی از وبلاگ گوگل میخوانیم که چطور دو مدل مبتنی بر ترنسفورمر در این زمینه پیشرفت داشتهاند.
#Transformer #NLP
#Synthesis #Computer_Vision
@ml_nlp_cv
در پستی از وبلاگ گوگل میخوانیم که چطور دو مدل مبتنی بر ترنسفورمر در این زمینه پیشرفت داشتهاند.
#Transformer #NLP
#Synthesis #Computer_Vision
@ml_nlp_cv
یک دوره بسیار ارزشمند برای علاقهمندان هوش مصنوعی:
دوره "مدل های بزرگ زبانی" یا "LLMs"
مدرسان: دکتر محمدحسین رهبان، دکتر مهدیه سلیمانی و دکتر احسانالدین عسگری
کیفیت این دوره خیلی بالاست و به شکل جامعی به موارد متنوعی پرداخته از جمله معماری، تکنیکهای آموزشی و کاربردهای مدلهای زبانی بزرگ، #یادگیری_چندوجهی، فرآیندهای جمعآوری داده و روشهای #PEFT)
صفحه اصلی دوره شامل ویدیوهای کلاس، اسلایدها و تمرینها:
sharif-llm.ir
سرفصلهای دوره
ویدیوهای دوره
#معرفی_دوره #course #مبدل #سلیمانی #GPT_3 #مراجع #LLM #شریف #رهبان
#منابع #Transformer
@ml_nlp_cv
دوره "مدل های بزرگ زبانی" یا "LLMs"
مدرسان: دکتر محمدحسین رهبان، دکتر مهدیه سلیمانی و دکتر احسانالدین عسگری
کیفیت این دوره خیلی بالاست و به شکل جامعی به موارد متنوعی پرداخته از جمله معماری، تکنیکهای آموزشی و کاربردهای مدلهای زبانی بزرگ، #یادگیری_چندوجهی، فرآیندهای جمعآوری داده و روشهای #PEFT)
صفحه اصلی دوره شامل ویدیوهای کلاس، اسلایدها و تمرینها:
sharif-llm.ir
سرفصلهای دوره
ویدیوهای دوره
#معرفی_دوره #course #مبدل #سلیمانی #GPT_3 #مراجع #LLM #شریف #رهبان
#منابع #Transformer
@ml_nlp_cv
LLM Course
About
Course policies and information.
Forwarded from Silicon Brain | جامعه هوش مصنوعی
بازگشت بعد از 30 سال، LSTM با قدرت برگشت!
⚠️ هفته گذشته یک مقاله ی جالبی منتشر شد. اگه محقق هستین پیشنهاد میشه حتما این مقاله رو دنبال کنید.
مدل #xLSTM ، نسخه جدیدی از #LSTM ، توسط Sepp Hochreiter، مخترع اصلی LSTM، منتشر شده که دارای نوآوریهای مهمی هستش و در مقایسه با LSTM بهبودهای قابل توجهی داره، از جمله دروازهگذاری نمایی (sLSTM) و حافظه ماتریسی (mLSTM). این تغییرات باعث بهبود کارایی و عملکرد مدل شده.
رویکرد xLSTM میتونه رقیب مهمی برای #transformer باشه. اینا LSTM رو طوری توسعه دادن که قابلیت Scale شدن پیدا کنه. یعنی شبکههای LSTM بیلیون پارامتری هم داشته باشیم! مثل #LLM هایی که امروز استفاده میکنیم.
بهصورت کلی، ساختار شبکه xLSTM در تصویر بالا نشون داده شده. سمت چپ که LSTM رو میبینید. با توسعه همون LSTM اصلی، دو تا Memory Cell با نامهای sLSTM و mLSTM ساخته شده. وقتی sLSTM و mLSTM رو در ساختار Residual Block (همون شورتکاتها) قرار بدیم، xLSTM Block ساخته میشه. نهایتا با Stack کردن بلوکهای xLSTM به معماری یا شبکه xLSTM میرسیم.
مقاله | گیتهاب | پیپرویدکد
@silicon_brain | از هوش مصنوعی عقب نمانید
⚠️ هفته گذشته یک مقاله ی جالبی منتشر شد. اگه محقق هستین پیشنهاد میشه حتما این مقاله رو دنبال کنید.
مدل #xLSTM ، نسخه جدیدی از #LSTM ، توسط Sepp Hochreiter، مخترع اصلی LSTM، منتشر شده که دارای نوآوریهای مهمی هستش و در مقایسه با LSTM بهبودهای قابل توجهی داره، از جمله دروازهگذاری نمایی (sLSTM) و حافظه ماتریسی (mLSTM). این تغییرات باعث بهبود کارایی و عملکرد مدل شده.
رویکرد xLSTM میتونه رقیب مهمی برای #transformer باشه. اینا LSTM رو طوری توسعه دادن که قابلیت Scale شدن پیدا کنه. یعنی شبکههای LSTM بیلیون پارامتری هم داشته باشیم! مثل #LLM هایی که امروز استفاده میکنیم.
بهصورت کلی، ساختار شبکه xLSTM در تصویر بالا نشون داده شده. سمت چپ که LSTM رو میبینید. با توسعه همون LSTM اصلی، دو تا Memory Cell با نامهای sLSTM و mLSTM ساخته شده. وقتی sLSTM و mLSTM رو در ساختار Residual Block (همون شورتکاتها) قرار بدیم، xLSTM Block ساخته میشه. نهایتا با Stack کردن بلوکهای xLSTM به معماری یا شبکه xLSTM میرسیم.
مقاله | گیتهاب | پیپرویدکد
@silicon_brain | از هوش مصنوعی عقب نمانید