LLM Club
1.66K subscribers
10 photos
1 file
49 links
باشگاه مدل‌های زبانی بزرگ؛ دانشگاه صنعتی شریف، آزمایشگاه INL

یوتیوب (ویدئوها)
https://youtube.com/@LLM_CLUB

وبگاه:
LLMClub.github.io

توییتر:
https://x.com/LLM_CLUB

برای ارائه، با حساب تلگرام
@Moein_Salimi
ارتباط بگیرید
Download Telegram
Channel created
🔔 اعلام برنامه جلسه‌ی اول ژورنال‌کلاب هفتگی LLM

👤 سخنران مهمان: دکتر علی اسلامی
🏢 سمت: پژوهشگر ارشد در حوزه‌ی مدل‌های زبانی بزرگ در گوگل
🗓 زمان: یک‌شنبه ۱۴۰۳/۰۷/۰۱، ساعت ۱۷:۰۰ تا ۱۸:۳۰
📍 محل:
vc.sharif.edu/ch/mjafari
🔍 در اولین جلسه از ژورنال‌کلاب هفتگی LLM، میزبان علی اسلامی از پژوهشگران ارشد در حوزه مدل‌های زبانی بزرگ در شرکت گوگل هستیم

📚 موضوع: بررسی چالش‌های انسانی مدل‌های زبانی بزرگ، و به‌طور خاص مدل Gemini
در این جلسه‌ی گفتگومحور به بررسی چالش‌ها در توسعه‌ی مدل‌های زبانی بزرگ و به طور خاص مدل Gemini می‌پردازیم.
این یک فرصت خوب برای دانشجویان و علاقه‌مندان به حوزه‌ی مدل‌های زبانی بزرگ است تا از تجربه‌های مستقیم یکی از فعالان برجسته این حوزه بهره‌مند شوند.

پرسش‌های خود را به صورت صوتی و متنی در جلسه می‌توانید مطرح کنید. در صورتی که مایل هستید مسئله و یا سوال خاصی توسط مجری از میهمان پرسیده شود، می‌توانید در این لینک سوالات خود را مطرح کنید.

از همه‌ی شما دعوت می‌کنیم که در این جلسه شرکت کنید.
#‌LLM #LLMClub #Gemini
@LLM_JC
🔔 اعلام برنامه جلسه‌ی دوم ژورنال‌کلاب مدل‌های زبانی بزرگ

📚 موضوع: بررسی دو پژوهش در زمینه‌ی بهبود قدرت استدلال مدل‌های زبانی بزرگ
👤 ارائه‌دهنده: معین سلیمی
🗓 زمان: یک‌شنبه ۱۴۰۳/۰۷/۰۸، ساعت ۱۷:۰۰ تا ۱۸:۳۰
📍 مکان برگزاری:
vc.sharif.edu/ch/mjafari
🔍 در این جلسه درباره‌ی «استدلال» در مدل‌های زبانی بزرگ صحبت خواهد شد. از آن‌جا که یکی از پیش‌نیازهای اصلی شناخت مدل‌های قوی اخیر مانند O1، بخش استدلال آن‌ها است، در این جلسه، دو پژوهش اخیر در این زمینه را کنکاش خواهیم کرد.
منابع:
1. STaR: Self-Taught Reasoner
2. V-STaR: Training Verifiers for Self-Taught Reasoners
از همه‌ی شما دعوت می‌کنیم که در این جلسه شرکت کنید.
#‌LLM #LLMClub #Reasoning
@LLM_JC
🔔 اعلام برنامه جلسه‌ی سوم ژورنال‌کلاب مدل‌های زبانی بزرگ

📚 موضوع: مدل‌های زبانی چندزبانه: چرا و چگونه؟
👤 سخنران مهمان: دکتر مرضیه فدایی
🪧 سمت: پژوهشگر ارشد در شرکت Cohere
🗓 زمان: یک‌شنبه ۱۴۰۳/۰۷/۱۵، ساعت ۱۷:۰۰ تا ۱۸:۳۰
📍 مکان برگزاری: vc.sharif.edu/ch/mjafari
🔍 در این جلسه میزبان دکتر مرضیه فدایی از اعضای ارشد تیم توسعه‌دهنده‌ی مدل زبانی Aya هستیم. این جلسه که به گفتگو درباره‌ی «مدل‌های زبانی چندزبانه» اختصاص دارد، فرصت مناسبی است تا از تجربیات ارزشمند یکی از پژوهشگران برجسته این حوزه بهره‌مند شویم.
از همه‌ی شما علاقه‌مندان به این زمینه دعوت می‌کنیم که در این جلسه شرکت کنید.

#LLM #LLM_JC #LLM_Club #Multilingual_LLM
سلام
اگر از اعضای کانال، کسی دو جلسه‌ی اول را موفق شده ضبط کنه، خیلی سپاس‌گزار می‌شوم تا به من پیام بدهند. متاسفانه این دو جلسه را موفق نشدیم ضبط کنیم. می‌خواهیم اگر شما ضبط کردید، منتشر کنیم.
راه ارتباطی:
@Moein_Salimi
🔔 اعلام برنامه جلسه‌ی چهارم ژورنال‌کلاب مدل‌های زبانی بزرگ

📚 موضوع: مروری بر روش‌های به‌کارگیری تکنیک‌های یادگیری تقویتی در مدل‌های زبانی بزرگ و برعکس
👤 ارائه‌دهنده: معین سلیمی
🗓 زمان: یک‌شنبه ۱۴۰۳/۰۷/۲۲، ساعت ۱۷:۰۰ تا ۱۸:۳۰
📍 مکان برگزاری: vc.sharif.edu/ch/mjafari
🔍 در این جلسه تکنیک‌های رایج در یادگیری تقویتی که برای بهبود کارایی مدل‌های زبانی بزرگ استفاده می‌شوند مرور خواهند شد. همچنین درباره‌ی استفاده از ظرفیت‌های مدل‌های زبانی بزرگ برای بهبود کارایی عامل‌های یادگیری تقویتی نیز گفتگو می‌کنیم.
منابع:
1. The RL/LLM Taxonomy Tree: Reviewing Synergies Between Reinforcement Learning and Large Language Models
2. Query-Dependent Prompt Evaluation and Optimization with Offline Inverse RL
3. Reward Design with Language Models
4. Guiding Pretraining in Reinforcement Learning with Large Language Models
از همه‌ی شما علاقه‌مندان به این زمینه دعوت می‌کنیم که در این جلسه شرکت کنید.

#LLM #LLM_JC #LLM_Club #RL
#INL_Lab
🔔 اعلام برنامه جلسه‌ی پنجم ژورنال‌کلاب مدل‌های زبانی بزرگ

📚 موضوع: یادگیری مدل‌های زبانی از اشتباهات با بازخورد کلامی به کمک یادگیری تقویتی
👤 ارائه‌دهنده: فرهان فرسی
🗓 زمان: یک‌شنبه ۱۴۰۳/۰۸/۰۶، ساعت ۱۷:۰۰ تا ۱۸:۳۰
📍 مکان برگزاری: vc.sharif.edu/ch/mjafari
🔍 این مقاله یک روش جدید به نام "بازتاب کلامی" (Reflexion) برای بهبود یادگیری مدل‌های زبانی بزرگ معرفی می‌کند. به جای تغییر وزن‌ها و آموزش مجدد مدل، این روش از بازخورد کلامی استفاده می‌کند. مدل پس از هر اشتباه، به صورت کلامی درباره آن فکر کرده و بازخوردی را به خود ارائه می‌دهد که در حافظه ذخیره می‌شود و در تلاش‌های بعدی تصمیمات بهتری می‌گیرد. این روش باعث بهبود عملکرد در وظایف مختلفی مانند برنامه‌نویسی، استدلال زبانی و تصمیم‌گیری‌ها شده و نیاز به آموزش مجدد مدل‌ها را کاهش می‌دهد.
🥡 منابع:
1. Reflexion: Language Agents with Verbal Reinforcement Learning
از همه‌ی شما علاقه‌مندان به این زمینه دعوت می‌کنیم که در این جلسه شرکت کنید.
📅 لینک افزودن ژورنال‌کلاب هفتگی به تقویم گوگل


#LLM #LLM_JC #LLM_Club #RL
#INL_Lab