📃A Survey of Graph Neural Networks for Social Recommender Systems
📎 https://arxiv.org/abs/2212.04481
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📎 https://arxiv.org/abs/2212.04481
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📊 معرفی لایبرری TPOT: راهکاری برای یادگیری ماشین خودکار! 🚀
💡 در واقع TPOT یک لایبرری پایتونی قدرتمند برای یادگیری ماشین خودکار (AutoML) است که با استفاده از الگوریتم ژنتیک، پایپلاین مدلهای یادگیری ماشین را بهینه میکند. این ابزار میتواند در بسیاری از دیتاستها، دقت بالاتری نسبت به سایر روشها ارائه دهد.
🌟 ویژگیهای کلیدی TPOT:
بهینهسازی پایپلاین: این ابزار با الگوریتم ژنتیک بهترین مدل را برای دادههای شما انتخاب میکند.
سادگی استفاده: فقط با چند خط کدنویسی میتوانید مدل یادگیری ماشین خود را بسازید.
قابلیت تنظیم پارامترها:
تعداد جمعیت اولیه
نرخ جهش
و سایر تنظیمات الگوریتم ژنتیک به راحتی قابل تنظیم هستند. 🛠
https://github.com/EpistasisLab/tpot/tree/master
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💡 در واقع TPOT یک لایبرری پایتونی قدرتمند برای یادگیری ماشین خودکار (AutoML) است که با استفاده از الگوریتم ژنتیک، پایپلاین مدلهای یادگیری ماشین را بهینه میکند. این ابزار میتواند در بسیاری از دیتاستها، دقت بالاتری نسبت به سایر روشها ارائه دهد.
🌟 ویژگیهای کلیدی TPOT:
بهینهسازی پایپلاین: این ابزار با الگوریتم ژنتیک بهترین مدل را برای دادههای شما انتخاب میکند.
سادگی استفاده: فقط با چند خط کدنویسی میتوانید مدل یادگیری ماشین خود را بسازید.
قابلیت تنظیم پارامترها:
تعداد جمعیت اولیه
نرخ جهش
و سایر تنظیمات الگوریتم ژنتیک به راحتی قابل تنظیم هستند. 🛠
https://github.com/EpistasisLab/tpot/tree/master
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔥 از صفر تا قهرمانی با VLMs (Vision-Language Models) 🔥
📢 معرفی دوره جدید: "VLMs Zero to Hero"
1️⃣ NLP Fundamentals
2️⃣ CV Fundamentals
3️⃣ Early Vision-Language Models
4️⃣ Scale and Efficiency
5️⃣ Modern Vision-Language Models
https://github.com/SkalskiP/vlms-zero-to-hero
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📢 معرفی دوره جدید: "VLMs Zero to Hero"
1️⃣ NLP Fundamentals
2️⃣ CV Fundamentals
3️⃣ Early Vision-Language Models
4️⃣ Scale and Efficiency
5️⃣ Modern Vision-Language Models
https://github.com/SkalskiP/vlms-zero-to-hero
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
جستجوی باینری: سریع، دقیق، و قدرتمند 🔍⚡️
جستجوی باینری (Binary Search) یکی از الگوریتمهای اساسی و فوقالعاده سریع برای جستجو در دادههای مرتبشده است. این الگوریتم با کاهش مداوم فضای جستجو به نصف، پیچیدگی زمانی بسیار کارآمدی ارائه میدهد:
ایده اصلی 🧠
جستجوی باینری از اصل "تقسیم و حل" (Divide and Conquer) استفاده میکند:
1. لیست باید مرتب باشد.
2. عنصر میانی لیست بررسی میشود:
- اگر مقدار هدف کوچکتر باشد، جستجو به نیمهی چپ محدود میشود.
- اگر مقدار هدف بزرگتر باشد، جستجو به نیمهی راست محدود میشود.
- اگر عنصر میانی برابر مقدار هدف باشد، مکان آن پیدا شده است! ✅
مزایا 🌟
- سرعت بالا: پیچیدگی زمانی (O(log n))، که برای دادههای بزرگ بسیار کارآمد است.
- مصرف کم حافظه: نیاز به فضای اضافی ندارد (به جز در نسخه بازگشتی).
- کاربرد گسترده: در دیتابیسها، موتورهای جستجو، و حتی مسائل گرافیکی.
معایب ⚠️
- پیششرط مهم: لیست باید از پیش مرتبشده باشد.
- در مقایسه با جستجوی خطی (Linear Search)، در لیستهای کوتاه ممکن است بهینهتر نباشد.
- نسخه بازگشتی ممکن است در دادههای بسیار بزرگ به دلیل استفاده از پشته دچار محدودیت شود.
پیادهسازی جستجوی باینری
نسخهی تکراری (Iterative):
نسخهی بازگشتی (Recursive):
مثال کاربردی 📚
فرض کنید لیستی از اعداد مرتب داریم:
[2, 4, 7, 10, 23, 36, 50, 72]
اگر بخواهیم عدد 23 را پیدا کنیم:
1. ابتدا عنصر میانی: (10) → مقدار هدف بزرگتر است → نیمهی راست.
2. عنصر میانی جدید: (36) → مقدار هدف کوچکتر است → نیمهی چپ.
3. عنصر میانی جدید: (23) → پیدا شد! ✅
کاربردهای عملی جستجوی باینری 🔧
1. جستجو در دیتابیسها: برای پیدا کردن رکوردهای خاص.
2. الگوریتمهای مرتبسازی: مثل مرتبسازی ادغامی و سریع (Merge Sort, Quick Sort).
3. حل مسائل بهینهسازی: پیدا کردن ریشه در توابع، جستجو در فضای جواب (Solution Space).
4. کدنویسی رقابتی: برای حل مسائل در ساختار دادههای مرتب.
پیچیدگی زمانی و مکانی ⏱️
- زمانی: (O(log n)) (در بدترین، بهترین و حالت متوسط).
- مکانی:
- نسخهی تکراری: (O(1))
- نسخهی بازگشتی: (O(log n))به دلیل استفاده از پشته بازگشت).
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
جستجوی باینری (Binary Search) یکی از الگوریتمهای اساسی و فوقالعاده سریع برای جستجو در دادههای مرتبشده است. این الگوریتم با کاهش مداوم فضای جستجو به نصف، پیچیدگی زمانی بسیار کارآمدی ارائه میدهد:
ایده اصلی 🧠
جستجوی باینری از اصل "تقسیم و حل" (Divide and Conquer) استفاده میکند:
1. لیست باید مرتب باشد.
2. عنصر میانی لیست بررسی میشود:
- اگر مقدار هدف کوچکتر باشد، جستجو به نیمهی چپ محدود میشود.
- اگر مقدار هدف بزرگتر باشد، جستجو به نیمهی راست محدود میشود.
- اگر عنصر میانی برابر مقدار هدف باشد، مکان آن پیدا شده است! ✅
مزایا 🌟
- سرعت بالا: پیچیدگی زمانی (O(log n))، که برای دادههای بزرگ بسیار کارآمد است.
- مصرف کم حافظه: نیاز به فضای اضافی ندارد (به جز در نسخه بازگشتی).
- کاربرد گسترده: در دیتابیسها، موتورهای جستجو، و حتی مسائل گرافیکی.
معایب ⚠️
- پیششرط مهم: لیست باید از پیش مرتبشده باشد.
- در مقایسه با جستجوی خطی (Linear Search)، در لیستهای کوتاه ممکن است بهینهتر نباشد.
- نسخه بازگشتی ممکن است در دادههای بسیار بزرگ به دلیل استفاده از پشته دچار محدودیت شود.
پیادهسازی جستجوی باینری
نسخهی تکراری (Iterative):
def binary_search_iterative(arr, target):
left, right = 0, len(arr) - 1
while left <= right:
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
left = mid + 1
else:
right = mid - 1
return -1
نسخهی بازگشتی (Recursive):
def binary_search_recursive(arr, target, left, right):
if left > right:
return -1
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
return binary_search_recursive(arr, target, mid + 1, right)
else:
return binary_search_recursive(arr, target, left, mid - 1)
مثال کاربردی 📚
فرض کنید لیستی از اعداد مرتب داریم:
[2, 4, 7, 10, 23, 36, 50, 72]
اگر بخواهیم عدد 23 را پیدا کنیم:
1. ابتدا عنصر میانی: (10) → مقدار هدف بزرگتر است → نیمهی راست.
2. عنصر میانی جدید: (36) → مقدار هدف کوچکتر است → نیمهی چپ.
3. عنصر میانی جدید: (23) → پیدا شد! ✅
کاربردهای عملی جستجوی باینری 🔧
1. جستجو در دیتابیسها: برای پیدا کردن رکوردهای خاص.
2. الگوریتمهای مرتبسازی: مثل مرتبسازی ادغامی و سریع (Merge Sort, Quick Sort).
3. حل مسائل بهینهسازی: پیدا کردن ریشه در توابع، جستجو در فضای جواب (Solution Space).
4. کدنویسی رقابتی: برای حل مسائل در ساختار دادههای مرتب.
پیچیدگی زمانی و مکانی ⏱️
- زمانی: (O(log n)) (در بدترین، بهترین و حالت متوسط).
- مکانی:
- نسخهی تکراری: (O(1))
- نسخهی بازگشتی: (O(log n))به دلیل استفاده از پشته بازگشت).
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
LLM.pdf
2.2 MB
برای یادگیری بیشتر درباره LLM، در اینجا یک اسلاید از Roshan Sharma معرفی شده که در آن میتوانید مفاهیمی مثل موارد زیر را یاد بگیرید:
👉Emergent abilities in LLMs.
👉Decoder-only architectures.
👉Multi-stage training process.
👉Prompting techniques.
👉Scaling laws for performance.
👉Multimodal capabilities.
👉Safety and efficiency challenges.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
👉Emergent abilities in LLMs.
👉Decoder-only architectures.
👉Multi-stage training process.
👉Prompting techniques.
👉Scaling laws for performance.
👉Multimodal capabilities.
👉Safety and efficiency challenges.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Introduction to Deep Learning.pdf
10.5 MB
🚀 کاوش در دنیای یادگیری عمیق 🤖
🌟 یادگیری عمیق در حال تحول صنایع است و به ماشینها این امکان را میدهد که مانند انسانها یاد بگیرند و فکر کنند. از قدرت بخشیدن به دستیارهای صوتی 🗣 تا پیشرفت در تشخیصهای پزشکی 🏥، کاربردهای آن بیپایان است!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🌟 یادگیری عمیق در حال تحول صنایع است و به ماشینها این امکان را میدهد که مانند انسانها یاد بگیرند و فکر کنند. از قدرت بخشیدن به دستیارهای صوتی 🗣 تا پیشرفت در تشخیصهای پزشکی 🏥، کاربردهای آن بیپایان است!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
دوره Generative AI for Beginners از مایکروسافت موضوعات زیر را پوشش میدهد:
- Introduction to Generative AI and LLMs
- Exploring and comparing different LLM types
- Understanding Prompt Engineering Fundamentals
- Creating Advanced Prompts
- Building Text Generation Applications
- Building Chat Applications with Generative AI
- Building Low Code Generative AI Applications
- Designing UX for Generative AI Applications
https://www.youtube.com/playlist?list=PLmsFUfdnGr3zAgBMu4l1W713a0W__zAMl
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
- Introduction to Generative AI and LLMs
- Exploring and comparing different LLM types
- Understanding Prompt Engineering Fundamentals
- Creating Advanced Prompts
- Building Text Generation Applications
- Building Chat Applications with Generative AI
- Building Low Code Generative AI Applications
- Designing UX for Generative AI Applications
https://www.youtube.com/playlist?list=PLmsFUfdnGr3zAgBMu4l1W713a0W__zAMl
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
آیا LLMs میتوانند کد بهتری بنویسند اگر از آنها بخواهید "کد بهتری بنویسند"؟
به نظر میرسد که درخواست از LLMs برای نوشتن کد بهتر، واقعاً منجر به تولید کدهای بهتری میشود. همچنین، دیدن اینکه چطور Prompt Engineering میتواند برای تولید کدهای بهینهتر به کار گرفته شود، جالب است.
در مجموع، LLMs نمیتوانند جایگزین مهندسان نرمافزار شوند، اما دانستن چگونگی و زمان استفاده از آنها برای تولید و بهینهسازی کد، یک مزیت بزرگ محسوب میشود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
به نظر میرسد که درخواست از LLMs برای نوشتن کد بهتر، واقعاً منجر به تولید کدهای بهتری میشود. همچنین، دیدن اینکه چطور Prompt Engineering میتواند برای تولید کدهای بهینهتر به کار گرفته شود، جالب است.
در مجموع، LLMs نمیتوانند جایگزین مهندسان نرمافزار شوند، اما دانستن چگونگی و زمان استفاده از آنها برای تولید و بهینهسازی کد، یک مزیت بزرگ محسوب میشود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مدل rStar-Math را معرفی میکنیم که نشان میدهد مدلهای زبانی کوچک (SLMs) میتوانند در استدلال ریاضی با مدلهای بزرگتری مثل OpenAI o1-mini رقابت کنند یا حتی بهتر عمل کنند، بدون نیاز به آموزش از مدلهای برتر.
این مدل با استفاده از جستجوی درخت مونتکارلو (MCTS) و پاداشدهی توسط یک SLM، فرآیند تفکر عمیق را شبیهسازی میکند تا پاسخهای بهینه تولید کند.
📌 نکته مهم: rStar-Math بدون نیاز به Distillation، استدلال پیشرفته ریاضی را ممکن میسازد و نشاندهنده پیشرفت بزرگ در کارایی مدلهای کوچک است!
https://github.com/microsoft/rStar
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این مدل با استفاده از جستجوی درخت مونتکارلو (MCTS) و پاداشدهی توسط یک SLM، فرآیند تفکر عمیق را شبیهسازی میکند تا پاسخهای بهینه تولید کند.
📌 نکته مهم: rStar-Math بدون نیاز به Distillation، استدلال پیشرفته ریاضی را ممکن میسازد و نشاندهنده پیشرفت بزرگ در کارایی مدلهای کوچک است!
https://github.com/microsoft/rStar
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🚀 O3:
نسل جدید هوش مصنوعی با تواناییهای فراتر از تصور
🔬 مدل O3 به سطحی از درک و پردازش رسیده که میتواند مسائلی را حل کند که تنها برندگان جایزه نوبل قادر به فهم آنها هستند. با این پیشرفت، دسترسی به هوش فوقالعاده دیگر محدود به نخبگان علمی نیست و هر کسی میتواند از مدلی استفاده کند که فراتر از توانایی ۹۹.۹۹۹٪ از انسانها عمل میکند.
📊 مدل O1-Pro با ضریب هوشی ۱۳۳ استانداردهای جدیدی را در هوش مصنوعی تعریف کرد، و اگر O3 جهشی مشابه پیشرفت از GPT-4 به O1 داشته باشد، برآوردها نشان میدهد که این مدل به IQ ۱۴۵ رسیده—سطحی که امکان حل پیچیدهترین چالشهای علمی و فنی را فراهم میکند.
🤯 در مقایسه، GPT-2 و GPT-3 به ترتیب در سطح تواناییهای مغز موش و سگ ارزیابی میشدند، در حالی که GPT-4 عملکردی در حد یک دانشآموز دبیرستانی داشت و O1 معادل یک دانشجوی کارشناسی ارشد بود. اکنون، O3 به مرزهای نبوغ علمی نزدیک شده است.
🔎 این فناوری هنوز در مرحله بررسی است، اما نشانههای آن از تحولی بزرگ در آیندهی هوش مصنوعی حکایت دارد.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
نسل جدید هوش مصنوعی با تواناییهای فراتر از تصور
🔬 مدل O3 به سطحی از درک و پردازش رسیده که میتواند مسائلی را حل کند که تنها برندگان جایزه نوبل قادر به فهم آنها هستند. با این پیشرفت، دسترسی به هوش فوقالعاده دیگر محدود به نخبگان علمی نیست و هر کسی میتواند از مدلی استفاده کند که فراتر از توانایی ۹۹.۹۹۹٪ از انسانها عمل میکند.
📊 مدل O1-Pro با ضریب هوشی ۱۳۳ استانداردهای جدیدی را در هوش مصنوعی تعریف کرد، و اگر O3 جهشی مشابه پیشرفت از GPT-4 به O1 داشته باشد، برآوردها نشان میدهد که این مدل به IQ ۱۴۵ رسیده—سطحی که امکان حل پیچیدهترین چالشهای علمی و فنی را فراهم میکند.
🤯 در مقایسه، GPT-2 و GPT-3 به ترتیب در سطح تواناییهای مغز موش و سگ ارزیابی میشدند، در حالی که GPT-4 عملکردی در حد یک دانشآموز دبیرستانی داشت و O1 معادل یک دانشجوی کارشناسی ارشد بود. اکنون، O3 به مرزهای نبوغ علمی نزدیک شده است.
🔎 این فناوری هنوز در مرحله بررسی است، اما نشانههای آن از تحولی بزرگ در آیندهی هوش مصنوعی حکایت دارد.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
SSM_Slides_2024.05.19.pdf
11.1 MB
Mamba_State_Space_Model
📢 برای علاقهمندان به مدلهای جایگزین ترانسفورمرها!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📢 برای علاقهمندان به مدلهای جایگزین ترانسفورمرها!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مجموعهای گزیده از کاربردهای عوامل هوش مصنوعی در صنایع مختلف که کاربردهای عملی را نمایش داده و به پروژههای متنباز برای پیادهسازی لینک میدهد. ببینید چگونه عوامل هوش مصنوعی در حال تحول صنایع مختلف مانند بهداشت و درمان، مالی، آموزش و ... هستند! 🤖✨
https://github.com/DataSpoof/500-AI-Agents-Projects
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://github.com/DataSpoof/500-AI-Agents-Projects
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Transformers 2: Self-adaptive LLMs
نسل دوم مدلهای ترانسفورمر (Transformers 2 با ویژگی (Self-adaptive) طراحی شدهاند تا بتوانند عملکرد خود را در شرایط مختلف بهینه کنند. این مدلها از معماری بهبودیافتهای استفاده میکنند که قابلیت تغییر پارامترها و مقیاسپذیری را بر اساس پیچیدگی وظایف دارد. خودتنظیمی در این مدلها، امکان یادگیری بهتر از دادههای متنوع و ارائه پاسخهای دقیقتر در زمان واقعی را فراهم میکند.
Paper: https://arxiv.org/pdf/2501.06252v2.pdf
Code:
https://github.com/SakanaAI/self-adaptive-llms
https://github.com/codelion/adaptive-classifier
Datasets: GSM8K - HumanEval - MATH
MBPP - TextVQA - OK-VQA - ARC (AI2 Reasoning Challenge)
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
نسل دوم مدلهای ترانسفورمر (Transformers 2 با ویژگی (Self-adaptive) طراحی شدهاند تا بتوانند عملکرد خود را در شرایط مختلف بهینه کنند. این مدلها از معماری بهبودیافتهای استفاده میکنند که قابلیت تغییر پارامترها و مقیاسپذیری را بر اساس پیچیدگی وظایف دارد. خودتنظیمی در این مدلها، امکان یادگیری بهتر از دادههای متنوع و ارائه پاسخهای دقیقتر در زمان واقعی را فراهم میکند.
Paper: https://arxiv.org/pdf/2501.06252v2.pdf
Code:
https://github.com/SakanaAI/self-adaptive-llms
https://github.com/codelion/adaptive-classifier
Datasets: GSM8K - HumanEval - MATH
MBPP - TextVQA - OK-VQA - ARC (AI2 Reasoning Challenge)
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ML, DL, AND AI Cheat Sheet.pdf
7.5 MB
تمام Cheat Sheetهای کاربردی در حوزههای یادگیری ماشین، یادگیری عمیق و هوش مصنوعی را یکجا در این مجموعه گردآوری شده است. 📚💡
اگر به دنبال مرجع سریع و جامع برای مفاهیم کلیدی این حوزهها هستید، این مجموعه مناسب شماست.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
اگر به دنبال مرجع سریع و جامع برای مفاهیم کلیدی این حوزهها هستید، این مجموعه مناسب شماست.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
DeepseekAI 🐋
مدل Janus-Pro منتشر شد! این نسخهی پیشرفته از Janus بهبود چشمگیری در درک چندوجهی (Multimodal Understanding) و تولید محتوای بصری دارد.
✨ برتری در رقابت تصویرسازی:
مدل Janus-Pro-7B موفق شد در رتبهبندی مربوط به تولید تصویر از متن**، مدلهای مطرحی مانند **DALL·E 3 از OpenAI و Stable Diffusion از Stability AI را پشت سر بگذارد!
🔍 DeepseekAI با این پیشرفت، گامی مهم در مسیر توسعه مدلهای هوش مصنوعی چندوجهی برداشته است.
https://github.com/deepseek-ai/Janus/blob/main/janus_pro_tech_report.pdf
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مدل Janus-Pro منتشر شد! این نسخهی پیشرفته از Janus بهبود چشمگیری در درک چندوجهی (Multimodal Understanding) و تولید محتوای بصری دارد.
✨ برتری در رقابت تصویرسازی:
مدل Janus-Pro-7B موفق شد در رتبهبندی مربوط به تولید تصویر از متن**، مدلهای مطرحی مانند **DALL·E 3 از OpenAI و Stable Diffusion از Stability AI را پشت سر بگذارد!
🔍 DeepseekAI با این پیشرفت، گامی مهم در مسیر توسعه مدلهای هوش مصنوعی چندوجهی برداشته است.
https://github.com/deepseek-ai/Janus/blob/main/janus_pro_tech_report.pdf
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Fast Think-on-Graph: Wider, Deeper and Faster Reasoning of Large Language Model on Knowledge Graph
Github: https://github.com/dosonleung/fasttog
Paper: https://arxiv.org/abs/2501.14300v1
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Github: https://github.com/dosonleung/fasttog
Paper: https://arxiv.org/abs/2501.14300v1
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مقالهی DeepSeek-R1: ارتقای توانایی استدلال در مدلهای زبانی بزرگ با یادگیری تقویتی که توسط تیم #DeepSeek ارائه شده، بازتاب گستردهای در جامعهی هوش مصنوعی داشته است. 🔥🤖
این پژوهش بر بهبود قابلیت استدلال مدلهای زبانی بزرگ (LLMs) از طریق یادگیری تقویتی تمرکز دارد. نویسندگان در این کار، چارچوبی نوآورانه به نام DeepSeek-R1 معرفی کردهاند که با ایجاد مشوقهایی برای فرآیندهای منطقی در حین آموزش، به افزایش تواناییهای استدلالی LLMها کمک میکند. این روش، مدلهای زبانی را از صرفاً پردازش متن فراتر برده و آنها را قادر میسازد تا روشهای استدلالی پیچیدهتری را توسعه دهند، که این امر میتواند عملکردشان را در طیف وسیعی از کاربردهای پیشرفته بهبود ببخشد. 🚀📚
این رویکرد، بحثهای فراوانی را در میان پژوهشگران و متخصصان برانگیخته، اما بیشک دریچهای تازه به سوی پیشرفتهای آینده در این حوزه گشوده است. 🌟🔍
Paper:https://arxiv.org/abs/2501.12948
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این پژوهش بر بهبود قابلیت استدلال مدلهای زبانی بزرگ (LLMs) از طریق یادگیری تقویتی تمرکز دارد. نویسندگان در این کار، چارچوبی نوآورانه به نام DeepSeek-R1 معرفی کردهاند که با ایجاد مشوقهایی برای فرآیندهای منطقی در حین آموزش، به افزایش تواناییهای استدلالی LLMها کمک میکند. این روش، مدلهای زبانی را از صرفاً پردازش متن فراتر برده و آنها را قادر میسازد تا روشهای استدلالی پیچیدهتری را توسعه دهند، که این امر میتواند عملکردشان را در طیف وسیعی از کاربردهای پیشرفته بهبود ببخشد. 🚀📚
این رویکرد، بحثهای فراوانی را در میان پژوهشگران و متخصصان برانگیخته، اما بیشک دریچهای تازه به سوی پیشرفتهای آینده در این حوزه گشوده است. 🌟🔍
Paper:https://arxiv.org/abs/2501.12948
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎞 Machine Learning with Graphs: design space of graph neural networks
💥Free recorded course by Prof. Jure Leskovec
📢 بررسی جامع طراحی معماری GNN با GraphGym 🧠📊
در این مقاله، یک بررسی سیستماتیک از طراحی معماری GNN ارائه شده است که شامل سه جنبه کلیدی میشود:
✅ فضای طراحی GNN: شامل طراحی درونلایهای، بینلایهای و تنظیمات یادگیری.
✅ فضای وظایف GNN: همراه با معیارهای شباهت برای انتقال بهترین مدلها بین وظایف مختلف.
✅ روش ارزیابی مؤثر GNN: برای پاسخ به سؤالات مهم طراحی، مانند تأثیر BatchNorm در GNNها.
💡 همچنین، GraphGym بهعنوان یک پلتفرم کدنویسی معرفی شده است که طراحی معماری GNN را سادهتر میکند.
Design Space for Graph Neural Networks
📽 Watch
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💥Free recorded course by Prof. Jure Leskovec
📢 بررسی جامع طراحی معماری GNN با GraphGym 🧠📊
در این مقاله، یک بررسی سیستماتیک از طراحی معماری GNN ارائه شده است که شامل سه جنبه کلیدی میشود:
✅ فضای طراحی GNN: شامل طراحی درونلایهای، بینلایهای و تنظیمات یادگیری.
✅ فضای وظایف GNN: همراه با معیارهای شباهت برای انتقال بهترین مدلها بین وظایف مختلف.
✅ روش ارزیابی مؤثر GNN: برای پاسخ به سؤالات مهم طراحی، مانند تأثیر BatchNorm در GNNها.
💡 همچنین، GraphGym بهعنوان یک پلتفرم کدنویسی معرفی شده است که طراحی معماری GNN را سادهتر میکند.
Design Space for Graph Neural Networks
📽 Watch
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
arXiv.org
Design Space for Graph Neural Networks
The rapid evolution of Graph Neural Networks (GNNs) has led to a growing number of new architectures as well as novel applications. However, current research focuses on proposing and evaluating...