آیا به دنبال شروع قدرتمند سال 2025 با مقالات برتر در زمینه هوش مصنوعی هستید؟
1. Agents Are Not Enough
2. OLMo 2
3. Measuring Higher Level Mathematical Reasoning
4. On the Overthinking of LLMs
5. Memory Layers at Scale
6. 1.58-bit FLUX
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
1. Agents Are Not Enough
2. OLMo 2
3. Measuring Higher Level Mathematical Reasoning
4. On the Overthinking of LLMs
5. Memory Layers at Scale
6. 1.58-bit FLUX
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مهمترین معادلات ریاضی در علم داده!
🎓 10 دوره رایگان ریاضی:https://www.mltut.com/mathematics-for-data-science-free-courses/
1️⃣ Gradient Descent: Optimization algorithm minimizing the cost function.
2️⃣ Normal Distribution: Distribution characterized by mean μ\muμ and variance σ2\sigma^2σ2.
3️⃣ Sigmoid Function: Activation function mapping real values to 0-1 range.
4️⃣ Linear Regression: Predictive model of linear input-output relationships.
5️⃣ Cosine Similarity: Metric for vector similarity based on angle cosine.
6️⃣ Naive Bayes: Classifier using Bayes’ Theorem and feature independence.
....
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎓 10 دوره رایگان ریاضی:https://www.mltut.com/mathematics-for-data-science-free-courses/
1️⃣ Gradient Descent: Optimization algorithm minimizing the cost function.
2️⃣ Normal Distribution: Distribution characterized by mean μ\muμ and variance σ2\sigma^2σ2.
3️⃣ Sigmoid Function: Activation function mapping real values to 0-1 range.
4️⃣ Linear Regression: Predictive model of linear input-output relationships.
5️⃣ Cosine Similarity: Metric for vector similarity based on angle cosine.
6️⃣ Naive Bayes: Classifier using Bayes’ Theorem and feature independence.
....
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مدلهای زبانی بزرگ مثل ChatGPT میتوانند در برنامهنویسی شما بسیار مفید باشند:
✅ ایجاد رابطهای کاربری پویا
✅ مدیریت و پردازش حجم زیادی از دادههای متنی
✅ و بسیاری موارد دیگر!
در این دوره، با مبانی مدلهای زبانی بزرگ (LLMs) آشنا میشوید و یاد میگیرید چگونه از آنها در پروژههای کدنویسی خود استفاده کنید. 🚀
https://www.freecodecamp.org/news/development-with-large-language-models/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
✅ ایجاد رابطهای کاربری پویا
✅ مدیریت و پردازش حجم زیادی از دادههای متنی
✅ و بسیاری موارد دیگر!
در این دوره، با مبانی مدلهای زبانی بزرگ (LLMs) آشنا میشوید و یاد میگیرید چگونه از آنها در پروژههای کدنویسی خود استفاده کنید. 🚀
https://www.freecodecamp.org/news/development-with-large-language-models/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
NeuZip: Memory-Efficient Training and Inference with Dynamic Compression of Neural Networks
اگر به بهینهسازی مصرف حافظه در شبکههای عصبی و افزایش کارایی مدلهای بزرگ علاقه دارید، پیشنهاد میکنیم مقاله بالا را مطالعه کنید. NeuZip روشی نوآورانه برای فشردهسازی وزنها است که علاوه بر کاهش چشمگیر استفاده از حافظه در آموزش و استنتاج، عملکرد مدل را کاملاً حفظ میکند.
💡 کد این روش بهصورت رایگان منتشر شده است!
Paper:https://arxiv.org/pdf/2410.20650
Github:https://github.com/BorealisAI/neuzip
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
اگر به بهینهسازی مصرف حافظه در شبکههای عصبی و افزایش کارایی مدلهای بزرگ علاقه دارید، پیشنهاد میکنیم مقاله بالا را مطالعه کنید. NeuZip روشی نوآورانه برای فشردهسازی وزنها است که علاوه بر کاهش چشمگیر استفاده از حافظه در آموزش و استنتاج، عملکرد مدل را کاملاً حفظ میکند.
💡 کد این روش بهصورت رایگان منتشر شده است!
Paper:https://arxiv.org/pdf/2410.20650
Github:https://github.com/BorealisAI/neuzip
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
📚 کنفرانس #NeurIPS2024 یکی از معتبرترین رویدادهای هوش مصنوعی و یادگیری ماشین در جهان برگزار شده است!
🔍 امسال، بیش از ۴,۵۰۰ مقاله پژوهشی ارزشمند ارائه شده که شما میتوانید آنها را بهصورت تعاملی در یک بصریسازی جذاب بررسی کنید.
✨ اگر به حوزههای مختلف هوش مصنوعی علاقه دارید، این ابزار میتواند بهترین راه برای یافتن موضوعات مورد علاقهتان باشد، مثل:
شبکههای عصبی عمیق 🧠
مدلهای زبانی بزرگ (LLMs) ✍️
بینایی کامپیوتر 👁
بهینهسازی و الگوریتمها 📈
https://jalammar.github.io/assets/neurips_2024.html
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔍 امسال، بیش از ۴,۵۰۰ مقاله پژوهشی ارزشمند ارائه شده که شما میتوانید آنها را بهصورت تعاملی در یک بصریسازی جذاب بررسی کنید.
✨ اگر به حوزههای مختلف هوش مصنوعی علاقه دارید، این ابزار میتواند بهترین راه برای یافتن موضوعات مورد علاقهتان باشد، مثل:
شبکههای عصبی عمیق 🧠
مدلهای زبانی بزرگ (LLMs) ✍️
بینایی کامپیوتر 👁
بهینهسازی و الگوریتمها 📈
https://jalammar.github.io/assets/neurips_2024.html
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💾 LLM Datasets v2.0
🚀 Updated Repository for Phi-4 Inspiration!
یه مجموعه فوقالعاده از modern, high-quality datasets for post-training، آماده شده که نهتنها به درد پروژههای آموزشی میخوره، بلکه ابزار و مشاورههای عالی هم داره.
🔍 این مجموعه، بعد از فیلترینگ قوی، بهترینها رو در ۸ دسته ارائه میده:
1. General Purpose
2. Math
3. Code
4. Instruction Following 🆕
5. Multilingual
6. Agent & Function Calling
7. Real Conversations 🆕
8. Preference Alignment 🆕
💡 اگر در حال تولید datasets هستید یا دنبال داده برای training run بعدی خودتون میگردید، حتماً یه نگاهی بهش بندازید! 😎
لینک ریپو: https://github.com/mlabonne/llm-datasets
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🚀 Updated Repository for Phi-4 Inspiration!
یه مجموعه فوقالعاده از modern, high-quality datasets for post-training، آماده شده که نهتنها به درد پروژههای آموزشی میخوره، بلکه ابزار و مشاورههای عالی هم داره.
🔍 این مجموعه، بعد از فیلترینگ قوی، بهترینها رو در ۸ دسته ارائه میده:
1. General Purpose
2. Math
3. Code
4. Instruction Following 🆕
5. Multilingual
6. Agent & Function Calling
7. Real Conversations 🆕
8. Preference Alignment 🆕
💡 اگر در حال تولید datasets هستید یا دنبال داده برای training run بعدی خودتون میگردید، حتماً یه نگاهی بهش بندازید! 😎
لینک ریپو: https://github.com/mlabonne/llm-datasets
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📃A Survey of Graph Neural Networks for Social Recommender Systems
📎 https://arxiv.org/abs/2212.04481
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📎 https://arxiv.org/abs/2212.04481
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📊 معرفی لایبرری TPOT: راهکاری برای یادگیری ماشین خودکار! 🚀
💡 در واقع TPOT یک لایبرری پایتونی قدرتمند برای یادگیری ماشین خودکار (AutoML) است که با استفاده از الگوریتم ژنتیک، پایپلاین مدلهای یادگیری ماشین را بهینه میکند. این ابزار میتواند در بسیاری از دیتاستها، دقت بالاتری نسبت به سایر روشها ارائه دهد.
🌟 ویژگیهای کلیدی TPOT:
بهینهسازی پایپلاین: این ابزار با الگوریتم ژنتیک بهترین مدل را برای دادههای شما انتخاب میکند.
سادگی استفاده: فقط با چند خط کدنویسی میتوانید مدل یادگیری ماشین خود را بسازید.
قابلیت تنظیم پارامترها:
تعداد جمعیت اولیه
نرخ جهش
و سایر تنظیمات الگوریتم ژنتیک به راحتی قابل تنظیم هستند. 🛠
https://github.com/EpistasisLab/tpot/tree/master
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💡 در واقع TPOT یک لایبرری پایتونی قدرتمند برای یادگیری ماشین خودکار (AutoML) است که با استفاده از الگوریتم ژنتیک، پایپلاین مدلهای یادگیری ماشین را بهینه میکند. این ابزار میتواند در بسیاری از دیتاستها، دقت بالاتری نسبت به سایر روشها ارائه دهد.
🌟 ویژگیهای کلیدی TPOT:
بهینهسازی پایپلاین: این ابزار با الگوریتم ژنتیک بهترین مدل را برای دادههای شما انتخاب میکند.
سادگی استفاده: فقط با چند خط کدنویسی میتوانید مدل یادگیری ماشین خود را بسازید.
قابلیت تنظیم پارامترها:
تعداد جمعیت اولیه
نرخ جهش
و سایر تنظیمات الگوریتم ژنتیک به راحتی قابل تنظیم هستند. 🛠
https://github.com/EpistasisLab/tpot/tree/master
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔥 از صفر تا قهرمانی با VLMs (Vision-Language Models) 🔥
📢 معرفی دوره جدید: "VLMs Zero to Hero"
1️⃣ NLP Fundamentals
2️⃣ CV Fundamentals
3️⃣ Early Vision-Language Models
4️⃣ Scale and Efficiency
5️⃣ Modern Vision-Language Models
https://github.com/SkalskiP/vlms-zero-to-hero
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📢 معرفی دوره جدید: "VLMs Zero to Hero"
1️⃣ NLP Fundamentals
2️⃣ CV Fundamentals
3️⃣ Early Vision-Language Models
4️⃣ Scale and Efficiency
5️⃣ Modern Vision-Language Models
https://github.com/SkalskiP/vlms-zero-to-hero
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
جستجوی باینری: سریع، دقیق، و قدرتمند 🔍⚡️
جستجوی باینری (Binary Search) یکی از الگوریتمهای اساسی و فوقالعاده سریع برای جستجو در دادههای مرتبشده است. این الگوریتم با کاهش مداوم فضای جستجو به نصف، پیچیدگی زمانی بسیار کارآمدی ارائه میدهد:
ایده اصلی 🧠
جستجوی باینری از اصل "تقسیم و حل" (Divide and Conquer) استفاده میکند:
1. لیست باید مرتب باشد.
2. عنصر میانی لیست بررسی میشود:
- اگر مقدار هدف کوچکتر باشد، جستجو به نیمهی چپ محدود میشود.
- اگر مقدار هدف بزرگتر باشد، جستجو به نیمهی راست محدود میشود.
- اگر عنصر میانی برابر مقدار هدف باشد، مکان آن پیدا شده است! ✅
مزایا 🌟
- سرعت بالا: پیچیدگی زمانی (O(log n))، که برای دادههای بزرگ بسیار کارآمد است.
- مصرف کم حافظه: نیاز به فضای اضافی ندارد (به جز در نسخه بازگشتی).
- کاربرد گسترده: در دیتابیسها، موتورهای جستجو، و حتی مسائل گرافیکی.
معایب ⚠️
- پیششرط مهم: لیست باید از پیش مرتبشده باشد.
- در مقایسه با جستجوی خطی (Linear Search)، در لیستهای کوتاه ممکن است بهینهتر نباشد.
- نسخه بازگشتی ممکن است در دادههای بسیار بزرگ به دلیل استفاده از پشته دچار محدودیت شود.
پیادهسازی جستجوی باینری
نسخهی تکراری (Iterative):
نسخهی بازگشتی (Recursive):
مثال کاربردی 📚
فرض کنید لیستی از اعداد مرتب داریم:
[2, 4, 7, 10, 23, 36, 50, 72]
اگر بخواهیم عدد 23 را پیدا کنیم:
1. ابتدا عنصر میانی: (10) → مقدار هدف بزرگتر است → نیمهی راست.
2. عنصر میانی جدید: (36) → مقدار هدف کوچکتر است → نیمهی چپ.
3. عنصر میانی جدید: (23) → پیدا شد! ✅
کاربردهای عملی جستجوی باینری 🔧
1. جستجو در دیتابیسها: برای پیدا کردن رکوردهای خاص.
2. الگوریتمهای مرتبسازی: مثل مرتبسازی ادغامی و سریع (Merge Sort, Quick Sort).
3. حل مسائل بهینهسازی: پیدا کردن ریشه در توابع، جستجو در فضای جواب (Solution Space).
4. کدنویسی رقابتی: برای حل مسائل در ساختار دادههای مرتب.
پیچیدگی زمانی و مکانی ⏱️
- زمانی: (O(log n)) (در بدترین، بهترین و حالت متوسط).
- مکانی:
- نسخهی تکراری: (O(1))
- نسخهی بازگشتی: (O(log n))به دلیل استفاده از پشته بازگشت).
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
جستجوی باینری (Binary Search) یکی از الگوریتمهای اساسی و فوقالعاده سریع برای جستجو در دادههای مرتبشده است. این الگوریتم با کاهش مداوم فضای جستجو به نصف، پیچیدگی زمانی بسیار کارآمدی ارائه میدهد:
ایده اصلی 🧠
جستجوی باینری از اصل "تقسیم و حل" (Divide and Conquer) استفاده میکند:
1. لیست باید مرتب باشد.
2. عنصر میانی لیست بررسی میشود:
- اگر مقدار هدف کوچکتر باشد، جستجو به نیمهی چپ محدود میشود.
- اگر مقدار هدف بزرگتر باشد، جستجو به نیمهی راست محدود میشود.
- اگر عنصر میانی برابر مقدار هدف باشد، مکان آن پیدا شده است! ✅
مزایا 🌟
- سرعت بالا: پیچیدگی زمانی (O(log n))، که برای دادههای بزرگ بسیار کارآمد است.
- مصرف کم حافظه: نیاز به فضای اضافی ندارد (به جز در نسخه بازگشتی).
- کاربرد گسترده: در دیتابیسها، موتورهای جستجو، و حتی مسائل گرافیکی.
معایب ⚠️
- پیششرط مهم: لیست باید از پیش مرتبشده باشد.
- در مقایسه با جستجوی خطی (Linear Search)، در لیستهای کوتاه ممکن است بهینهتر نباشد.
- نسخه بازگشتی ممکن است در دادههای بسیار بزرگ به دلیل استفاده از پشته دچار محدودیت شود.
پیادهسازی جستجوی باینری
نسخهی تکراری (Iterative):
def binary_search_iterative(arr, target):
left, right = 0, len(arr) - 1
while left <= right:
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
left = mid + 1
else:
right = mid - 1
return -1
نسخهی بازگشتی (Recursive):
def binary_search_recursive(arr, target, left, right):
if left > right:
return -1
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
return binary_search_recursive(arr, target, mid + 1, right)
else:
return binary_search_recursive(arr, target, left, mid - 1)
مثال کاربردی 📚
فرض کنید لیستی از اعداد مرتب داریم:
[2, 4, 7, 10, 23, 36, 50, 72]
اگر بخواهیم عدد 23 را پیدا کنیم:
1. ابتدا عنصر میانی: (10) → مقدار هدف بزرگتر است → نیمهی راست.
2. عنصر میانی جدید: (36) → مقدار هدف کوچکتر است → نیمهی چپ.
3. عنصر میانی جدید: (23) → پیدا شد! ✅
کاربردهای عملی جستجوی باینری 🔧
1. جستجو در دیتابیسها: برای پیدا کردن رکوردهای خاص.
2. الگوریتمهای مرتبسازی: مثل مرتبسازی ادغامی و سریع (Merge Sort, Quick Sort).
3. حل مسائل بهینهسازی: پیدا کردن ریشه در توابع، جستجو در فضای جواب (Solution Space).
4. کدنویسی رقابتی: برای حل مسائل در ساختار دادههای مرتب.
پیچیدگی زمانی و مکانی ⏱️
- زمانی: (O(log n)) (در بدترین، بهترین و حالت متوسط).
- مکانی:
- نسخهی تکراری: (O(1))
- نسخهی بازگشتی: (O(log n))به دلیل استفاده از پشته بازگشت).
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
LLM.pdf
2.2 MB
برای یادگیری بیشتر درباره LLM، در اینجا یک اسلاید از Roshan Sharma معرفی شده که در آن میتوانید مفاهیمی مثل موارد زیر را یاد بگیرید:
👉Emergent abilities in LLMs.
👉Decoder-only architectures.
👉Multi-stage training process.
👉Prompting techniques.
👉Scaling laws for performance.
👉Multimodal capabilities.
👉Safety and efficiency challenges.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
👉Emergent abilities in LLMs.
👉Decoder-only architectures.
👉Multi-stage training process.
👉Prompting techniques.
👉Scaling laws for performance.
👉Multimodal capabilities.
👉Safety and efficiency challenges.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Introduction to Deep Learning.pdf
10.5 MB
🚀 کاوش در دنیای یادگیری عمیق 🤖
🌟 یادگیری عمیق در حال تحول صنایع است و به ماشینها این امکان را میدهد که مانند انسانها یاد بگیرند و فکر کنند. از قدرت بخشیدن به دستیارهای صوتی 🗣 تا پیشرفت در تشخیصهای پزشکی 🏥، کاربردهای آن بیپایان است!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🌟 یادگیری عمیق در حال تحول صنایع است و به ماشینها این امکان را میدهد که مانند انسانها یاد بگیرند و فکر کنند. از قدرت بخشیدن به دستیارهای صوتی 🗣 تا پیشرفت در تشخیصهای پزشکی 🏥، کاربردهای آن بیپایان است!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
دوره Generative AI for Beginners از مایکروسافت موضوعات زیر را پوشش میدهد:
- Introduction to Generative AI and LLMs
- Exploring and comparing different LLM types
- Understanding Prompt Engineering Fundamentals
- Creating Advanced Prompts
- Building Text Generation Applications
- Building Chat Applications with Generative AI
- Building Low Code Generative AI Applications
- Designing UX for Generative AI Applications
https://www.youtube.com/playlist?list=PLmsFUfdnGr3zAgBMu4l1W713a0W__zAMl
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
- Introduction to Generative AI and LLMs
- Exploring and comparing different LLM types
- Understanding Prompt Engineering Fundamentals
- Creating Advanced Prompts
- Building Text Generation Applications
- Building Chat Applications with Generative AI
- Building Low Code Generative AI Applications
- Designing UX for Generative AI Applications
https://www.youtube.com/playlist?list=PLmsFUfdnGr3zAgBMu4l1W713a0W__zAMl
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
آیا LLMs میتوانند کد بهتری بنویسند اگر از آنها بخواهید "کد بهتری بنویسند"؟
به نظر میرسد که درخواست از LLMs برای نوشتن کد بهتر، واقعاً منجر به تولید کدهای بهتری میشود. همچنین، دیدن اینکه چطور Prompt Engineering میتواند برای تولید کدهای بهینهتر به کار گرفته شود، جالب است.
در مجموع، LLMs نمیتوانند جایگزین مهندسان نرمافزار شوند، اما دانستن چگونگی و زمان استفاده از آنها برای تولید و بهینهسازی کد، یک مزیت بزرگ محسوب میشود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
به نظر میرسد که درخواست از LLMs برای نوشتن کد بهتر، واقعاً منجر به تولید کدهای بهتری میشود. همچنین، دیدن اینکه چطور Prompt Engineering میتواند برای تولید کدهای بهینهتر به کار گرفته شود، جالب است.
در مجموع، LLMs نمیتوانند جایگزین مهندسان نرمافزار شوند، اما دانستن چگونگی و زمان استفاده از آنها برای تولید و بهینهسازی کد، یک مزیت بزرگ محسوب میشود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مدل rStar-Math را معرفی میکنیم که نشان میدهد مدلهای زبانی کوچک (SLMs) میتوانند در استدلال ریاضی با مدلهای بزرگتری مثل OpenAI o1-mini رقابت کنند یا حتی بهتر عمل کنند، بدون نیاز به آموزش از مدلهای برتر.
این مدل با استفاده از جستجوی درخت مونتکارلو (MCTS) و پاداشدهی توسط یک SLM، فرآیند تفکر عمیق را شبیهسازی میکند تا پاسخهای بهینه تولید کند.
📌 نکته مهم: rStar-Math بدون نیاز به Distillation، استدلال پیشرفته ریاضی را ممکن میسازد و نشاندهنده پیشرفت بزرگ در کارایی مدلهای کوچک است!
https://github.com/microsoft/rStar
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این مدل با استفاده از جستجوی درخت مونتکارلو (MCTS) و پاداشدهی توسط یک SLM، فرآیند تفکر عمیق را شبیهسازی میکند تا پاسخهای بهینه تولید کند.
📌 نکته مهم: rStar-Math بدون نیاز به Distillation، استدلال پیشرفته ریاضی را ممکن میسازد و نشاندهنده پیشرفت بزرگ در کارایی مدلهای کوچک است!
https://github.com/microsoft/rStar
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🚀 O3:
نسل جدید هوش مصنوعی با تواناییهای فراتر از تصور
🔬 مدل O3 به سطحی از درک و پردازش رسیده که میتواند مسائلی را حل کند که تنها برندگان جایزه نوبل قادر به فهم آنها هستند. با این پیشرفت، دسترسی به هوش فوقالعاده دیگر محدود به نخبگان علمی نیست و هر کسی میتواند از مدلی استفاده کند که فراتر از توانایی ۹۹.۹۹۹٪ از انسانها عمل میکند.
📊 مدل O1-Pro با ضریب هوشی ۱۳۳ استانداردهای جدیدی را در هوش مصنوعی تعریف کرد، و اگر O3 جهشی مشابه پیشرفت از GPT-4 به O1 داشته باشد، برآوردها نشان میدهد که این مدل به IQ ۱۴۵ رسیده—سطحی که امکان حل پیچیدهترین چالشهای علمی و فنی را فراهم میکند.
🤯 در مقایسه، GPT-2 و GPT-3 به ترتیب در سطح تواناییهای مغز موش و سگ ارزیابی میشدند، در حالی که GPT-4 عملکردی در حد یک دانشآموز دبیرستانی داشت و O1 معادل یک دانشجوی کارشناسی ارشد بود. اکنون، O3 به مرزهای نبوغ علمی نزدیک شده است.
🔎 این فناوری هنوز در مرحله بررسی است، اما نشانههای آن از تحولی بزرگ در آیندهی هوش مصنوعی حکایت دارد.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
نسل جدید هوش مصنوعی با تواناییهای فراتر از تصور
🔬 مدل O3 به سطحی از درک و پردازش رسیده که میتواند مسائلی را حل کند که تنها برندگان جایزه نوبل قادر به فهم آنها هستند. با این پیشرفت، دسترسی به هوش فوقالعاده دیگر محدود به نخبگان علمی نیست و هر کسی میتواند از مدلی استفاده کند که فراتر از توانایی ۹۹.۹۹۹٪ از انسانها عمل میکند.
📊 مدل O1-Pro با ضریب هوشی ۱۳۳ استانداردهای جدیدی را در هوش مصنوعی تعریف کرد، و اگر O3 جهشی مشابه پیشرفت از GPT-4 به O1 داشته باشد، برآوردها نشان میدهد که این مدل به IQ ۱۴۵ رسیده—سطحی که امکان حل پیچیدهترین چالشهای علمی و فنی را فراهم میکند.
🤯 در مقایسه، GPT-2 و GPT-3 به ترتیب در سطح تواناییهای مغز موش و سگ ارزیابی میشدند، در حالی که GPT-4 عملکردی در حد یک دانشآموز دبیرستانی داشت و O1 معادل یک دانشجوی کارشناسی ارشد بود. اکنون، O3 به مرزهای نبوغ علمی نزدیک شده است.
🔎 این فناوری هنوز در مرحله بررسی است، اما نشانههای آن از تحولی بزرگ در آیندهی هوش مصنوعی حکایت دارد.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
SSM_Slides_2024.05.19.pdf
11.1 MB
Mamba_State_Space_Model
📢 برای علاقهمندان به مدلهای جایگزین ترانسفورمرها!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📢 برای علاقهمندان به مدلهای جایگزین ترانسفورمرها!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مجموعهای گزیده از کاربردهای عوامل هوش مصنوعی در صنایع مختلف که کاربردهای عملی را نمایش داده و به پروژههای متنباز برای پیادهسازی لینک میدهد. ببینید چگونه عوامل هوش مصنوعی در حال تحول صنایع مختلف مانند بهداشت و درمان، مالی، آموزش و ... هستند! 🤖✨
https://github.com/DataSpoof/500-AI-Agents-Projects
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://github.com/DataSpoof/500-AI-Agents-Projects
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Transformers 2: Self-adaptive LLMs
نسل دوم مدلهای ترانسفورمر (Transformers 2 با ویژگی (Self-adaptive) طراحی شدهاند تا بتوانند عملکرد خود را در شرایط مختلف بهینه کنند. این مدلها از معماری بهبودیافتهای استفاده میکنند که قابلیت تغییر پارامترها و مقیاسپذیری را بر اساس پیچیدگی وظایف دارد. خودتنظیمی در این مدلها، امکان یادگیری بهتر از دادههای متنوع و ارائه پاسخهای دقیقتر در زمان واقعی را فراهم میکند.
Paper: https://arxiv.org/pdf/2501.06252v2.pdf
Code:
https://github.com/SakanaAI/self-adaptive-llms
https://github.com/codelion/adaptive-classifier
Datasets: GSM8K - HumanEval - MATH
MBPP - TextVQA - OK-VQA - ARC (AI2 Reasoning Challenge)
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
نسل دوم مدلهای ترانسفورمر (Transformers 2 با ویژگی (Self-adaptive) طراحی شدهاند تا بتوانند عملکرد خود را در شرایط مختلف بهینه کنند. این مدلها از معماری بهبودیافتهای استفاده میکنند که قابلیت تغییر پارامترها و مقیاسپذیری را بر اساس پیچیدگی وظایف دارد. خودتنظیمی در این مدلها، امکان یادگیری بهتر از دادههای متنوع و ارائه پاسخهای دقیقتر در زمان واقعی را فراهم میکند.
Paper: https://arxiv.org/pdf/2501.06252v2.pdf
Code:
https://github.com/SakanaAI/self-adaptive-llms
https://github.com/codelion/adaptive-classifier
Datasets: GSM8K - HumanEval - MATH
MBPP - TextVQA - OK-VQA - ARC (AI2 Reasoning Challenge)
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer