Algorithm design & data structure
6.47K subscribers
826 photos
141 videos
174 files
425 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
Learning to Reason without External Rewards

در این پژوهش نوآورانه، نشون داده شده که مدل‌های زبانی بزرگ (LLMs) می‌تونن استدلال‌های پیچیده رو بدون دسترسی به پاسخ درست یاد بگیرن!

❗️ چطور؟ فقط با تکیه بر «حس درونی اطمینان خودشون»
یعنی مدل بدون نیاز به پاداش یا داده‌های واقعی از بیرون، خودش یاد می‌گیره که چه استدلال‌هایی براش قابل اعتمادتر هستن و مسیر یادگیری رو با همون معیار جلو می‌بره.

https://t.me/AI_PaperStack/3

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
کورس رایگان و تعاملی از Anthropic برای علاقه‌مندان به مهندسی پرامپت!

https://github.com/anthropics/courses/tree/master/prompt_engineering_interactive_tutorial#beginner

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎥📚 ویدئوهای آموزشی + اسلایدهای درس «تحلیل الگوریتم‌ها»

این منابع، همراه با کتاب مرجع، پایه‌ای‌ترین و مهم‌ترین منابع برای یادگیری طراحی الگوریتم و ساختمان داده هستن.
اگر می‌خوای دنیای DSA رو درست و اصولی یاد بگیری، این مجموعه رو از دست نده! 💡🚀

https://www3.cs.stonybrook.edu/~skiena/373/videos/

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
📊 مروری ساده بر پیچیدگی‌های زمانی (Time Complexities)
اگه در دنیای الگوریتم‌ها هستی، اینا باید ملکه ذهنت باشن! 👇🔥

1️⃣ O(1) – زمان ثابت
⏱️ مستقل از اندازه ورودی
📌 مثال: دسترسی به یک عنصر آرایه با استفاده از اندیس

2️⃣ O(log n) – زمان لگاریتمی
⏱️ رشد بسیار کند نسبت به اندازه ورودی
📌 مثال: جستجوی دودویی در آرایه مرتب‌شده

3️⃣ O(n) – زمان خطی
⏱️ متناسب با اندازه ورودی
📌 مثال: پیمایش کامل آرایه برای یافتن یک عنصر

4️⃣ O(n log n) – زمان خطی-لگاریتمی
⏱️ سریع‌تر از n² ولی کندتر از n
📌 مثال: مرتب‌سازی با quick sort یا merge sort

5️⃣ O(n²) – زمان درجه دوم (توان دو)
⏱️ با افزایش ورودی، زمان به‌صورت مربعی افزایش پیدا می‌کنه
📌 مثال: مرتب‌سازی حبابی (Bubble Sort)

6️⃣ O(2ⁿ) – زمان نمایی
⏱️ هر بار که ورودی بزرگ‌تر میشه، زمان دو برابر میشه
📌 مثال: تولید تمام زیرمجموعه‌های یک مجموعه

7️⃣ O(n!) – زمان فاکتوریلی
⏱️ بسیار پرهزینه و سنگین از نظر محاسباتی
📌 مثال: تولید همه‌ی جایگشت‌های یک مجموعه

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
Ego Graph

در دنیای هوش مصنوعی و پردازش زبان طبیعی، برای پاسخ به سؤالات پیچیده، تنها جستجوی متنی کافی نیست. اینجاست که ماژول بازیابی گراف وارد عمل می‌شود و با استفاده از ساختاری به نام Ego Graph، اطلاعات مرتبط را از گراف دانش استخراج می‌کند.

🔹 در واقع Ego Graph تصویری از یک موجودیت (مثلاً یک شخص یا مفهوم) و ارتباطات مستقیم آن با موجودیت‌های دیگر است. این ساختار به ما کمک می‌کند تا شبکه‌ای از اطلاعات مرتبط با موضوع مورد نظر را بررسی کنیم.

🔹 کاربرد در ماژول بازیابی گراف:

شناسایی موجودیت‌های کلیدی: ابتدا موجودیت‌های مرتبط با سؤال شناسایی می‌شوند.

استخراج Ego Graph: برای هر موجودیت، Ego Graph مربوطه از گراف دانش استخراج می‌شود.

تقاطع گراف‌ها: اگر چندین Ego Graph استخراج شده باشد، تقاطع آن‌ها برای یافتن اطلاعات مشترک و مرتبط بررسی می‌شود.

ارائه خروجی: نتایج به دو صورت ارائه می‌شوند:

مسیرهای استدلالی بین موجودیت‌ها

اسناد مرتبط با موجودیت‌های موجود در زیرگراف

این فرآیند به مدل‌های زبانی کمک می‌کند تا پاسخ‌های دقیق‌تر و مبتنی بر دانش ساختاری ارائه دهند.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥 دانشگاه MIT یکی از معتبرترین دانشگاه‌های جهان، دوره‌ی فشرده‌ی "Introduction to Deep Learning" رو آغاز کرده!
🎥 ویدیوهای این کورس فوق‌العاده در حال آپلود روی YouTube هستن، و قسمت اولش همین حالا منتشر شده!

🔍 اگه به یادگیری عمیق (Deep Learning) علاقه‌مندید یا می‌خواید با یکی از بهترین منابع آموزشی جهان یادگیری رو شروع کنید، این فرصت رو از دست ندید.

https://www.youtube.com/watch?v=alfdI7S6wCY&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI

Web Site: https://introtodeeplearning.com/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
ز PDF تا پوستر حرفه‌ای — با کمک ایجنت‌های هوشمند!

ما به یه پروژه‌ی فوق‌العاده برخوردیم به نام Paper2Poster
این ابزار با بهره‌گیری از ایجنت‌های هوشمند مثل CAMEL و OWL، مقالات علمی رو به پوسترهای بصری، خلاصه و قابل‌درک تبدیل می‌کنه! 😍🎨

🤖 یکی از کاربردی‌ترین پروژه‌های AI برای محققان، دانشجوها و ارائه‌های علمی‌ایه که اخیراً دیدیم!

🔍 اگه با مقاله‌نویسی یا ارائه علمی سروکار داری، حتماً Paper2Poster رو یه نگاه بنداز!

https://paper2poster.github.io/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
می‌دونید معماری RAG (تولید افزوده‌شده با بازیابی) چطوری کار می‌کنه؟

🔶 مرحله A: آماده‌سازی داده‌ها
همه‌چیز از منابع داده‌ی خام شروع میشه؛ مثل فایل‌های PDF، صفحات وب، یا اسناد مختلف.

🔶 مرحله B: استخراج اطلاعات
داده‌ها با کمک ابزارهایی مثل OCR یا خزنده‌های وب استخراج می‌شن.

🔶 مرحله C: تقسیم‌بندی (Chunking)
برای اینکه اطلاعات بهتر فهمیده بشن، به تکه‌های کوچکتر (چانک‌ها) تقسیم می‌شن.

🔶 مرحله D: تبدیل به بردار (Embedding)
اینجا هر تکه اطلاعات به شکلی تبدیل میشه که مدل زبانی بتونه بفهمه: یعنی بردار!

🔶 مرحله 2: ذخیره‌سازی در پایگاه برداری (Vector Database)
بردارها در یک دیتابیس مخصوص ذخیره می‌شن تا بعداً قابل جستجو باشن.

🔍 مرحله 1: کاربر سوال می‌پرسه (Query)
کاربر سوالی می‌فرسته؛ اونم به بردار تبدیل میشه!

🔄 مرحله 3: جستجو در پایگاه برداری
سیستم داده‌های مرتبط با سوال رو پیدا می‌کنه.

🤖 مرحله 4: ارسال به مدل زبانی (LLM)
داده‌های بازیابی‌شده به مدل زبان بزرگ (مثل GPT) داده میشه تا پاسخ تولید بشه.

مرحله 5: تولید پاسخ نهایی
در نهایت، پاسخ کامل و دقیق برمی‌گرده.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎓 آموزش اینترنت از دانشگاه برکلی!

اگه همیشه برات سؤال بوده که اینترنت واقعاً چجوری کار می‌کنه، این دوره فوق‌العاده از دانشگاه UC Berkeley رو از دست نده!

📘 نام دوره:
مقدمه‌ای بر اینترنت: معماری و پروتکل‌ها
(CS 168 - Introduction to the Internet: Architecture and Protocols)

https://sp25.cs168.io/

📣👨‍💻 @AlgorithmDesign_DataStructuer
🧠 تا حالا شده بخوای یه مدل زبانی بزرگ مثل LLaMA بتونه تصویر رو بفهمه، بدون اینکه بخوای آموزشش بدی؟

توی یه مقاله جدید یه روش خیلی جالب پیشنهاد شده به اسم:
Zero-Shot Vision Encoder Grafting

ایده‌ش اینه:
میان یه مدل کوچیک درست می‌کنن (بهش می‌گن surrogate) که از لایه‌های ابتدایی همون LLM استفاده می‌کنه. بعد یه رمزگذار بینایی (Vision Encoder) رو روی این مدل کوچیک آموزش می‌دن.

📌 حالا رمزگذار بینایی رو می‌گیرن و مستقیم می‌چسبونن به LLM اصلی! بدون اینکه LLM نیاز به آموزش داشته باشه

نکته: نماد (❄️)Freeze نشان میده که وزن های این رمزگذار در طول این فرایند به روز نمی شوند در واقع از قبل آموزش دیده و ثابت است.
نماد Traing (🔥) نشان دهنده که این مدل خاص در حال آموزش است.

https://arxiv.org/abs/2505.22664

Link github : https://github.com/facebookresearch/zero

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
انتشار مدل‌های هوش مصنوعی گوگل برای تحلیل متون و تصاویر پزشکی

▪️ گوگل مدل‌های جدیدی به نام #MedGemma را معرفی کرده است که به منظور پشتیبانی از تحلیل متون و تصاویر #پزشکی طراحی شده‌اند. این مدل‌های متن‌باز، بر اساس معماری Gemma 3 ساخته شده و در دو نسخه ارائه می‌شوند: MedGemma 4B که مدل چندوجهی برای پردازش همزمان تصویر و متن است و MedGemma 27B که بر تحلیل متون پزشکی متمرکز است. این مدل‌ها به کاربران حوزه بهداشت و درمان کمک می‌کنند تا تحلیل کارآمدتری از داده‌های پزشکی داشته باشند.

https://www.infoq.com/news/2025/05/google-medgemma/?utm_campaign=infoq_content&utm_source=infoq&utm_medium=feed&utm_term=AI%2C+ML+%26+Data+Engineering

github : https://github.com/google-health/medgemma

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
طراحی و تجسم معماری شبکه‌های عصبی همیشه یکی از سخت‌ترین بخش‌های یادگیری عمیق بوده! 🎯


💡 اگه دنبال ابزارهایی هستی که باهاشون بتونی معماری مدل‌هات رو ویژوالایز یا طراحی کنی (مخصوصاً برای مستندات، ارائه، یا مقالات علمی)، ریپو زیر رو از دست ندهید:

https://github.com/ashishpatel26/Tools-to-Design-or-Visualize-Architecture-of-Neural-Network

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
این لیست پخش تمام مقالات مهم در یادگیری تقویتی (Reinforcement Learning) را توضیح می‌دهد.

https://www.youtube.com/playlist?list=PL1v8zpldgH3rJk6UKP_npByDuE7v1WSdt

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🚀 با Apache Airflow، جریان‌های کاری پیچیده‌ رو به‌سادگی مدیریت و خودکارسازی کن!
ابزار متن‌بازی که در صنعت حرف اول رو می‌زنه.

https://github.com/apache/airflow

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎉 تبریک می‌گم به همه‌ی دوستانی که امسال در کنکور ارشد کامپیوتر قبول شدن و وارد مسیر جدیدی از زندگی علمی‌شون شدن! این موفقیت شیرین رو بهتون تبریک می‌گم و امیدوارم ادامه‌ی راهتون پر از رشد و موفقیت باشه. 👩‍💻👨‍💻

اما یه دل‌گرمی هم بدم به اونایی که به نتیجه دلخواهشون نرسیدن — مثل خود من. 🤝 بدون شک سخت تلاش کردیم، ولی مسیر رقابت هر سال داره سخت‌تر می‌شه، مخصوصاً در رشته کامپیوتر که روزبه‌روز متقاضی‌هاش بیشتر و قوی‌تر می‌شن.

💡 یه نکته مهم:
اگه هدفتون قبولی در دانشگاه‌های تاپ هست، برای سال آینده باید با برنامه‌ریزی بهتر و زمان بیشتری وارد میدان بشید. این رقابت دیگه معمولی نیست! 🔥

با امید به موفقیت‌های بزرگ‌تر برای همه‌مون 💪🌱
تبدیل صدا به متن را به‌سادگی با مدل قدرتمند و متن‌باز تشخیص گفتار OpenAI انجام دهید.

https://github.com/openai/whisper


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📊 گزارش وضعیت هوش مصنوعی در چین - سه‌ماهه دوم ۲۰۲۵
منتشر شده توسط: Artificial Analysis 🇨🇳

چین همچنان با سرعت بالا در حال پیشروی در رقابت جهانی هوش مصنوعی‌ست و دست‌کم ۱۰ لابراتوار فعال در این حوزه داره که همگی مدل‌هایی با امتیاز هوشی بالا تولید می‌کنن! 🚀

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎓 یه دوره رایگان و خیلی خوب از دانشگاه واترلو برای کسایی که می‌خوان مدل‌های زبانی (LLM) رو از پایه یاد بگیرن!
از مفاهیم اولیه مثل RNN و NLP تا ساخت ترنسفورمر و آموزش مدل 🚀

اگه به یادگیری عمیق و هوش مصنوعی علاقه داری، این دوره یه شروع فوق‌العاده‌ست!
https://www.youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_

schedule : https://stanford-cs336.github.io/spring202

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔗 اتصال هر LLM به هر سرور MCP!

🛠 در واقع MCP-Use یک ابزار متن‌باز و قدرتمنده که به شما این امکان رو می‌ده تا هر مدل زبانی (LLM) رو به هر سرور MCP متصل کنید و ایجنت‌های سفارشی با دسترسی به ابزار بسازید — بدون نیاز به کلاینت‌های بسته یا اپلیکیشن‌های اختصاصی! 😎

ساخت کلاینت‌های کاملاً لوکال
بدون وابستگی به کدهای بسته
مناسب برای توسعه‌دهنده‌هایی که به کنترل کامل روی زیرساخت اهمیت می‌دن

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
"THINK-ON-GRAPH: Deep and Responsible Reasoning of Large Language Models on Knowledge Graphs"

این مقاله روش خفنی به نام گراف‌های دانش (Knowledge Graph)معرفی میکند:

🔍 مثال قشنگی هم زده:
سؤال اینه که «حزب اکثریت در کشوری که شهر Canberra توشه چیه؟»
سه روش مختلف برای جواب دادن بررسی شدن:

1️⃣ مدل تنها (LLM-only):
فقط از اطلاعات خود مدل استفاده می‌کنه. مثلاً می‌گه تا ۲۰۲۱ نخست‌وزیر استرالیا فلانی بوده، پس حزبش فلان بوده.
مشکل؟ اطلاعاتش قدیمیه یا ناقصه، جواب اشتباه می‌ده!

2️⃣ مدل + گراف دانش (LLM + KG):
مدل سعی می‌کنه با زبان SPARQL از گراف سوال بپرسه. اما گراف اطلاعات لازم رو نداره یا مدل بلد نیست خوب بپرسه.
⛔️ نتیجه؟ باز هم نمی‌تونه جواب بده!

3️⃣ Think-on-Graph (LLM ⊗ KG):
مدل مرحله به مرحله «فکر می‌کنه» روی گراف!
مثلاً اول بررسی می‌کنه Canberra پایتخت چیه، بعد می‌ره ببینه نخست‌وزیر استرالیا کیه، بعد از اطلاعات خودش (یا گراف) درمیاره که اون عضو حزب Labor هست.
نتیجه؟ جواب درسته و منطقیه! 🎯

https://arxiv.org/abs/2307.07697

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
اگر به یادگیری ماشین علاقه‌مند هستید، پروژه‌ی «100 روز کدنویسی یادگیری ماشین» از Avik Jain یک مسیر منظم و عملی برای تسلط بر مفاهیم آن ارائه می‌دهد. این پروژه شامل آموزش‌های روزانه با کدهای پایتون و توضیحات مفهومی است.

https://github.com/Avik-Jain/100-Days-Of-ML-Code

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer