Algorithm design & data structure
6.45K subscribers
821 photos
139 videos
174 files
418 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
💡 ۱۲ ساختار داده‌ای مهم که باید بشناسید!

1️⃣ آرایه (Array) – ذخیره داده‌ها در یک لیست پیوسته 🔢
2️⃣ لیست پیوندی (Linked List) – ساختاری متصل با اشاره‌گرها 🔗
3️⃣ پشته (Stack) – ساختار LIFO برای پردازش داده‌ها 📦
4️⃣ صف (Queue) – پردازش داده‌ها به ترتیب FIFO 🚶‍♂️➡️
5️⃣ ماتریس (Matrix) – آرایه دو بعدی برای ذخیره داده‌های جدولی 🔲
6️⃣ درخت (Tree) – ساختاری سلسله‌مراتبی برای نمایش داده‌ها 🌳
7️⃣ درخت جستجوی دودویی (BST) – درختی با ترتیب خاص برای جستجو 🔍
8️⃣ هیپ (Heap) – یک درخت دودویی کامل برای مدیریت اولویت‌ها 📊
9️⃣ هش مپ (HashMap) – ذخیره و بازیابی سریع داده‌ها با هشینگ ⚡️
🔟 درخت پیشوندی (Trie) – برای جستجوی کارآمد رشته‌ها 📖

1️⃣1️⃣ گراف (Graph) – نمایش روابط بین گره‌ها و ارتباطات 📡

2️⃣1️⃣ساختار Union-Find – ساختاری برای مدیریت مجموعه‌های جدا از هم ⚙️

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔹 مخزن Kaggle Solutions؛ گنجینه‌ای ارزشمند برای متخصصان داده و یادگیری ماشین 🔹

دکتر فرید رشیدی**، دارنده دکترای علوم کامپیوتر، یک مخزن فوق‌العاده به نام **Kaggle Solutions ایجاد کرده که می‌توان آن را گنجینه‌ای ارزشمند برای متخصصان علوم داده، مهندسان یادگیری ماشین و پژوهشگران این حوزه دانست.

📌 این مخزن شامل راه‌حل‌های برتر و کدهای باکیفیت از چالش‌های مختلف Kaggle است و می‌تواند به‌عنوان یک منبع عالی برای یادگیری تکنیک‌های پیشرفته، بهینه‌سازی مدل‌ها و بهبود عملکرد الگوریتم‌ها مورد استفاده قرار گیرد.

🔥 اگر در مسیر یادگیری ماشین و علوم داده فعالیت می‌کنید، این مخزن را از دست ندهید!
https://farid.one/kaggle-solutions/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔹 سال ۲۰۲۵؛ دوران مدل‌های مفهومی بزرگ (LCM) به جای مدل‌های زبانی بزرگ (LLM) 🔹

متا از معماری جدیدی برای آینده‌ی مدل‌های زبانی بزرگ (LLM) پرده برداشته است:
🔷 مدل‌های مفهومی بزرگ (Large Concept Models - LCMs) 🔷

مدل‌های LCM با تکیه بر پایه‌های مستحکم LLMها، گامی بلند در درک و تولید متون انسان‌مانند برداشته‌اند.

🔍 چگونه کار می‌کنند؟

1️⃣ پردازش مفهومی
در واقع LCMها جملات را به‌عنوان مفاهیم یکتا رمزگذاری می‌کنند و این امکان را فراهم می‌آورند که درک عمیق‌تر و استدلال سطح بالا در پردازش متن صورت گیرد.

2️⃣ توکارهای SONAR
این روش‌های تعبیه‌سازی، ماهیت معنایی جملات را فراتر از سطح کلمات ثبت کرده و پردازش را از سطح لغات به سطح مفاهیم ارتقا می‌دهند.

3️⃣ فناوری‌های انتشار (Diffusion)
در واقع LCMها از تکنیک‌های انتشار برای پایدارسازی خروجی‌ها استفاده می‌کنند و در نتیجه، پاسخ‌هایی یکدست و قابل‌اعتمادتر ارائه می‌دهند.

4️⃣ روش‌های کمّی‌سازی (Quantization)
به‌کارگیری تکنیک‌های کمّی‌سازی در LCMها، موجب افزایش مقاومت مدل در برابر نوسانات جزئی و کاهش خطاهای پردازشی می‌شود.

5️⃣ ادغام چندرسانه‌ای (Multimodal Integration)
در واقع LCMها به‌صورت چندحالتی کار می‌کنند و علاوه بر متن، از ورودی‌هایی همچون صوت نیز پشتیبانی می‌کنند. این ویژگی، قابلیت درک چندزبانه و چندرسانه‌ای را برای این مدل‌ها فراهم می‌کند.

🔹 چه تفاوتی میان LCMها و LLMها وجود دارد؟

🔸 مدل‌های زبانی بزرگ (LLM)
پردازش در سطح توکن، یعنی پیش‌بینی کلمه یا زیرکلمه‌ی بعدی در دنباله‌ی متنی.
استفاده از معماری‌های مبتنی بر ترانسفورمر
برای پیش‌بینی توکن‌ها به‌صورت ترتیبی.
احتمال از دست دادن انسجام در متون طولانی به دلیل اتکای بیشتر به احتمالات آماری.

🔹 مدل‌های مفهومی بزرگ (LCM)
پردازش ورودی‌ها در سطح جمله یا مفهوم، با تمرکز بر درک معنایی گسترده‌تر.
بهره‌گیری از توکارهای SONAR برای نقشه‌برداری جملات در یک فضای معنایی غیرزبانی.
توانایی بالاتر در استدلال سلسله‌مراتبی و انتزاعی، که منجر به درک عمیق‌تر و دقیق‌تر از متن می‌شود.

📌 چرا LCMها پیشرفته‌تر و کارآمدترند؟
پردازش جملات به‌عنوان مفاهیم یکپارچه، نه فقط مجموعه‌ای از کلمات.
توانایی درک زمینه و مفهوم کلی متن، فراتر از درک کلمه‌به‌کلمه.
تولید خروجی‌های منسجم‌تر، طبیعی‌تر و مرتبط‌تر با زمینه‌ی گفتگو
.

🚀 در واقع LCMها انقلابی در پردازش زبان طبیعی هستند؛ آن‌ها نه‌تنها هوشمندترند، بلکه عمیق‌تر درک می‌کنند!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📣 سلام دوباره به همه‌ی همراهان عزیز کانال Algorithm Design & Data Structure!

🛠 بعد از مدتی دوری، برگشتم با انگیزه‌ای بیشتر برای ادامه‌ی مسیر یادگیری و به اشتراک‌گذاری مطالب مفید در زمینه‌ی هوش مصنوعی، طراحی الگوریتم و ساختار داده‌ها.
تو این مدت مشغول تحقیق، یادگیری و آماده‌سازی محتوای باکیفیت‌تری بودم تا دوباره با قدرت فعالیت کانال رو ادامه بدم.

از این به بعد قراره مطالبی مثل:

آموزش مفاهیم پیشرفته الگوریتم و دیتا استراکچر

پروژه‌های هوش مصنوعی و کدهای کاربردی

معرفی مقالات به‌روز و کاربردی


👨🏻‍💻 اگر دنبال یادگیری عمیق، مفید و منظم هستی، اینجا جای درستیه!
ممنون که هنوز با منی 🙌
📚 اگه دنبال یک منبع عالی و رایگان برای یادگیری عمیق (Deep Learning) هستی...


این سایت با عنوان "Dive into Deep Learning" یا همون "شیرجه‌ای در یادگیری عمیق" شناخته می‌شه و یکی از بهترین منابع آزاد دنیاست که یادگیری مفاهیم پیچیده‌ی دیپ‌لرنینگ رو به زبان ساده، مرحله به مرحله و همراه با کدنویسی واقعی آموزش می‌ ده.

https://d2l.ai/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
AGENTIC_RETRIEVAL_AUGMENTED_GENERATION:_A_SURVEY_ON_AGENTIC_RAG.pdf
13.6 MB
Agentic RAG:

این مقاله با عنوان "Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG" به بررسی تحول مهمی در معماری RAG می‌پردازه؛ جایی که مدل زبانی فقط پاسخ‌دهنده نیست، بلکه مثل یک عامل فعال (agent) فکر و جست‌وجو می‌کنه.

🔍 نویسندگان مقاله به‌صورت گام‌به‌گام از ساده‌ترین مدل‌های RAG شروع می‌کنن و تا پیشرفته‌ترین و هوشمندترین ساختارهای Agentic RAG رو معرفی و مقایسه می‌کنن.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
با یه حرکت ساده می‌تونی صاحب اکانت Gemini Pro بشی، اونم با:

اعتبار ۱۰۰ دلاری
۱۵ ماه دسترسی رایگان
و ۲ ترابایت فضای ابری Google Drive

🖥 کافیه با IP آمریکا بری سراغ لینک زیر:
🔗 https://one.google.com/join/ai-student

روی گزینه Get student offer بزن، مراحل رو درست برو، و بعدش توی اپ یا سایت Gemini حالت Pro رو فعال می‌بینی! 😎

اگه از مرورگر استفاده می‌کنی، می‌تونی از یه Free vpn استفاده کنی.

اگه با گوشی اندروید هستی، اپلیکیشن independent dvpn گزینه خوبیه.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥 دنبال پرامپت‌های آماده برای کار با هوش مصنوعی هستی؟
📌 سایت prompts.chat کلی پرامپت کاربردی و دسته‌بندی‌شده داره که کمکت می‌کنه بهتر از ChatGPT استفاده کنی.
حتماً یه سر بزن! 😉


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📚 اگه به Data Structure و الگوریتم‌ها علاقه‌مندی و با JavaScript کار می‌کنی، این ریپو برات یه طلاست!

توی این مخزن، کلی از الگوریتم‌ها و ساختمان داده‌ها با کدنویسی تمیز و قابل فهم با JavaScript پیاده‌سازی شده.
از مرتب‌سازی و گراف گرفته تا استک، صف، درخت‌ها و خیلی چیزای دیگه!

🔍‌ هر الگوریتم با توضیح و تست همراهه، پس برای یادگیری، مرور یا مصاحبه‌های فنی خیلی کاربردیه.

📌 لینک ریپو:
github.com/trekhleb/javascript-algorithms

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
داشتم یه مقاله خیلی باحال می‌خوندم درباره اینکه چطور میشه هوش مصنوعی (همین مدل‌های زبانی بزرگ یا همون LLMها، مثل ChatGPT) رو باهوش‌تر کرد که دیگه جواب پرت و پلا ندن یا اگه سوال پیچیده شد، قاطی نکنن.

چیزی که ازش یاد گرفتم و دوست داشتم با تو هم به اشتراک بذارم، اینا بود:

این مقاله یه سیستم جدید به اسم AGENT-G رو معرفی کرده که مثل یه دستیار هوشمند برای هوش مصنوعیه. این دستیار می‌تونه:

جواب همه جور سوالی رو بده (چه سوالی که فقط از متن جوابش میاد، چه از روابط و نمودارها، و چه از ترکیب هر دو!).
از اشتباهاتش یاد بگیره و هر دفعه بهتر بشه، یعنی اگه دفعه اول یه جا رو اشتباه گشت، دفعه بعد می‌فهمه و راهشو اصلاح می‌کنه.
بهترین عملکرد رو بین سیستم‌های مشابه داره و جوابای درست‌تر و قابل‌فهم‌تری میده (یعنی کمتر "توهم‌زایی" می‌کنه!).
هدفش اینه که LLMها دیگه الکی حرف نزنن و بتونن سوالات پیچیده رو هم درست و با دقت جواب بدن.

https://openreview.net/pdf?id=g2C947jjjQ

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
مدل جدید RF-DETR در مقابل YOLO11m برای تشخیص اشیا 🔥🔥
مدل RF-DETR عملکرد بهتری نسبت به تمام مدل‌های موجود تشخیص اشیا در دیتاست‌های دنیای واقعی دارد و اولین مدل بلادرنگ (real-time) است که موفق به کسب +60 میانگین دقت (mAP) در دیتاست معروف COCO شده است.
این مدل به صورت متن‌باز و تحت لایسنس Apache 2.0 منتشر شده است.

حتماً روی دیتاست‌های خودتان، مدل‌های مختلف را تست و ارزیابی کنید تا بهترین گزینه را برای مسئله و پروژه‌ی خاص خودتان انتخاب کنید. نتایج بنچمارک‌ها فقط راهنمای تقریبی هستند.

https://github.com/roboflow/rf-detr?utm_source=chatgpt.com

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
تصور کنید داده‌ها از دل اینترنت، با سرعت نور به سمت ما میان. چطور این اطلاعات رو بدون وقفه شکار کنیم، پردازششون کنیم و آماده‌شون کنیم برای مدل‌های یادگیری ماشین؟

این آموزش بهتون یاد میده چطور با FastAPI یه دروازه سریع برای جمع‌آوری داده‌ها از اینترنت بسازید. بعدش، با قدرت Apache Spark، داده‌های دریافتی رو توی یه پایپ‌لاین ETL (استخراج، تبدیل، بارگذاری) به بهترین شکل ممکن پردازش می‌کنیم. تمام این مراحل هم توسط Apache Airflow مثل یک ارکستر حرفه‌ای مدیریت می‌شن تا هیچ مشکلی پیش نیاد.

ویژگی جذاب این پیاده‌سازی، استفاده از پلتفرم Nebius AI Cloud هست که محیطی ایده‌آل برای این جور پروژه‌های مقیاس‌پذیر رو فراهم می‌کنه. مهمتر از همه، تمرکز اصلی ما روی تضمین کیفیت و یکپارچگی داده‌ها در هر مرحله است. همچنین، می‌بینیم که چطور با استفاده از Kubernetes، سیستمی با دسترس‌پذیری بالا (High Availability) و مدیریت داده‌های قدرتمند داشته باشیم.

https://www.newsletter.swirlai.com/p/data-pipelines-in-machine-learning

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔍🤖 UQLM: Hallucination Detection Library

در دنیای مدل‌های زبانی بزرگ (LLMs)، یکی از چالش‌های مهم، تولید اطلاعات نادرست یا ساختگی (Hallucination) است که می‌تواند به خروجی‌های غیرقابل اعتماد منجر شود.
اینجاست که UQLM وارد می‌شود!

در واقع UQLM یک کتابخانه‌ی کاربردی برای شناسایی و تشخیص Hallucination در خروجی مدل‌های زبانی است. این ابزار با اندازه‌گیری عدم قطعیت (Uncertainty) در پاسخ‌ها و استفاده از روش‌های امتیازدهی متنوع، امکان تحلیل دقیق‌تری از صحت خروجی‌ها را فراهم می‌کند.

🧩 یکی از ویژگی‌های جذاب UQLM، یکپارچگی کامل با LangChain است. این یعنی توسعه‌دهندگان می‌توانند خیلی راحت این ابزار را در زنجیره‌های کاری خود پیاده‌سازی کنند و برنامه‌های هوش مصنوعی قابل اطمینان‌تر و هوشمندتری بسازند.

https://github.com/cvs-health/uqlm

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔹 درک ساده‌ی MapReduce با یک تصویر! 🔹
📊 اگر با داده‌های بزرگ (Big Data) سروکار داری، حتماً اسم MapReduce به گوشت خورده! این تصویر مراحل اجرای این مدل محبوب پردازش داده رو خیلی ساده و شفاف نشون میده 👇

🟢 مرحله Map (نگاشت):
داده‌های خام (مثلاً چند فایل بزرگ متنی) به چند بخش کوچک‌تر تقسیم می‌شن (Split)،
هر بخش توسط یک Mapper پردازش می‌شه تا به صورت جفت‌های کلید-مقدار (Key-Value Pairs) تبدیل بشه.

⚙️ مرحله Shuffle (مرتب‌سازی و گروه‌بندی):
نتایج Mapperها بر اساس کلیدها گروه‌بندی و مرتب می‌شن تا آماده بشن برای مرحله بعد.

🔴 مرحله Reduce (کاهش):
هر Reducer داده‌های گروه‌بندی‌شده رو دریافت و جمع‌بندی یا تجزیه‌وتحلیل می‌کنه.
در نهایت، خروجی نهایی (مثلاً یک فایل متنی نهایی) تولید می‌شه. 📄

مزیت اصلی MapReduce اینه که می‌تونه داده‌های خیلی بزرگ رو روی چندین سرور به‌صورت موازی پردازش کنه.


📌در واقع MapReduce یکی از پایه‌های مهم در سیستم‌های مثل Hadoop برای تحلیل داده‌های عظیمه!


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
پژوهشگران MIT در مقاله‌ای با عنوان «فرضیه مرکز معنایی: مدل‌های زبانی نمایه‌های معنایی مشترکی را در زبان‌ها و حالت‌های مختلف به اشتراک می‌گذارند» به بررسی نحوه پردازش داده‌های متنوع توسط مدل‌های زبانی بزرگ (LLM) پرداختند. این مطالعه نشان می‌دهد که LLMها، مشابه مغز انسان، اطلاعات را از طریق یک مرکز معنایی مشترک پردازش می‌کنند.

The Semantic Hub Hypothesis: Language Models Share Semantic Representations Across Languages and Modalities

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
سایت sosimulator.xyz یک شبیه‌ساز جالب و خلاقانه از تجربهٔ استفاده از Stack Overflow است که به‌صورت تعاملی طراحی شده است. این وب‌سایت مانند یک «موزهٔ کاربردی» برای توسعه‌دهندگان عمل می‌کند و به کاربران امکان می‌دهد تا با ارسال سؤالات، تجربه‌ای مشابه با محیط واقعی Stack Overflow داشته باشند.

در این شبیه‌ساز، ارسال هر سؤال هزینه‌ای معادل ۰.۰۰۰۰۳ دلار برای میزبان وب دارد، که این موضوع به‌صورت نمادین به اهمیت و هزینه‌های پنهان استفاده از منابع آنلاین اشاره دارد. همچنین، کاربران می‌توانند سؤالات تصادفی مشاهده کنند یا محیط را پاک‌سازی کرده و مجدداً شروع کنند.


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
معرفی دیتاست و پیکره ParsOffensive جهت تشخیص سخنان ناسزا توی زبان فارسی!

یکی از دوستان ایرانی‌ام در لینکدین پستی منتشر کرده بود که توجه مرا جلب کرد:

🔍 معرفی دیتاست جدید برای تشخیص فحاشی در زبان فارسی

به‌تازگی دیتاستی با نام ParsOffensive منتشر شده است که شامل ۸٬۴۳۳ کامنت فارسی از اینستاگرام می‌باشد. این کامنت‌ها توسط دو متخصص زبان‌شناسی به‌صورت دستی برچسب‌گذاری شده‌اند و به دو دسته «توهین‌آمیز» و «خنثی» تقسیم می‌شوند. این مجموعه داده می‌تواند در پروژه‌های تحقیقاتی و توسعه مدل‌های یادگیری ماشین برای تشخیص زبان توهین‌آمیز در زبان فارسی مورد استفاده قرار گیرد.

Parsoffensive: Persian Offensive Comments Dataset

Dataset: https://github.com/alinazarizadeh/ParsOffensive

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📢 دعوت به همکاری برای پیدا کردن فرصت‌های کارآموزی و کاری در حوزه‌های کامپیوتر 🌐💼

سلام به همراهان عزیز کانال 🎓
ما در تلاشیم فضایی فراهم کنیم برای به اشتراک‌گذاری فرصت‌های کارآموزی و کاری در حوزه‌های مختلف رشته کامپیوتر از جمله:

💡 هوش مصنوعی و یادگیری ماشین
🖥 طراحی سایت و توسعه وب
📊 تحلیل داده و برنامه‌نویسی
و سایر زمینه‌های مرتبط با فناوری و نرم‌افزار

از همه دوستان درخواست داریم:
🔍 اگر آگهی، بنر، یا اطلاعیه‌ای در این حوزه‌ها دیدین (از دانشگاه، شرکت‌ها، شبکه‌های اجتماعی و...) لطفاً برای ما ارسال کنین تا با ذکر منبع در کانال منتشر کنیم و بتونیم به بقیه هم کمک کنیم.

@Se_mohamad
grokking_algorithms_An_illustrated_guide_for_programmers_and_other.pdf
24.5 MB
ترجمه کتاب grokking algorithms - An illustrated guide for programmers and other curious people

مترجم: مهران افشار نادری

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
فرصت شغلی ریموت (دورکاری) برای برنامه‌نویسان

موقعیت‌های زیر به‌صورت ریموت در حال جذب هستیم:

- برنامه‌نویس Java
- برنامه‌نویس ‌ C#
- برنامه‌نویس Go
- برنامه‌نویس Python
- برنامه‌نویس Rust
- برنامه‌نویس JS

شرایط:
• حداقل 3 سال سابقه کار
• تسلط به زبان انگلیسی
• حقوق: بین 2000 تا 3000 دلار (متناسب با مهارت)

در صورتی که علاقمند هستید یا کسی رو می‌شناسید که مناسب این موقعیت‌هاست، رزومه‌ش رو ارسال کنید.

#فرصت_شغلی

info@behlink.com
🧠 Agentic Document Workflows (ADW)

در واقع ADW به معنای استفاده از عوامل هوشمند برای مدیریت فرآیندهای چندمرحله‌ای اسناد است. این عوامل می‌توانند:

اطلاعات را با استفاده از LlamaParse استخراج و ساختاردهی کنند.

وضعیت و زمینه سند را در طول فرآیند حفظ کنند.

اطلاعات مرجع را از پایگاه دانش LlamaCloud بازیابی و تحلیل کنند.

بر اساس قوانین کسب‌وکار، پیشنهادات عملیاتی ارائه دهند.

📌 نمونه‌های کاربردی واقعی

بررسی قراردادها: عوامل هوشمند می‌توانند بندهای کلیدی قراردادها را شناسایی کرده و آن‌ها را با الزامات قانونی مقایسه کنند تا ریسک‌های احتمالی را مشخص نمایند.
Google Colab

خلاصه‌سازی پرونده‌های پزشکی: با تجزیه و تحلیل نتایج آزمایش‌ها و یادداشت‌های بالینی، عوامل می‌توانند خلاصه‌ای جامع از وضعیت بیمار ارائه دهند که به تصمیم‌گیری پزشکان کمک می‌کند.

Google Colab

رسیدگی به مطالبات بیمه خودرو: با تجزیه و تحلیل فرم‌های مطالبات و تطبیق آن‌ها با سیاست‌های بیمه، عوامل می‌توانند اطلاعات کلیدی را برای تصمیم‌گیری کارشناسان بیمه فراهم کنند.

Google Colab

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer