Algorithm design & data structure
6.46K subscribers
821 photos
140 videos
174 files
419 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
sakhteman dade(Lipschutz).pdf
14.2 MB
📚 معرفی کتاب: اصول ساختمان داده‌ها

یکی از بهترین منابع برای یادگیری اصولی و دقیق درس ساختمان داده‌ها، کتاب "اصول ساختمان داده‌ها" نوشته سیمور لیپشوتز است. این کتاب توسط مهندس حسین ابراهیم‌زاده قلزم به زبان فارسی ترجمه شده و یکی از منابع مهم برای دانشجویان رشته‌های کامپیوتر و علاقه‌مندان به الگوریتم‌ها و داده‌ساختارها محسوب می‌شود. 🧠

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
🌟 معرفی ریپوزیتوری رسمی LLM Engineer's Handbook 🌟

ریپوزیتوری رسمی این کتابچه که در حال حاضر ۱.۶ هزار ستاره⭐️ داره، به‌تازگی آپدیت شده! این ریپوزیتوری یکی از بهترین منابع برای یادگیری و استفاده از LLMOps pipelines است.

ویژگی‌ها و مواردی که یاد می‌گیرید:
- ساخت و اجرای پایپلاین‌ها با ZenML
- آموزش و استقرار مدل‌ها روی AWS همراه با autoscaling
- نظارت بر مدل‌های زبانی بزرگ (LLM) در تولید با Opik
- استفاده از RAG پیشرفته با Qdrant
- و ده‌ها آموزش و ابزار جذاب دیگر!

این ریپوزیتوری را حتماً بررسی کنید:

https://github.com/PacktPublishing/LLM-Engineers-Handbook

این منبع ارزشمند مخصوصاً برای محققان و علاقه‌مندان به حوزه LLMOps بسیار مفید است! 🚀

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Diffusion Models and Their Applications

کورس Diffusion Models and Their Applications یک دوره پیشرفته برای آشنایی با مدل‌های دیفیوژن و کاربردهای گسترده آن‌ها در هوش مصنوعی و یادگیری ماشین است. این مدل‌ها که به تازگی به عنوان استاندارد طلایی برای تولید محتوای مولد شناخته شده‌اند، در تولید تصاویر و ویدئوهای باکیفیت بی‌نظیر عملکرد فوق‌العاده‌ای نشان داده‌اند. نمونه‌هایی مانند SORA، Midjourney و StableDiffusion بیانگر قدرت این تکنیک‌ها هستند.

معرفی دوره:
این کورس به بررسی پایه‌های تئوری و کاربردهای عملی مدل‌های دیفیوژن می‌پردازد. تمرکز اصلی این دوره، یادگیری عمیق از طریق تمرین‌های برنامه‌نویسی و پروژه‌های عملی است. به جای برگزاری آزمون، شما با پیاده‌سازی این مدل‌ها در مسائل واقعی، تجربه‌ای کاربردی و مؤثر کسب خواهید کرد.

https://mhsung.github.io/kaist-cs492d-fall-2024/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔍 دانشمندان کلیدی در پیشرفت اولیه شبکه‌های عصبی و یادگیری ماشین:
1️⃣ فرانک روزنبلات (Frank Rosenblatt)
تولد: 1928 (نیویورک)
فوت: 1971
🎓 تحصیلات: رشته روانشناسی، دانشگاه کرنل
📚 دستاوردها:

مدل پرسپترون: اولین مدل شبکه‌های عصبی مصنوعی در سال 1960.
این مدل برای تفکیک الگوهای ساده و طبقه‌بندی باینری توسعه یافت.
🌟 پژوهش‌های او بر شبیه‌سازی فرآیندهای یادگیری انسانی تمرکز داشت.
2️⃣ دیوید روملهارت (David Rumelhart)
تولد: 1942 (واشنگتن)
فوت: 2011
🎓 تحصیلات: دکترای روانشناسی ریاضی، دانشگاه استنفورد
📚 دستاوردها:

الگوریتم Backpropagation: معرفی در دهه 1980.
این الگوریتم آموزش شبکه‌های عصبی چندلایه را ممکن کرد و یکی از پیشرفت‌های کلیدی یادگیری عمیق به شمار می‌آید.
🌟 تمرکز او بر پیوند روانشناسی، شبکه‌های عصبی، و علوم شناختی بود.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
✳️ Self-Ensembling Gaussian Splatting for Few-shot Novel View Synthesis


🔍 چرا این مقاله مهم است؟
مدل 3D Gaussian Splatting (3DGS) معمولاً در مواجهه با نماهای پراکنده دچار بیش‌برازش می‌شود و نمی‌تواند تغییرات وسیع در زوایای دید را به‌خوبی تعمیم دهد. این مقاله با معرفی روش Self-Ensembling Gaussian Splatting (SE-GS)، این مشکل را حل کرده و رویکردی مبتنی بر Self-ensemble برای تنظیم بهتر مدل‌ها ارائه می‌دهد.

🔑 دستاورد کلیدی:

دو مدل Σ و Δ معرفی شده‌اند که در کنار یکدیگر، کیفیت تولید تصاویر جدید را با تنظیم‌های دینامیک و مبتنی بر عدم قطعیت، بهبود می‌بخشند. این روش علاوه بر کارایی، هزینه‌های اضافی آموزش را کاهش داده و یک مدل نهایی قوی‌تر ارائه می‌دهد.


این مقاله برای علاقه‌مندان به یادگیری ماشین، گرافیک کامپیوتری، و تولید نماهای جدید، کاربردی و ارزشمند است.

Paper : https://arxiv.org/abs/2411.00144

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
مقاله GNN-RAG روشی نوین ارائه می‌دهد که توانایی‌های زبان‌شناختی مدل‌های زبانی بزرگ (LLMs) را با قدرت استدلال گراف‌های عصبی (GNNs) ترکیب می‌کند. در این روش، GNN روی زیرگراف‌های متراکم استدلال می‌کند تا پاسخ‌های احتمالی را استخراج کند. سپس مسیرهای استدلالی گراف دانش به زبان طبیعی تبدیل شده و به مدل زبانی داده می‌شوند تا فرآیند پاسخ‌دهی تکمیل شود. این روش ترکیبی از قابلیت‌های GNN و LLM برای پاسخ‌دهی به سؤالات مبتنی بر گراف دانش است.

Paper:https://arxiv.org/abs/2405.20139

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
𝗧𝗵𝗲_𝗠𝗮𝘁𝗿𝗶𝘅_𝗖𝗼𝗼𝗸_𝗕𝗼𝗼𝗸.pdf
13 MB
📘 The Matrix Cookbook
یک منبع فوق‌العاده برای هرآنچه که باید درباره ماتریس‌ها بدانید! این کتاب شامل روابط، تقریب‌ها، نابرابری‌ها و نکات کلیدی درباره ماتریس‌ها است که در مهندسی، علوم کامپیوتر و حتی فیزیک محاسباتی کاربرد دارند.

اگر با ماتریس‌ها سر و کار دارید، این کتاب راهنمای ضروری شماست! 🚀

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
لایبرری LLM یکی از ابزارهای قدرتمند پایتون برای کار با مدل‌های زبانی (Language Models) است. با استفاده از این لایبرری، می‌توانید به راحتی مدل‌های زبانی را فراخوانی کرده، از آن‌ها برای کاربردهای مختلف بهره ببرید، پرامپت‌های دلخواه بنویسید، مدل‌ها را آموزش دهید و بسیاری امکانات پیشرفته دیگر را کشف کنید.

این ابزار برای توسعه‌دهندگان و علاقه‌مندان به پردازش زبان طبیعی و هوش مصنوعی، یک گزینه ایده‌آل است تا به‌طور کارآمد از مدل‌های زبانی بهره‌مند شوند. 🌟

Link:https://llm.datasette.io/en/stable/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
ساختمان داده استاد طورانی .pdf
208.2 MB
📚 جزوه استثنایی و کامل درس ساختمان داده استاد طورانی

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
شرکت OpenAI و دیگر شرکت‌ها به دنبال مسیرهای جدیدی برای هوش مصنوعی هوشمندتر، با توجه به محدودیت‌های روش‌های فعلی
با گسترش مرزهای AI، شرکت‌هایی مانند OpenAI با چالش‌های غیرمنتظره‌ای در Large Language Models (LLMs) روبرو شده‌اند. به نظر می‌رسد دوران "bigger is better" رو به پایان است و فصل جدیدی از نوآوری در AI در حال شکل‌گیری است.

Here’s what’s happening:

1️⃣ Scaling Challenges:
شعار گسترش مقیاس پیش‌آموزش با استفاده از vast datasets و computing power گسترده به مرزهای خود رسیده است. حتی پیشگامانی مانند Ilya Sutskever به این مسئله اذعان دارند.

2️⃣ Resource Race:
آموزش cutting-edge models روزبه‌روز پیچیده‌تر می‌شود و به میلیون‌ها دلار هزینه، massive energy و specialized chips نیاز دارد. کمبود منابع انرژی و data scarcity، روند پیشرفت را کند کرده است.

3️⃣ A New Approach:
آزمایشگاه‌های AI در حال بررسی الگوریتم‌هایی با تفکر مشابه انسان هستند که بر quality به جای sheer scale تأکید دارند. این تغییر می‌تواند AI arms race را بازتعریف کند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🚀 خبر هیجان‌انگیز! معرفی دیتاست IUST_PersonReID 🚀

دیتاست IUST_PersonReID منتشر شد! این دیتاست با هدف حل چالش‌های منحصربه‌فرد در شناسایی مجدد افراد (Person Re-Identification) در محیط‌های فرهنگی متنوع و پیچیده، به‌ویژه در بسترهای اسلامی، توسعه یافته است. این پروژه گامی مهم در بهبود دقت مدل‌ها و کاهش سوگیری‌های جمعیتی به شمار می‌رود. 📊

📍 چه چیزی IUST_PersonReID را منحصربه‌فرد می‌کند؟
- پوشش گسترده از چندین مکان در ایران و عراق، از جمله دانشگاه‌ها، مساجد، بازارها و رویدادهای عمومی
- شامل انواع پوشش‌های خاص فرهنگی، از سنتی تا مدرن، به منظور حمایت از AI عادلانه‌تر
- بهره‌گیری از چندین زاویه دوربین برای بهبود شناسایی در محیط‌های پیچیده و واقعی

🔍 ویژگی‌های کلیدی این دیتاست:
- 118,883 تصویر شامل 1,847 هویت در 19 صحنه مختلف
- برچسب‌گذاری دقیق با استفاده از ترکیب مدل‌های پیشرفته و حاشیه‌نویسی انسانی
- ایده‌آل برای آموزش مدل‌های AI که در محیط‌ها و جمعیت‌های مختلف عملکرد موثری دارند

Link:https://computervisioniust.github.io/IUST_PersonReId/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
سلام دوستان عزیز👋🏻😉

امیدوارم حالتون خوب باشه. 🌟

اگر در درس‌های رشته کامپیوتر نیاز به راهنمایی یا کمک دارین مخصوصا دوستانی که تازه وارد این رشته شدن، حتماً از ادمین کمک بگیرین. ادمین‌ کانال ما همیشه آماده پاسخگویی به سوالات شما و ارائه مشاوره هست.

پس بدون هیچ نگرانی سوالاتتون رو بپرسید و از راهنمایی‌های مفید ادمین استفاده کنید. موفق باشید! 💻📚

برای ارتباط با ادمین به آیدی زیر پیام بدید.👇🏻👇🏻

@Se_mohamad
الگوریتم Trep یکی از ساختارهای داده‌ای است که برای ذخیره‌سازی و بازیابی داده‌ها به صورت مؤثر استفاده می‌شود. این الگوریتم ترکیبی از دو مفهوم درخت دودویی جستجو (Binary Search Tree) و هیپ (Heap) است و از این رو، به عنوان Treap (Tree + Heap) شناخته می‌شود. 📚🌟



💡 ویژگی‌های Treap
1. ساختار درخت دودویی جستجو:
در Treap، تمام قوانین درخت دودویی جستجو رعایت می‌شود. به این معنا که:
- مقدار تمام گره‌های زیرشاخه چپ از مقدار گره والد کوچک‌تر است.
- مقدار تمام گره‌های زیرشاخه راست از مقدار گره والد بزرگ‌تر است.

📈 این ویژگی باعث می‌شود که عملیات‌هایی مانند جستجو، درج و حذف مشابه درخت دودویی جستجو عمل کنند.

2. اولویت گره‌ها (Priority):
هر گره یک اولویت (Priority) تصادفی دریافت می‌کند و Treap باید به‌گونه‌ای باشد که این اولویت‌ها خصوصیات هیپ ماکسیمم یا مینیمم را رعایت کنند.
- در هیپ ماکسیمم: اولویت گره والد همیشه بیشتر از فرزندان است.
- در هیپ مینیمم: اولویت گره والد کمتر از فرزندان است.

🎲 این اولویت‌ها معمولا به صورت تصادفی تخصیص داده می‌شوند تا توازن درخت حفظ شود.



عملیات در Treap
1. درج (Insertion):
گره جدید ابتدا بر اساس مقدار (Key) در درخت دودویی جستجو قرار می‌گیرد. سپس، با چرخش‌های لازم (Rotations) اولویت‌های هیپ رعایت می‌شود.
🔄 این فرآیند تضمین می‌کند که ساختار Treap همواره متوازن بماند.

2. حذف (Deletion):
برای حذف یک گره، ابتدا باید آن را به یک برگ تبدیل کنیم. این کار با چرخش گره تا برگ شدن انجام می‌شود و سپس گره حذف می‌شود.

3. جستجو (Search):
این عملیات مشابه جستجوی درخت دودویی جستجو است و از مقایسه مقدار گره‌ها استفاده می‌کند.



📊 مزایا و کاربردها
- حفظ توازن به صورت پویا:
برخلاف درخت دودویی جستجوی عادی که ممکن است توازن خود را از دست بدهد، Treap به لطف اولویت‌های تصادفی و چرخش‌ها همواره متوازن باقی می‌ماند. ⚖️

- کاربرد در مسائل real-time:
برای ذخیره‌سازی داده‌ها در حافظه و پاسخ سریع به کوئری‌ها در سیستم‌هایی که به عملکرد بلادرنگ نیاز دارند، بسیار مناسب است. 🕒

- سادگی پیاده‌سازی:
نسبت به سایر درخت‌های متوازن مانند AVL و Red-Black، پیاده‌سازی Treap به دلیل استفاده از اولویت‌های تصادفی ساده‌تر است.



🚀 چرا Treap مهم است؟
در واقع Treap با ترکیب دو ایده قوی (درخت دودویی جستجو و هیپ)، کارایی بالا و سادگی الگوریتمی را ارائه می‌دهد. این الگوریتم به ویژه در مسائلی که جستجو و به‌روزرسانی مداوم داده‌ها مورد نیاز است، بسیار کارآمد است.

استفاده از Treap باعث می‌شود که زمان اجرای عملیات‌ها به طور متوسط O(log n) باقی بماند و در عین حال، کدنویسی آن به نسبت ساده و قابل درک باشد. 👨‍💻

#الگوریتم
👨‍💻 @AlgorithmDesign_DataStructuer
دوره کوتاه "Pretraining LLMs" که با همکاری upstageai توسعه داده شده است.

این دوره شامل مباحثی مانند pretraining from scratch، ادامه pretraining روی داده‌های سفارشی و نحوه استفاده از مدل‌های کوچک‌تر و open-source برای کاهش هزینه‌ها می‌باشد.

این دوره را به صورت رایگان ببینید:
https://hubs.la/Q02YFKyx0

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
روی مدل‌های بینایی-زبانی (Vision Language Models - VLMs) حساب ویژه‌ای باز کنید.

با انتشار Llama 3.2 و ColQwen2، مدل‌های چندوجهی (Multimodal) روزبه‌روز محبوب‌تر می‌شوند.

مدل‌های VLM مدل‌هایی چندوجهی هستند که قابلیت کار با دو مد تصویر و متن را دارند:

ورودی: تصویر و متن
خروجی: متن

این مدل‌ها در کاربردهای زیادی از جمله پاسخ‌دهی به سوالات بصری یا درک اسناد (مانند کاربرد ColQwen2) مورد استفاده قرار می‌گیرند.

نحوه عملکرد در پشت صحنه
چالش اصلی در مدل‌های VLM، یکپارچه‌سازی نمایش‌های تصویر و متن است.

برای این منظور، معماری معمول یک VLM شامل اجزای زیر است:

- رمزگذار تصویر (Image Encoder) مانند CLIP یا SigLIP
-در واقع Embedding Projector برای هم‌تراز کردن نمایش‌های تصویر و متن
- رمزگشای متن (Text Decoder) مانند Vicuna یا Gemma


http://huggingface.co/blog/vlms

#هوش_مصنوعی

📣👨‍💻 @AlgorithmDesign_DataStructuer