Algorithm design & data structure
6.46K subscribers
821 photos
140 videos
174 files
419 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
ابزار heyCLI یک دستیار هوش مصنوعی برای خط فرمان لینوکس است که با استفاده از زبان طبیعی، دستورات مورد نیاز را تولید می‌کند. برای استفاده از آن، کافی است درخواست خود را با کلمه «hey» شروع کنید و سپس اقدام مورد نظر را بیان کنید. این ابزار به ویژه برای کاربران تازه‌کار یا کسانی که به یادآوری دستورات پیچیده علاقه‌مند نیستند، مفید است.

نمونه‌هایی از استفاده:
hey create a docker image for this dir

hey update my system

hey install firefox

hey find file image1

hey go to previous directory

https://eliteai.tools/tool/heycli

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
در تایوان، ربات پرستار "Nurabot" با همکاری شرکت‌های Foxconn و NVIDIA توسعه یافته است. این ربات با قابلیت‌هایی مانند تحویل دارو، پایش علائم حیاتی بیماران و راهنمایی بازدیدکنندگان، به کاهش بار کاری پرستاران کمک می‌کند.

https://www.the-sun.com/tech/14289670/ai-robot-nurse-hospital-video-nvidia/?utm_source=chatgpt.com

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
ارائه یک روش جدید به نام dMoE (Distribution-aware Mixture of Experts) برای کاهش سوگیری‌ها در تقسیم‌بندی تصاویر پزشکی که ناشی از توزیع‌های نامتوازن در داده‌ها (مثل سن، جنسیت، نژاد یا شدت بیماری) هستند. این مدل با الهام از تئوری کنترل بهینه طراحی شده و می‌تواند خودش را با توزیع‌های مختلف داده تطبیق دهد تا دقت و انصاف مدل را بهبود بخشد.

تصویر هم معماری مدل dMoE را نشان می‌دهد که برای تقسیم‌بندی منصفانه تصاویر پزشکی طراحی شده است.
در بخش (a)، شبکه dMoE با توجه به ویژگی‌های جمعیت‌شناختی (مثل سن یا نژاد) تصمیم می‌گیرد از کدام مسیر یا «متخصص» استفاده کند.
بخش (b) این ساختار را با یک سیستم کنترلی مقایسه می‌کند که می‌تواند بدون بازخورد، با بازخورد، یا با تغییر حالت (mode-switching) کار کند.

https://arxiv.org/abs/2502.00619

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🏷 نام مجموعه:
استارتاپ گفتا – دستیار هوشمند فروش و پاسخگویی

🪑 پوزیشن شغلی:
🔹 توسعه‌دهنده فرانت‌اند میدلول (mid level Front-end Developer)

🔗 مهارت‌های شغلی:

تسلط به HTML، CSS، JavaScript

تسلط به فریم‌ورک‌ React

تجربه کار با Tailwind CSS یا سایر ابزارهای مدرن طراحی رابط کاربری

آشنایی با مفاهیم REST API و ارتباط با بک‌اند

دقت بالا در جزئیات طراحی و تجربه کاربری (UX)

روحیه کار تیمی، یادگیری سریع و مسئولیت‌پذیری

🌐 شرح وظایف:

توسعه صفحات وب اپلیکیشن گفتا

پیاده‌سازی بخش‌های جدید با همکاری تیم بک‌اند

بهینه‌سازی تجربه کاربری و سرعت بارگذاری صفحات

رفع باگ‌ها و نگهداری کد موجود

همکاری در طراحی ماژول‌های جدید و ارائه پیشنهادهای بهبود

🔥 مزایا:

حقوق منصفانه

انعطاف در زمان‌بندی و محل کار

فرصت یادگیری و رشد فردی


📌 نوع همکاری:
تمام وقت

📰 ارسال رزومه:
📩 t.me/goftaai_admin

📍 محل فعالیت:
تهران یا دورکاری

#فرصت_شغلی

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
بعد از برگزاری المپیاد ریاضی آمریکا در سال ۲۰۲۵، محقق‌ها سوالات آزمون رو به چند مدل زبانی پیشرفته که توانایی استدلال منطقی دارن، دادن تا ببینن چطور از پس حل مسائل برمیان. نتیجه اما خیلی غافلگیرکننده بود: هیچ‌کدوم از مدل‌ها نتونستن بیشتر از ۵ درصد نمره بگیرن.
این موضوع نشون می‌ده که عملکرد بالا و درخشان این مدل‌ها تو آزمون‌های دیگه، ممکنه بیشتر به خاطر شباهت سوال‌ها با دیتای آموزشی‌شون بوده باشه یا اینکه فقط تونستن به جواب درست برسن بدون اینکه واقعاً اثبات درستی ارائه بدن.

Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎯 آموزش مدل‌های هوش مصنوعی با داده‌هایی که اصلاً وجود خارجی ندارن!

💸 داده‌های واقعی هزینه‌بر، نامرتب، و اغلب درگیر مسائل محرمانگی هستن. همین باعث میشه آموزش و گسترش مدل‌های یادگیری ماشین سخت و گرون باشه.
راه‌حل؟ داده‌های مصنوعی!
برخلاف تصور، استفاده از داده مصنوعی خیلی گسترده‌تر از چیزیه که فکر می‌کنین:

📌 مدل‌های زبانی بزرگ (LLMs) از مدل‌های دیگه کمک می‌گیرن تا با داده مصنوعی خودشونو آموزش بدن.
📌 سیستم‌های تشخیص تقلب، تراکنش‌های شبیه‌سازی‌شده تولید می‌کنن تا بتونن موارد نادر و مرزی رو شناسایی کنن.
📌 مدل‌های بینایی کامپیوتری (Vision Models) اول با تصاویر مصنوعی آموزش می‌بینن و بعد روی داده‌های واقعی فاین‌تیون می‌شن.
🧠 حالا اگه شما هم بخواین با داده مصنوعی مدل بسازین، یه ابزار فوق‌العاده به اسم SDV هست که این کارو براتون انجام می‌ده.

https://github.com/sdv-dev/SDV

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🧠 الگوهای طراحی هوش مصنوعی عاملی (Agentic AI):

این الگوها به مدل‌های زبانی بزرگ (LLMs) کمک می‌کنند تا وظایف را به‌صورت مرحله‌به‌مرحله و با خودمختاری بیشتر انجام دهند.

🔹 بازتاب (Reflection): مدل پاسخ خود را بررسی و اصلاح می‌کند.

🔹 استفاده از ابزار (Tool Use): مدل با ابزارهای خارجی مانند توابع پایتون یا پایگاه‌های داده تعامل دارد.

🔹 برنامه‌ریزی (Planning): مدل وظایف پیچیده را به مراحل کوچکتر تقسیم می‌کند.

🔹 چندعاملی (Multi-Agent): چندین عامل با نقش‌های مختلف برای رسیدن به هدفی مشترک همکاری می‌کنند.

این الگوها به توسعه سیستم‌های هوش مصنوعی پیشرفته‌تر و مستقل‌تر کمک می‌کنند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
این مقاله به بررسی عملکرد درخواست‌ها (Prompts) در تولید تصویر با متن می‌پردازد؛ حوزه‌ای که اخیراً با ظهور مدل‌های تولیدگر مانند diffusion models محبوب شده است. برخلاف بازیابی تصویر با متن، که در آن پیش‌بینی عملکرد درخواست‌ها موضوعی فعال در پژوهش است، تاکنون مطالعه‌ای دربارهٔ دشواری درخواست‌ها در تولید تصویر (براساس قضاوت انسانی) وجود نداشته است.

🔹 برای این منظور، نویسندگان اولین دیتاست حاوی درخواست‌هایی با برچسب‌های انسانی از نظر کیفیت تولید تصویر ارائه داده‌اند. آن‌ها همچنین این برچسب‌گذاری را به حوزهٔ بازیابی تصویر نیز گسترش داده‌اند.

🔹 در نتیجه، نخستین بنچمارک مشترک PQPP (Prompt/Query Performance Prediction) برای هر دو وظیفه ساخته شده که شامل بیش از ۱۰٬۰۰۰ درخواست است.


https://arxiv.org/abs/2406.04746

Code: https://github.com/Eduard6421/PQPP?tab=readme-ov-file#dataset-overview

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Deep Reinforcement Learning in Action.pdf
14.9 MB
Deep Reinforcement Learning in Action

اگه دنبال یه منبع قابل اعتماد برای یادگیری عمیق‌ترین مفاهیم یادگیری تقویتی هستی، این جزوه دقیقاً همون چیزیه که نیاز داری. نه فقط مبانی رو به زبونی ساده و مفهومی توضیح می‌ده، بلکه قدم‌به‌قدم نشونت می‌ده چطور این مفاهیم رو وارد کد و پروژه‌های واقعی کنی. از درک شهودی الگوریتم‌ها گرفته تا پیاده‌سازی عملی، با این جزوه وارد مسیر حرفه‌ای یادگیری تقویتی می‌شی.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Media is too big
VIEW IN TELEGRAM
«غریزه» فیلم کوتاه درخشان، دقیق و بی نقصی است که با AI ساخته شده و پیامی بسیار جذاب و چندلایه دارد؛
"آیا تمدن واقعاً پیشرفت است یا فقط یک تله دیگر؟"

این فیلم کاملا نشان داد که زین پس فقط درک سینما کافیست تا ابرپروژها چندمیلیون دلاری را با بودجه 0 بسازید.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🧠 اگه واقعاً می‌خوای مدل ترنسفورمر رو بفهمی، باید خودت از پایه بسازیش!
کد زدن، بهترین راه یادگیریه! 🎯

با استفاده از سایت زیر می‌تونی قدم‌به‌قدم ترنسفورمر رو از صفر پیاده‌سازی کنی و با مفاهیم مهمی مثل self-attention، positional encoding و ساختار encoder/decoder آشنا بشی.

https://www.k-a.in/transformers.html

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
📢 خبر داغ هوش مصنوعی از دنیای تکنولوژی!

🔥 تابستان امسال، کاربران تلگرام به پیشرفته‌ترین فناوری هوش مصنوعی دنیا دسترسی خواهند داشت!

💥 با همکاری رسمی بین Pavel Durov (بنیان‌گذار تلگرام) و Elon Musk، مدل هوش مصنوعی Grok از شرکت xAI به‌زودی برای بیش از یک میلیارد کاربر تلگرام در دسترس قرار می‌گیرد و در تمام اپلیکیشن‌های تلگرام یکپارچه‌سازی می‌شود.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Learning to Reason without External Rewards

در این پژوهش نوآورانه، نشون داده شده که مدل‌های زبانی بزرگ (LLMs) می‌تونن استدلال‌های پیچیده رو بدون دسترسی به پاسخ درست یاد بگیرن!

❗️ چطور؟ فقط با تکیه بر «حس درونی اطمینان خودشون»
یعنی مدل بدون نیاز به پاداش یا داده‌های واقعی از بیرون، خودش یاد می‌گیره که چه استدلال‌هایی براش قابل اعتمادتر هستن و مسیر یادگیری رو با همون معیار جلو می‌بره.

https://t.me/AI_PaperStack/3

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
کورس رایگان و تعاملی از Anthropic برای علاقه‌مندان به مهندسی پرامپت!

https://github.com/anthropics/courses/tree/master/prompt_engineering_interactive_tutorial#beginner

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎥📚 ویدئوهای آموزشی + اسلایدهای درس «تحلیل الگوریتم‌ها»

این منابع، همراه با کتاب مرجع، پایه‌ای‌ترین و مهم‌ترین منابع برای یادگیری طراحی الگوریتم و ساختمان داده هستن.
اگر می‌خوای دنیای DSA رو درست و اصولی یاد بگیری، این مجموعه رو از دست نده! 💡🚀

https://www3.cs.stonybrook.edu/~skiena/373/videos/

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
📊 مروری ساده بر پیچیدگی‌های زمانی (Time Complexities)
اگه در دنیای الگوریتم‌ها هستی، اینا باید ملکه ذهنت باشن! 👇🔥

1️⃣ O(1) – زمان ثابت
⏱️ مستقل از اندازه ورودی
📌 مثال: دسترسی به یک عنصر آرایه با استفاده از اندیس

2️⃣ O(log n) – زمان لگاریتمی
⏱️ رشد بسیار کند نسبت به اندازه ورودی
📌 مثال: جستجوی دودویی در آرایه مرتب‌شده

3️⃣ O(n) – زمان خطی
⏱️ متناسب با اندازه ورودی
📌 مثال: پیمایش کامل آرایه برای یافتن یک عنصر

4️⃣ O(n log n) – زمان خطی-لگاریتمی
⏱️ سریع‌تر از n² ولی کندتر از n
📌 مثال: مرتب‌سازی با quick sort یا merge sort

5️⃣ O(n²) – زمان درجه دوم (توان دو)
⏱️ با افزایش ورودی، زمان به‌صورت مربعی افزایش پیدا می‌کنه
📌 مثال: مرتب‌سازی حبابی (Bubble Sort)

6️⃣ O(2ⁿ) – زمان نمایی
⏱️ هر بار که ورودی بزرگ‌تر میشه، زمان دو برابر میشه
📌 مثال: تولید تمام زیرمجموعه‌های یک مجموعه

7️⃣ O(n!) – زمان فاکتوریلی
⏱️ بسیار پرهزینه و سنگین از نظر محاسباتی
📌 مثال: تولید همه‌ی جایگشت‌های یک مجموعه

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
Ego Graph

در دنیای هوش مصنوعی و پردازش زبان طبیعی، برای پاسخ به سؤالات پیچیده، تنها جستجوی متنی کافی نیست. اینجاست که ماژول بازیابی گراف وارد عمل می‌شود و با استفاده از ساختاری به نام Ego Graph، اطلاعات مرتبط را از گراف دانش استخراج می‌کند.

🔹 در واقع Ego Graph تصویری از یک موجودیت (مثلاً یک شخص یا مفهوم) و ارتباطات مستقیم آن با موجودیت‌های دیگر است. این ساختار به ما کمک می‌کند تا شبکه‌ای از اطلاعات مرتبط با موضوع مورد نظر را بررسی کنیم.

🔹 کاربرد در ماژول بازیابی گراف:

شناسایی موجودیت‌های کلیدی: ابتدا موجودیت‌های مرتبط با سؤال شناسایی می‌شوند.

استخراج Ego Graph: برای هر موجودیت، Ego Graph مربوطه از گراف دانش استخراج می‌شود.

تقاطع گراف‌ها: اگر چندین Ego Graph استخراج شده باشد، تقاطع آن‌ها برای یافتن اطلاعات مشترک و مرتبط بررسی می‌شود.

ارائه خروجی: نتایج به دو صورت ارائه می‌شوند:

مسیرهای استدلالی بین موجودیت‌ها

اسناد مرتبط با موجودیت‌های موجود در زیرگراف

این فرآیند به مدل‌های زبانی کمک می‌کند تا پاسخ‌های دقیق‌تر و مبتنی بر دانش ساختاری ارائه دهند.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥 دانشگاه MIT یکی از معتبرترین دانشگاه‌های جهان، دوره‌ی فشرده‌ی "Introduction to Deep Learning" رو آغاز کرده!
🎥 ویدیوهای این کورس فوق‌العاده در حال آپلود روی YouTube هستن، و قسمت اولش همین حالا منتشر شده!

🔍 اگه به یادگیری عمیق (Deep Learning) علاقه‌مندید یا می‌خواید با یکی از بهترین منابع آموزشی جهان یادگیری رو شروع کنید، این فرصت رو از دست ندید.

https://www.youtube.com/watch?v=alfdI7S6wCY&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI

Web Site: https://introtodeeplearning.com/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
ز PDF تا پوستر حرفه‌ای — با کمک ایجنت‌های هوشمند!

ما به یه پروژه‌ی فوق‌العاده برخوردیم به نام Paper2Poster
این ابزار با بهره‌گیری از ایجنت‌های هوشمند مثل CAMEL و OWL، مقالات علمی رو به پوسترهای بصری، خلاصه و قابل‌درک تبدیل می‌کنه! 😍🎨

🤖 یکی از کاربردی‌ترین پروژه‌های AI برای محققان، دانشجوها و ارائه‌های علمی‌ایه که اخیراً دیدیم!

🔍 اگه با مقاله‌نویسی یا ارائه علمی سروکار داری، حتماً Paper2Poster رو یه نگاه بنداز!

https://paper2poster.github.io/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
می‌دونید معماری RAG (تولید افزوده‌شده با بازیابی) چطوری کار می‌کنه؟

🔶 مرحله A: آماده‌سازی داده‌ها
همه‌چیز از منابع داده‌ی خام شروع میشه؛ مثل فایل‌های PDF، صفحات وب، یا اسناد مختلف.

🔶 مرحله B: استخراج اطلاعات
داده‌ها با کمک ابزارهایی مثل OCR یا خزنده‌های وب استخراج می‌شن.

🔶 مرحله C: تقسیم‌بندی (Chunking)
برای اینکه اطلاعات بهتر فهمیده بشن، به تکه‌های کوچکتر (چانک‌ها) تقسیم می‌شن.

🔶 مرحله D: تبدیل به بردار (Embedding)
اینجا هر تکه اطلاعات به شکلی تبدیل میشه که مدل زبانی بتونه بفهمه: یعنی بردار!

🔶 مرحله 2: ذخیره‌سازی در پایگاه برداری (Vector Database)
بردارها در یک دیتابیس مخصوص ذخیره می‌شن تا بعداً قابل جستجو باشن.

🔍 مرحله 1: کاربر سوال می‌پرسه (Query)
کاربر سوالی می‌فرسته؛ اونم به بردار تبدیل میشه!

🔄 مرحله 3: جستجو در پایگاه برداری
سیستم داده‌های مرتبط با سوال رو پیدا می‌کنه.

🤖 مرحله 4: ارسال به مدل زبانی (LLM)
داده‌های بازیابی‌شده به مدل زبان بزرگ (مثل GPT) داده میشه تا پاسخ تولید بشه.

مرحله 5: تولید پاسخ نهایی
در نهایت، پاسخ کامل و دقیق برمی‌گرده.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer