Algorithm design & data structure
6.68K subscribers
1.01K photos
144 videos
175 files
597 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
🎙 VibeVoice

در واقع VibeVoice یه مدل متن‌بازه که می‌تونه متن رو به صدای طبیعی و طولانی تبدیل کنه؛ حتی برای ساخت پادکست‌های چندنفره!
این مدل تا ۹۰ دقیقه صدا با ۴ گوینده مختلف تولید می‌کنه و کیفیت و ثبات صدا رو خیلی خوب حفظ می‌کنه.
مزیت بزرگش اینه که هم مقیاس‌پذیره، هم مکالمه‌ها رو طبیعی‌تر از مدل‌های قبلی نشون می‌ده.

https://huggingface.co/microsoft/VibeVoice-1.5B

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
گوگل یه مدل امبدینگ جدید داده به اسم EmbeddingGemma که با این‌که خیلی کوچیکه (۳۰۸M پارامتر)، ولی فوق‌العاده قویه.

نکته خفن اینجاست که با کمتر از ۲۰۰ مگ رم رو دستگاه اجرا میشه، حتی توی EdgeTPU تو ۱۵ میلی‌ثانیه امبدینگ میده! 🔥
بیشتر از ۱۰۰ تا زبان رو ساپورت می‌کنه، خروجی‌ش هم از ۱۲۸ تا ۷۶۸ بُعد قابل تنظیمه.

کلا آفلاینه یعنی حریم خصوصی کامل حفظ میشه.
برای RAG روی دستگاه، سرچ معنایی یا کار با داده‌های شخصی عالیه.

الانم راحت میشه ازش روی Hugging Face، Kaggle یا Vertex AI استفاده کرد.

https://developers.googleblog.com/en/introducing-embeddinggemma/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥3
لیت‌کد یکی از بهترین جاها برای تمرین الگوریتمه. این ریپو جواب بالای هزار تا از مسئله‌هاشو داره. اگه نمی‌دونی از کجا شروع کنی، اول جوابارو یه نگاه بنداز، بعد خودت امتحان کن. همین می‌تونه شروع مسیرت باشه:

https://github.com/haoel/leetcode

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🙏5👨‍💻1
This media is not supported in your browser
VIEW IN TELEGRAM
قابلیت‌های جدید NotebookLM

حالا می‌تونی گزارش‌هات رو به شکل‌های مختلف شخصی‌سازی کنی
هوش مصنوعی خودش فرمت مناسب محتوای تو رو پیشنهاد می‌ده تا متن‌ها مرتب‌تر و قابل استفاده‌تر باشن.

📑 مثلا می‌تونی محتوای خودت رو به پست وبلاگ تبدیل کنی یا زبان گزارش رو از بین بیش از ۵۰ زبان (از جمله فارسی) انتخاب کنی.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥2
🎓 دوره‌های Generative AI از Google

این دوره به آموزش مفاهیم Generative AI می‌پردازه؛
از پایه‌های مدل‌های زبانی بزرگ (LLM) گرفته تا موضوعات مهم مثل Responsible AI 🚀

https://www.cloudskillsboost.google/paths/118

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👍1
🚨 امارات دیروز همه رو غافلگیر کرد!
با معرفی مدل جدید K2 Think
🔹 یک LLM با ۳۲ میلیارد پارامتر
🔹 ساخته‌شده روی Qwen 2.5
🔹 آموزش‌داده‌شده روی سخت‌افزار Cerebras ⚡️
🔹 و از همه مهم‌تر: کاملاً متن‌باز 🟢

💡 نکته جالب اینجاست که K2 Think در ریاضی و کدنویسی حتی از غول‌هایی مثل DeepSeek هم بهتر عمل کرده!

https://www.k2think.ai/guest
#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👏3
📚 ریپازیتوری منابع مهندسی کامپیوتر

این ریپازیتوری شامل مجموعه‌ای از اسلایدها، کتاب‌ها، جزوه‌ها، تمرین‌ها و نمونه سوالات رشته مهندسی کامپیوتر است.
هدف از این مجموعه، ایجاد یک مرجع کامل و آسان برای دانشجویان و علاقه‌مندان است تا بتوانند راحت‌تر به منابع آموزشی دسترسی داشته باشند.

محتوا شامل:
جزوه‌ها و اسلایدهای درسی
نمونه سوالات و تمرین‌ها
منابع پیشنهادی برای مطالعه بیشتر
و...
https://github.com/Mohammadhossinee/Computer-Engineering-Resources

💾 ذخیره داشته باشید تا منابع به‌روز را از دست ندهید!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👌3
همه روش‌های Fine-Tuning یکسان نیستند!

در واقع Fine-tuning یعنی گرفتن یک مدل از قبل آموزش‌دیده و آموزش دوباره روی دیتاست کوچک و خاص، تا برای یک وظیفه یا حوزه جدید آماده شود. بهترین روش برای بهره‌برداری کامل از مدل‌های بزرگ (LLM)، اما مسیرش می‌تواند پیچیده باشد.

💥 انواع روش‌ها:

1️⃣ Full Fine-Tuning
آپدیت همه پارامترهای مدل اصلی برای یک دیتاست خاص.
مناسب برای: وقتی یک مدل فوق‌العاده برای یک وظیفه بسیار خاص می‌خواهید.
نیاز به سخت‌افزار: خوشحال‌کننده برای GPU کلستر بزرگ!

2️⃣ LoRA (Low-Rank Adaptation)
آموزش ماتریس‌های کوچک جدید و نگه داشتن وزن‌های اصلی مدل ثابت.
مناسب برای: تطبیق مدل روی چندین وظیفه.
نیاز به سخت‌افزار: GPU حرفه‌ای مثل A100 یا H100

3️⃣ QLoRA (Quantized LoRA)
نسخه کم‌حجم‌تر و کم‌مصرف LoRA که روی نسخه کوانتیزه و کم‌دقت مدل انجام می‌شود.
مناسب برای: Prototyping و آزمایش با بودجه محدود.
نیاز به سخت‌افزار: یک GPU معمولی، حتی با VRAM محدود

📄 LoRA Paper: https://arxiv.org/pdf/2106.09685
📄 QLoRA Paper: https://arxiv.org/pdf/2305.14314

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👍4👏1
🔥 یادگیری دیپ‌لرنینگ از صفر تا صد در ۲۶ جلسه


🧠 اصلاً دیپ‌لرنینگ چی هست و چه پیش‌نیازهایی داره
⚡️ محاسبات یه نورون و آموزش شبکه‌های عصبی ساده
🔄 پس‌انتشار خطا (Backpropagation) و توابع اکتیویشن
📊 مدیریت داده، اعتبارسنجی و جلوگیری از اورفیت
📈 مشکل محو یا انفجار گرادیان‌ها و راه‌حل‌ها
🖼 شبکه‌های CNN و تکنیک‌های Transfer Learning
و...

https://www.youtube.com/playlist?list=PLgPbN3w-ia_PeT1_c5jiLW3RJdR7853b9

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🙏3
🧩 چرا LLMها دست از توهم (Hallucination) برنمی‌دارن؟

مقاله جدید OpenAI توضیح می‌ده که توهم در مدل‌های زبانی «خطا غیرمنتظره» نیست، بلکه نتیجه طبیعی آموزش و ارزیابی اون‌هاست.
مدل‌ها مجبور می‌شن حتی وقتی مطمئن نیستن، جواب بدن و سیستم‌های فعلی هم «بلوف زدن» رو بیشتر از «نمی‌دونم» پاداش می‌دن.

راه‌حل: تغییر سیستم امتیازدهی به‌جای معرفی تست‌های جدید.
اگر به جای جریمه کردن جواب‌های «نمی‌دونم»، اون‌ها رو خنثی حساب کنیم، مدل‌ها یاد می‌گیرن فقط وقتی جواب بدن که مطمئن هستن. این تغییر می‌تونه اعتماد به هوش مصنوعی رو افزایش بده.

اطلاعات بیشتر:
https://www.arxiv.org/pdf/2509.04664

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👌6👍1
📚 دوره آموزش ساخت مدل زبانی از صفر

مدل‌های زبانی پایه اصلی بیشتر ابزارهای NLP مدرن هستن و نشون دادن که یه سیستم عمومی می‌تونه چندین کار مختلف رو انجام بده. پس درک عمیق این مدل‌ها برای پژوهشگرها و مهندس‌ها ضروریه.

توی این دوره قراره مثل درس‌هایی که سیستم‌عامل رو از صفر می‌سازن، کل مسیر ساخت یه Language Model رو با هم قدم‌به‌قدم یاد بگیریم:

🔹 جمع‌آوری و پاک‌سازی داده‌ها برای pre-training
🔹 ساختار ترنسفورمر و نحوه طراحی مدل
🔹 آموزش مدل و تکنیک‌های مهم یادگیری
🔹 ارزیابی و آماده‌سازی برای استقرار (Deployment)

https://www.youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_

برای بررسی کد ها و اسلاید ها و... :
https://github.com/stanford-cs336/spring2025-lectures

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🙏2👌1
کمپانی OpenAI بالاخره منتشر گرد که مردم چطور از ChatGPT استفاده می‌کنند. فرصت برای درست کردن محصولاتی که مردم نیاز دارند.


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥5
🚀 معرفی VaultGemma
یه مدل زبانی جدیده که از پایه ساخته شده و فرق اصلیش با بقیه اینه که با روش حفظ حریم خصوصی (Differential Privacy) آموزش داده شده. یعنی چی؟
یعنی وقتی این مدل آموزش می‌بینه، دیگه نمی‌تونه اطلاعات حساس کاربرا یا متن‌هایی که روش تمرین داده شده رو حفظ کنه و بعداً پس بده. عملاً مثل این می‌مونه که هر چیزی رو که می‌خونه، سریع فراموش می‌کنه.

برای اطلاع بیشتر از جمله مقاله و ... :
https://research.google/blog/vaultgemma-the-worlds-most-capable-differentially-private-llm/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👍5💯1