Algorithm design & data structure
6.46K subscribers
821 photos
140 videos
174 files
419 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
Pythonic Data Structures and Algorithms

اگر در زمینه‌ی ساختمان داده و الگوریتم‌ها مطالعه کرده‌اید، اما در کدنویسی عملی در این حوزه هنوز کاری نکردید، این گیت‌هاب تمامی الگوریتم‌ها رو به زبان پایتون پیاده‌سازی کرده و می‌تونید ازش استفاده کنید.

https://github.com/keon/algorithms

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
🌟 خبر هیجان‌انگیز برای عاشقان داده و NLP! 🌟

تصور کنید کل محتوای ویکی‌پدیای فارسی به صورت یک دیتاست مرتب و قابل استفاده، در دسترستون باشه! 🗂 این دیتاست عالی، یک گنجینه بی‌نظیر برای پروژه‌های پردازش زبان طبیعی، تحلیل داده یا حتی آموزش و یادگیریه. اگه دنبال منابع قدرتمند هستید، این دیتاست دقیقاً همون چیزیه که لازمش دارید! 🚀

لینک دیتاست:
https://huggingface.co/datasets/codersan/Persian-Wikipedia-Corpus

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
در حوزه GenAI/LLM، یوتیوبر مورد علاقه‌ام: Umar Jamil
🔹 ویدیوهاش شاید طولانی باشه، ولی محتواش عمق فوق‌العاده‌ای داره!
🔹 ترکیب عالی تئوری و کدنویسی – دقیقاً همون سبکی که می‌پسندم! 🚀

💻 اگر دنبال یادگیری جدی و مفید در این حوزه هستید، پیشنهاد می‌کنم حتماً کارهاش رو دنبال کنید. 🌟

https://www.youtube.com/@umarjamilai/videos

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
OrientedFormer: An End-to-End Transformer-Based Oriented Object Detector in Remote Sensing Images


Publication date:
IEEE Transactions on Geoscience and Remote Sensing 2024

Topic: Object detection

Paper
: https://arxiv.org/pdf/2409.19648v1.pdf

GitHub: https://github.com/wokaikaixinxin/OrientedFormer

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🤖 𝐔𝐧𝐡𝐚 𝐨𝐟 𝐋𝐚𝐧𝐠𝐮𝐚𝐠𝐞 𝐌𝐨𝐝𝐞𝐥𝐬 (2018-𝐏𝐫𝐞𝐬𝐞𝐧𝐭) 🌟

از 𝐁𝐄𝐑𝐓 تا 𝐋𝐥𝐚𝐦𝐚 3.2، مدل‌های زبانی نحوه‌ی پردازش زبان طبیعی را به کلی تغییر داده‌اند! 🚀 در اینجا نگاهی به سفر آن‌ها داریم:

🔴 𝐁𝐄𝐑𝐓 𝐅𝐚𝐦𝐢𝐥𝐲 (2018):
اولین گام‌های یادگیری مبتنی بر زمینه را برداشت، و مدل‌هایی مانند RoBERTa و DistilBERT الهام گرفته شدند.
🟢 𝐓5 𝐅𝐚𝐦𝐢𝐥𝐲 (2019):
پردازش زبان طبیعی را با چارچوب text-to-text ساده‌تر کرد و نوآوری‌هایی مانند BART و Flan-T5 به وجود آمد.
🔵 𝐆𝐏𝐓 𝐒𝐞𝐫𝐢𝐞𝐬 𝐚𝐧𝐝 𝐆𝐞𝐧𝐞𝐫𝐚𝐭𝐢𝐯𝐞 𝐌𝐨𝐝𝐞𝐥𝐬 (2019-2024):
سری GPT انقلاب بزرگی ایجاد کرد و منجر به مدل‌های عظیمی مانند o1-preview، Llama 3.2 و DeepSeek 2.5 شد.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Computer Vision.pdf
81.6 MB
اگر به Computer Vision علاقه دارید این کتاب رو حتما پیشنهاد میکنم بخونید✌🏻

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Media is too big
VIEW IN TELEGRAM
Introduction to Natural Language Processing (NLP) and Sequence Problems
Media is too big
VIEW IN TELEGRAM
The typical architecture of a Recurrent Neural Network (RNN)
Media is too big
VIEW IN TELEGRAM
Preparing a notebook for our first NLP with TensorFlow project
Media is too big
VIEW IN TELEGRAM
Becoming one with the data and visualising a text dataset
Media is too big
VIEW IN TELEGRAM
Splitting data into training and validation sets
Media is too big
VIEW IN TELEGRAM
Converting text data to numbers using tokenisation and embeddings (overview)
مقاله "Learning Transferable Visual Models From Natural Language Supervision" یکی از آثار برجسته در حوزه بینایی کامپیوتر و پردازش زبان طبیعی است. در این مقاله، نویسندگان یک مدل جدید به نام CLIP (Contrastive Language–Image Pretraining) را معرفی کرده‌اند که از یک روش نوآورانه برای یادگیری مدل‌های بصری قابل انتقال از طریق نظارت زبانی استفاده می‌کند.

در واقع CLIP با استفاده از مجموعه عظیمی از داده‌های تصویر و متن، به‌صورت همزمان تصاویر و توضیحات متنی مرتبط را آموزش می‌دهد. این مدل به گونه‌ای طراحی شده که می‌تواند بدون نیاز به داده‌های برچسب‌خورده خاص، وظایف جدیدی را تنها با ارائه دستورالعمل‌های متنی انجام دهد. از جمله کاربردهای این مدل می‌توان به تشخیص تصویر، دسته‌بندی، و حتی وظایف ترکیبی تصویر-متن اشاره کرد.

Paper:https://arxiv.org/abs/2103.00020

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Forwarded from Ai Events️ (حمید محمودآبادی)
یه ایده‌ی خلاقانه به نام GraphRAG برای تقویت توانایی‌ LLMها

یکی از چالش‌های کلیدی در مدل‌های زبانی بزرگ (LLM) استفاده از آن‌ها برای حل مسائل فراتر از داده‌های آموزش است. به‌منظور برآورده شدن این هدف، تیم تحقیقاتی مایکروسافت GraphRAG را معرفی کرده که به‌عنوان یک تکنیک پیشرفته
برای بهبود عملکرد Retrieval-Augmented Generation (RAG) استفاده می‌شود.

ویژگی‌های کلیدی GraphRAG:

ایجاد گراف دانش توسط LLM: این روش به‌صورت خودکار گرافی از موجودیت‌ها و روابط موجود در داده‌های خصوصی تولید می‌کند.

خوشه‌بندی معنایی: با ایجاد ساختارهای معنایی سلسله‌مراتبی، داده‌ها به خوشه‌هایی معنادار تقسیم‌بندی می‌شوند که امکان پیش‌خلاصه‌سازی اطلاعات را فراهم می‌کند.

افزایش دقت بازیابی: با استفاده از گراف تولید شده، GraphRAG محتوای مرتبط‌تری را برای ورود به پنجره زمینه LLM فراهم می‌آورد و پاسخ‌های دقیق‌تری تولید می‌کند.

پشتیبانی از پرسش‌های پیچیده: این تکنیک توانایی پردازش سوالاتی که نیاز به تجمیع
اطلاعات پراکنده یا تحلیل تم‌های کلان دارند را افزایش می‌دهد.

📊 عملکرد: در یک آزمایش با داده‌های خبری پیچیده، GraphRAG توانسته مفاهیم
کلیدی مانند فعالیت‌های سیاسی و نظامی مرتبط با "Novorossiya" را با دقت بالا شناسایی کند. این نتایج، بهبود چشمگیری را نسبت به روش‌های RAG پایه (که عملکرد آن‌ها صرفا با استفاده از فاصله وکتور سوال و جواب است) نشان داد که معمولاً در اتصال اطلاعات پراکنده ناکام بودند.

🔗 مزایای GraphRAG:

منبع‌نگاری دقیق: هر پاسخ به داده‌های اصلی مرتبط است و امکان تأیید صحت اطلاعات را فراهم می‌کند.

تحلیل کل‌نگر داده‌ها: خوشه‌بندی معنایی امکان شناسایی تم‌های اصلی و پاسخ‌دهی به سوالات کلی‌تر را بهبود می‌بخشد.

تطبیق با داده‌های خصوصی: این روش برای داده‌هایی که مدل‌های LLM به آن‌ها آموزش ندیده‌اند، مانند اسناد تجاری یا داده‌های اختصاصی سازمانی، ایده‌آل است.

مطالعه‌ی مقاله کامل

بخوانید: RAG چیست؟

بخوانید: LLM چیست؟


@Ai_Events
💡 مدل QwQ-32B-Preview توسط Qwen عرضه شد و توانست در بنچمارک‌های AIME و MATH عملکردی فراتر از مدل‌های قدرتمندی مانند OpenAI o1 و Anthropic Sonnet ارائه دهد. این مدل قابلیت‌های برجسته‌ای در زمینه‌های استدلال و محاسبات ریاضی نشان داده است.


🚀 نسخه کوآنتایزشده اکنون در Hugging Face در دسترس است.
این حرکت، گامی مهم برای دسترس‌پذیرتر کردن مدل‌های پیشرفته زبانی محسوب می‌شود و به جامعه تحقیقاتی این امکان را می‌دهد که با منابع کمتر، به قدرت بیشتری دست یابند.

https://huggingface.co/Satwik11/QwQ-32B-Preview-quantized-autoround-GPTQ-sym-4bit

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
DPO & PPO.pdf
2.9 MB
Is DPO Superior to PPO for LLM Alignment?
A Comprehensive Study


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer