📊 مروری ساده بر پیچیدگیهای زمانی (Time Complexities)
اگه در دنیای الگوریتمها هستی، اینا باید ملکه ذهنت باشن! 👇🔥
1️⃣ O(1) – زمان ثابت
⏱️ مستقل از اندازه ورودی
📌 مثال: دسترسی به یک عنصر آرایه با استفاده از اندیس
2️⃣ O(log n) – زمان لگاریتمی
⏱️ رشد بسیار کند نسبت به اندازه ورودی
📌 مثال: جستجوی دودویی در آرایه مرتبشده
3️⃣ O(n) – زمان خطی
⏱️ متناسب با اندازه ورودی
📌 مثال: پیمایش کامل آرایه برای یافتن یک عنصر
4️⃣ O(n log n) – زمان خطی-لگاریتمی
⏱️ سریعتر از n² ولی کندتر از n
📌 مثال: مرتبسازی با quick sort یا merge sort
5️⃣ O(n²) – زمان درجه دوم (توان دو)
⏱️ با افزایش ورودی، زمان بهصورت مربعی افزایش پیدا میکنه
📌 مثال: مرتبسازی حبابی (Bubble Sort)
6️⃣ O(2ⁿ) – زمان نمایی
⏱️ هر بار که ورودی بزرگتر میشه، زمان دو برابر میشه
📌 مثال: تولید تمام زیرمجموعههای یک مجموعه
7️⃣ O(n!) – زمان فاکتوریلی
⏱️ بسیار پرهزینه و سنگین از نظر محاسباتی
📌 مثال: تولید همهی جایگشتهای یک مجموعه
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
اگه در دنیای الگوریتمها هستی، اینا باید ملکه ذهنت باشن! 👇🔥
1️⃣ O(1) – زمان ثابت
⏱️ مستقل از اندازه ورودی
📌 مثال: دسترسی به یک عنصر آرایه با استفاده از اندیس
2️⃣ O(log n) – زمان لگاریتمی
⏱️ رشد بسیار کند نسبت به اندازه ورودی
📌 مثال: جستجوی دودویی در آرایه مرتبشده
3️⃣ O(n) – زمان خطی
⏱️ متناسب با اندازه ورودی
📌 مثال: پیمایش کامل آرایه برای یافتن یک عنصر
4️⃣ O(n log n) – زمان خطی-لگاریتمی
⏱️ سریعتر از n² ولی کندتر از n
📌 مثال: مرتبسازی با quick sort یا merge sort
5️⃣ O(n²) – زمان درجه دوم (توان دو)
⏱️ با افزایش ورودی، زمان بهصورت مربعی افزایش پیدا میکنه
📌 مثال: مرتبسازی حبابی (Bubble Sort)
6️⃣ O(2ⁿ) – زمان نمایی
⏱️ هر بار که ورودی بزرگتر میشه، زمان دو برابر میشه
📌 مثال: تولید تمام زیرمجموعههای یک مجموعه
7️⃣ O(n!) – زمان فاکتوریلی
⏱️ بسیار پرهزینه و سنگین از نظر محاسباتی
📌 مثال: تولید همهی جایگشتهای یک مجموعه
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
Ego Graph
در دنیای هوش مصنوعی و پردازش زبان طبیعی، برای پاسخ به سؤالات پیچیده، تنها جستجوی متنی کافی نیست. اینجاست که ماژول بازیابی گراف وارد عمل میشود و با استفاده از ساختاری به نام Ego Graph، اطلاعات مرتبط را از گراف دانش استخراج میکند.
🔹 در واقع Ego Graph تصویری از یک موجودیت (مثلاً یک شخص یا مفهوم) و ارتباطات مستقیم آن با موجودیتهای دیگر است. این ساختار به ما کمک میکند تا شبکهای از اطلاعات مرتبط با موضوع مورد نظر را بررسی کنیم.
🔹 کاربرد در ماژول بازیابی گراف:
شناسایی موجودیتهای کلیدی: ابتدا موجودیتهای مرتبط با سؤال شناسایی میشوند.
استخراج Ego Graph: برای هر موجودیت، Ego Graph مربوطه از گراف دانش استخراج میشود.
تقاطع گرافها: اگر چندین Ego Graph استخراج شده باشد، تقاطع آنها برای یافتن اطلاعات مشترک و مرتبط بررسی میشود.
ارائه خروجی: نتایج به دو صورت ارائه میشوند:
مسیرهای استدلالی بین موجودیتها
اسناد مرتبط با موجودیتهای موجود در زیرگراف
این فرآیند به مدلهای زبانی کمک میکند تا پاسخهای دقیقتر و مبتنی بر دانش ساختاری ارائه دهند.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
در دنیای هوش مصنوعی و پردازش زبان طبیعی، برای پاسخ به سؤالات پیچیده، تنها جستجوی متنی کافی نیست. اینجاست که ماژول بازیابی گراف وارد عمل میشود و با استفاده از ساختاری به نام Ego Graph، اطلاعات مرتبط را از گراف دانش استخراج میکند.
🔹 در واقع Ego Graph تصویری از یک موجودیت (مثلاً یک شخص یا مفهوم) و ارتباطات مستقیم آن با موجودیتهای دیگر است. این ساختار به ما کمک میکند تا شبکهای از اطلاعات مرتبط با موضوع مورد نظر را بررسی کنیم.
🔹 کاربرد در ماژول بازیابی گراف:
شناسایی موجودیتهای کلیدی: ابتدا موجودیتهای مرتبط با سؤال شناسایی میشوند.
استخراج Ego Graph: برای هر موجودیت، Ego Graph مربوطه از گراف دانش استخراج میشود.
تقاطع گرافها: اگر چندین Ego Graph استخراج شده باشد، تقاطع آنها برای یافتن اطلاعات مشترک و مرتبط بررسی میشود.
ارائه خروجی: نتایج به دو صورت ارائه میشوند:
مسیرهای استدلالی بین موجودیتها
اسناد مرتبط با موجودیتهای موجود در زیرگراف
این فرآیند به مدلهای زبانی کمک میکند تا پاسخهای دقیقتر و مبتنی بر دانش ساختاری ارائه دهند.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
🔥 دانشگاه MIT یکی از معتبرترین دانشگاههای جهان، دورهی فشردهی "Introduction to Deep Learning" رو آغاز کرده!
🎥 ویدیوهای این کورس فوقالعاده در حال آپلود روی YouTube هستن، و قسمت اولش همین حالا منتشر شده!
🔍 اگه به یادگیری عمیق (Deep Learning) علاقهمندید یا میخواید با یکی از بهترین منابع آموزشی جهان یادگیری رو شروع کنید، این فرصت رو از دست ندید.
https://www.youtube.com/watch?v=alfdI7S6wCY&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI
Web Site: https://introtodeeplearning.com/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎥 ویدیوهای این کورس فوقالعاده در حال آپلود روی YouTube هستن، و قسمت اولش همین حالا منتشر شده!
🔍 اگه به یادگیری عمیق (Deep Learning) علاقهمندید یا میخواید با یکی از بهترین منابع آموزشی جهان یادگیری رو شروع کنید، این فرصت رو از دست ندید.
https://www.youtube.com/watch?v=alfdI7S6wCY&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI
Web Site: https://introtodeeplearning.com/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ز PDF تا پوستر حرفهای — با کمک ایجنتهای هوشمند!
ما به یه پروژهی فوقالعاده برخوردیم به نام Paper2Poster ✨
این ابزار با بهرهگیری از ایجنتهای هوشمند مثل CAMEL و OWL، مقالات علمی رو به پوسترهای بصری، خلاصه و قابلدرک تبدیل میکنه! 😍🎨
🤖 یکی از کاربردیترین پروژههای AI برای محققان، دانشجوها و ارائههای علمیایه که اخیراً دیدیم!
🔍 اگه با مقالهنویسی یا ارائه علمی سروکار داری، حتماً Paper2Poster رو یه نگاه بنداز!
https://paper2poster.github.io/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ما به یه پروژهی فوقالعاده برخوردیم به نام Paper2Poster ✨
این ابزار با بهرهگیری از ایجنتهای هوشمند مثل CAMEL و OWL، مقالات علمی رو به پوسترهای بصری، خلاصه و قابلدرک تبدیل میکنه! 😍🎨
🤖 یکی از کاربردیترین پروژههای AI برای محققان، دانشجوها و ارائههای علمیایه که اخیراً دیدیم!
🔍 اگه با مقالهنویسی یا ارائه علمی سروکار داری، حتماً Paper2Poster رو یه نگاه بنداز!
https://paper2poster.github.io/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
میدونید معماری RAG (تولید افزودهشده با بازیابی) چطوری کار میکنه؟
🔶 مرحله A: آمادهسازی دادهها
همهچیز از منابع دادهی خام شروع میشه؛ مثل فایلهای PDF، صفحات وب، یا اسناد مختلف.
🔶 مرحله B: استخراج اطلاعات
دادهها با کمک ابزارهایی مثل OCR یا خزندههای وب استخراج میشن.
🔶 مرحله C: تقسیمبندی (Chunking)
برای اینکه اطلاعات بهتر فهمیده بشن، به تکههای کوچکتر (چانکها) تقسیم میشن.
🔶 مرحله D: تبدیل به بردار (Embedding)
اینجا هر تکه اطلاعات به شکلی تبدیل میشه که مدل زبانی بتونه بفهمه: یعنی بردار!
🔶 مرحله 2: ذخیرهسازی در پایگاه برداری (Vector Database)
بردارها در یک دیتابیس مخصوص ذخیره میشن تا بعداً قابل جستجو باشن.
🔍 مرحله 1: کاربر سوال میپرسه (Query)
کاربر سوالی میفرسته؛ اونم به بردار تبدیل میشه!
🔄 مرحله 3: جستجو در پایگاه برداری
سیستم دادههای مرتبط با سوال رو پیدا میکنه.
🤖 مرحله 4: ارسال به مدل زبانی (LLM)
دادههای بازیابیشده به مدل زبان بزرگ (مثل GPT) داده میشه تا پاسخ تولید بشه.
✅ مرحله 5: تولید پاسخ نهایی
در نهایت، پاسخ کامل و دقیق برمیگرده.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔶 مرحله A: آمادهسازی دادهها
همهچیز از منابع دادهی خام شروع میشه؛ مثل فایلهای PDF، صفحات وب، یا اسناد مختلف.
🔶 مرحله B: استخراج اطلاعات
دادهها با کمک ابزارهایی مثل OCR یا خزندههای وب استخراج میشن.
🔶 مرحله C: تقسیمبندی (Chunking)
برای اینکه اطلاعات بهتر فهمیده بشن، به تکههای کوچکتر (چانکها) تقسیم میشن.
🔶 مرحله D: تبدیل به بردار (Embedding)
اینجا هر تکه اطلاعات به شکلی تبدیل میشه که مدل زبانی بتونه بفهمه: یعنی بردار!
🔶 مرحله 2: ذخیرهسازی در پایگاه برداری (Vector Database)
بردارها در یک دیتابیس مخصوص ذخیره میشن تا بعداً قابل جستجو باشن.
🔍 مرحله 1: کاربر سوال میپرسه (Query)
کاربر سوالی میفرسته؛ اونم به بردار تبدیل میشه!
🔄 مرحله 3: جستجو در پایگاه برداری
سیستم دادههای مرتبط با سوال رو پیدا میکنه.
🤖 مرحله 4: ارسال به مدل زبانی (LLM)
دادههای بازیابیشده به مدل زبان بزرگ (مثل GPT) داده میشه تا پاسخ تولید بشه.
✅ مرحله 5: تولید پاسخ نهایی
در نهایت، پاسخ کامل و دقیق برمیگرده.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎓 آموزش اینترنت از دانشگاه برکلی!
اگه همیشه برات سؤال بوده که اینترنت واقعاً چجوری کار میکنه، این دوره فوقالعاده از دانشگاه UC Berkeley رو از دست نده!
📘 نام دوره:
مقدمهای بر اینترنت: معماری و پروتکلها
(CS 168 - Introduction to the Internet: Architecture and Protocols)
https://sp25.cs168.io/
📣👨💻 @AlgorithmDesign_DataStructuer
اگه همیشه برات سؤال بوده که اینترنت واقعاً چجوری کار میکنه، این دوره فوقالعاده از دانشگاه UC Berkeley رو از دست نده!
📘 نام دوره:
مقدمهای بر اینترنت: معماری و پروتکلها
(CS 168 - Introduction to the Internet: Architecture and Protocols)
https://sp25.cs168.io/
📣👨💻 @AlgorithmDesign_DataStructuer
🧠 تا حالا شده بخوای یه مدل زبانی بزرگ مثل LLaMA بتونه تصویر رو بفهمه، بدون اینکه بخوای آموزشش بدی؟
توی یه مقاله جدید یه روش خیلی جالب پیشنهاد شده به اسم:
Zero-Shot Vision Encoder Grafting
ایدهش اینه:
میان یه مدل کوچیک درست میکنن (بهش میگن surrogate) که از لایههای ابتدایی همون LLM استفاده میکنه. بعد یه رمزگذار بینایی (Vision Encoder) رو روی این مدل کوچیک آموزش میدن.
📌 حالا رمزگذار بینایی رو میگیرن و مستقیم میچسبونن به LLM اصلی! بدون اینکه LLM نیاز به آموزش داشته باشه
نکته: نماد (❄️)Freeze نشان میده که وزن های این رمزگذار در طول این فرایند به روز نمی شوند در واقع از قبل آموزش دیده و ثابت است.
نماد Traing (🔥) نشان دهنده که این مدل خاص در حال آموزش است.
https://arxiv.org/abs/2505.22664
Link github : https://github.com/facebookresearch/zero
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
توی یه مقاله جدید یه روش خیلی جالب پیشنهاد شده به اسم:
Zero-Shot Vision Encoder Grafting
ایدهش اینه:
میان یه مدل کوچیک درست میکنن (بهش میگن surrogate) که از لایههای ابتدایی همون LLM استفاده میکنه. بعد یه رمزگذار بینایی (Vision Encoder) رو روی این مدل کوچیک آموزش میدن.
📌 حالا رمزگذار بینایی رو میگیرن و مستقیم میچسبونن به LLM اصلی! بدون اینکه LLM نیاز به آموزش داشته باشه
نکته: نماد (❄️)Freeze نشان میده که وزن های این رمزگذار در طول این فرایند به روز نمی شوند در واقع از قبل آموزش دیده و ثابت است.
نماد Traing (🔥) نشان دهنده که این مدل خاص در حال آموزش است.
https://arxiv.org/abs/2505.22664
Link github : https://github.com/facebookresearch/zero
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
انتشار مدلهای هوش مصنوعی گوگل برای تحلیل متون و تصاویر پزشکی
▪️ گوگل مدلهای جدیدی به نام #MedGemma را معرفی کرده است که به منظور پشتیبانی از تحلیل متون و تصاویر #پزشکی طراحی شدهاند. این مدلهای متنباز، بر اساس معماری Gemma 3 ساخته شده و در دو نسخه ارائه میشوند: MedGemma 4B که مدل چندوجهی برای پردازش همزمان تصویر و متن است و MedGemma 27B که بر تحلیل متون پزشکی متمرکز است. این مدلها به کاربران حوزه بهداشت و درمان کمک میکنند تا تحلیل کارآمدتری از دادههای پزشکی داشته باشند.
https://www.infoq.com/news/2025/05/google-medgemma/?utm_campaign=infoq_content&utm_source=infoq&utm_medium=feed&utm_term=AI%2C+ML+%26+Data+Engineering
github : https://github.com/google-health/medgemma
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
▪️ گوگل مدلهای جدیدی به نام #MedGemma را معرفی کرده است که به منظور پشتیبانی از تحلیل متون و تصاویر #پزشکی طراحی شدهاند. این مدلهای متنباز، بر اساس معماری Gemma 3 ساخته شده و در دو نسخه ارائه میشوند: MedGemma 4B که مدل چندوجهی برای پردازش همزمان تصویر و متن است و MedGemma 27B که بر تحلیل متون پزشکی متمرکز است. این مدلها به کاربران حوزه بهداشت و درمان کمک میکنند تا تحلیل کارآمدتری از دادههای پزشکی داشته باشند.
https://www.infoq.com/news/2025/05/google-medgemma/?utm_campaign=infoq_content&utm_source=infoq&utm_medium=feed&utm_term=AI%2C+ML+%26+Data+Engineering
github : https://github.com/google-health/medgemma
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
طراحی و تجسم معماری شبکههای عصبی همیشه یکی از سختترین بخشهای یادگیری عمیق بوده! 🎯
💡 اگه دنبال ابزارهایی هستی که باهاشون بتونی معماری مدلهات رو ویژوالایز یا طراحی کنی (مخصوصاً برای مستندات، ارائه، یا مقالات علمی)، ریپو زیر رو از دست ندهید:
https://github.com/ashishpatel26/Tools-to-Design-or-Visualize-Architecture-of-Neural-Network
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💡 اگه دنبال ابزارهایی هستی که باهاشون بتونی معماری مدلهات رو ویژوالایز یا طراحی کنی (مخصوصاً برای مستندات، ارائه، یا مقالات علمی)، ریپو زیر رو از دست ندهید:
https://github.com/ashishpatel26/Tools-to-Design-or-Visualize-Architecture-of-Neural-Network
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این لیست پخش تمام مقالات مهم در یادگیری تقویتی (Reinforcement Learning) را توضیح میدهد.
https://www.youtube.com/playlist?list=PL1v8zpldgH3rJk6UKP_npByDuE7v1WSdt
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://www.youtube.com/playlist?list=PL1v8zpldgH3rJk6UKP_npByDuE7v1WSdt
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🚀 با Apache Airflow، جریانهای کاری پیچیده رو بهسادگی مدیریت و خودکارسازی کن!
ابزار متنبازی که در صنعت حرف اول رو میزنه.
https://github.com/apache/airflow
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ابزار متنبازی که در صنعت حرف اول رو میزنه.
https://github.com/apache/airflow
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎉 تبریک میگم به همهی دوستانی که امسال در کنکور ارشد کامپیوتر قبول شدن و وارد مسیر جدیدی از زندگی علمیشون شدن! این موفقیت شیرین رو بهتون تبریک میگم و امیدوارم ادامهی راهتون پر از رشد و موفقیت باشه. 👩💻👨💻
اما یه دلگرمی هم بدم به اونایی که به نتیجه دلخواهشون نرسیدن — مثل خود من. 🤝 بدون شک سخت تلاش کردیم، ولی مسیر رقابت هر سال داره سختتر میشه، مخصوصاً در رشته کامپیوتر که روزبهروز متقاضیهاش بیشتر و قویتر میشن.
💡 یه نکته مهم:
اگه هدفتون قبولی در دانشگاههای تاپ هست، برای سال آینده باید با برنامهریزی بهتر و زمان بیشتری وارد میدان بشید. این رقابت دیگه معمولی نیست! 🔥
با امید به موفقیتهای بزرگتر برای همهمون 💪🌱
اما یه دلگرمی هم بدم به اونایی که به نتیجه دلخواهشون نرسیدن — مثل خود من. 🤝 بدون شک سخت تلاش کردیم، ولی مسیر رقابت هر سال داره سختتر میشه، مخصوصاً در رشته کامپیوتر که روزبهروز متقاضیهاش بیشتر و قویتر میشن.
💡 یه نکته مهم:
اگه هدفتون قبولی در دانشگاههای تاپ هست، برای سال آینده باید با برنامهریزی بهتر و زمان بیشتری وارد میدان بشید. این رقابت دیگه معمولی نیست! 🔥
با امید به موفقیتهای بزرگتر برای همهمون 💪🌱
تبدیل صدا به متن را بهسادگی با مدل قدرتمند و متنباز تشخیص گفتار OpenAI انجام دهید.
https://github.com/openai/whisper
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://github.com/openai/whisper
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📊 گزارش وضعیت هوش مصنوعی در چین - سهماهه دوم ۲۰۲۵
منتشر شده توسط: Artificial Analysis 🇨🇳
چین همچنان با سرعت بالا در حال پیشروی در رقابت جهانی هوش مصنوعیست و دستکم ۱۰ لابراتوار فعال در این حوزه داره که همگی مدلهایی با امتیاز هوشی بالا تولید میکنن! 🚀
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
منتشر شده توسط: Artificial Analysis 🇨🇳
چین همچنان با سرعت بالا در حال پیشروی در رقابت جهانی هوش مصنوعیست و دستکم ۱۰ لابراتوار فعال در این حوزه داره که همگی مدلهایی با امتیاز هوشی بالا تولید میکنن! 🚀
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎓 یه دوره رایگان و خیلی خوب از دانشگاه واترلو برای کسایی که میخوان مدلهای زبانی (LLM) رو از پایه یاد بگیرن!
از مفاهیم اولیه مثل RNN و NLP تا ساخت ترنسفورمر و آموزش مدل 🚀
اگه به یادگیری عمیق و هوش مصنوعی علاقه داری، این دوره یه شروع فوقالعادهست!
https://www.youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_
schedule : https://stanford-cs336.github.io/spring202
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
از مفاهیم اولیه مثل RNN و NLP تا ساخت ترنسفورمر و آموزش مدل 🚀
اگه به یادگیری عمیق و هوش مصنوعی علاقه داری، این دوره یه شروع فوقالعادهست!
https://www.youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_
schedule : https://stanford-cs336.github.io/spring202
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔗 اتصال هر LLM به هر سرور MCP!
🛠 در واقع MCP-Use یک ابزار متنباز و قدرتمنده که به شما این امکان رو میده تا هر مدل زبانی (LLM) رو به هر سرور MCP متصل کنید و ایجنتهای سفارشی با دسترسی به ابزار بسازید — بدون نیاز به کلاینتهای بسته یا اپلیکیشنهای اختصاصی! 😎
✅ ساخت کلاینتهای کاملاً لوکال
✅ بدون وابستگی به کدهای بسته
✅ مناسب برای توسعهدهندههایی که به کنترل کامل روی زیرساخت اهمیت میدن
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🛠 در واقع MCP-Use یک ابزار متنباز و قدرتمنده که به شما این امکان رو میده تا هر مدل زبانی (LLM) رو به هر سرور MCP متصل کنید و ایجنتهای سفارشی با دسترسی به ابزار بسازید — بدون نیاز به کلاینتهای بسته یا اپلیکیشنهای اختصاصی! 😎
✅ ساخت کلاینتهای کاملاً لوکال
✅ بدون وابستگی به کدهای بسته
✅ مناسب برای توسعهدهندههایی که به کنترل کامل روی زیرساخت اهمیت میدن
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
"THINK-ON-GRAPH: Deep and Responsible Reasoning of Large Language Models on Knowledge Graphs"
این مقاله روش خفنی به نام گرافهای دانش (Knowledge Graph)معرفی میکند:
🔍 مثال قشنگی هم زده:
سؤال اینه که «حزب اکثریت در کشوری که شهر Canberra توشه چیه؟»
سه روش مختلف برای جواب دادن بررسی شدن:
1️⃣ مدل تنها (LLM-only):
فقط از اطلاعات خود مدل استفاده میکنه. مثلاً میگه تا ۲۰۲۱ نخستوزیر استرالیا فلانی بوده، پس حزبش فلان بوده.
✅ مشکل؟ اطلاعاتش قدیمیه یا ناقصه، جواب اشتباه میده!
2️⃣ مدل + گراف دانش (LLM + KG):
مدل سعی میکنه با زبان SPARQL از گراف سوال بپرسه. اما گراف اطلاعات لازم رو نداره یا مدل بلد نیست خوب بپرسه.
⛔️ نتیجه؟ باز هم نمیتونه جواب بده!
3️⃣ ✅ Think-on-Graph (LLM ⊗ KG):
مدل مرحله به مرحله «فکر میکنه» روی گراف!
مثلاً اول بررسی میکنه Canberra پایتخت چیه، بعد میره ببینه نخستوزیر استرالیا کیه، بعد از اطلاعات خودش (یا گراف) درمیاره که اون عضو حزب Labor هست.
نتیجه؟ جواب درسته و منطقیه! 🎯
https://arxiv.org/abs/2307.07697
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این مقاله روش خفنی به نام گرافهای دانش (Knowledge Graph)معرفی میکند:
🔍 مثال قشنگی هم زده:
سؤال اینه که «حزب اکثریت در کشوری که شهر Canberra توشه چیه؟»
سه روش مختلف برای جواب دادن بررسی شدن:
1️⃣ مدل تنها (LLM-only):
فقط از اطلاعات خود مدل استفاده میکنه. مثلاً میگه تا ۲۰۲۱ نخستوزیر استرالیا فلانی بوده، پس حزبش فلان بوده.
✅ مشکل؟ اطلاعاتش قدیمیه یا ناقصه، جواب اشتباه میده!
2️⃣ مدل + گراف دانش (LLM + KG):
مدل سعی میکنه با زبان SPARQL از گراف سوال بپرسه. اما گراف اطلاعات لازم رو نداره یا مدل بلد نیست خوب بپرسه.
⛔️ نتیجه؟ باز هم نمیتونه جواب بده!
3️⃣ ✅ Think-on-Graph (LLM ⊗ KG):
مدل مرحله به مرحله «فکر میکنه» روی گراف!
مثلاً اول بررسی میکنه Canberra پایتخت چیه، بعد میره ببینه نخستوزیر استرالیا کیه، بعد از اطلاعات خودش (یا گراف) درمیاره که اون عضو حزب Labor هست.
نتیجه؟ جواب درسته و منطقیه! 🎯
https://arxiv.org/abs/2307.07697
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
اگر به یادگیری ماشین علاقهمند هستید، پروژهی «100 روز کدنویسی یادگیری ماشین» از Avik Jain یک مسیر منظم و عملی برای تسلط بر مفاهیم آن ارائه میدهد. این پروژه شامل آموزشهای روزانه با کدهای پایتون و توضیحات مفهومی است.
https://github.com/Avik-Jain/100-Days-Of-ML-Code
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://github.com/Avik-Jain/100-Days-Of-ML-Code
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎓 دنبال یه منبع قوی و رایگان برای شروع یادگیری مدلهای بنیادین LLM هستی؟
این دوره رایگان از دانشگاه واترلو دقیقاً همونه که لازم داری!
هم مفاهیم پایه رو پوشش میده، هم به موضوعات پیشرفته وارد میشه. 👇
📚 توی این دوره یاد میگیری:
🔹 مفاهیم پایهای RNN، CNN، NLP و بینایی کامپیوتری (CV)
🔹 مکانیزم attention و ساختار Transformer
🔹 آموزش اولیه مدلها (Pretraining) و روشهای تنظیم پارامترها (PEFT)
🔹 و کلی مطالب پیشرفته دیگه برای فهم بهتر LLMها!
https://cs.uwaterloo.ca/~wenhuche/teaching/cs886/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این دوره رایگان از دانشگاه واترلو دقیقاً همونه که لازم داری!
هم مفاهیم پایه رو پوشش میده، هم به موضوعات پیشرفته وارد میشه. 👇
📚 توی این دوره یاد میگیری:
🔹 مفاهیم پایهای RNN، CNN، NLP و بینایی کامپیوتری (CV)
🔹 مکانیزم attention و ساختار Transformer
🔹 آموزش اولیه مدلها (Pretraining) و روشهای تنظیم پارامترها (PEFT)
🔹 و کلی مطالب پیشرفته دیگه برای فهم بهتر LLMها!
https://cs.uwaterloo.ca/~wenhuche/teaching/cs886/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔹 آیا میتونید فرق انسان و هوش مصنوعی رو تشخیص بدید؟
در سهماهه اول ۲۰۲۵، توی آزمایشهای شبیه تورینگ، افراد در ۷۳٪ مواقع پاسخ چتباتهای هوش مصنوعی رو با انسان اشتباه گرفتن!
تنها ۶ ماه پیش این عدد حدود ۵۰٪ بود!
🔍 پیشرفت هوش مصنوعی در تقلید گفتوگوی انسانی با سرعت خیرهکنندهای داره جلو میره...
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
در سهماهه اول ۲۰۲۵، توی آزمایشهای شبیه تورینگ، افراد در ۷۳٪ مواقع پاسخ چتباتهای هوش مصنوعی رو با انسان اشتباه گرفتن!
تنها ۶ ماه پیش این عدد حدود ۵۰٪ بود!
🔍 پیشرفت هوش مصنوعی در تقلید گفتوگوی انسانی با سرعت خیرهکنندهای داره جلو میره...
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Media is too big
VIEW IN TELEGRAM
🎯 AgenticSeek: دستیار هوش مصنوعی ۱۰۰٪ لوکال و خصوصی
🧠 مرور وب، کدنویسی، برنامهریزی و اجرای کارها بهصورت کاملاً خودکار — بدون وابستگی به فضای ابری
🔒 همه دادهها فقط روی دستگاه شما
🎙 پشتیبانی از فرمان صوتی، مثل یک AI آیندهنگر در فیلمها
👨💻 انتخاب هوشمند عامل مناسب برای هر کار
🌐 مناسب برای مدلهای reasoning محلی و بدون نیاز به API
https://github.com/Fosowl/agenticSeek
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🧠 مرور وب، کدنویسی، برنامهریزی و اجرای کارها بهصورت کاملاً خودکار — بدون وابستگی به فضای ابری
🔒 همه دادهها فقط روی دستگاه شما
🎙 پشتیبانی از فرمان صوتی، مثل یک AI آیندهنگر در فیلمها
👨💻 انتخاب هوشمند عامل مناسب برای هر کار
🌐 مناسب برای مدلهای reasoning محلی و بدون نیاز به API
https://github.com/Fosowl/agenticSeek
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer