در این مجموعه ویدیوها، به صورت ساده و کاربردی نحوه استفاده و تنظیم (tuning) مدلهای LLM با استفاده از زبان برنامهنویسی Python آموزش داده شده است. این دوره به شکلی طراحی شده که شما بتوانید به راحتی با ابزارهای مربوطه کار کرده و به طور عملی مهارتهای لازم را کسب کنید.
سرفصلهای این دوره شامل موارد زیر است:
11. مقدمهای بر LLMها
2. کار با ابزارهای Transformers برای شروع استفاده از مدلهای زبانی
3. مهندسی Prompt برای بهبود تعامل با مدلها
4. ساخت خودکار Prompt و بهینهسازی آن
5. مبحث In-Context Learning برای یادگیری در بستر ورودیها
6. مبحث Retrieval Augmented Generation (RAG) و کار با vectorDBها
7. مبحث Fine-tuningو تنظیم Alignment مدلها روی دادههای جدید
8. بررسی روشهای ارزیابی کیفیت مدلهای LLM
این دوره برای کسانی که به دنبال یادگیری عملی و کاربردی در زمینه مدلهای زبانی هستند، بسیار مفید خواهد بود.
Link course : https://www.youtube.com/playlist?list=PLHldQ76_k1klWQE7GyGfLH6m4iHOdVogN
Linl code : https://github.com/aix64-main/LLMs
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
سرفصلهای این دوره شامل موارد زیر است:
11. مقدمهای بر LLMها
2. کار با ابزارهای Transformers برای شروع استفاده از مدلهای زبانی
3. مهندسی Prompt برای بهبود تعامل با مدلها
4. ساخت خودکار Prompt و بهینهسازی آن
5. مبحث In-Context Learning برای یادگیری در بستر ورودیها
6. مبحث Retrieval Augmented Generation (RAG) و کار با vectorDBها
7. مبحث Fine-tuningو تنظیم Alignment مدلها روی دادههای جدید
8. بررسی روشهای ارزیابی کیفیت مدلهای LLM
این دوره برای کسانی که به دنبال یادگیری عملی و کاربردی در زمینه مدلهای زبانی هستند، بسیار مفید خواهد بود.
Link course : https://www.youtube.com/playlist?list=PLHldQ76_k1klWQE7GyGfLH6m4iHOdVogN
Linl code : https://github.com/aix64-main/LLMs
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Media is too big
VIEW IN TELEGRAM
Graphs In Data Structures | Graph Representation In Data Structure | Data Structures | Simplilearn
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
Forwarded from Silicon Brain | جامعه هوش مصنوعی
آیا واقعا میشه LLM هارو روی گوشی بالا اورد؟
امیدوارم نگی که من همین الانشم با گوشی از ChatGPT استفاده میکنم که دلم میشکنه 😕
در واقع اینجا منظور ما استفاده از
آیا مدل Llama-7B رو میشه روی گوشی استفاده کرد؟ گوشی های امروزی میانگین 8 گیگ رم (DRAM) دارن، این یعنی یک مدل با 7 میلیارد وزن رو میشه تو 7 گیگ رم ذخیره کرد. الان شاید بگی چقدر عالی 1 گیگ رم هم اضافه داریم 😂
ولی نه از اونجایی سیستم عامل و خیلی از اپلیکیشن های دیگه باید رو رم اجرا بشن پس این چالش انگیزهای هست که مدلهای LLM کوچکتر (پارامترهای کمتر) ساخته بشه و میزان پارامتر ها خیلی کمتر بشه طبق استاندارد ها یک اَپ موبایل نباید بیشتر از 10% DRAM رو اشغال کنه
چند روز پیش تو این پست مدل سبک جدید Llama3.2 رو معرفی کردیم. که با دو وزن 1 و 3 میلیارد پارامتری ارائه شده.
اگه بخواییم مدل Llama3.2 با 1 میلیارد پارامتر رو رو گوشی سرو کنیم منطقی تر هست اما باز 1 میلیارد عدد قابل توجهی هست و برای همین تو این مقاله با عنوان:
لینک مقاله | هاگینگ فیس
اومدن تعداد پارامترها رو کمتر هم کردن و یک مدل اصطلاحا Small Language Model درست کردن که مفهومی به اسم Sub-billion Parameter Language Models داره یعنی این مدل به بزرگی مدلهای LLM بیلیونری مانند Llama و GPT-4 و غیره نیست و 125 و 350 میلیون پارامتر داره
در ادامه باید بدونید از چالش های ساختن یک مدل LLM خیلی سبک وزن، به رم محدود نمیشه و میزان مصرف باتری، سرعت Generate مدل و معماری استفاده در مدل هم تاثیر زیادی دارن که میتونه موضوع تحقیقات شما باشه (به زودی در مورد اینا هم مینویسم)
@silicon_brain | از هوش مصنوعی عقب نمانید
امیدوارم نگی که من همین الانشم با گوشی از ChatGPT استفاده میکنم که دلم میشکنه 😕
در واقع اینجا منظور ما استفاده از
On-Device Use Cases
هست که محاسبات و پردازش دادهها بهصورت مستقیم رو خود دستگاه انجام میشه. و نیازی به استفاده از سرویس ابری نیست. آیا مدل Llama-7B رو میشه روی گوشی استفاده کرد؟ گوشی های امروزی میانگین 8 گیگ رم (DRAM) دارن، این یعنی یک مدل با 7 میلیارد وزن رو میشه تو 7 گیگ رم ذخیره کرد. الان شاید بگی چقدر عالی 1 گیگ رم هم اضافه داریم 😂
ولی نه از اونجایی سیستم عامل و خیلی از اپلیکیشن های دیگه باید رو رم اجرا بشن پس این چالش انگیزهای هست که مدلهای LLM کوچکتر (پارامترهای کمتر) ساخته بشه و میزان پارامتر ها خیلی کمتر بشه طبق استاندارد ها یک اَپ موبایل نباید بیشتر از 10% DRAM رو اشغال کنه
چند روز پیش تو این پست مدل سبک جدید Llama3.2 رو معرفی کردیم. که با دو وزن 1 و 3 میلیارد پارامتری ارائه شده.
اگه بخواییم مدل Llama3.2 با 1 میلیارد پارامتر رو رو گوشی سرو کنیم منطقی تر هست اما باز 1 میلیارد عدد قابل توجهی هست و برای همین تو این مقاله با عنوان:
MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases
لینک مقاله | هاگینگ فیس
اومدن تعداد پارامترها رو کمتر هم کردن و یک مدل اصطلاحا Small Language Model درست کردن که مفهومی به اسم Sub-billion Parameter Language Models داره یعنی این مدل به بزرگی مدلهای LLM بیلیونری مانند Llama و GPT-4 و غیره نیست و 125 و 350 میلیون پارامتر داره
در ادامه باید بدونید از چالش های ساختن یک مدل LLM خیلی سبک وزن، به رم محدود نمیشه و میزان مصرف باتری، سرعت Generate مدل و معماری استفاده در مدل هم تاثیر زیادی دارن که میتونه موضوع تحقیقات شما باشه (به زودی در مورد اینا هم مینویسم)
@silicon_brain | از هوش مصنوعی عقب نمانید
"حملهی یک پیکسل" (One Pixel Attack) به نقطهضعفی در شبکههای عصبی اشاره دارد که با تغییر تنها یک پیکسل در تصویر، مدل دچار اشتباه در تشخیص (misclassification) میشود. برای مثال، یک شبکهی عصبی ممکن است با تغییر کوچک یک پیکسل در تصویر، آن را اشتباه دستهبندی کند، حتی اگر تغییر بسیار جزئی باشد. این مشکل، بهویژه در کاربردهای امنیتی، نگرانیهایی ایجاد میکند. یکی از راهکارها استفاده از روشهای بهینهسازی مانند "تکامل تفاضلی" (Differential Evolution) است که به شبکه کمک میکند تا در برابر این حملات مقاومتر شود. با اضافه کردن یک بردار به ورودی، حساسیت شبکه نسبت به این تغییرات کاهش پیدا میکند و باعث میشود که شبکه در مواجهه با چنین حملاتی پایدارتر عمل کند.
Paper : https://arxiv.org/abs/1710.08864
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Paper : https://arxiv.org/abs/1710.08864
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ساختمان داده.PDF
81.8 MB
📘 جزوه دستنویس کامل درس ساختمان داده از استاد راعی دانشگاه صنعتی امیرکبیر
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
🔹 ربات Optimus توسط تسلا طراحی شده تا وظایف تکراری و کارهای فیزیکی یا خطرناک رو بر عهده بگیره. این ربات انساننما از هوش مصنوعی و بینایی کامپیوتر بهره میبره تا محیطش رو شناسایی کنه و به طور مستقل کارها رو انجام بده. Optimus میتونه هم در صنعت و هم در خانه کمکرسان باشه و به آیندهای هوشمندتر نزدیکترمون کنه.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
درک ماتریس سردرگمی به خاطر اهمیتش در ارزیابی مدلهای یادگیری ماشین واقعاً ارزشش رو داره، چون میتونه دید واضحی از عملکرد مدل ارائه بده.
یک بار برای همیشه بیایم قدمبهقدم بررسی کنیم:
1️⃣مثبت واقعی (True Positive - TP): وقتی که مقدار واقعی مثبت هست و مدل هم به درستی اون رو مثبت پیشبینی کرده. این نتیجهای هست که دنبالش هستیم، مثل تشخیص صحیح بیماری در یک مدل پزشکی.
2️⃣مثبت کاذب (False Positive - FP): جایی که مدل اشتباه کرده و یک نتیجه مثبت ارائه داده در حالی که مقدار واقعی منفی بوده. این همون خطای نوع اول (Type I Error) هست. مثل اینکه به فرد سالم بگه که بیمار هست.
3️⃣منفی واقعی (True Negative - TN): این مورد یعنی مقدار واقعی منفی هست و مدل هم به درستی اونو منفی پیشبینی کرده. مثلاً به فرد سالم به درستی بگه که سالمه.
4️⃣منفی کاذب (False Negative - FN): وقتی مدل به اشتباه یک مورد مثبت رو منفی شناسایی کنه. این همون خطای نوع دوم (Type II Error) هست. مثلاً وقتی که به فرد بیمار بگه سالمه.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
یک بار برای همیشه بیایم قدمبهقدم بررسی کنیم:
1️⃣مثبت واقعی (True Positive - TP): وقتی که مقدار واقعی مثبت هست و مدل هم به درستی اون رو مثبت پیشبینی کرده. این نتیجهای هست که دنبالش هستیم، مثل تشخیص صحیح بیماری در یک مدل پزشکی.
2️⃣مثبت کاذب (False Positive - FP): جایی که مدل اشتباه کرده و یک نتیجه مثبت ارائه داده در حالی که مقدار واقعی منفی بوده. این همون خطای نوع اول (Type I Error) هست. مثل اینکه به فرد سالم بگه که بیمار هست.
3️⃣منفی واقعی (True Negative - TN): این مورد یعنی مقدار واقعی منفی هست و مدل هم به درستی اونو منفی پیشبینی کرده. مثلاً به فرد سالم به درستی بگه که سالمه.
4️⃣منفی کاذب (False Negative - FN): وقتی مدل به اشتباه یک مورد مثبت رو منفی شناسایی کنه. این همون خطای نوع دوم (Type II Error) هست. مثلاً وقتی که به فرد بیمار بگه سالمه.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
All Cheay Sheets.pdf
7.5 MB
All Cheat Sheets Machine Learning , Deep Learning , Artificial Intelligence
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
تفکر در مورد حل مسائل به روش بازگشتی نیازمند فهمیدن این است که چگونه میتوان مسئله را به زیرمسائل کوچکتر تقسیم کرد و این روند را تا رسیدن به سادهترین حالت ادامه داد. در اینجا چند مرحله و نکته برای فکر کردن به مسائل بازگشتی آورده شده:
1. تعریف پایه (Base Case):
ابتدا باید بفهمید سادهترین حالتی که برای مسئله وجود دارد چیست. این حالت پایه به بازگشت پایان میدهد. اگر حالت پایه را بهدرستی تعریف نکنید، ممکن است کد شما به بینهایت تکرار برود. مثلاً، برای مسئله فاکتوریل، حالت پایه n = 0 است، زیرا 0! = 1 است و نیازی به محاسبات بیشتر نیست.
2. تقسیم مسئله (Divide the Problem):
به مسئله بهعنوان یک ترکیب از زیرمسائل نگاه کنید. ببینید که آیا میتوانید مسئله بزرگتر را به یک یا چند زیرمسئله کوچکتر تبدیل کنید. به عنوان مثال، در فاکتوریل n! = n - (n-1)! نشان میدهد که فاکتوریل n به فاکتوریل یک عدد کوچکتر، یعنی n-1 ، وابسته است.
3. قانون بازگشتی (Recursive Case):
پس از تعریف پایه، مرحلهی بازگشت را مشخص کنید. این بخش همان قسمتی است که مسئلهی بزرگتر را به یک نسخهی کوچکتر از خودش میشکند و سپس از همان تابع برای حل آن استفاده میکند. هر بار که تابع فراخوانی میشود، یکی از زیرمسائل حل میشود.
4. تصویر ذهنی از پشتهی فراخوانی (Call Stack):
هنگام کار با بازگشت، به یاد داشته باشید که هر بار که یک تابع بازگشتی فراخوانی میشود، وضعیت فعلی تابع در پشته ذخیره میشود و سپس پس از اتمام بازگشتها از پشته خارج میشود. این کمک میکند که وضعیت هر مرحله حفظ شود. بهعنوان مثال، در مسئله هانوی، هر حرکت بین میلهها در پشته ذخیره میشود تا در پایان به راهحل کلی برسیم.
5. حل با مثالهای کوچک:
برای درک بهتر، ابتدا مسئله را با نمونههای کوچک حل کنید. مثلاً در یک تابع بازگشتی فیبوناچی، ابتدا F(2) ، سپس F(3) و به همین ترتیب تا رسیدن به جواب بزرگتر حل کنید تا الگوی حل بازگشتی مشخص شود.
6. قابلیت یادگیری (Memoization) برای بهینهسازی:
گاهی بازگشت به تکرار زیاد منجر میشود، مانند محاسبهی فیبوناچی که نیاز به محاسبه چندباره اعداد دارد. در این موارد میتوانید از تکنیک یادگیری (Memoization) استفاده کنید تا نتایج قبلی را ذخیره کرده و از دوبارهکاری جلوگیری کنید.
7. محدودیتهای بازگشت (Limitations of Recursion):
همیشه توجه داشته باشید که بازگشت در مسائل با عمق زیاد، میتواند منجر به پر شدن پشته شود و خطای Stack Overflow ایجاد کند. بنابراین در مسائل پیچیده باید دقت کنید که آیا بازگشت مناسبترین روش است یا میتوان از تکرار استفاده کرد.
در نهایت، با تمرین و تحلیل بیشتر روی مسائل مختلف، درک بهتری از کاربرد بازگشت پیدا میکنید و میتوانید الگوهای بازگشتی را راحتتر شناسایی کنید.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
1. تعریف پایه (Base Case):
ابتدا باید بفهمید سادهترین حالتی که برای مسئله وجود دارد چیست. این حالت پایه به بازگشت پایان میدهد. اگر حالت پایه را بهدرستی تعریف نکنید، ممکن است کد شما به بینهایت تکرار برود. مثلاً، برای مسئله فاکتوریل، حالت پایه n = 0 است، زیرا 0! = 1 است و نیازی به محاسبات بیشتر نیست.
2. تقسیم مسئله (Divide the Problem):
به مسئله بهعنوان یک ترکیب از زیرمسائل نگاه کنید. ببینید که آیا میتوانید مسئله بزرگتر را به یک یا چند زیرمسئله کوچکتر تبدیل کنید. به عنوان مثال، در فاکتوریل n! = n - (n-1)! نشان میدهد که فاکتوریل n به فاکتوریل یک عدد کوچکتر، یعنی n-1 ، وابسته است.
3. قانون بازگشتی (Recursive Case):
پس از تعریف پایه، مرحلهی بازگشت را مشخص کنید. این بخش همان قسمتی است که مسئلهی بزرگتر را به یک نسخهی کوچکتر از خودش میشکند و سپس از همان تابع برای حل آن استفاده میکند. هر بار که تابع فراخوانی میشود، یکی از زیرمسائل حل میشود.
4. تصویر ذهنی از پشتهی فراخوانی (Call Stack):
هنگام کار با بازگشت، به یاد داشته باشید که هر بار که یک تابع بازگشتی فراخوانی میشود، وضعیت فعلی تابع در پشته ذخیره میشود و سپس پس از اتمام بازگشتها از پشته خارج میشود. این کمک میکند که وضعیت هر مرحله حفظ شود. بهعنوان مثال، در مسئله هانوی، هر حرکت بین میلهها در پشته ذخیره میشود تا در پایان به راهحل کلی برسیم.
5. حل با مثالهای کوچک:
برای درک بهتر، ابتدا مسئله را با نمونههای کوچک حل کنید. مثلاً در یک تابع بازگشتی فیبوناچی، ابتدا F(2) ، سپس F(3) و به همین ترتیب تا رسیدن به جواب بزرگتر حل کنید تا الگوی حل بازگشتی مشخص شود.
6. قابلیت یادگیری (Memoization) برای بهینهسازی:
گاهی بازگشت به تکرار زیاد منجر میشود، مانند محاسبهی فیبوناچی که نیاز به محاسبه چندباره اعداد دارد. در این موارد میتوانید از تکنیک یادگیری (Memoization) استفاده کنید تا نتایج قبلی را ذخیره کرده و از دوبارهکاری جلوگیری کنید.
7. محدودیتهای بازگشت (Limitations of Recursion):
همیشه توجه داشته باشید که بازگشت در مسائل با عمق زیاد، میتواند منجر به پر شدن پشته شود و خطای Stack Overflow ایجاد کند. بنابراین در مسائل پیچیده باید دقت کنید که آیا بازگشت مناسبترین روش است یا میتوان از تکرار استفاده کرد.
در نهایت، با تمرین و تحلیل بیشتر روی مسائل مختلف، درک بهتری از کاربرد بازگشت پیدا میکنید و میتوانید الگوهای بازگشتی را راحتتر شناسایی کنید.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
🌐 شبکههای عصبی گرافی (GNN) 🌐
شبکههای عصبی گرافی یک ابزار قدرتمند برای پردازش دادههای ساختاریافته به شکل گراف هستند و در کاربردهای بسیاری مانند شبکههای اجتماعی، شیمی، و تحلیل رفتار کاربر استفاده میشوند. برای آشنایی بیشتر با مفاهیم و روشهای پیادهسازی GNN و دسترسی به آخرین منابع تحقیقاتی، پیشنهاد میکنم به لینک زیر مراجعه کنید:
https://distill.pub/2021/gnn-intro/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
شبکههای عصبی گرافی یک ابزار قدرتمند برای پردازش دادههای ساختاریافته به شکل گراف هستند و در کاربردهای بسیاری مانند شبکههای اجتماعی، شیمی، و تحلیل رفتار کاربر استفاده میشوند. برای آشنایی بیشتر با مفاهیم و روشهای پیادهسازی GNN و دسترسی به آخرین منابع تحقیقاتی، پیشنهاد میکنم به لینک زیر مراجعه کنید:
https://distill.pub/2021/gnn-intro/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🌟 عنوان مقاله:
"Masked Autoencoders Are Scalable Vision Learners"
🧩 MAE Architecture:
در این معماری، در مرحلهی pre-training، حدود ۷۵٪ از image patches بهطور تصادفی ماسک میشوند و تنها زیرمجموعهای از visible patches به encoder داده میشود. پس از encoding، mask tokens اضافه شده و همراه با encoded patches، به decoder ارسال میشوند تا تصویر اصلی در سطح pixel بازسازی شود. پس از اتمام pre-training، decoder کنار گذاشته میشود و encoder برای انجام recognition tasks بر روی تصاویر کامل استفاده میشود.
Paper:https://arxiv.org/abs/2111.06377
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
"Masked Autoencoders Are Scalable Vision Learners"
🧩 MAE Architecture:
در این معماری، در مرحلهی pre-training، حدود ۷۵٪ از image patches بهطور تصادفی ماسک میشوند و تنها زیرمجموعهای از visible patches به encoder داده میشود. پس از encoding، mask tokens اضافه شده و همراه با encoded patches، به decoder ارسال میشوند تا تصویر اصلی در سطح pixel بازسازی شود. پس از اتمام pre-training، decoder کنار گذاشته میشود و encoder برای انجام recognition tasks بر روی تصاویر کامل استفاده میشود.
Paper:https://arxiv.org/abs/2111.06377
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Signals and Systems.rar
76 MB
🔹 سیگنال و سیستم یکی از دروس بنیادی در رشتههای برق و کامپیوتره که مفاهیمش توی بسیاری از حوزهها کاربرد داره. برای مثال، ایدهی کانولوشن در شبکههای عصبی کانولوشنی (CNN) که بهصورت گسترده در پردازش تصویر استفاده میشه، از همین درس سرچشمه گرفته. بنابراین، یادگیری دقیق این درس میتونه پایه خوبی برای درک عمیقتر مباحث پیچیدهتر باشه.
جزوه: دکتر ثریا رستگار
دانشگاه ایلام 📘💡
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
جزوه: دکتر ثریا رستگار
دانشگاه ایلام 📘💡
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
🔹 اخیراً الگوریتمی برای تشخیص ارقام دستنویس از صفر و تنها با استفاده از Numpy پیادهسازی شده، بدون اینکه از کتابخانههای پیشرفتهای مثل TensorFlow یا PyTorch کمک گرفته بشه. این پروژه تجربهای عملی و عمیق در اصول یادگیری عمیق بود و به درک بهتر مفاهیمی همچون شبکههای عصبی، پسانتشار خطا و نزول گرادیان دستهای کمک کرد.
🔹 یکی از ویژگیهای جالب این پیادهسازی، ساختار شیءگرا آن است تا نمونههای مختلف با تعداد نورونهای متفاوت ساخته بشه و نتایج را با هم مقایسه کنیم. برای آموزش مدل از دیتاست معروف MNIST استفاده شده که شامل ۶۰,۰۰۰ تصویر آموزشی و ۱۰,۰۰۰ تصویر تست است.
این پروژه به من یادآوری می کند که یادگیری اصولی و پیادهسازی دستی الگوریتمها میتواند پایهای محکم برای درک عمیقتر مفاهیم هوش مصنوعی فراهم کند. 👨💻
link GitHub: https://github.com/filipecostaribeiro/HandwrittenDigitClassifier
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔹 یکی از ویژگیهای جالب این پیادهسازی، ساختار شیءگرا آن است تا نمونههای مختلف با تعداد نورونهای متفاوت ساخته بشه و نتایج را با هم مقایسه کنیم. برای آموزش مدل از دیتاست معروف MNIST استفاده شده که شامل ۶۰,۰۰۰ تصویر آموزشی و ۱۰,۰۰۰ تصویر تست است.
این پروژه به من یادآوری می کند که یادگیری اصولی و پیادهسازی دستی الگوریتمها میتواند پایهای محکم برای درک عمیقتر مفاهیم هوش مصنوعی فراهم کند. 👨💻
link GitHub: https://github.com/filipecostaribeiro/HandwrittenDigitClassifier
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
اگر به دنبال منابعی برای مطالعه درس ساختمان داده و الگوریتم هستید، این راهنماییها میتواند به شما کمک کند تا بهترین کتابها را برای نیازهای خود انتخاب کنید! 📘💻
📚 برای دانشجویانی که فقط به نمره دانشگاه راضی هستند: اگر هدفتان تنها گذراندن درس با نمره خوب است، معمولاً جزوههای استاد کافی خواهند بود. اما اگر به دنبال درک عمیقتری هستید، منابع بیشتری نیز وجود دارد.
🔍 برای آزمونهای استخدامی: اگر هدفتان شرکت در آزمونهای استخدامی است، کتابهای دکتر مقسمی و دکتر هادی یوسفی منابعی عالی هستند. توصیه میکنم که تمام تستهای این کتابها را دونهبهدونه حل کنید تا به تسلط خوبی برسید. 💼📖
📈 برای کنکور و یادگیری پیشرفتهتر:
1. اگر مبتدی هستید: با کتاب دکتر هادی یوسفی شروع کنید. این کتاب برای شروع، منبع مناسبی است و پایههای ساختمان داده و الگوریتم را به خوبی پوشش میدهد. 📗✨
2. برای سطح بالاتر: بعد از کتاب دکتر یوسفی، سراغ کتاب CLRS بروید. این کتاب یک منبع فوقالعاده است که مفاهیم را به عمق و دقت توضیح میدهد. جملهبهجملهی این کتاب را بخوانید و تمریناتش را کامل حل کنید؛ سعی کنید که تا حد ممکن بدون کمک به جواب برسید. این تلاش باعث درک عمیقتر شما از موضوع خواهد شد. 📖💪
3. و در نهایت: اگر به دنبال کتابی پرمحتوا و دقیق هستید که ذهن شما را برای مسائل پیچیده آماده کند، کتاب دکتر محمد قدسی را مطالعه کنید. این کتاب علاوه بر آمادگی برای کنکور، دیدگاه عمیقی نسبت به مفاهیم ساختمان داده و الگوریتم به شما میدهد. 🌟📘
🔔 نکته آخر: ممکن است منابع آموزشی و تستی خوب دیگری هم وجود داشته باشند، اما کتابهایی که معرفی کردم، از نظر نظم مطالب و کیفیت سوالات، برای من بهترین بودند. برای تسلط بر درس ساختمان داده و الگوریتم، حتماً تمرینهای زیادی انجام دهید؛ یک دور مطالعه کافی نیست. ⏳🔍
امیدوارم این توضیحات به شما کمک کند! 🔖 در آینده مطالب بیشتری هم قرار میدهم تا بهتر با این حوزه آشنا شوید. 🚀
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
📚 برای دانشجویانی که فقط به نمره دانشگاه راضی هستند: اگر هدفتان تنها گذراندن درس با نمره خوب است، معمولاً جزوههای استاد کافی خواهند بود. اما اگر به دنبال درک عمیقتری هستید، منابع بیشتری نیز وجود دارد.
🔍 برای آزمونهای استخدامی: اگر هدفتان شرکت در آزمونهای استخدامی است، کتابهای دکتر مقسمی و دکتر هادی یوسفی منابعی عالی هستند. توصیه میکنم که تمام تستهای این کتابها را دونهبهدونه حل کنید تا به تسلط خوبی برسید. 💼📖
📈 برای کنکور و یادگیری پیشرفتهتر:
1. اگر مبتدی هستید: با کتاب دکتر هادی یوسفی شروع کنید. این کتاب برای شروع، منبع مناسبی است و پایههای ساختمان داده و الگوریتم را به خوبی پوشش میدهد. 📗✨
2. برای سطح بالاتر: بعد از کتاب دکتر یوسفی، سراغ کتاب CLRS بروید. این کتاب یک منبع فوقالعاده است که مفاهیم را به عمق و دقت توضیح میدهد. جملهبهجملهی این کتاب را بخوانید و تمریناتش را کامل حل کنید؛ سعی کنید که تا حد ممکن بدون کمک به جواب برسید. این تلاش باعث درک عمیقتر شما از موضوع خواهد شد. 📖💪
3. و در نهایت: اگر به دنبال کتابی پرمحتوا و دقیق هستید که ذهن شما را برای مسائل پیچیده آماده کند، کتاب دکتر محمد قدسی را مطالعه کنید. این کتاب علاوه بر آمادگی برای کنکور، دیدگاه عمیقی نسبت به مفاهیم ساختمان داده و الگوریتم به شما میدهد. 🌟📘
🔔 نکته آخر: ممکن است منابع آموزشی و تستی خوب دیگری هم وجود داشته باشند، اما کتابهایی که معرفی کردم، از نظر نظم مطالب و کیفیت سوالات، برای من بهترین بودند. برای تسلط بر درس ساختمان داده و الگوریتم، حتماً تمرینهای زیادی انجام دهید؛ یک دور مطالعه کافی نیست. ⏳🔍
امیدوارم این توضیحات به شما کمک کند! 🔖 در آینده مطالب بیشتری هم قرار میدهم تا بهتر با این حوزه آشنا شوید. 🚀
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
بهترین دانشگاههای جهان مجموعه وسیعی از دورههای رایگان در حوزه علم داده ارائه میدهند.
در ادامه، ۲۰ دوره رایگان در علم داده که توسط دانشگاههای معتبر ماساچوست (MIT)، استنفورد و هاروارد ارائه شدهاند، فهرست شدهاند.
1. Introduction to Computer Science and Programming Using Python (MIT)
https://ocw.mit.edu/courses/6-00sc-introduction-to-computer-science-and-programming-spring-2011/
2. Introduction to Computational Thinking and Data Science (MIT)
https://ocw.mit.edu/courses/6-0002-introduction-to-computational-thinking-and-data-science-fall-2016/
3. The Analytics Edge (MIT)
https://ocw.mit.edu/courses/15-071-the-analytics-edge-spring-2017/
4. Machine Learning (MIT)
https://ocw.mit.edu/courses/6-867-machine-learning-fall-2006/
5. Introduction to Deep Learning (MIT)
http://introtodeeplearning.com/
6. Artificial Intelligence (MIT)
https://ocw.mit.edu/courses/6-034-artificial-intelligence-fall-2010/
7. Optimization Methods (MIT)
https://ocw.mit.edu/courses/15-093j-optimization-methods-fall-2009/
8. Probabilistic Systems Analysis and Applied Probability (MIT)
https://ocw.mit.edu/courses/6-041sc-probabilistic-systems-analysis-and-applied-probability-fall-2013/
9. Statistical Thinking and Data Analysis (MIT)
https://ocw.mit.edu/courses/15-075j-statistical-thinking-and-data-analysis-fall-2011/
10. Optimization Methods in Management Science (MIT)
https://ocw.mit.edu/courses/15-053-optimization-methods-in-management-science-spring-2013/
11. Databases (Stanford)
https://online.stanford.edu/courses/soe-ydatabases-databases
12. Mining Massive Datasets (Stanford)
https://online.stanford.edu/courses/soe-ycs0007-mining-massive-data-sets
13. Statistical Learning (Stanford)
https://online.stanford.edu/courses/sohs-ystatslearning-statistical-learning-r
14. Computer Science 101 (Stanford)
https://online.stanford.edu/courses/soe-ycscs101-computer-science-101
15. Algorithms: Design and Analysis, Part 1 (Stanford)
https://online.stanford.edu/courses/soe-ycsalgorithms1-algorithms-design-and-analysis-part-1
16. Algorithms: Design and Analysis, Part 2 (Stanford)
https://online.stanford.edu/courses/soe-ycs0001-algorithms-design-and-analysis-part-2
17. Convex Optimization (Stanford)
https://lnkd.in/ezW3RgEZ
18. Introduction to Artificial Intelligence with Python (Harvard)
https://pll.harvard.edu/course/cs50s-introduction-artificial-intelligence-python?delta=0
19. Data Science: Machine Learning (Harvard)
https://pll.harvard.edu/course/data-science-machine-learning?delta=0
20. Data Science: Probability (Harvard)
https://www.edx.org/learn/probability/harvard-university-data-science-probability
کانال ما رو به دوستانتون معرفی کنید تا اونها هم بتونن از این دورههای ارزشمند استفاده کنن! 🎓📚
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
در ادامه، ۲۰ دوره رایگان در علم داده که توسط دانشگاههای معتبر ماساچوست (MIT)، استنفورد و هاروارد ارائه شدهاند، فهرست شدهاند.
1. Introduction to Computer Science and Programming Using Python (MIT)
https://ocw.mit.edu/courses/6-00sc-introduction-to-computer-science-and-programming-spring-2011/
2. Introduction to Computational Thinking and Data Science (MIT)
https://ocw.mit.edu/courses/6-0002-introduction-to-computational-thinking-and-data-science-fall-2016/
3. The Analytics Edge (MIT)
https://ocw.mit.edu/courses/15-071-the-analytics-edge-spring-2017/
4. Machine Learning (MIT)
https://ocw.mit.edu/courses/6-867-machine-learning-fall-2006/
5. Introduction to Deep Learning (MIT)
http://introtodeeplearning.com/
6. Artificial Intelligence (MIT)
https://ocw.mit.edu/courses/6-034-artificial-intelligence-fall-2010/
7. Optimization Methods (MIT)
https://ocw.mit.edu/courses/15-093j-optimization-methods-fall-2009/
8. Probabilistic Systems Analysis and Applied Probability (MIT)
https://ocw.mit.edu/courses/6-041sc-probabilistic-systems-analysis-and-applied-probability-fall-2013/
9. Statistical Thinking and Data Analysis (MIT)
https://ocw.mit.edu/courses/15-075j-statistical-thinking-and-data-analysis-fall-2011/
10. Optimization Methods in Management Science (MIT)
https://ocw.mit.edu/courses/15-053-optimization-methods-in-management-science-spring-2013/
11. Databases (Stanford)
https://online.stanford.edu/courses/soe-ydatabases-databases
12. Mining Massive Datasets (Stanford)
https://online.stanford.edu/courses/soe-ycs0007-mining-massive-data-sets
13. Statistical Learning (Stanford)
https://online.stanford.edu/courses/sohs-ystatslearning-statistical-learning-r
14. Computer Science 101 (Stanford)
https://online.stanford.edu/courses/soe-ycscs101-computer-science-101
15. Algorithms: Design and Analysis, Part 1 (Stanford)
https://online.stanford.edu/courses/soe-ycsalgorithms1-algorithms-design-and-analysis-part-1
16. Algorithms: Design and Analysis, Part 2 (Stanford)
https://online.stanford.edu/courses/soe-ycs0001-algorithms-design-and-analysis-part-2
17. Convex Optimization (Stanford)
https://lnkd.in/ezW3RgEZ
18. Introduction to Artificial Intelligence with Python (Harvard)
https://pll.harvard.edu/course/cs50s-introduction-artificial-intelligence-python?delta=0
19. Data Science: Machine Learning (Harvard)
https://pll.harvard.edu/course/data-science-machine-learning?delta=0
20. Data Science: Probability (Harvard)
https://www.edx.org/learn/probability/harvard-university-data-science-probability
کانال ما رو به دوستانتون معرفی کنید تا اونها هم بتونن از این دورههای ارزشمند استفاده کنن! 🎓📚
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
MIT OpenCourseWare
Introduction to Computer Science and Programming | Electrical Engineering and Computer Science | MIT OpenCourseWare
6.00SC Intro to CS and Programming has been retired from OCW. You can access the archived course on [DSpace – MIT’s digital repository](https://dspace.mit.edu/handle/1721.1/150601). Please see the list of [introductory programming courses](https://ocw.mi…
🎓 اگر به دنبال یک دوره جامع و کاربردی در یادگیری ماشین هستید، دورهی Machine Learning Course With Python را به شما پیشنهاد میکنم. این دوره نه تنها به آموزش دقیق الگوریتمهای یادگیری ماشین 📊 و مبانی ریاضیاتی آنها 🧠 میپردازد، بلکه برای هر الگوریتم، از صفر تا صد، کدنویسی را به شما یاد میدهد.
🔍 چرا کدنویسی از پایه اهمیت دارد؟ یکی از مهمترین راهها برای درک عمیق مفاهیم یادگیری ماشین، پیادهسازی الگوریتمها از پایه است. این کار به شما کمک میکند تا سازوکار هر الگوریتم را بهتر بشناسید و به مفاهیم به شکل کاربردی مسلط شوید 💪.
💻 یادگیری ماشین با پایتون، مهارتی است که با تمرین کدنویسی از پایه میتوان به آن رسید. زمانی میتوان گفت شما به یادگیری ماشین و پایتون مسلط هستید که بتوانید هر الگوریتم را تا جایی که امکان دارد، بدون وابستگی به کتابخانههای آماده، خودتان پیادهسازی کنید.
Link Course : https://www.youtube.com/playlist?list=PLfFghEzKVmjsNtIRwErklMAN8nJmebB0I
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔍 چرا کدنویسی از پایه اهمیت دارد؟ یکی از مهمترین راهها برای درک عمیق مفاهیم یادگیری ماشین، پیادهسازی الگوریتمها از پایه است. این کار به شما کمک میکند تا سازوکار هر الگوریتم را بهتر بشناسید و به مفاهیم به شکل کاربردی مسلط شوید 💪.
💻 یادگیری ماشین با پایتون، مهارتی است که با تمرین کدنویسی از پایه میتوان به آن رسید. زمانی میتوان گفت شما به یادگیری ماشین و پایتون مسلط هستید که بتوانید هر الگوریتم را تا جایی که امکان دارد، بدون وابستگی به کتابخانههای آماده، خودتان پیادهسازی کنید.
Link Course : https://www.youtube.com/playlist?list=PLfFghEzKVmjsNtIRwErklMAN8nJmebB0I
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ساختمان داده و طراحی الگوریتم پایههای اصلی در علوم کامپیوتر و به خصوص هوش مصنوعی هستند.
🔹 چرا ساختمان داده و طراحی الگوریتم مهم است؟
ساختمان دادهها به نحوهی سازماندهی، ذخیرهسازی و بازیابی دادهها کمک میکنند. این ساختارها به ما امکان میدهند تا دادهها را به شکلی منظم و کارآمد مدیریت کنیم و دسترسی سریعتری به اطلاعات داشته باشیم. برای مثال، آرایهها، لیستهای پیوندی، درختها و گرافها از جمله ساختمان دادههای مهم هستند که برای مسائل مختلف انتخاب میشوند.
طراحی الگوریتم به ما این امکان را میدهد که با ترکیب این ساختمان دادهها، برای مسائل پیچیدهتر راهحلهای بهینه پیدا کنیم. در هوش مصنوعی، از این اصول برای پیادهسازی الگوریتمهای یادگیری ماشین، پردازش تصویر، تحلیل متون و بسیاری از موارد دیگر استفاده میشود.
📍 مثالی از اهمیت ساختمان دادهها و الگوریتمها در هوش مصنوعی
فرض کنید در حال توسعه یک سیستم تشخیص خودکار چهره هستید. این سیستم باید حجم زیادی از تصاویر را پردازش و اطلاعاتی مانند ویژگیهای صورت را استخراج کند. در اینجا، از ساختار دادهای مانند درختهای تصمیمگیری یا شبکههای گراف برای دستهبندی و سازماندهی ویژگیها استفاده میکنیم. سپس، الگوریتمهای یادگیری مانند الگوریتم نزدیکترین همسایهها (KNN) یا الگوریتمهای جستجو میتوانند به ما کمک کنند تا چهرههای جدید را با دادههای موجود مقایسه کنیم و تشخیص دهیم.
🚀 نتیجهگیری
یادگیری ساختمان داده و طراحی الگوریتم به دانشجویان و برنامهنویسان این امکان را میدهد که بتوانند برنامههایی سریعتر، بهینهتر و هوشمندتر طراحی کنند. در دنیای هوش مصنوعی که سرعت و کارایی حرف اول را میزند، داشتن دانش کافی در این دو زمینه بسیار ضروری است.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
🔹 چرا ساختمان داده و طراحی الگوریتم مهم است؟
ساختمان دادهها به نحوهی سازماندهی، ذخیرهسازی و بازیابی دادهها کمک میکنند. این ساختارها به ما امکان میدهند تا دادهها را به شکلی منظم و کارآمد مدیریت کنیم و دسترسی سریعتری به اطلاعات داشته باشیم. برای مثال، آرایهها، لیستهای پیوندی، درختها و گرافها از جمله ساختمان دادههای مهم هستند که برای مسائل مختلف انتخاب میشوند.
طراحی الگوریتم به ما این امکان را میدهد که با ترکیب این ساختمان دادهها، برای مسائل پیچیدهتر راهحلهای بهینه پیدا کنیم. در هوش مصنوعی، از این اصول برای پیادهسازی الگوریتمهای یادگیری ماشین، پردازش تصویر، تحلیل متون و بسیاری از موارد دیگر استفاده میشود.
📍 مثالی از اهمیت ساختمان دادهها و الگوریتمها در هوش مصنوعی
فرض کنید در حال توسعه یک سیستم تشخیص خودکار چهره هستید. این سیستم باید حجم زیادی از تصاویر را پردازش و اطلاعاتی مانند ویژگیهای صورت را استخراج کند. در اینجا، از ساختار دادهای مانند درختهای تصمیمگیری یا شبکههای گراف برای دستهبندی و سازماندهی ویژگیها استفاده میکنیم. سپس، الگوریتمهای یادگیری مانند الگوریتم نزدیکترین همسایهها (KNN) یا الگوریتمهای جستجو میتوانند به ما کمک کنند تا چهرههای جدید را با دادههای موجود مقایسه کنیم و تشخیص دهیم.
🚀 نتیجهگیری
یادگیری ساختمان داده و طراحی الگوریتم به دانشجویان و برنامهنویسان این امکان را میدهد که بتوانند برنامههایی سریعتر، بهینهتر و هوشمندتر طراحی کنند. در دنیای هوش مصنوعی که سرعت و کارایی حرف اول را میزند، داشتن دانش کافی در این دو زمینه بسیار ضروری است.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
📄 **معرفی مقاله جدید: " Large Language Models: A Survey"
این مقاله یک مرور کلی و جامع از مدلهای زبانی بزرگ مثل GPT-4،LLaMA، و PaLM ارائه میدهد و به بررسی دقیق دستاوردها و چالشهای این حوزه میپردازد.
🔹 نکات اصلی مقاله:
1. معماری مدلها: بررسی و مقایسه ساختار و ویژگیهای مدلها، و اینکه چطور هر کدام برای وظایف خاص بهینهسازی شدهاند.
2. مجموعه داده و روشهای آموزشی: روشهای جمعآوری دادههای آموزشی و تأثیر آنها بر دقت و عملکرد مدلها.
3. کاربردهای مختلف: از ترجمه و تولید متن تا پاسخگویی به سوالات پزشکی و تخصصهای کدنویسی.
4. چالشهای موجود: مشکلاتی نظیر هزینه محاسباتی بالا، مسائل اخلاقی، و چالشهای زیستمحیطی.
این مقاله راهنمایی ارزشمند برای علاقهمندان به مدلهای زبان است و آینده این فناوریها را روشنتر میکند. 📚
Paper : https://arxiv.org/abs/2402.06196
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این مقاله یک مرور کلی و جامع از مدلهای زبانی بزرگ مثل GPT-4،LLaMA، و PaLM ارائه میدهد و به بررسی دقیق دستاوردها و چالشهای این حوزه میپردازد.
🔹 نکات اصلی مقاله:
1. معماری مدلها: بررسی و مقایسه ساختار و ویژگیهای مدلها، و اینکه چطور هر کدام برای وظایف خاص بهینهسازی شدهاند.
2. مجموعه داده و روشهای آموزشی: روشهای جمعآوری دادههای آموزشی و تأثیر آنها بر دقت و عملکرد مدلها.
3. کاربردهای مختلف: از ترجمه و تولید متن تا پاسخگویی به سوالات پزشکی و تخصصهای کدنویسی.
4. چالشهای موجود: مشکلاتی نظیر هزینه محاسباتی بالا، مسائل اخلاقی، و چالشهای زیستمحیطی.
این مقاله راهنمایی ارزشمند برای علاقهمندان به مدلهای زبان است و آینده این فناوریها را روشنتر میکند. 📚
Paper : https://arxiv.org/abs/2402.06196
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer