هوش مصنوعی مولد به معنای تولید داده های جدید با استفاده از داده های موجود است. اگر در حال یادگیری Generative Ai هستید و به دنبال پروژه هایی هستید که بتوانید برخی از مشکلات دنیای واقعی را حل کنید و در رزومه خود در مورد آنها ذکر کنید، این پست برای شما است.
تعدادی از بهترین ایده های پروژه #GenerativeAI به همراه مثال های حل شده و توضیحات
با این پروژه ها میتونید رزومه تون رو تقویت کنید
https://bit.ly/genai-projects
#MachineLearning #AI
📲 @programmers_street
تعدادی از بهترین ایده های پروژه #GenerativeAI به همراه مثال های حل شده و توضیحات
با این پروژه ها میتونید رزومه تون رو تقویت کنید
https://bit.ly/genai-projects
#MachineLearning #AI
📲 @programmers_street
AmanXai
Generative AI Project Ideas for Resume | Aman Kharwal
In this article, I'll take you through some of the best Generative AI project ideas for your resume you should try.
🔹مسیر یادگیری #هوش_مصنوعی و #یادگیری_ماشین
در لیست زیر گام به گام مسیری که باید طی کنید به همراه منابع رایگان یادگیری آمده است
👉Build a Solid Foundation in Mathematics and Statistics
Mathematics for Machine Learning
Statistics for Data Science
👉Learn a Programming Language (Python)
Python for Everybody Specialization
Introduction to Data Analysis with Python
👉Explore AI and ML Tools and Frameworks
The next step in the roadmap to learn AI & ML is to explore AI & ML tools and frameworks Below are the essential tools and frameworks you need to cover
Scikit-learn: Building ML models (classification, regression, clustering).
TensorFlow and Keras: Building deep learning models and neural networks.
PyTorch: Research-focused deep learning framework.
Cloud Platforms: Explore tools like Google Cloud AI, AWS Sagemaker, and Microsoft Azure for ML.
Scikit-learn documentation
Tensorflow basics
Keras basics
PyTorch Guide
Cloud Platforms Roadmap
👉Get Hands-on with Machine Learning Algorithms:
Learn the key algorithms used in Machine Learning and practice implementing them:
Regression: Linear, Ridge, and Logistic regression.
Classification: Decision Trees, Random Forests, SVM, k-Nearest Neighbors.
Clustering: K-Means, Hierarchical, DBSCAN.
Dimensionality Reduction: PCA, t-SNE.
Model Evaluation: Accuracy, precision, recall, F1-score, ROC curves, and confusion matrix.
Here are the learning resources you can follow:
Machine Learning Algorithms: Handbook
Machine Learning Algorithms Guide
👉Dive into Deep Learning & Reinforcement Learning
The next step in the roadmap to learn AI & ML is to master neural networks and reinforcement learning to build advanced AI systems
Deep Learning Specialization
Reinforcement Learning Specialization
👉Explore Natural Language Processing (NLP):
Learn techniques to process, analyze, and generate text using NLP models. Here are the essential topics you need to cover:
Text preprocessing: Tokenization, stemming, lemmatization, stopwords.
Traditional NLP models: Bag of Words, TF-IDF.
Word Embeddings: Word2Vec, GloVe.
Transformer models: BERT, GPT, and their applications in text generation
Hands-On Natural Language Processing with Python
NLP Free Course by Hugging Face
Tensorflow and Keras for NLP
NLP with Sequence Models
👉Learn Image Processing & Computer Vision
The next step in the roadmap to learn AI & ML is to develop expertise in image processing techniques and computer vision
Image Processing Course
Advanced Computer Vision Course
👉Explore Generative AI & LLMs
Work on Real-World Projects
Learn about Generative AI and Large Language Models (LLMs) that are transforming AI research
Generative Adversarial Networks (GANs) Specialization
Generative AI with LLMs
منبع : link
#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap
معرفی منابع آموزشی مهندسی کامپیوتر 👇👇
📲 @programmers_street
در لیست زیر گام به گام مسیری که باید طی کنید به همراه منابع رایگان یادگیری آمده است
👉Build a Solid Foundation in Mathematics and Statistics
Mathematics for Machine Learning
Statistics for Data Science
👉Learn a Programming Language (Python)
Python for Everybody Specialization
Introduction to Data Analysis with Python
👉Explore AI and ML Tools and Frameworks
The next step in the roadmap to learn AI & ML is to explore AI & ML tools and frameworks Below are the essential tools and frameworks you need to cover
Scikit-learn: Building ML models (classification, regression, clustering).
TensorFlow and Keras: Building deep learning models and neural networks.
PyTorch: Research-focused deep learning framework.
Cloud Platforms: Explore tools like Google Cloud AI, AWS Sagemaker, and Microsoft Azure for ML.
Scikit-learn documentation
Tensorflow basics
Keras basics
PyTorch Guide
Cloud Platforms Roadmap
👉Get Hands-on with Machine Learning Algorithms:
Learn the key algorithms used in Machine Learning and practice implementing them:
Regression: Linear, Ridge, and Logistic regression.
Classification: Decision Trees, Random Forests, SVM, k-Nearest Neighbors.
Clustering: K-Means, Hierarchical, DBSCAN.
Dimensionality Reduction: PCA, t-SNE.
Model Evaluation: Accuracy, precision, recall, F1-score, ROC curves, and confusion matrix.
Here are the learning resources you can follow:
Machine Learning Algorithms: Handbook
Machine Learning Algorithms Guide
👉Dive into Deep Learning & Reinforcement Learning
The next step in the roadmap to learn AI & ML is to master neural networks and reinforcement learning to build advanced AI systems
Deep Learning Specialization
Reinforcement Learning Specialization
👉Explore Natural Language Processing (NLP):
Learn techniques to process, analyze, and generate text using NLP models. Here are the essential topics you need to cover:
Text preprocessing: Tokenization, stemming, lemmatization, stopwords.
Traditional NLP models: Bag of Words, TF-IDF.
Word Embeddings: Word2Vec, GloVe.
Transformer models: BERT, GPT, and their applications in text generation
Hands-On Natural Language Processing with Python
NLP Free Course by Hugging Face
Tensorflow and Keras for NLP
NLP with Sequence Models
👉Learn Image Processing & Computer Vision
The next step in the roadmap to learn AI & ML is to develop expertise in image processing techniques and computer vision
Image Processing Course
Advanced Computer Vision Course
👉Explore Generative AI & LLMs
Work on Real-World Projects
Learn about Generative AI and Large Language Models (LLMs) that are transforming AI research
Generative Adversarial Networks (GANs) Specialization
Generative AI with LLMs
منبع : link
#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap
معرفی منابع آموزشی مهندسی کامپیوتر 👇👇
📲 @programmers_street
❤3👍2
🧡 دانشجویان علاقمند به فراگیری #هوش_مصنوعی از سراسر ایران و جهان: برای نخستین بار میتوانید به صورت زنده و آنلاین، در کلاس #یادگیری_ماشین دانشکدهی مهندسی کامپیوتر دانشگاه صنعتی شریف شرکت کنید.
🧡 مدرس: دکتر علی شریفی زارچی، عضو هیات علمی گروه هوشمصنوعی و بیوانفورماتیک دانشگاه صنعتی شریف
🧡 تیم تهیهی محتوا: ۷۰ نفر از دانشجویان و دانشآموختگان دانشگاه شریف و سایر دانشگاههای برتر
👑 هزینهی ثبتنام: رایگان
👑 شروع کلاسها: ۱ مهر ۱۴۰۳
👑 اطلاعات بیشتر و ثبتنام: sharifml.ir
#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap
کانال مهندسی کامپیوتر 👇👇
📲 @programmers_street
🧡 مدرس: دکتر علی شریفی زارچی، عضو هیات علمی گروه هوشمصنوعی و بیوانفورماتیک دانشگاه صنعتی شریف
🧡 تیم تهیهی محتوا: ۷۰ نفر از دانشجویان و دانشآموختگان دانشگاه شریف و سایر دانشگاههای برتر
👑 هزینهی ثبتنام: رایگان
👑 شروع کلاسها: ۱ مهر ۱۴۰۳
👑 اطلاعات بیشتر و ثبتنام: sharifml.ir
#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap
کانال مهندسی کامپیوتر 👇👇
📲 @programmers_street
👍3❤2
📣 برای دسترسی سادهتر همهی مخاطبان دوره، به خصوص فارسیزبانان خارج از ایران، ویدئوهای دورهی یادگیری ماشین دانشکدهی مهندسی کامپیوتر دانشگاه صنعتی شریف، از این پس از طریق کانال آپارات نیز قابل مشاهده خواهد بود.
#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap
معرفی منابع آموزشی مهندسی کامپیوتر 👇👇
📲 @programmers_street
#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap
معرفی منابع آموزشی مهندسی کامپیوتر 👇👇
📲 @programmers_street
❤1
Building Large Language Model Applications
👉The book provides a solid theoretical foundation of what LLMs are, their architecture. With a hands-on approach we provide readers with a step-by-step guide to implementing LLM-powered apps for specific tasks and using powerful frameworks like LangChain.
What you will learn
》Explore the core components of LLM architecture, including encoder-decoder blocks and embeddings
》Understand the unique features of LLMs like GPT-3.5/4, Llama 2, and Falcon LLM
》Use AI orchestrators like LangChain, with Streamlit for the frontend
》Get familiar with LLM components such as memory, prompts, and tools
》Learn how to use non-parametric knowledge and vector databases
》Understand the implications of LFMs for AI research and industry applications
》Customize your LLMs with fine tuning
》Learn about the ethical implications of LLM-powered applications
☆ https://towardsai.net/book
💢https://github.com/PacktPublishing/Building-LLM-Powered-Applications
#Machine_learning #LLM #Ai
دانشکده مهندسی کامپیوتر 👇👇
🆔 @programmers_street
👉The book provides a solid theoretical foundation of what LLMs are, their architecture. With a hands-on approach we provide readers with a step-by-step guide to implementing LLM-powered apps for specific tasks and using powerful frameworks like LangChain.
What you will learn
》Explore the core components of LLM architecture, including encoder-decoder blocks and embeddings
》Understand the unique features of LLMs like GPT-3.5/4, Llama 2, and Falcon LLM
》Use AI orchestrators like LangChain, with Streamlit for the frontend
》Get familiar with LLM components such as memory, prompts, and tools
》Learn how to use non-parametric knowledge and vector databases
》Understand the implications of LFMs for AI research and industry applications
》Customize your LLMs with fine tuning
》Learn about the ethical implications of LLM-powered applications
☆ https://towardsai.net/book
💢https://github.com/PacktPublishing/Building-LLM-Powered-Applications
#Machine_learning #LLM #Ai
دانشکده مهندسی کامپیوتر 👇👇
🆔 @programmers_street
Master #GenerativeAI. Here are 3 project ideas you should try:
1. Create a GAN to Generate New Images (An example: https://bit.ly/4dpCPsF)
2. Use LLms to Generate Code Snippets (An example: https://bit.ly/code-gen-llms)
3. Develop Models for Generating Text (An example: https://huggingface.co/docs/transformers/en/llm_tutorial)
#MachineLearning #ArtificialIntelligence #deeplearning #DataScience #AI #LLMs
دانشکده مهندسی کامپیوتر 👇👇
🆔 @programmers_street
1. Create a GAN to Generate New Images (An example: https://bit.ly/4dpCPsF)
2. Use LLms to Generate Code Snippets (An example: https://bit.ly/code-gen-llms)
3. Develop Models for Generating Text (An example: https://huggingface.co/docs/transformers/en/llm_tutorial)
#MachineLearning #ArtificialIntelligence #deeplearning #DataScience #AI #LLMs
دانشکده مهندسی کامپیوتر 👇👇
🆔 @programmers_street
Best Gen AI Courses!
https://www.mltut.com/best-generative-ai-courses/
#هوش_مصنوعی #Ai
مرجع معرفی بهترین دوره های مهندسی کامپیوتر
👇
🆔 @programmers_street
https://www.mltut.com/best-generative-ai-courses/
#هوش_مصنوعی #Ai
مرجع معرفی بهترین دوره های مهندسی کامپیوتر
👇
🆔 @programmers_street
MLTut
10 Best Generative AI Courses Online & Certifications (Gen AI)
Are you looking for the Best Generative AI Courses Online & Certifications(Gen AI) ?… If yes, check these Best Generative AI Courses Online.
👍1
Data Science with Python Courses- https://www.mltut.com/best-data-science-with-python-courses-online/
#MachineLearning #DeepLearning #BigData #Datascience #ML #DataVisualization #ArtificialInteligence #deeplearning #python #AI
دانشکده مهندسی کامپیوتر 👇👇
🆔 @programmers_street
#MachineLearning #DeepLearning #BigData #Datascience #ML #DataVisualization #ArtificialInteligence #deeplearning #python #AI
دانشکده مهندسی کامپیوتر 👇👇
🆔 @programmers_street
👍1
یکی از دوستانم که اصلاً تو خط تکنولوژی نیست، ازم میپرسید ChatGPT چطوری کار میکنه. منم سعی کردم یه توضیح ساده و سریع بدم. گفتم اینجا هم بذارمش که بعداً به کار بقیه هم بیاد!
البته جزییات فنیش خیلی بیشتر از اینه، ولی این یه خلاصه TL;DR بود که امیدوارم به دردتون بخوره :))
How LLMs works ?
فرض کن میخوایم از صفر شروع کنیم. LLM در اصل یه جور سیستم خیلی پیشرفتهست که با متن (و گاهی چیزای دیگه) کار میکنه. اول کار، هر متنی که بهش میدیم رو به یه زبون عددی تبدیل میکنه که خودش بفهمه. به این کار میگن tokenization. یعنی متن رو به تکههای کوچیک (مثل کلمه یا بخشی از کلمه) تبدیل میکنه و به هر تکه یه شماره میده که بهش میگن token. مثلاً کلمه "سلام" ممکنه یه token بشه، یا یه کلمه پیچیدهتر مثل "ناباورانه" بشکنه به "نا" و "باورانه". این کار با الگوریتمهایی مثل Byte Pair Encoding (BPE) انجام میشه و یه دایره لغات درست میکنه که مثلاً تو GPT-4 حدود 100 هزار token داره. حالا متن ما به یه رشته عدد تبدیل شده که مدل میتونه باهاش کار کنه.
بعدش میرسیم به اصل ماجرا: LLMs از یه neural network به اسم Transformer استفاده میکنن. این شبکه یه سری عدد (همون tokenها) رو میگیره و حدس میزنه که بعدش چه tokenای باید بیاد. این حدس زدن بر اساس احتمالاتیه که مدل تو مرحله pre-training یاد گرفته. تو این مرحله، مدل رو با مقدار عظیمی داده (مثلاً 15 تریلیون token از اینترنت) تمرین میدن که بتونه الگوهای زبون رو بفهمه. کارش اینه که ببینه تو این دادهها، بعد از یه جمله یا یه کلمه، معمولاً چی میاد. اینجوری میلیاردها parameter (وزنهای داخل شبکه) رو تنظیم میکنه تا پیشبینیهاش دقیقتر بشه.
وقتی مدل آموزشش تموم شد، میتونی ازش استفاده کنی. به این کار میگن inference. یه متن اولیه (مثلاً یه سوال) بهش میدی، اون شروع میکنه به پیشبینی token بعدی، یه نمونه از احتمالات انتخاب میکنه، به متن اضافه میکنه و همینجوری ادامه میده. مثل یه سیستم autocomplete خیلی باهوشه که جملهبهجمله میسازه. چون انتخاب tokenها یه مقدار تصادفیه، هر بار که اجرا میکنی ممکنه جواب یه کم فرق کنه.
تا اینجا، این یه base modelه، یعنی فقط میتونه متنایی شبیه چیزایی که تو اینترنت دیده تولید کنه. ولی برای اینکه واقعاً بهدردبخور بشه (مثلاً جواب سوال بده)، باید یه مرحله دیگه بره که بهش میگن post-training. اینجا دو تا تکنیک اصلی داره:
اولی : Supervised Fine-Tuning (SFT) به مدل یاد میدن که چجوری مثل یه دستیار جواب بده، مثلاً با تمرین روی مکالمهها یا سوالوجوابها.
دومی : Reinforcement Learning (RL)مدل رو با پاداش دادن به جوابهای درست (مثلاً تو ریاضی یا کدزنی) بهتر میکنن تا بتونه استدلال کنه و مثلاً مسائل رو قدمبهقدم حل کنه.
تا اینجا، تقریبا کل داستان LLMs خلاصه گفتیم: متن رو به token تبدیل میکنه، با Transformer پیشبینی میکنه چی باید بیاد، و با post-training به بلوغ میرسه:))
مدلهای multimodalهم بدونی بد نیست . اینا همون LLMsن، ولی یه قدم جلوتر. اینجا دیگه فقط با متن کار نمیکنن، بلکه با چیزای دیگه مثل عکس، صدا یا حتی ویدئو هم کار میکنن. چجوری؟
مثل قبل، همهچیز با tokenization شروع میشه. ولی حالا فقط متن نیست. مثلاً یه عکس رو به تکههای کوچیک (مثل پچهای تصویر) تقسیم میکنن و بهشون token میدن. یا یه فایل صوتی رو به شکل موج صوتی (مثل spectrogram) درمیآرن و به token تبدیل میکنن.
بعدش، همون Transformer که برای متن بود، این tokenهای جدید رو هم میفهمه. فرقی نمیکنه که token از متن باشه، عکس باشه یا صدا مدل فقط یه رشته token میبینه و پیشبینی میکنه که بعدش چی باید بیاد.
تو مرحله آموزش، مدل رو با دادههای مخلوط (مثلاً متن + عکس) تمرین میدن که بتونه ارتباط بین اینا رو بفهمه. مثلاً یاد میگیره که یه عکس رو توصیف کنه یا از یه صدا متن بسازه.
در کل مدلهای multimodal همون سیستم LLMن، ولی گسترش پیدا کردن که همهچیز رو به شکل token ببینن و بتونن بین نوعای مختلف داده (مثل متن و تصویر) ارتباط برقرار کنن.
اگر دوست داشتید عمیق تر راجب این موضوع مطالعه داشته باشید این ویدئو از آقای Andrej Karpathy رو پیشنهاد میکنم :
https://youtu.be/7xTGNNLPyMI?list=TLGGF2qs5wlgDR4zMDA0MjAyNQ
خیلی خوب و کامل توضیح دادن .
منبع
#LLM #AI #Machine_Learning
#یادگیری_ماشین #هوش_مصنوعی
🆔 @programmers_street
البته جزییات فنیش خیلی بیشتر از اینه، ولی این یه خلاصه TL;DR بود که امیدوارم به دردتون بخوره :))
How LLMs works ?
فرض کن میخوایم از صفر شروع کنیم. LLM در اصل یه جور سیستم خیلی پیشرفتهست که با متن (و گاهی چیزای دیگه) کار میکنه. اول کار، هر متنی که بهش میدیم رو به یه زبون عددی تبدیل میکنه که خودش بفهمه. به این کار میگن tokenization. یعنی متن رو به تکههای کوچیک (مثل کلمه یا بخشی از کلمه) تبدیل میکنه و به هر تکه یه شماره میده که بهش میگن token. مثلاً کلمه "سلام" ممکنه یه token بشه، یا یه کلمه پیچیدهتر مثل "ناباورانه" بشکنه به "نا" و "باورانه". این کار با الگوریتمهایی مثل Byte Pair Encoding (BPE) انجام میشه و یه دایره لغات درست میکنه که مثلاً تو GPT-4 حدود 100 هزار token داره. حالا متن ما به یه رشته عدد تبدیل شده که مدل میتونه باهاش کار کنه.
بعدش میرسیم به اصل ماجرا: LLMs از یه neural network به اسم Transformer استفاده میکنن. این شبکه یه سری عدد (همون tokenها) رو میگیره و حدس میزنه که بعدش چه tokenای باید بیاد. این حدس زدن بر اساس احتمالاتیه که مدل تو مرحله pre-training یاد گرفته. تو این مرحله، مدل رو با مقدار عظیمی داده (مثلاً 15 تریلیون token از اینترنت) تمرین میدن که بتونه الگوهای زبون رو بفهمه. کارش اینه که ببینه تو این دادهها، بعد از یه جمله یا یه کلمه، معمولاً چی میاد. اینجوری میلیاردها parameter (وزنهای داخل شبکه) رو تنظیم میکنه تا پیشبینیهاش دقیقتر بشه.
وقتی مدل آموزشش تموم شد، میتونی ازش استفاده کنی. به این کار میگن inference. یه متن اولیه (مثلاً یه سوال) بهش میدی، اون شروع میکنه به پیشبینی token بعدی، یه نمونه از احتمالات انتخاب میکنه، به متن اضافه میکنه و همینجوری ادامه میده. مثل یه سیستم autocomplete خیلی باهوشه که جملهبهجمله میسازه. چون انتخاب tokenها یه مقدار تصادفیه، هر بار که اجرا میکنی ممکنه جواب یه کم فرق کنه.
تا اینجا، این یه base modelه، یعنی فقط میتونه متنایی شبیه چیزایی که تو اینترنت دیده تولید کنه. ولی برای اینکه واقعاً بهدردبخور بشه (مثلاً جواب سوال بده)، باید یه مرحله دیگه بره که بهش میگن post-training. اینجا دو تا تکنیک اصلی داره:
اولی : Supervised Fine-Tuning (SFT) به مدل یاد میدن که چجوری مثل یه دستیار جواب بده، مثلاً با تمرین روی مکالمهها یا سوالوجوابها.
دومی : Reinforcement Learning (RL)مدل رو با پاداش دادن به جوابهای درست (مثلاً تو ریاضی یا کدزنی) بهتر میکنن تا بتونه استدلال کنه و مثلاً مسائل رو قدمبهقدم حل کنه.
تا اینجا، تقریبا کل داستان LLMs خلاصه گفتیم: متن رو به token تبدیل میکنه، با Transformer پیشبینی میکنه چی باید بیاد، و با post-training به بلوغ میرسه:))
مدلهای multimodalهم بدونی بد نیست . اینا همون LLMsن، ولی یه قدم جلوتر. اینجا دیگه فقط با متن کار نمیکنن، بلکه با چیزای دیگه مثل عکس، صدا یا حتی ویدئو هم کار میکنن. چجوری؟
مثل قبل، همهچیز با tokenization شروع میشه. ولی حالا فقط متن نیست. مثلاً یه عکس رو به تکههای کوچیک (مثل پچهای تصویر) تقسیم میکنن و بهشون token میدن. یا یه فایل صوتی رو به شکل موج صوتی (مثل spectrogram) درمیآرن و به token تبدیل میکنن.
بعدش، همون Transformer که برای متن بود، این tokenهای جدید رو هم میفهمه. فرقی نمیکنه که token از متن باشه، عکس باشه یا صدا مدل فقط یه رشته token میبینه و پیشبینی میکنه که بعدش چی باید بیاد.
تو مرحله آموزش، مدل رو با دادههای مخلوط (مثلاً متن + عکس) تمرین میدن که بتونه ارتباط بین اینا رو بفهمه. مثلاً یاد میگیره که یه عکس رو توصیف کنه یا از یه صدا متن بسازه.
در کل مدلهای multimodal همون سیستم LLMن، ولی گسترش پیدا کردن که همهچیز رو به شکل token ببینن و بتونن بین نوعای مختلف داده (مثل متن و تصویر) ارتباط برقرار کنن.
اگر دوست داشتید عمیق تر راجب این موضوع مطالعه داشته باشید این ویدئو از آقای Andrej Karpathy رو پیشنهاد میکنم :
https://youtu.be/7xTGNNLPyMI?list=TLGGF2qs5wlgDR4zMDA0MjAyNQ
خیلی خوب و کامل توضیح دادن .
منبع
#LLM #AI #Machine_Learning
#یادگیری_ماشین #هوش_مصنوعی
🆔 @programmers_street
YouTube
Deep Dive into LLMs like ChatGPT
This is a general audience deep dive into the Large Language Model (LLM) AI technology that powers ChatGPT and related products. It is covers the full training stack of how the models are developed, along with mental models of how to think about their "psychology"…
❤5👍2