کتابخانه مهندسی کامپیوتر و پایتون
30.7K subscribers
725 photos
20 videos
426 files
434 links
@alloadv تبلیغات


ادمین : @maryam3771
Download Telegram
هوش مصنوعی مولد به معنای تولید داده های جدید با استفاده از داده های موجود است. اگر در حال یادگیری Generative Ai هستید و به دنبال پروژه هایی هستید که بتوانید برخی از مشکلات دنیای واقعی را حل کنید و در رزومه خود در مورد آنها ذکر کنید، این پست برای شما است.

تعدادی از بهترین ایده های پروژه #GenerativeAI به همراه مثال های حل شده و توضیحات

با این پروژه ها می‌تونید رزومه تون رو تقویت کنید

https://bit.ly/genai-projects

#MachineLearning #AI

📲 @programmers_street
🔹مسیر یادگیری #هوش_مصنوعی و #یادگیری_ماشین

در لیست زیر گام به گام مسیری که باید طی کنید به همراه منابع رایگان یادگیری آمده است

👉Build a Solid Foundation in Mathematics and Statistics

Mathematics for Machine Learning

Statistics for Data Science

👉Learn a Programming Language (Python)

Python for Everybody Specialization

Introduction to Data Analysis with Python

👉Explore AI and ML Tools and Frameworks

The next step in the roadmap to learn AI & ML is to explore AI & ML tools and frameworks Below are the essential tools and frameworks you need to cover

Scikit-learn: Building ML models (classification, regression, clustering).

TensorFlow and Keras: Building deep learning models and neural networks.

PyTorch: Research-focused deep learning framework.

Cloud Platforms: Explore tools like Google Cloud AI, AWS Sagemaker, and Microsoft Azure for ML.

Scikit-learn documentation

Tensorflow basics

Keras basics

PyTorch Guide

Cloud Platforms Roadmap

👉Get Hands-on with Machine Learning Algorithms:
Learn the key algorithms used in Machine Learning and practice implementing them:

Regression: Linear, Ridge, and Logistic regression.

Classification: Decision Trees, Random Forests, SVM, k-Nearest Neighbors.

Clustering: K-Means, Hierarchical, DBSCAN.

Dimensionality Reduction: PCA, t-SNE.

Model Evaluation: Accuracy, precision, recall, F1-score, ROC curves, and confusion matrix.

Here are the learning resources you can follow:

Machine Learning Algorithms: Handbook

Machine Learning Algorithms Guide

👉Dive into Deep Learning & Reinforcement Learning

The next step in the roadmap to learn AI & ML is to master neural networks and reinforcement learning to build advanced AI systems

Deep Learning Specialization

Reinforcement Learning Specialization

👉Explore Natural Language Processing (NLP):
Learn techniques to process, analyze, and generate text using NLP models. Here are the essential topics you need to cover:

Text preprocessing: Tokenization, stemming, lemmatization, stopwords.

Traditional NLP models: Bag of Words, TF-IDF.

Word Embeddings: Word2Vec, GloVe.

Transformer models: BERT, GPT, and their applications in text generation

Hands-On Natural Language Processing with Python

NLP Free Course by Hugging Face

Tensorflow and Keras for NLP

NLP with Sequence Models

👉Learn Image Processing & Computer Vision
The next step in the roadmap to learn AI & ML is to develop expertise in image processing techniques and computer vision

Image Processing Course

Advanced Computer Vision Course

👉Explore Generative AI & LLMs
Work on Real-World Projects
Learn about Generative AI and Large Language Models (LLMs) that are transforming AI research

Generative Adversarial Networks (GANs) Specialization

Generative AI with LLMs

منبع : link
#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap


معرفی منابع آموزشی مهندسی کامپیوتر 👇👇

📲 @programmers_street
3👍2
🧡 دانشجویان علاقمند به فراگیری #هوش_مصنوعی از سراسر ایران و جهان: برای نخستین بار می‌توانید به صورت زنده و آنلاین، در کلاس #یادگیری_ماشین دانشکده‌ی مهندسی کامپیوتر دانشگاه صنعتی شریف شرکت کنید.

🧡 مدرس: دکتر علی شریفی زارچی، عضو هیات علمی گروه هوش‌مصنوعی و بیوانفورماتیک دانشگاه صنعتی شریف

🧡 تیم تهیه‌ی محتوا: ۷۰ نفر از دانشجویان و دانش‌آموختگان دانشگاه شریف و سایر دانشگاه‌های برتر

👑 هزینه‌ی ثبت‌نام: رایگان

👑 شروع کلاس‌ها: ۱ مهر ۱۴۰۳

👑 اطلاعات بیشتر و ثبت‌نام: sharifml.ir

#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap


کانال مهندسی کامپیوتر 👇👇
📲 @programmers_street
👍32
📣 برای دسترسی ساده‌تر همه‌ی مخاطبان دوره، به خصوص فارسی‌زبانان خارج از ایران، ویدئوهای دوره‌ی یادگیری ماشین دانشکده‌ی مهندسی کامپیوتر دانشگاه صنعتی شریف، از این پس از طریق کانال آپارات نیز قابل مشاهده خواهد بود.

#ML #AI #Artificial_Intelligence
#Machine_Learning #roadmap


معرفی منابع آموزشی مهندسی کامپیوتر 👇👇

📲 @programmers_street
1
Building Large Language Model Applications

👉The book provides a solid theoretical foundation of what LLMs are, their architecture. With a hands-on approach we provide readers with a step-by-step guide to implementing LLM-powered apps for specific tasks and using powerful frameworks like LangChain.

What you will learn

》Explore the core components of LLM architecture, including encoder-decoder blocks and embeddings

》Understand the unique features of LLMs like GPT-3.5/4, Llama 2, and Falcon LLM

》Use AI orchestrators like LangChain, with Streamlit for the frontend

》Get familiar with LLM components such as memory, prompts, and tools

》Learn how to use non-parametric knowledge and vector databases

》Understand the implications of LFMs for AI research and industry applications

》Customize your LLMs with fine tuning

》Learn about the ethical implications of LLM-powered applications

https://towardsai.net/book

💢https://github.com/PacktPublishing/Building-LLM-Powered-Applications


#Machine_learning #LLM #Ai

دانشکده مهندسی کامپیوتر 👇👇
🆔 @programmers_street
Master #GenerativeAI. Here are 3 project ideas you should try:

1. Create a GAN to Generate New Images (An example: https://bit.ly/4dpCPsF)

2. Use LLms to Generate Code Snippets (An example: https://bit.ly/code-gen-llms)

3. Develop Models for Generating Text (An example: https://huggingface.co/docs/transformers/en/llm_tutorial)

#MachineLearning #ArtificialIntelligence #deeplearning #DataScience #AI #LLMs

دانشکده مهندسی کامپیوتر 👇👇
🆔 @programmers_street
یکی از دوستانم که اصلاً تو خط تکنولوژی نیست، ازم می‌پرسید ChatGPT چطوری کار می‌کنه. منم سعی کردم یه توضیح ساده و سریع بدم. گفتم اینجا هم بذارمش که بعداً به کار بقیه هم بیاد!
البته جزییات فنی‌ش خیلی بیشتر از اینه، ولی این یه خلاصه TL;DR بود که امیدوارم به دردتون بخوره :))

How LLMs works ?

فرض کن می‌خوایم از صفر شروع کنیم. LLM در اصل یه جور سیستم خیلی پیشرفته‌ست که با متن (و گاهی چیزای دیگه) کار می‌کنه. اول کار، هر متنی که بهش می‌دیم رو به یه زبون عددی تبدیل می‌کنه که خودش بفهمه. به این کار می‌گن tokenization. یعنی متن رو به تکه‌های کوچیک (مثل کلمه یا بخشی از کلمه) تبدیل می‌کنه و به هر تکه یه شماره می‌ده که بهش می‌گن token. مثلاً کلمه "سلام" ممکنه یه token بشه، یا یه کلمه پیچیده‌تر مثل "ناباورانه" بشکنه به "نا" و "باورانه". این کار با الگوریتم‌هایی مثل Byte Pair Encoding (BPE) انجام می‌شه و یه دایره لغات درست می‌کنه که مثلاً تو GPT-4 حدود 100 هزار token داره. حالا متن ما به یه رشته عدد تبدیل شده که مدل می‌تونه باهاش کار کنه.

بعدش می‌رسیم به اصل ماجرا: LLMs از یه neural network به اسم Transformer استفاده می‌کنن. این شبکه یه سری عدد (همون token‌ها) رو می‌گیره و حدس می‌زنه که بعدش چه token‌ای باید بیاد. این حدس زدن بر اساس احتمالاتیه که مدل تو مرحله pre-training یاد گرفته. تو این مرحله، مدل رو با مقدار عظیمی داده (مثلاً 15 تریلیون token از اینترنت) تمرین می‌دن که بتونه الگوهای زبون رو بفهمه. کارش اینه که ببینه تو این داده‌ها، بعد از یه جمله یا یه کلمه، معمولاً چی میاد. اینجوری میلیاردها parameter (وزن‌های داخل شبکه) رو تنظیم می‌کنه تا پیش‌بینی‌هاش دقیق‌تر بشه.

وقتی مدل آموزشش تموم شد، می‌تونی ازش استفاده کنی. به این کار می‌گن inference. یه متن اولیه (مثلاً یه سوال) بهش می‌دی، اون شروع می‌کنه به پیش‌بینی token بعدی، یه نمونه از احتمالات انتخاب می‌کنه، به متن اضافه می‌کنه و همین‌جوری ادامه می‌ده. مثل یه سیستم autocomplete خیلی باهوشه که جمله‌به‌جمله می‌سازه. چون انتخاب token‌ها یه مقدار تصادفیه، هر بار که اجرا می‌کنی ممکنه جواب یه کم فرق کنه.

تا اینجا، این یه base model‌ه، یعنی فقط می‌تونه متنایی شبیه چیزایی که تو اینترنت دیده تولید کنه. ولی برای اینکه واقعاً به‌دردبخور بشه (مثلاً جواب سوال بده)، باید یه مرحله دیگه بره که بهش می‌گن post-training. اینجا دو تا تکنیک اصلی داره:
اولی : Supervised Fine-Tuning (SFT) به مدل یاد می‌دن که چجوری مثل یه دستیار جواب بده، مثلاً با تمرین روی مکالمه‌ها یا سوال‌وجواب‌ها.

دومی : Reinforcement Learning (RL)مدل رو با پاداش دادن به جواب‌های درست (مثلاً تو ریاضی یا کدزنی) بهتر می‌کنن تا بتونه استدلال کنه و مثلاً مسائل رو قدم‌به‌قدم حل کنه.

تا اینجا، تقریبا کل داستان LLMs خلاصه گفتیم: متن رو به token تبدیل می‌کنه، با Transformer پیش‌بینی می‌کنه چی باید بیاد، و با post-training به بلوغ میرسه:))

مدل‌های multimodalهم بدونی بد نیست . اینا همون LLMs‌ن، ولی یه قدم جلوتر. اینجا دیگه فقط با متن کار نمی‌کنن، بلکه با چیزای دیگه مثل عکس، صدا یا حتی ویدئو هم کار می‌کنن. چجوری؟
مثل قبل، همه‌چیز با tokenization شروع می‌شه. ولی حالا فقط متن نیست. مثلاً یه عکس رو به تکه‌های کوچیک (مثل پچ‌های تصویر) تقسیم می‌کنن و بهشون token می‌دن. یا یه فایل صوتی رو به شکل موج صوتی (مثل spectrogram) درمی‌آرن و به token تبدیل می‌کنن.
بعدش، همون Transformer که برای متن بود، این token‌های جدید رو هم می‌فهمه. فرقی نمی‌کنه که token از متن باشه، عکس باشه یا صدا مدل فقط یه رشته token می‌بینه و پیش‌بینی می‌کنه که بعدش چی باید بیاد.
تو مرحله آموزش، مدل رو با داده‌های مخلوط (مثلاً متن + عکس) تمرین می‌دن که بتونه ارتباط بین اینا رو بفهمه. مثلاً یاد می‌گیره که یه عکس رو توصیف کنه یا از یه صدا متن بسازه.
در کل مدل‌های multimodal همون سیستم LLM‌ن، ولی گسترش پیدا کردن که همه‌چیز رو به شکل token ببینن و بتونن بین نوعای مختلف داده (مثل متن و تصویر) ارتباط برقرار کنن.

اگر دوست داشتید عمیق تر راجب این موضوع مطالعه داشته باشید این ویدئو از آقای Andrej Karpathy رو پیشنهاد میکنم :

https://youtu.be/7xTGNNLPyMI?list=TLGGF2qs5wlgDR4zMDA0MjAyNQ

خیلی خوب و کامل توضیح دادن .
منبع

#LLM #AI #Machine_Learning


#یادگیری_ماشین #هوش_مصنوعی

🆔 @programmers_street
5👍2