اتاق برنامه نویسی </>
Photo
📢 افزونه BLACKBOX AI برای Visual Studio Code
🧐 معرفی BLACKBOX AI
یک دستیار کدنویسی مبتنی بر هوش مصنوعی است که به توسعهدهندگان کمک میکند تا با فراهم آوردن تکمیل خودکار کد، اسناد و پیشنهادات اشکالزدایی، کدنویسی را سادهتر و سریعتر کنند. این ابزار با انواع ابزارهای توسعهدهنده یکپارچه شده و استفاده از آن در جریان کار شما، آسان است.
⚙️ ویژگیهای کلیدی BLACKBOX AI
1️⃣ گفتگوی کد (Code Chat): BLACKBOX AI میتواند به سوالات برنامهنویسی پاسخ دهد.
2️⃣ تکمیل خودکار کد (Code Autocomplete): این ویژگی به توسعهدهندگان کمک میکند تا سریعتر کد بنویسند و برای بیش از 20 زبان برنامهنویسی از جمله Python, JavaScript, TypeScript, Go و Ruby در دسترس است.
3️⃣ ایجاد خودکار پیامهای (AI Commit): با یک کلیک، میتوانید پیام کامیت برای پروژههای خود ایجاد کنید.
4️⃣ نظردهی خودکار برای کد (Code Comment): این قابلیت، امکان ایجاد خودکار نظر برای کدها را فراهم میکند.
5️⃣ پیشنهادات کد (Code Suggestions): با یک کلیک، پیشنهادات کد ایجاد میشود.
6️⃣ تولید کد در ویرایشگر (In-Editor Generate Code): این ویژگی به شما اجازه میدهد تا با کلیک راست در داخل ویرایشگر متن، کد ادامهدار یا بر اساس نظر شما ایجاد کند.
7️⃣ مشاهده تفاوتها (DIFF View): این قابلیت اجازه میدهد تغییرات در پروژه خود را به سرعت ردیابی کنید و توضیحات مختصری را برای درک بهتر تحول پروژه فراهم میکند.
💻 چگونگی ادغام BLACKBOX AI در جریان کار
این افزونه برای Visual Studio Code طراحی شده
🔗 https://marketplace.visualstudio.com/items?itemName=Blackboxapp.blackbox
📁 #AI #VisualStudioCode
یه لایک هم بزن که خستگی ما دربیاد که انرژی بیشتری بگیریم تا مطالب خفنتری براتون آماده کنیم. 😉🫶
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامه نویسی </>
📌 @PapiDon_coding
🧐 معرفی BLACKBOX AI
یک دستیار کدنویسی مبتنی بر هوش مصنوعی است که به توسعهدهندگان کمک میکند تا با فراهم آوردن تکمیل خودکار کد، اسناد و پیشنهادات اشکالزدایی، کدنویسی را سادهتر و سریعتر کنند. این ابزار با انواع ابزارهای توسعهدهنده یکپارچه شده و استفاده از آن در جریان کار شما، آسان است.
⚙️ ویژگیهای کلیدی BLACKBOX AI
1️⃣ گفتگوی کد (Code Chat): BLACKBOX AI میتواند به سوالات برنامهنویسی پاسخ دهد.
2️⃣ تکمیل خودکار کد (Code Autocomplete): این ویژگی به توسعهدهندگان کمک میکند تا سریعتر کد بنویسند و برای بیش از 20 زبان برنامهنویسی از جمله Python, JavaScript, TypeScript, Go و Ruby در دسترس است.
3️⃣ ایجاد خودکار پیامهای (AI Commit): با یک کلیک، میتوانید پیام کامیت برای پروژههای خود ایجاد کنید.
4️⃣ نظردهی خودکار برای کد (Code Comment): این قابلیت، امکان ایجاد خودکار نظر برای کدها را فراهم میکند.
5️⃣ پیشنهادات کد (Code Suggestions): با یک کلیک، پیشنهادات کد ایجاد میشود.
6️⃣ تولید کد در ویرایشگر (In-Editor Generate Code): این ویژگی به شما اجازه میدهد تا با کلیک راست در داخل ویرایشگر متن، کد ادامهدار یا بر اساس نظر شما ایجاد کند.
7️⃣ مشاهده تفاوتها (DIFF View): این قابلیت اجازه میدهد تغییرات در پروژه خود را به سرعت ردیابی کنید و توضیحات مختصری را برای درک بهتر تحول پروژه فراهم میکند.
💻 چگونگی ادغام BLACKBOX AI در جریان کار
این افزونه برای Visual Studio Code طراحی شده
🔗 https://marketplace.visualstudio.com/items?itemName=Blackboxapp.blackbox
📁 #AI #VisualStudioCode
یه لایک هم بزن که خستگی ما دربیاد که انرژی بیشتری بگیریم تا مطالب خفنتری براتون آماده کنیم. 😉🫶
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامه نویسی </>
📌 @PapiDon_coding
Visualstudio
BLACKBOXAI #1 AI Coding Agent and Coding Copilot - Visual Studio Marketplace
Extension for Visual Studio Code - BLACKBOX AI is an AI coding assistant that helps developers by providing real-time code completion, documentation, and debugging suggestions. BLACKBOX AI is also integrated with a variety of developer tools such as Github…
👍16❤1
اتاق برنامه نویسی </>
Photo
⚜️ مدلهای نوین در هوش مصنوعی: LLM، VLM و Diffusion و مدلهای چندوجهی Multimodal Models
در این توضیح، سه نوع مدل هوش مصنوعی پیشرفته یعنی مدلهای زبانی بزرگ (LLM)، مدلهای بینایی-زبانی (VLM) و مدلهای انتشار (Diffusion Models) را بررسی میکنیم. همچنین به مدلهای چندوجهی (Multimodal Models) میپردازیم.
🔸 ۱. مدلهای زبانی بزرگ (LLM - Large Language Models)
مدلهای زبانی بزرگ (LLM) مانند GPT-4، BERT و LLaMA، نوعی از مدلهای یادگیری عمیق هستند که توانایی پردازش و تولید زبان طبیعی را دارند.
✅ چگونه کار میکنند؟
- این مدلها بر اساس شبکههای عصبی ترانسفورمر (Transformer) ساخته شدهاند.
- با حجم عظیمی از متن آموزش داده میشوند و میتوانند متون جدید تولید کنند.
- کاربرد اصلی آنها در ترجمه، خلاصهسازی، چتباتها، پاسخگویی به سوالات و تولید محتوا است.
مثال:
🔹 وقتی از یک LLM مثل GPT بپرسید: "آیا میتوانی یک متن کوتاه درباره گربهها بنویسی؟"
🔹 مدل بر اساس دادههایی که قبلاً یاد گرفته، متنی درباره گربهها تولید میکند.
🔸 ۲. مدلهای بینایی-زبانی (VLM - Vision-Language Models)
مدلهای VLM ترکیبی از بینایی (تصویر) و زبان (متن) هستند و میتوانند ورودیهایی مانند تصویر و متن را همزمان پردازش کنند. مدلهایی مانند CLIP، BLIP و GPT-4V نمونههای معروفی از این دسته هستند.
✅ چگونه کار میکنند؟
- این مدلها با استفاده از ترکیب شبکههای عصبی بینایی (مانند CNN یا ViT) و مدلهای زبانی (LLM) ساخته میشوند.
- میتوانند یک تصویر را توصیف کنند، متن را در تصویر پیدا کنند، یا به سوالاتی درباره تصویر پاسخ دهند.
مثال:
🔹 اگر یک عکس از یک سگ را به مدل بدهید و بپرسید "این چه نژادی است؟"، مدل با تطبیق تصویر و متن پاسخ مناسب میدهد.
🔹 در ChatGPT با قابلیت بینایی (GPT-4V) میتوان عکسی ارسال کرد و از مدل درباره آن سوال پرسید.
🔸 ۳. مدلهای انتشار (Diffusion Models)
مدلهای انتشار، نوعی از مدلهای مولد هستند که در تولید تصاویر، ویدیو و حتی صدا استفاده میشوند. مدلهایی مانند Stable Diffusion، DALL·E و Midjourney نمونههای مشهور هستند.
✅ چگونه کار میکنند؟
- این مدلها ابتدا با اضافه کردن نویز به تصاویر و سپس یادگیری چگونگی بازگردانی آنها آموزش داده میشوند.
- این فرآیند باعث میشود که مدل بتواند تصاویر واقعی از متن تولید کند.
مثال:
🔹 اگر به مدل Stable Diffusion دستور دهید "یک گربه در حال خواندن کتاب در کنار شومینه" را تولید کن، مدلی که از انتشار استفاده میکند تصویری جدید بر اساس این توضیح ایجاد میکند.
🔸 ۴. مدلهای چندوجهی (Multimodal Models)
مدلهای چندوجهی قادر به پردازش چندین نوع ورودی مانند تصویر، ویدیو، صدا و متن به طور همزمان هستند. این مدلها ترکیبی از LLM، VLM و سایر فناوریها هستند.
✅ چگونه کار میکنند؟
- این مدلها دادههای چندوجهی (Multi-Modal) را با هم ترکیب میکنند.
- میتوانند سوالات متنی را با ترکیب تصویر و صدا پاسخ دهند.
مثال:
🔹مدلهای هوش مصنوعی در خودروهای خودران که همزمان اطلاعات دوربین (تصویر)، رادار (داده سنسور) و متن (فرمانها) را پردازش میکنند.
🔹 مدلهای هوش مصنوعی در پزشکی که میتوانندعکس رادیولوژی و توضیحات پزشک را همزمان تحلیل کنند.
✨ اگر فقط با متن کار داریم؟ LLM بهترین گزینه است.
✨ اگر تصویر و متن را میخواهیم؟ VLM را انتخاب میکنیم.
✨ اگر نیاز به تولید تصاویر جدید از متن داریم؟ Diffusion مناسب است.
✨ اگر چندین نوع ورودی (صوت، تصویر، متن) را ترکیب میکنیم؟ از Multimodal استفاده میکنیم.
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
در این توضیح، سه نوع مدل هوش مصنوعی پیشرفته یعنی مدلهای زبانی بزرگ (LLM)، مدلهای بینایی-زبانی (VLM) و مدلهای انتشار (Diffusion Models) را بررسی میکنیم. همچنین به مدلهای چندوجهی (Multimodal Models) میپردازیم.
🔸 ۱. مدلهای زبانی بزرگ (LLM - Large Language Models)
مدلهای زبانی بزرگ (LLM) مانند GPT-4، BERT و LLaMA، نوعی از مدلهای یادگیری عمیق هستند که توانایی پردازش و تولید زبان طبیعی را دارند.
✅ چگونه کار میکنند؟
- این مدلها بر اساس شبکههای عصبی ترانسفورمر (Transformer) ساخته شدهاند.
- با حجم عظیمی از متن آموزش داده میشوند و میتوانند متون جدید تولید کنند.
- کاربرد اصلی آنها در ترجمه، خلاصهسازی، چتباتها، پاسخگویی به سوالات و تولید محتوا است.
مثال:
🔹 وقتی از یک LLM مثل GPT بپرسید: "آیا میتوانی یک متن کوتاه درباره گربهها بنویسی؟"
🔹 مدل بر اساس دادههایی که قبلاً یاد گرفته، متنی درباره گربهها تولید میکند.
🔸 ۲. مدلهای بینایی-زبانی (VLM - Vision-Language Models)
مدلهای VLM ترکیبی از بینایی (تصویر) و زبان (متن) هستند و میتوانند ورودیهایی مانند تصویر و متن را همزمان پردازش کنند. مدلهایی مانند CLIP، BLIP و GPT-4V نمونههای معروفی از این دسته هستند.
✅ چگونه کار میکنند؟
- این مدلها با استفاده از ترکیب شبکههای عصبی بینایی (مانند CNN یا ViT) و مدلهای زبانی (LLM) ساخته میشوند.
- میتوانند یک تصویر را توصیف کنند، متن را در تصویر پیدا کنند، یا به سوالاتی درباره تصویر پاسخ دهند.
مثال:
🔹 اگر یک عکس از یک سگ را به مدل بدهید و بپرسید "این چه نژادی است؟"، مدل با تطبیق تصویر و متن پاسخ مناسب میدهد.
🔹 در ChatGPT با قابلیت بینایی (GPT-4V) میتوان عکسی ارسال کرد و از مدل درباره آن سوال پرسید.
🔸 ۳. مدلهای انتشار (Diffusion Models)
مدلهای انتشار، نوعی از مدلهای مولد هستند که در تولید تصاویر، ویدیو و حتی صدا استفاده میشوند. مدلهایی مانند Stable Diffusion، DALL·E و Midjourney نمونههای مشهور هستند.
✅ چگونه کار میکنند؟
- این مدلها ابتدا با اضافه کردن نویز به تصاویر و سپس یادگیری چگونگی بازگردانی آنها آموزش داده میشوند.
- این فرآیند باعث میشود که مدل بتواند تصاویر واقعی از متن تولید کند.
مثال:
🔹 اگر به مدل Stable Diffusion دستور دهید "یک گربه در حال خواندن کتاب در کنار شومینه" را تولید کن، مدلی که از انتشار استفاده میکند تصویری جدید بر اساس این توضیح ایجاد میکند.
🔸 ۴. مدلهای چندوجهی (Multimodal Models)
مدلهای چندوجهی قادر به پردازش چندین نوع ورودی مانند تصویر، ویدیو، صدا و متن به طور همزمان هستند. این مدلها ترکیبی از LLM، VLM و سایر فناوریها هستند.
✅ چگونه کار میکنند؟
- این مدلها دادههای چندوجهی (Multi-Modal) را با هم ترکیب میکنند.
- میتوانند سوالات متنی را با ترکیب تصویر و صدا پاسخ دهند.
مثال:
🔹مدلهای هوش مصنوعی در خودروهای خودران که همزمان اطلاعات دوربین (تصویر)، رادار (داده سنسور) و متن (فرمانها) را پردازش میکنند.
🔹 مدلهای هوش مصنوعی در پزشکی که میتوانندعکس رادیولوژی و توضیحات پزشک را همزمان تحلیل کنند.
✨ اگر فقط با متن کار داریم؟ LLM بهترین گزینه است.
✨ اگر تصویر و متن را میخواهیم؟ VLM را انتخاب میکنیم.
✨ اگر نیاز به تولید تصاویر جدید از متن داریم؟ Diffusion مناسب است.
✨ اگر چندین نوع ورودی (صوت، تصویر، متن) را ترکیب میکنیم؟ از Multimodal استفاده میکنیم.
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
👍6🔥1
اتاق برنامه نویسی </>
Photo
✨ شرکت OpenAI امروز یک سری ابزار جدید منتشر کرده است که کمک میکند برنامهنویسان راحتتر بتوانند «ایجنت» (Agent) بسازند.
🧐 حالا «ایجنت» یعنی چی؟
ایجنت یک برنامه یا ابزاری است که به صورت هوشمند کارهایی را به شکل خودکار و بدون دخالت انسان انجام میدهد. مثلاً تصور کن یک ربات هوشمند که میتواند ایمیلهایت را بخواند، جواب بدهد، از اینترنت اطلاعات پیدا کند یا فایلهای زیادی را سریع جستجو کند و جواب دقیقی به تو بدهد. این یک «ایجنت» است.
حالا OpenAI سه ابزار جدید برای ساده کردن ساختن چنین برنامههایی ارائه کرده است:
⚙️ (رابط برنامهنویسی جدید) Responses API
این ابزار جدید کار برنامهنویسها را سادهتر کرده. قبلاً دو ابزار مختلف وجود داشت که کمی پیچیده بودند.
حالا OpenAI یک ابزار جدید درست کرده که از هر دوی آنها بهتر و آسانتر است.
ویژگی این ابزار این است که خودش میتواند به شکل خودکار کارهایی مثل جستجو یا استفاده از ابزارهای دیگر را انجام بدهد و جواب آنها را سریعاً به گفتگوی شما اضافه کند.
- تصور کن به یک دستیار هوشمند میگویی: «قیمت گوشی آیفون امروز چنده؟». دستیار از این ابزار استفاده میکند، در اینترنت جستجو میکند و جواب دقیق و سریع به تو میدهد.
1️⃣ (جستجوی وب) Web Search
این ابزار به برنامه شما کمک میکند تا خیلی راحت به اینترنت وصل شود، سوالهای کاربر را در اینترنت جستجو کند و جوابهای دقیق و همراه با منبع ارائه بدهد.
- تو از دستیار هوشمندت میپرسی: «آب و هوای فردا در تهران چطور است؟». دستیار با این ابزار در اینترنت جستجو میکند و دقیقترین جواب را پیدا میکند و به تو نشان میدهد.
2️⃣ (جستجو در فایلها) File Search
این ابزار اجازه میدهد که برنامه تو بتواند خیلی سریع فایلهای زیادی را بگردد و از داخل آنها اطلاعات موردنظرت را پیدا کند.
- فرض کن صدها فایل PDF یا Word داری و به دنبال یک جمله یا کلمه خاص میگردی. به جای اینکه خودت تک تک آنها را بگردی، «ایجنت» یا برنامه تو با این ابزار به سرعت همه فایلها را میگردد و دقیقاً اطلاعاتی که میخواهی را برایت پیدا میکند.
3️⃣ (ابزار ساخت و مدیریت ایجنتها) Agents SDK
یک ابزاری است که کل مراحل ساخت و مدیریت ایجنتها را خیلی ساده میکند. مثل یک کیت آماده است که پیچیدگیهای زیادی را حذف کرده و برنامهنویسان میتوانند راحتتر ایجنتهای هوشمند بسازند و بررسی کنند که چطور عمل میکنند.
- اگر بخواهی ایجنتی بسازی که پاسخگوی خودکار مشتریان باشد (مثل یک دستیار خودکار برای پاسخ به سوالات کاربران)، با این ابزار میتوانی راحتتر این کار را انجام دهی و حتی بررسی کنی که دستیار چقدر خوب کارش را انجام میدهد و کجاها باید بهتر شود.
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
🧐 حالا «ایجنت» یعنی چی؟
ایجنت یک برنامه یا ابزاری است که به صورت هوشمند کارهایی را به شکل خودکار و بدون دخالت انسان انجام میدهد. مثلاً تصور کن یک ربات هوشمند که میتواند ایمیلهایت را بخواند، جواب بدهد، از اینترنت اطلاعات پیدا کند یا فایلهای زیادی را سریع جستجو کند و جواب دقیقی به تو بدهد. این یک «ایجنت» است.
حالا OpenAI سه ابزار جدید برای ساده کردن ساختن چنین برنامههایی ارائه کرده است:
⚙️ (رابط برنامهنویسی جدید) Responses API
این ابزار جدید کار برنامهنویسها را سادهتر کرده. قبلاً دو ابزار مختلف وجود داشت که کمی پیچیده بودند.
حالا OpenAI یک ابزار جدید درست کرده که از هر دوی آنها بهتر و آسانتر است.
ویژگی این ابزار این است که خودش میتواند به شکل خودکار کارهایی مثل جستجو یا استفاده از ابزارهای دیگر را انجام بدهد و جواب آنها را سریعاً به گفتگوی شما اضافه کند.
- تصور کن به یک دستیار هوشمند میگویی: «قیمت گوشی آیفون امروز چنده؟». دستیار از این ابزار استفاده میکند، در اینترنت جستجو میکند و جواب دقیق و سریع به تو میدهد.
1️⃣ (جستجوی وب) Web Search
این ابزار به برنامه شما کمک میکند تا خیلی راحت به اینترنت وصل شود، سوالهای کاربر را در اینترنت جستجو کند و جوابهای دقیق و همراه با منبع ارائه بدهد.
- تو از دستیار هوشمندت میپرسی: «آب و هوای فردا در تهران چطور است؟». دستیار با این ابزار در اینترنت جستجو میکند و دقیقترین جواب را پیدا میکند و به تو نشان میدهد.
2️⃣ (جستجو در فایلها) File Search
این ابزار اجازه میدهد که برنامه تو بتواند خیلی سریع فایلهای زیادی را بگردد و از داخل آنها اطلاعات موردنظرت را پیدا کند.
- فرض کن صدها فایل PDF یا Word داری و به دنبال یک جمله یا کلمه خاص میگردی. به جای اینکه خودت تک تک آنها را بگردی، «ایجنت» یا برنامه تو با این ابزار به سرعت همه فایلها را میگردد و دقیقاً اطلاعاتی که میخواهی را برایت پیدا میکند.
3️⃣ (ابزار ساخت و مدیریت ایجنتها) Agents SDK
یک ابزاری است که کل مراحل ساخت و مدیریت ایجنتها را خیلی ساده میکند. مثل یک کیت آماده است که پیچیدگیهای زیادی را حذف کرده و برنامهنویسان میتوانند راحتتر ایجنتهای هوشمند بسازند و بررسی کنند که چطور عمل میکنند.
- اگر بخواهی ایجنتی بسازی که پاسخگوی خودکار مشتریان باشد (مثل یک دستیار خودکار برای پاسخ به سوالات کاربران)، با این ابزار میتوانی راحتتر این کار را انجام دهی و حتی بررسی کنی که دستیار چقدر خوب کارش را انجام میدهد و کجاها باید بهتر شود.
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
👍7❤5🔥1
اتاق برنامه نویسی </>
Photo
🎓 درسگفتار ۱: آشنایی با مفاهیم پایهای هوش مصنوعی مولد
1️⃣ هوش مصنوعی مولد (Generative AI)
🔹 تعریف:
مدلی از هوش مصنوعی که قادر به ساختن چیزهای جدید است، مثل متن، تصویر، صدا، کد و...
🔹 مثالها:
- ChatGPT: تولید متن
- DALL·E: تولید تصویر
- MusicLM: تولید موسیقی
- Copilot: نوشتن کد
🔹 کاربردها:
-نوشتن مقاله
-ساخت عکس و ویدیو و ...
2️⃣ مدل هوش مصنوعی چیست؟
🔹 تعریف:
مدل هوش مصنوعی یعنی یک سیستم (یا مغز دیجیتال) که با دیدن مقدار زیادی داده، یاد میگیرد کاری مثل انسان انجام دهد.
🔹 انواع مدلهای هوش مصنوعی:
- مدل زبانی (متن)
- مدل تصویری (عکس)
- مدل صوتی (صدا)
- مدل مولتیمودال (ترکیبی از چند نوع داده)
3️⃣ مدل زبانی (Language Model)
🔹 تعریف:
یک نوع خاص از مدل هوش مصنوعی که با زبان انسان (متن) کار میکند.
🔹 تواناییها:
- نوشتن متن
- پاسخ به سوال
- ترجمه
- خلاصهسازی
- نوشتن کد
🔹 مثال: GPT (مثل GPT-3, GPT-4)
4️⃣ مدل مولتیمودال (Multimodal)
🔹 تعریف:
مدلی که میتونه چند نوع ورودی مختلف رو با هم بفهمه و ترکیب کنه
مثل: متن + تصویر، یا صدا + ویدیو
🔹 مثال:
- تصویر رو هم مثل متن تحلیل میکنه - GPT-4 Vision
- (مدل گوگل) - Gemini: همزمان متن، تصویر، ویدیو، صدا رو میفهمه
5️⃣ آموزش مدلها: چطور یه مدل میتونه "زبانی" بشه؟
1. اول یه مدل خام هوش مصنوعی طراحی میشه (مثل یه مغز بدون تجربه)
2. بعد بهش مقدار زیادی متن داده میشه → میشه مدل زبانی
3. یا بهش تصویر داده میشه → میشه مدل تصویری
4. یا هردو → میشه مدل مولتیمودال
6️⃣ مهندسی پرامپت (Prompt Engineering)
🔹 تعریف:
هنر و مهارت نوشتن دستور مناسب برای هوش مصنوعی، به طوری که بهترین نتیجه رو ازش بگیری.
🔹 مثال:
❌ بد: «برام مقاله بنویس»
✅ خوب: «یک مقالهی ۵ پاراگرافی درباره تأثیر خواب کافی بر مغز، با زبان ساده و یک مثال بنویس»
🔹 کاربردها:
- تولید محتوا دقیقتر
- گرفتن کد بهتر از مدل
- گفتوگوی مؤثرتر با AI
- صرفهجویی در زمان و انرژی
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
1️⃣ هوش مصنوعی مولد (Generative AI)
🔹 تعریف:
مدلی از هوش مصنوعی که قادر به ساختن چیزهای جدید است، مثل متن، تصویر، صدا، کد و...
🔹 مثالها:
- ChatGPT: تولید متن
- DALL·E: تولید تصویر
- MusicLM: تولید موسیقی
- Copilot: نوشتن کد
🔹 کاربردها:
-نوشتن مقاله
-ساخت عکس و ویدیو و ...
2️⃣ مدل هوش مصنوعی چیست؟
🔹 تعریف:
مدل هوش مصنوعی یعنی یک سیستم (یا مغز دیجیتال) که با دیدن مقدار زیادی داده، یاد میگیرد کاری مثل انسان انجام دهد.
🔹 انواع مدلهای هوش مصنوعی:
- مدل زبانی (متن)
- مدل تصویری (عکس)
- مدل صوتی (صدا)
- مدل مولتیمودال (ترکیبی از چند نوع داده)
3️⃣ مدل زبانی (Language Model)
🔹 تعریف:
یک نوع خاص از مدل هوش مصنوعی که با زبان انسان (متن) کار میکند.
🔹 تواناییها:
- نوشتن متن
- پاسخ به سوال
- ترجمه
- خلاصهسازی
- نوشتن کد
🔹 مثال: GPT (مثل GPT-3, GPT-4)
4️⃣ مدل مولتیمودال (Multimodal)
🔹 تعریف:
مدلی که میتونه چند نوع ورودی مختلف رو با هم بفهمه و ترکیب کنه
مثل: متن + تصویر، یا صدا + ویدیو
🔹 مثال:
- تصویر رو هم مثل متن تحلیل میکنه - GPT-4 Vision
- (مدل گوگل) - Gemini: همزمان متن، تصویر، ویدیو، صدا رو میفهمه
5️⃣ آموزش مدلها: چطور یه مدل میتونه "زبانی" بشه؟
1. اول یه مدل خام هوش مصنوعی طراحی میشه (مثل یه مغز بدون تجربه)
2. بعد بهش مقدار زیادی متن داده میشه → میشه مدل زبانی
3. یا بهش تصویر داده میشه → میشه مدل تصویری
4. یا هردو → میشه مدل مولتیمودال
6️⃣ مهندسی پرامپت (Prompt Engineering)
🔹 تعریف:
هنر و مهارت نوشتن دستور مناسب برای هوش مصنوعی، به طوری که بهترین نتیجه رو ازش بگیری.
🔹 مثال:
❌ بد: «برام مقاله بنویس»
✅ خوب: «یک مقالهی ۵ پاراگرافی درباره تأثیر خواب کافی بر مغز، با زبان ساده و یک مثال بنویس»
🔹 کاربردها:
- تولید محتوا دقیقتر
- گرفتن کد بهتر از مدل
- گفتوگوی مؤثرتر با AI
- صرفهجویی در زمان و انرژی
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
👍10❤1🔥1🙏1
اتاق برنامه نویسی </>
Photo
🎓 درسگفتار 2: مدلهای زبانی بزرگ (LLM)
🧠 «پیرمرد باهوشی که فقط از دیدن یاد گرفته!»
بخش اول: مدل زبانی بزرگ یعنی چی؟
فرض کن یه بچهی کنجکاو رو از کودکی مینشونیم و بهش میلیاردها کتاب، گفتگو، مقاله، پیام، شعر، داستان و... نشون میدیم.
اون فقط گوش میده و میخونه؛ و کمکم یاد میگیره چطور مردم فکر میکنن، حرف میزنن، شوخی میکنن یا ناراحت میشن.
حالا دیگه اون بچه پیرمرد باتجربهای شده که میتونه باهات حرف بزنه، شعر بگه، سؤال جواب بده و حتی کدنویسی کنه!
به این مدل میگیم:
مدل زبانی بزرگ (Large Language Model - LLM)
🧐 بخش دوم: LLM چطور کار میکنه؟
مثل یه «پیشگو»ئه که با دیدن چند کلمه، سعی میکنه حدس بزنه جملهی بعدی چی میتونه باشه.
مثال:
تو میگی: «امروز هوا...»
مدل فوراً با خودش میگه:
«تو ۱۰۰ میلیون جملهی مشابه، مردم معمولاً گفتن: هوا خوبه، یا بارونیه... پس احتمال زیاد یکی از اینها درسته.»
❗️این پیشبینی بر اساس الگوهای آماری انجام میشه، نه بر اساس درک واقعی.
⚙️ بخش سوم: پارامتر یعنی چی؟
ما گفتیم LLM مثل یه پیرمرده که کلی تجربه داره — دقیقاً همینطوره!
- توی مدلهای زبانی، این تجربهها تبدیل میشن به یه چیز فنی به اسم "پارامتر"
- هر پارامتر، یه تنظیم کوچیکه که نشون میده مدل چی یاد گرفته
هرچی پارامتر بیشتر = حافظه و قدرت پیشبینی بیشتر
مثلاً مدل GPT-3 حدود 175 میلیارد پارامتر داره!
🧩 بخش چهارم: چرا گاهی اشتباه میکنه؟
با اینکه این پیرمرد دنیا دیده است، اما هنوز ممکنه:
1️⃣ چیزی رو ندیده باشه (همهچیز توی دادهها نبوده)
2️⃣ درکش سطحی باشه (فقط "حدس" میزنه، نه اینکه بفهمه)
3️⃣ سؤال ما گنگ بوده باشه (مدل گیج شده)
4️⃣ منبع دقیق نداشته باشه (حافظهش آماریه، نه کتابی)
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
🧠 «پیرمرد باهوشی که فقط از دیدن یاد گرفته!»
بخش اول: مدل زبانی بزرگ یعنی چی؟
فرض کن یه بچهی کنجکاو رو از کودکی مینشونیم و بهش میلیاردها کتاب، گفتگو، مقاله، پیام، شعر، داستان و... نشون میدیم.
اون فقط گوش میده و میخونه؛ و کمکم یاد میگیره چطور مردم فکر میکنن، حرف میزنن، شوخی میکنن یا ناراحت میشن.
حالا دیگه اون بچه پیرمرد باتجربهای شده که میتونه باهات حرف بزنه، شعر بگه، سؤال جواب بده و حتی کدنویسی کنه!
به این مدل میگیم:
مدل زبانی بزرگ (Large Language Model - LLM)
🧐 بخش دوم: LLM چطور کار میکنه؟
مثل یه «پیشگو»ئه که با دیدن چند کلمه، سعی میکنه حدس بزنه جملهی بعدی چی میتونه باشه.
مثال:
تو میگی: «امروز هوا...»
مدل فوراً با خودش میگه:
«تو ۱۰۰ میلیون جملهی مشابه، مردم معمولاً گفتن: هوا خوبه، یا بارونیه... پس احتمال زیاد یکی از اینها درسته.»
❗️این پیشبینی بر اساس الگوهای آماری انجام میشه، نه بر اساس درک واقعی.
⚙️ بخش سوم: پارامتر یعنی چی؟
ما گفتیم LLM مثل یه پیرمرده که کلی تجربه داره — دقیقاً همینطوره!
- توی مدلهای زبانی، این تجربهها تبدیل میشن به یه چیز فنی به اسم "پارامتر"
- هر پارامتر، یه تنظیم کوچیکه که نشون میده مدل چی یاد گرفته
هرچی پارامتر بیشتر = حافظه و قدرت پیشبینی بیشتر
مثلاً مدل GPT-3 حدود 175 میلیارد پارامتر داره!
🧩 بخش چهارم: چرا گاهی اشتباه میکنه؟
با اینکه این پیرمرد دنیا دیده است، اما هنوز ممکنه:
1️⃣ چیزی رو ندیده باشه (همهچیز توی دادهها نبوده)
2️⃣ درکش سطحی باشه (فقط "حدس" میزنه، نه اینکه بفهمه)
3️⃣ سؤال ما گنگ بوده باشه (مدل گیج شده)
4️⃣ منبع دقیق نداشته باشه (حافظهش آماریه، نه کتابی)
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
🔥6❤2
اتاق برنامه نویسی </>
Photo
🎓 درسگفتار 3: آشنایی با مدلهای ترکیبی بینایی و زبان (VLM)
دنیا پر از تصویر و پر از نوشتهست.
ما آدمها وقتی چیزی میبینیم، همزمان هم تصویرش رو درک میکنیم و هم اگه متنی کنارش باشه، اون رو هم میخونیم و باهم ترکیب میکنیم.
یه عکس از یه سگ کنار دریا میبینی و زیرش نوشته: "سگم عاشق تابستونه!"
تو فوراً متوجه میشی که عکس و نوشته به هم مربوطان. مدلهای VLM هم دقیقاً همین کارو میکنن.
✨ تعریف سادهی VLM:
یعنی Vision-Language Model مدلی که هم میفهمه، هم میبینه، هم میخونه.
این مدلها طوری طراحی شدن که بتونن همزمان:
- تصویرها رو ببینن
- متنها رو بخونن
- و ربط بین اونها رو بفهمن
⚙️ معماری کلی VLM چطوریه؟ (ساختار درونی)
یک مدل VLM معمولاً از ۳ بخش اصلی ساخته شده:
1️⃣ بینایی (Vision Encoder):
عکس رو میگیره و تبدیلش میکنه به خلاصهای عددی که کامپیوتر بفهمه.
2️⃣ زبان (Language Encoder):
متن رو میگیره و اونم تبدیل میکنه به خلاصهای از معنا.
3️⃣ بخش ترکیبکننده (Fusion Module):
جایی که اون دوتا خلاصه به هم میرسن و مدل تصمیم میگیره که چی به چی مربوطه.
✳️ نکته مهم:
همهی اینها داخل یه مدل واحد اتفاق میافته، ولی هر بخش، تخصص خودش رو داره.
🧐 آموزش VLM چطوره؟
مدلهای VLM با یه روش خیلی هوشمند آموزش میبینن:
بهشون عکس و متن مربوط نشون داده میشه.
هدف اینه که یاد بگیرن کدوم متن با کدوم عکس میخوره.
روش آموزش معروفی که استفاده میشه بهش میگن: Contrastive Learning (یادگیری با مقایسه)
در این روش:
- عکس و متن درست باید به هم نزدیک بشن (توی ذهن مدل)
- عکس و متن اشتباه باید از هم دور بشن
مثل اینه که یاد بگیری "عکس سگ" به "متن دربارهی سگ" ربط داره، نه به "پیتزا داغ روی میز".
🔹 آیا VLM بهتر از LLMهاست؟
نه، بهتر نیست — بلکه توانایی متفاوتی داره.
اگه فقط بخوای متن بنویسی یا ترجمه کنی، LLM کافیه.
ولی اگه بخوای از روی تصویر چیزی بفهمی یا متن مرتبط بسازی، VLM لازمه.
🛠 کاربردهای واقعی VLM:
- توصیف خودکار عکسها
- ساخت تصویر از روی متن (Text-to-Image)
- کمک به افراد نابینا با توصیف محیط
- طراحی لباس، آواتار، لوگو و... از روی توضیح
- تحلیل گزارشهای تصویری پزشکی
- ساختن دنیای مجازی و بازیهای تعاملی
🧠 درک نهایی: VLM چطور فکر میکنه؟
هم تصویر رو میبینه
هم متن رو میفهمه
بعد اون دو تا رو توی یه فضای مشترک عددی (embedding space) میذاره و بررسی میکنه که چقدر به هم نزدیکان
مثل یه مترجم تصویری-زبانی که همزمان میتونه نگاه کنه و بفهمه چی داره میشنوه یا میخونه.
📌 خلاصهی کلی:
- در واقع VLMها مدلهایی هستن که تصویر و متن رو با هم تحلیل میکنن.
- معماریشون ترکیبی از مدل بینایی و زبانیه.
- با دادههای "عکس + متن" آموزش میبینن.
- توی زمینههایی که ترکیب تصویر و متن مهمه، بسیار قدرتمندن.
- نمونههای معروفش: CLIP، Flamingo، BLIP و ...
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
دنیا پر از تصویر و پر از نوشتهست.
ما آدمها وقتی چیزی میبینیم، همزمان هم تصویرش رو درک میکنیم و هم اگه متنی کنارش باشه، اون رو هم میخونیم و باهم ترکیب میکنیم.
یه عکس از یه سگ کنار دریا میبینی و زیرش نوشته: "سگم عاشق تابستونه!"
تو فوراً متوجه میشی که عکس و نوشته به هم مربوطان. مدلهای VLM هم دقیقاً همین کارو میکنن.
✨ تعریف سادهی VLM:
یعنی Vision-Language Model مدلی که هم میفهمه، هم میبینه، هم میخونه.
این مدلها طوری طراحی شدن که بتونن همزمان:
- تصویرها رو ببینن
- متنها رو بخونن
- و ربط بین اونها رو بفهمن
⚙️ معماری کلی VLM چطوریه؟ (ساختار درونی)
یک مدل VLM معمولاً از ۳ بخش اصلی ساخته شده:
1️⃣ بینایی (Vision Encoder):
عکس رو میگیره و تبدیلش میکنه به خلاصهای عددی که کامپیوتر بفهمه.
2️⃣ زبان (Language Encoder):
متن رو میگیره و اونم تبدیل میکنه به خلاصهای از معنا.
3️⃣ بخش ترکیبکننده (Fusion Module):
جایی که اون دوتا خلاصه به هم میرسن و مدل تصمیم میگیره که چی به چی مربوطه.
✳️ نکته مهم:
همهی اینها داخل یه مدل واحد اتفاق میافته، ولی هر بخش، تخصص خودش رو داره.
🧐 آموزش VLM چطوره؟
مدلهای VLM با یه روش خیلی هوشمند آموزش میبینن:
بهشون عکس و متن مربوط نشون داده میشه.
هدف اینه که یاد بگیرن کدوم متن با کدوم عکس میخوره.
روش آموزش معروفی که استفاده میشه بهش میگن: Contrastive Learning (یادگیری با مقایسه)
در این روش:
- عکس و متن درست باید به هم نزدیک بشن (توی ذهن مدل)
- عکس و متن اشتباه باید از هم دور بشن
مثل اینه که یاد بگیری "عکس سگ" به "متن دربارهی سگ" ربط داره، نه به "پیتزا داغ روی میز".
🔹 آیا VLM بهتر از LLMهاست؟
نه، بهتر نیست — بلکه توانایی متفاوتی داره.
اگه فقط بخوای متن بنویسی یا ترجمه کنی، LLM کافیه.
ولی اگه بخوای از روی تصویر چیزی بفهمی یا متن مرتبط بسازی، VLM لازمه.
🛠 کاربردهای واقعی VLM:
- توصیف خودکار عکسها
- ساخت تصویر از روی متن (Text-to-Image)
- کمک به افراد نابینا با توصیف محیط
- طراحی لباس، آواتار، لوگو و... از روی توضیح
- تحلیل گزارشهای تصویری پزشکی
- ساختن دنیای مجازی و بازیهای تعاملی
🧠 درک نهایی: VLM چطور فکر میکنه؟
هم تصویر رو میبینه
هم متن رو میفهمه
بعد اون دو تا رو توی یه فضای مشترک عددی (embedding space) میذاره و بررسی میکنه که چقدر به هم نزدیکان
مثل یه مترجم تصویری-زبانی که همزمان میتونه نگاه کنه و بفهمه چی داره میشنوه یا میخونه.
📌 خلاصهی کلی:
- در واقع VLMها مدلهایی هستن که تصویر و متن رو با هم تحلیل میکنن.
- معماریشون ترکیبی از مدل بینایی و زبانیه.
- با دادههای "عکس + متن" آموزش میبینن.
- توی زمینههایی که ترکیب تصویر و متن مهمه، بسیار قدرتمندن.
- نمونههای معروفش: CLIP، Flamingo، BLIP و ...
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
👏2❤1🔥1
https://youtu.be/7xOHcoLusQ8?si=pm8v_CBotgP_YsCe
🧠 همیشه میگن: «مدل رو آموزش دادن»
اما واقعاً یعنی چی؟
چطوری یه مدل خام، بدون ذرهای دانش، تبدیل میشه به یه پاسخگو، تحلیلگر، و متخصص؟
توی این اپیزود، دقیقاً به همین سؤال جواب میدیم.
از Pre-training تا Fine-tuning و کلی نکته ظریف اما مهم!
🎥 ببین چه اتفاقی میافته وقتی دادهها، مغز یه مدل رو میسازن...
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
🧠 همیشه میگن: «مدل رو آموزش دادن»
اما واقعاً یعنی چی؟
چطوری یه مدل خام، بدون ذرهای دانش، تبدیل میشه به یه پاسخگو، تحلیلگر، و متخصص؟
توی این اپیزود، دقیقاً به همین سؤال جواب میدیم.
از Pre-training تا Fine-tuning و کلی نکته ظریف اما مهم!
🎥 ببین چه اتفاقی میافته وقتی دادهها، مغز یه مدل رو میسازن...
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
YouTube
چطور به مدل هوش مصنوعی یاد بدیم؟
چطور به مدل هوش مصنوعی یاد بدیم؟
راز آموزش مدلهای هوش مصنوعی | از خوراک دادهها تا مغز دیجیتال!
سلام!
من ابراهیم هستم از کانال PapiDon State 👋
و توی این قسمت قراره با هم یه سفر جذاب و عمیق داشته باشیم داخل مغز مدلهای هوش مصنوعی!
📌 شاید برات سوال باشه:…
راز آموزش مدلهای هوش مصنوعی | از خوراک دادهها تا مغز دیجیتال!
سلام!
من ابراهیم هستم از کانال PapiDon State 👋
و توی این قسمت قراره با هم یه سفر جذاب و عمیق داشته باشیم داخل مغز مدلهای هوش مصنوعی!
📌 شاید برات سوال باشه:…
👍8❤4🔥1
اتاق برنامه نویسی </>
Photo
✨ درباره Codex اینکه چیه و دقیقا چه کاری انجام میدهد ؟
یک cloud-based software engineering agent هست، یعنی یک دستیار برنامهنویس که روی فضای ابری کار میکنه. این ابزار توسط OpenAI ساخته شده و مدل قدرتمند codex-1 پشت اون قرار داره.
کاری که Codex انجام میده اینه:
- میتونه چند تا task (وظیفه برنامهنویسی) رو همزمان انجام بده
- به جای اینکه فقط به یه سؤال ساده جواب بده، میتونه یک ویژگی جدید تو کدت بسازه، باگها رو برطرف کنه، Pull Request بنویسه، تست بگیره و حتی خودش بررسی کنه که آیا چیزی درست کار میکنه یا نه.
و همه اینا رو در یک محیط امن و ایزوله توی cloud اجرا میکنه، جایی که به کدهای پروژهات دسترسی داره ولی به اینترنت دسترسی نداره (برای امنیت بیشتر).
🛠 چه کارهایی از Codex برمیاد؟
کافیه پروژهت رو بهش بدی، بعد میتونی ازش بخوای:
🔸 یه بخش جدید از اپلیکیشن بنویسه
🔹 یه feature موجود رو اصلاح کنه یا گسترش بده
🔸 یه bug خاص رو پیدا کنه و فیکسش کنه
🔹سوال بپرسی که «این کد چی کار میکنه؟» یا «چرا فلان بخش مشکل داره؟»
🔸 تست بنویسه یا اجرای تستها رو بررسی کنه
🔹 حتی خودش بهت پیشنهاد بده که چی میتونی به پروژهات اضافه کنی
هر تسک، یه محیط اختصاصی خودش رو داره، یعنی انگار هر کار رو توی یه اتاق جداگانه انجام میده.
⚙️ چطور از Codex استفاده کنیم؟
برای استفاده از Codex الان چند راه وجود داره:
1️⃣ ChatGPT Web App (نسخه حرفهای)
فعلاً درون ChatGPT در دسترسه ولی فقط برای کاربران این پلنها:
ChatGPT Pro
ChatGPT Team
ChatGPT Enterprise
(برای Plus users هم گفته شده بهزودی فعال میشه)
اگر به یکی از این پلنها دسترسی داری، وقتی وارد ChatGPT میشی در سمت چپ (sidebar) یه گزینه جدید به اسم "Code Interpreter" یا "Codex" میبینی.
توی اون بخش:
میتونی یک تسک جدید تعریف کنی (مثلاً: Add login feature)
یا ازش سؤال بپرسی (مثلاً: Why is this function not working?)
یا حتی یه تسک پیچیده بهش بدی و پیشرفت کارش رو لحظهای ببینی
2️⃣ Codex CLI (Command Line Interface)
اگه اهل ترمینال و محیطهای سبک هستی، OpenAI یه ابزار دیگه هم منتشر کرده به اسم Codex CLI
این ابزار منبعباز (open-source) هست و از GitHub میتونی بگیری:
🔗 GitHub repo
با Codex CLI میتونی مستقیم توی ترمینال باهاش کار کنی. مثلا بگی:
🔐 امنیت و محیط اجرا
به اینترنت دسترسی نداره و فقط به محیط پروژهات دسترسی داره. یعنی نه میتونه اطلاعات جایی آپلود کنه و نه چیزی از بیرون بگیره.
اینطوری محیطش هم امنتره، هم کنترلشدهتر.
و چون همه چی توی محیط ابری (Cloud sandbox) اجرا میشه، هیچ فایلی روی کامپیوترت دستکاری نمیشه مگر خودت بخوای.
💼 قیمت و دسترسی
تا الان:
استفاده برای کاربران Pro, Team و Enterprise فعاله
کاربران Plus به زودی دسترسی پیدا میکنن
در حال حاضر در preview mode هست و رایگانه (البته ممکنه بعدا پولی یا محدود بشه)
🌍 لینکهای مفید
معرفی رسمی از طرف OpenAI:
Codex CLIدر گیتهاب
ویدیوی معرفی در یوتیوب
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
یک cloud-based software engineering agent هست، یعنی یک دستیار برنامهنویس که روی فضای ابری کار میکنه. این ابزار توسط OpenAI ساخته شده و مدل قدرتمند codex-1 پشت اون قرار داره.
کاری که Codex انجام میده اینه:
- میتونه چند تا task (وظیفه برنامهنویسی) رو همزمان انجام بده
- به جای اینکه فقط به یه سؤال ساده جواب بده، میتونه یک ویژگی جدید تو کدت بسازه، باگها رو برطرف کنه، Pull Request بنویسه، تست بگیره و حتی خودش بررسی کنه که آیا چیزی درست کار میکنه یا نه.
و همه اینا رو در یک محیط امن و ایزوله توی cloud اجرا میکنه، جایی که به کدهای پروژهات دسترسی داره ولی به اینترنت دسترسی نداره (برای امنیت بیشتر).
🛠 چه کارهایی از Codex برمیاد؟
کافیه پروژهت رو بهش بدی، بعد میتونی ازش بخوای:
🔸 یه بخش جدید از اپلیکیشن بنویسه
🔹 یه feature موجود رو اصلاح کنه یا گسترش بده
🔸 یه bug خاص رو پیدا کنه و فیکسش کنه
🔹سوال بپرسی که «این کد چی کار میکنه؟» یا «چرا فلان بخش مشکل داره؟»
🔸 تست بنویسه یا اجرای تستها رو بررسی کنه
🔹 حتی خودش بهت پیشنهاد بده که چی میتونی به پروژهات اضافه کنی
هر تسک، یه محیط اختصاصی خودش رو داره، یعنی انگار هر کار رو توی یه اتاق جداگانه انجام میده.
⚙️ چطور از Codex استفاده کنیم؟
برای استفاده از Codex الان چند راه وجود داره:
1️⃣ ChatGPT Web App (نسخه حرفهای)
فعلاً درون ChatGPT در دسترسه ولی فقط برای کاربران این پلنها:
ChatGPT Pro
ChatGPT Team
ChatGPT Enterprise
(برای Plus users هم گفته شده بهزودی فعال میشه)
اگر به یکی از این پلنها دسترسی داری، وقتی وارد ChatGPT میشی در سمت چپ (sidebar) یه گزینه جدید به اسم "Code Interpreter" یا "Codex" میبینی.
توی اون بخش:
میتونی یک تسک جدید تعریف کنی (مثلاً: Add login feature)
یا ازش سؤال بپرسی (مثلاً: Why is this function not working?)
یا حتی یه تسک پیچیده بهش بدی و پیشرفت کارش رو لحظهای ببینی
2️⃣ Codex CLI (Command Line Interface)
اگه اهل ترمینال و محیطهای سبک هستی، OpenAI یه ابزار دیگه هم منتشر کرده به اسم Codex CLI
این ابزار منبعباز (open-source) هست و از GitHub میتونی بگیری:
🔗 GitHub repo
با Codex CLI میتونی مستقیم توی ترمینال باهاش کار کنی. مثلا بگی:
codex edit app.js "Convert this to use async/await"
🔐 امنیت و محیط اجرا
به اینترنت دسترسی نداره و فقط به محیط پروژهات دسترسی داره. یعنی نه میتونه اطلاعات جایی آپلود کنه و نه چیزی از بیرون بگیره.
اینطوری محیطش هم امنتره، هم کنترلشدهتر.
و چون همه چی توی محیط ابری (Cloud sandbox) اجرا میشه، هیچ فایلی روی کامپیوترت دستکاری نمیشه مگر خودت بخوای.
💼 قیمت و دسترسی
تا الان:
استفاده برای کاربران Pro, Team و Enterprise فعاله
کاربران Plus به زودی دسترسی پیدا میکنن
در حال حاضر در preview mode هست و رایگانه (البته ممکنه بعدا پولی یا محدود بشه)
🌍 لینکهای مفید
معرفی رسمی از طرف OpenAI:
Codex CLIدر گیتهاب
ویدیوی معرفی در یوتیوب
📁 #AI
✅ کانال تخصصی لاراول
📌 @PapiDon_state
☕️ اتاق برنامهنویسی
📌 @PapiDon_coding
GitHub
GitHub - openai/codex: Lightweight coding agent that runs in your terminal
Lightweight coding agent that runs in your terminal - openai/codex
🔥2❤1