اتاق برنامه نویسی </>
405 subscribers
63 photos
1 video
7 links
📌 کانال آموزش لاراول
@PapiDon_state
Download Telegram
اتاق برنامه نویسی </>
Photo
📢 افزونه BLACKBOX AI برای Visual Studio Code

🧐 معرفی BLACKBOX AI

یک دستیار کدنویسی مبتنی بر هوش مصنوعی است که به توسعه‌دهندگان کمک می‌کند تا با فراهم آوردن تکمیل خودکار کد، اسناد و پیشنهادات اشکال‌زدایی، کدنویسی را ساده‌تر و سریع‌تر کنند. این ابزار با انواع ابزارهای توسعه‌دهنده یکپارچه شده و استفاده از آن در جریان کار شما، آسان است.

⚙️ ویژگی‌های کلیدی BLACKBOX AI

1️⃣ گفتگوی کد (Code Chat): BLACKBOX AI می‌تواند به سوالات برنامه‌نویسی پاسخ دهد.

2️⃣ تکمیل خودکار کد (Code Autocomplete): این ویژگی به توسعه‌دهندگان کمک می‌کند تا سریع‌تر کد بنویسند و برای بیش از 20 زبان برنامه‌نویسی از جمله Python, JavaScript, TypeScript, Go و Ruby در دسترس است.

3️⃣ ایجاد خودکار پیام‌های (AI Commit): با یک کلیک، می‌توانید پیام کامیت برای پروژه‌های خود ایجاد کنید.

4️⃣ نظردهی خودکار برای کد (Code Comment): این قابلیت، امکان ایجاد خودکار نظر برای کدها را فراهم می‌کند.

5️⃣ پیشنهادات کد (Code Suggestions): با یک کلیک، پیشنهادات کد ایجاد می‌شود.

6️⃣ تولید کد در ویرایشگر (In-Editor Generate Code): این ویژگی به شما اجازه می‌دهد تا با کلیک راست در داخل ویرایشگر متن، کد ادامه‌دار یا بر اساس نظر شما ایجاد کند.

7️⃣ مشاهده تفاوت‌ها (DIFF View): این قابلیت اجازه می‌دهد تغییرات در پروژه خود را به سرعت ردیابی کنید و توضیحات مختصری را برای درک بهتر تحول پروژه فراهم می‌کند.


💻 چگونگی ادغام BLACKBOX AI در جریان کار

این افزونه برای Visual Studio Code طراحی شده
🔗 https://marketplace.visualstudio.com/items?itemName=Blackboxapp.blackbox


📁 #AI #VisualStudioCode

یه لایک هم بزن که خستگی ما دربیاد که انرژی بیشتری بگیریم تا مطالب خفن‌تری براتون آماده کنیم. 😉🫶



کانال تخصصی لاراول
📌 @PapiDon_state

☕️ اتاق برنامه نویسی </>
📌 @PapiDon_coding
👍161
اتاق برنامه نویسی </>
Photo
⚜️ مدل‌های نوین در هوش مصنوعی: LLM، VLM و Diffusion و مدل‌های چندوجهی Multimodal Models

در این توضیح، سه نوع مدل هوش مصنوعی پیشرفته یعنی مدل‌های زبانی بزرگ (LLM)، مدل‌های بینایی-زبانی (VLM) و مدل‌های انتشار (Diffusion Models) را بررسی می‌کنیم. همچنین به مدل‌های چندوجهی (Multimodal Models) می‌پردازیم.


🔸 ۱. مدل‌های زبانی بزرگ (LLM - Large Language Models)

مدل‌های زبانی بزرگ (LLM) مانند GPT-4، BERT و LLaMA، نوعی از مدل‌های یادگیری عمیق هستند که توانایی پردازش و تولید زبان طبیعی را دارند.

چگونه کار می‌کنند؟
- این مدل‌ها بر اساس شبکه‌های عصبی ترانسفورمر (Transformer) ساخته شده‌اند.
- با حجم عظیمی از متن آموزش داده می‌شوند و می‌توانند متون جدید تولید کنند.
- کاربرد اصلی آن‌ها در ترجمه، خلاصه‌سازی، چت‌بات‌ها، پاسخ‌گویی به سوالات و تولید محتوا است.

مثال:
🔹 وقتی از یک LLM مثل GPT بپرسید: "آیا می‌توانی یک متن کوتاه درباره گربه‌ها بنویسی؟"
🔹 مدل بر اساس داده‌هایی که قبلاً یاد گرفته، متنی درباره گربه‌ها تولید می‌کند.


🔸 ۲. مدل‌های بینایی-زبانی (VLM - Vision-Language Models)

مدل‌های VLM ترکیبی از بینایی (تصویر) و زبان (متن) هستند و می‌توانند ورودی‌هایی مانند تصویر و متن را همزمان پردازش کنند. مدل‌هایی مانند CLIP، BLIP و GPT-4V نمونه‌های معروفی از این دسته هستند.

چگونه کار می‌کنند؟
- این مدل‌ها با استفاده از ترکیب شبکه‌های عصبی بینایی (مانند CNN یا ViT) و مدل‌های زبانی (LLM) ساخته می‌شوند.
- می‌توانند یک تصویر را توصیف کنند، متن را در تصویر پیدا کنند، یا به سوالاتی درباره تصویر پاسخ دهند.

مثال:
🔹 اگر یک عکس از یک سگ را به مدل بدهید و بپرسید "این چه نژادی است؟"، مدل با تطبیق تصویر و متن پاسخ مناسب می‌دهد.
🔹 در ChatGPT با قابلیت بینایی (GPT-4V) می‌توان عکسی ارسال کرد و از مدل درباره آن سوال پرسید.



🔸 ۳. مدل‌های انتشار (Diffusion Models)
مدل‌های انتشار، نوعی از مدل‌های مولد هستند که در تولید تصاویر، ویدیو و حتی صدا استفاده می‌شوند. مدل‌هایی مانند Stable Diffusion، DALL·E و Midjourney نمونه‌های مشهور هستند.

چگونه کار می‌کنند؟
- این مدل‌ها ابتدا با اضافه کردن نویز به تصاویر و سپس یادگیری چگونگی بازگردانی آن‌ها آموزش داده می‌شوند.
- این فرآیند باعث می‌شود که مدل بتواند تصاویر واقعی از متن تولید کند.

مثال:
🔹 اگر به مدل Stable Diffusion دستور دهید "یک گربه در حال خواندن کتاب در کنار شومینه" را تولید کن، مدلی که از انتشار استفاده می‌کند تصویری جدید بر اساس این توضیح ایجاد می‌کند.


🔸 ۴. مدل‌های چندوجهی (Multimodal Models)
مدل‌های چندوجهی قادر به پردازش چندین نوع ورودی مانند تصویر، ویدیو، صدا و متن به طور همزمان هستند. این مدل‌ها ترکیبی از LLM، VLM و سایر فناوری‌ها هستند.

چگونه کار می‌کنند؟
- این مدل‌ها داده‌های چندوجهی (Multi-Modal) را با هم ترکیب می‌کنند.
- می‌توانند سوالات متنی را با ترکیب تصویر و صدا پاسخ دهند.

مثال:
🔹مدل‌های هوش مصنوعی در خودروهای خودران که همزمان اطلاعات دوربین (تصویر)، رادار (داده سنسور) و متن (فرمان‌ها) را پردازش می‌کنند.
🔹 مدل‌های هوش مصنوعی در پزشکی که می‌توانندعکس رادیولوژی و توضیحات پزشک را همزمان تحلیل کنند.


اگر فقط با متن کار داریم؟ LLM بهترین گزینه است.
اگر تصویر و متن را می‌خواهیم؟ VLM را انتخاب می‌کنیم.
اگر نیاز به تولید تصاویر جدید از متن داریم؟ Diffusion مناسب است.
اگر چندین نوع ورودی (صوت، تصویر، متن) را ترکیب می‌کنیم؟ از Multimodal استفاده می‌کنیم.



📁 #AI

کانال تخصصی لاراول
📌 @PapiDon_state

☕️ اتاق برنامه‌نویسی
📌 @PapiDon_coding
👍6🔥1
اتاق برنامه نویسی </>
Photo
شرکت OpenAI امروز یک سری ابزار جدید منتشر کرده است که کمک می‌کند برنامه‌نویسان راحت‌تر بتوانند «ایجنت» (Agent) بسازند.

🧐 حالا «ایجنت» یعنی چی؟

ایجنت یک برنامه یا ابزاری است که به صورت هوشمند کارهایی را به شکل خودکار و بدون دخالت انسان انجام می‌دهد. مثلاً تصور کن یک ربات هوشمند که می‌تواند ایمیل‌هایت را بخواند، جواب بدهد، از اینترنت اطلاعات پیدا کند یا فایل‌های زیادی را سریع جستجو کند و جواب دقیقی به تو بدهد. این یک «ایجنت» است.

حالا OpenAI سه ابزار جدید برای ساده کردن ساختن چنین برنامه‌هایی ارائه کرده است:

⚙️ (رابط برنامه‌نویسی جدید) Responses API

این ابزار جدید کار برنامه‌نویس‌ها را ساده‌تر کرده. قبلاً دو ابزار مختلف وجود داشت که کمی پیچیده بودند.

حالا OpenAI یک ابزار جدید درست کرده که از هر دوی آن‌ها بهتر و آسان‌تر است.

ویژگی این ابزار این است که خودش می‌تواند به شکل خودکار کارهایی مثل جستجو یا استفاده از ابزارهای دیگر را انجام بدهد و جواب آن‌ها را سریعاً به گفتگوی شما اضافه کند.

- تصور کن به یک دستیار هوشمند می‌گویی: «قیمت گوشی آیفون امروز چنده؟». دستیار از این ابزار استفاده می‌کند، در اینترنت جستجو می‌کند و جواب دقیق و سریع به تو می‌دهد.

1️⃣ (جستجوی وب) Web Search

این ابزار به برنامه شما کمک می‌کند تا خیلی راحت به اینترنت وصل شود، سوال‌های کاربر را در اینترنت جستجو کند و جواب‌های دقیق و همراه با منبع ارائه بدهد.

- تو از دستیار هوشمندت می‌پرسی: «آب و هوای فردا در تهران چطور است؟». دستیار با این ابزار در اینترنت جستجو می‌کند و دقیق‌ترین جواب را پیدا می‌کند و به تو نشان می‌دهد.

2️⃣ (جستجو در فایل‌ها) File Search

این ابزار اجازه می‌دهد که برنامه تو بتواند خیلی سریع فایل‌های زیادی را بگردد و از داخل آن‌ها اطلاعات موردنظرت را پیدا کند.

- فرض کن صدها فایل PDF یا Word داری و به دنبال یک جمله یا کلمه خاص می‌گردی. به جای اینکه خودت تک تک آن‌ها را بگردی، «ایجنت» یا برنامه تو با این ابزار به سرعت همه فایل‌ها را می‌گردد و دقیقاً اطلاعاتی که می‌خواهی را برایت پیدا می‌کند.


3️⃣ (ابزار ساخت و مدیریت ایجنت‌ها) Agents SDK

یک ابزاری است که کل مراحل ساخت و مدیریت ایجنت‌ها را خیلی ساده می‌کند. مثل یک کیت آماده است که پیچیدگی‌های زیادی را حذف کرده و برنامه‌نویسان می‌توانند راحت‌تر ایجنت‌های هوشمند بسازند و بررسی کنند که چطور عمل می‌کنند.

- اگر بخواهی ایجنتی بسازی که پاسخگوی خودکار مشتریان باشد (مثل یک دستیار خودکار برای پاسخ به سوالات کاربران)، با این ابزار می‌توانی راحت‌تر این کار را انجام دهی و حتی بررسی کنی که دستیار چقدر خوب کارش را انجام می‌دهد و کجاها باید بهتر شود.




📁 #AI

کانال تخصصی لاراول
📌 @PapiDon_state

☕️ اتاق برنامه‌نویسی
📌 @PapiDon_coding
👍75🔥1
اتاق برنامه نویسی </>
Photo
🎓 درسگفتار ۱: آشنایی با مفاهیم پایه‌ای هوش مصنوعی مولد


1️⃣ هوش مصنوعی مولد (Generative AI)

🔹 تعریف:
مدلی از هوش مصنوعی که قادر به ساختن چیزهای جدید است، مثل متن، تصویر، صدا، کد و...

🔹 مثال‌ها:

- ChatGPT: تولید متن
- DALL·E: تولید تصویر
- MusicLM: تولید موسیقی
- Copilot: نوشتن کد

🔹 کاربردها:

-نوشتن مقاله
-ساخت عکس و ویدیو و ...

2️⃣ مدل هوش مصنوعی چیست؟

🔹 تعریف:
مدل هوش مصنوعی یعنی یک سیستم (یا مغز دیجیتال) که با دیدن مقدار زیادی داده، یاد می‌گیرد کاری مثل انسان انجام دهد.

🔹 انواع مدل‌های هوش مصنوعی:

- مدل زبانی (متن)
- مدل تصویری (عکس)
- مدل صوتی (صدا)
- مدل مولتی‌مودال (ترکیبی از چند نوع داده)

3️⃣ مدل زبانی (Language Model)

🔹 تعریف:
یک نوع خاص از مدل هوش مصنوعی که با زبان انسان (متن) کار می‌کند.

🔹 توانایی‌ها:

- نوشتن متن
- پاسخ به سوال
- ترجمه
- خلاصه‌سازی
- نوشتن کد

🔹 مثال: GPT (مثل GPT-3, GPT-4)

4️⃣ مدل مولتی‌مودال (Multimodal)

🔹 تعریف:
مدلی که می‌تونه چند نوع ورودی مختلف رو با هم بفهمه و ترکیب کنه
مثل: متن + تصویر، یا صدا + ویدیو

🔹 مثال:
- تصویر رو هم مثل متن تحلیل می‌کنه - GPT-4 Vision
- (مدل گوگل) - Gemini: همزمان متن، تصویر، ویدیو، صدا رو می‌فهمه

5️⃣ آموزش مدل‌ها: چطور یه مدل می‌تونه "زبانی" بشه؟

1. اول یه مدل خام هوش مصنوعی طراحی می‌شه (مثل یه مغز بدون تجربه)
2. بعد بهش مقدار زیادی متن داده می‌شه → می‌شه مدل زبانی
3. یا بهش تصویر داده می‌شه → می‌شه مدل تصویری
4. یا هردو → می‌شه مدل مولتی‌مودال

6️⃣ مهندسی پرامپت (Prompt Engineering)

🔹 تعریف:
هنر و مهارت نوشتن دستور مناسب برای هوش مصنوعی، به طوری که بهترین نتیجه رو ازش بگیری.

🔹 مثال:

بد: «برام مقاله بنویس»

خوب: «یک مقاله‌ی ۵ پاراگرافی درباره تأثیر خواب کافی بر مغز، با زبان ساده و یک مثال بنویس»

🔹 کاربردها:

- تولید محتوا دقیق‌تر
- گرفتن کد بهتر از مدل
- گفت‌وگوی مؤثرتر با AI
- صرفه‌جویی در زمان و انرژی



📁 #AI

کانال تخصصی لاراول
📌 @PapiDon_state

☕️ اتاق برنامه‌نویسی
📌 @PapiDon_coding
👍101🔥1🙏1
اتاق برنامه نویسی </>
Photo
🎓 درسگفتار 2: مدل‌های زبانی بزرگ (LLM)

🧠 «پیرمرد باهوشی که فقط از دیدن یاد گرفته!»

بخش اول: مدل زبانی بزرگ یعنی چی؟

فرض کن یه بچه‌ی کنجکاو رو از کودکی می‌نشونیم و بهش میلیاردها کتاب، گفتگو، مقاله، پیام، شعر، داستان و... نشون می‌دیم.
اون فقط گوش می‌ده و می‌خونه؛ و کم‌کم یاد می‌گیره چطور مردم فکر می‌کنن، حرف می‌زنن، شوخی می‌کنن یا ناراحت می‌شن.

حالا دیگه اون بچه پیرمرد باتجربه‌ای شده که می‌تونه باهات حرف بزنه، شعر بگه، سؤال جواب بده و حتی کدنویسی کنه!

به این مدل می‌گیم:

مدل زبانی بزرگ (Large Language Model - LLM)

🧐 بخش دوم: LLM چطور کار می‌کنه؟

مثل یه «پیشگو»ئه که با دیدن چند کلمه، سعی می‌کنه حدس بزنه جمله‌ی بعدی چی می‌تونه باشه.

مثال:
تو می‌گی: «امروز هوا...»
مدل فوراً با خودش می‌گه:
«تو ۱۰۰ میلیون جمله‌ی مشابه، مردم معمولاً گفتن: هوا خوبه، یا بارونیه... پس احتمال زیاد یکی از این‌ها درسته.»

❗️این پیش‌بینی بر اساس الگوهای آماری انجام می‌شه، نه بر اساس درک واقعی.

⚙️ بخش سوم: پارامتر یعنی چی؟

ما گفتیم LLM مثل یه پیرمرده که کلی تجربه داره — دقیقاً همین‌طوره!

- توی مدل‌های زبانی، این تجربه‌ها تبدیل می‌شن به یه چیز فنی به اسم "پارامتر"

- هر پارامتر، یه تنظیم کوچیکه که نشون می‌ده مدل چی یاد گرفته

هرچی پارامتر بیشتر = حافظه و قدرت پیش‌بینی بیشتر

مثلاً مدل GPT-3 حدود 175 میلیارد پارامتر داره!

🧩 بخش چهارم: چرا گاهی اشتباه می‌کنه؟

با اینکه این پیرمرد دنیا دیده است، اما هنوز ممکنه:

1️⃣ چیزی رو ندیده باشه (همه‌چیز توی داده‌ها نبوده)

2️⃣ درکش سطحی باشه (فقط "حدس" می‌زنه، نه اینکه بفهمه)

3️⃣ سؤال ما گنگ بوده باشه (مدل گیج شده)

4️⃣ منبع دقیق نداشته باشه (حافظه‌ش آماریه، نه کتابی)



📁 #AI

کانال تخصصی لاراول
📌 @PapiDon_state

☕️ اتاق برنامه‌نویسی
📌 @PapiDon_coding
🔥62
اتاق برنامه نویسی </>
Photo
🎓 درسگفتار 3: آشنایی با مدل‌های ترکیبی بینایی و زبان (VLM)

دنیا پر از تصویر و پر از نوشته‌ست.
ما آدم‌ها وقتی چیزی می‌بینیم، همزمان هم تصویرش رو درک می‌کنیم و هم اگه متنی کنارش باشه، اون رو هم می‌خونیم و باهم ترکیب می‌کنیم.

یه عکس از یه سگ کنار دریا می‌بینی و زیرش نوشته: "سگم عاشق تابستونه!"
تو فوراً متوجه می‌شی که عکس و نوشته به هم مربوط‌ان. مدل‌های VLM هم دقیقاً همین کارو می‌کنن.

تعریف ساده‌ی VLM:

یعنی Vision-Language Model مدلی که هم می‌فهمه، هم می‌بینه، هم می‌خونه.

این مدل‌ها طوری طراحی شدن که بتونن همزمان:

- تصویرها رو ببینن
- متن‌ها رو بخونن
- و ربط بین اون‌ها رو بفهمن

⚙️ معماری کلی VLM چطوریه؟ (ساختار درونی)

یک مدل VLM معمولاً از ۳ بخش اصلی ساخته شده:

1️⃣ بینایی (Vision Encoder):
عکس رو می‌گیره و تبدیلش می‌کنه به خلاصه‌ای عددی که کامپیوتر بفهمه.

2️⃣ زبان (Language Encoder):
متن رو می‌گیره و اونم تبدیل می‌کنه به خلاصه‌ای از معنا.

3️⃣ بخش ترکیب‌کننده (Fusion Module):
جایی که اون دوتا خلاصه به هم می‌رسن و مدل تصمیم می‌گیره که چی به چی مربوطه.

✳️ نکته مهم:
همه‌ی این‌ها داخل یه مدل واحد اتفاق می‌افته، ولی هر بخش، تخصص خودش رو داره.


🧐 آموزش VLM چطوره؟

مدل‌های VLM با یه روش خیلی هوشمند آموزش می‌بینن:

بهشون عکس و متن مربوط نشون داده می‌شه.
هدف اینه که یاد بگیرن کدوم متن با کدوم عکس می‌خوره.

روش آموزش معروفی که استفاده می‌شه بهش می‌گن: Contrastive Learning (یادگیری با مقایسه)

در این روش:

- عکس و متن درست باید به هم نزدیک بشن (توی ذهن مدل)
- عکس و متن اشتباه باید از هم دور بشن

مثل اینه که یاد بگیری "عکس سگ" به "متن درباره‌ی سگ" ربط داره، نه به "پیتزا داغ روی میز".

🔹 آیا VLM بهتر از LLMهاست؟

نه، بهتر نیست — بلکه توانایی متفاوتی داره.

اگه فقط بخوای متن بنویسی یا ترجمه کنی، LLM کافیه.
ولی اگه بخوای از روی تصویر چیزی بفهمی یا متن مرتبط بسازی، VLM لازمه.

🛠 کاربردهای واقعی VLM:

- توصیف خودکار عکس‌ها
- ساخت تصویر از روی متن (Text-to-Image)
- کمک به افراد نابینا با توصیف محیط
- طراحی لباس، آواتار، لوگو و... از روی توضیح
- تحلیل گزارش‌های تصویری پزشکی
- ساختن دنیای مجازی و بازی‌های تعاملی

🧠 درک نهایی: VLM چطور فکر می‌کنه؟

هم تصویر رو می‌بینه
هم متن رو می‌فهمه
بعد اون دو تا رو توی یه فضای مشترک عددی (embedding space) می‌ذاره و بررسی می‌کنه که چقدر به هم نزدیک‌ان

مثل یه مترجم تصویری-زبانی که همزمان می‌تونه نگاه کنه و بفهمه چی داره می‌شنوه یا می‌خونه.

📌 خلاصه‌ی کلی:

- در واقع VLMها مدل‌هایی هستن که تصویر و متن رو با هم تحلیل می‌کنن.
- معماری‌شون ترکیبی از مدل بینایی و زبانیه.
- با داده‌های "عکس + متن" آموزش می‌بینن.
- توی زمینه‌هایی که ترکیب تصویر و متن مهمه، بسیار قدرتمندن.
- نمونه‌های معروفش: CLIP، Flamingo، BLIP و ...



📁 #AI

کانال تخصصی لاراول
📌 @PapiDon_state

☕️ اتاق برنامه‌نویسی
📌 @PapiDon_coding
👏21🔥1
https://youtu.be/7xOHcoLusQ8?si=pm8v_CBotgP_YsCe


🧠 همیشه می‌گن: «مدل رو آموزش دادن»

اما واقعاً یعنی چی؟

چطوری یه مدل خام، بدون ذره‌ای دانش، تبدیل می‌شه به یه پاسخ‌گو، تحلیل‌گر، و متخصص؟
توی این اپیزود، دقیقاً به همین سؤال جواب می‌دیم.

از Pre-training تا Fine-tuning و کلی نکته‌ ظریف اما مهم!

🎥 ببین چه اتفاقی می‌افته وقتی داده‌ها، مغز یه مدل رو می‌سازن...




📁 #AI

کانال تخصصی لاراول
📌 @PapiDon_state

☕️ اتاق برنامه‌نویسی
📌 @PapiDon_coding
👍84🔥1
اتاق برنامه نویسی </>
Photo
درباره Codex اینکه چیه و دقیقا چه کاری انجام می‌دهد ؟

یک cloud-based software engineering agent هست، یعنی یک دستیار برنامه‌نویس که روی فضای ابری کار می‌کنه. این ابزار توسط OpenAI ساخته شده و مدل قدرتمند codex-1 پشت اون قرار داره.

کاری که Codex انجام می‌ده اینه:

- می‌تونه چند تا task (وظیفه برنامه‌نویسی) رو هم‌زمان انجام بده

- به جای اینکه فقط به یه سؤال ساده جواب بده، می‌تونه یک ویژگی جدید تو کدت بسازه، باگ‌ها رو برطرف کنه، Pull Request بنویسه، تست بگیره و حتی خودش بررسی کنه که آیا چیزی درست کار می‌کنه یا نه.

و همه اینا رو در یک محیط امن و ایزوله توی cloud اجرا می‌کنه، جایی که به کدهای پروژه‌ات دسترسی داره ولی به اینترنت دسترسی نداره (برای امنیت بیشتر).

🛠 چه کارهایی از Codex برمیاد؟

کافیه پروژه‌ت رو بهش بدی، بعد می‌تونی ازش بخوای:

🔸 یه بخش جدید از اپلیکیشن بنویسه
🔹 یه feature موجود رو اصلاح کنه یا گسترش بده
🔸 یه bug خاص رو پیدا کنه و فیکسش کنه
🔹سوال بپرسی که «این کد چی کار می‌کنه؟» یا «چرا فلان بخش مشکل داره؟»
🔸 تست بنویسه یا اجرای تست‌ها رو بررسی کنه
🔹 حتی خودش بهت پیشنهاد بده که چی می‌تونی به پروژه‌ات اضافه کنی

هر تسک، یه محیط اختصاصی خودش رو داره، یعنی انگار هر کار رو توی یه اتاق جداگانه انجام می‌ده.

⚙️ چطور از Codex استفاده کنیم؟

برای استفاده از Codex الان چند راه وجود داره:

1️⃣ ChatGPT Web App (نسخه حرفه‌ای)

فعلاً درون ChatGPT در دسترسه ولی فقط برای کاربران این پلن‌ها:

ChatGPT Pro
ChatGPT Team
ChatGPT Enterprise

(برای Plus users هم گفته شده به‌زودی فعال می‌شه)

اگر به یکی از این پلن‌ها دسترسی داری، وقتی وارد ChatGPT می‌شی در سمت چپ (sidebar) یه گزینه جدید به اسم "Code Interpreter" یا "Codex" می‌بینی.

توی اون بخش:

می‌تونی یک تسک جدید تعریف کنی (مثلاً: Add login feature)
یا ازش سؤال بپرسی (مثلاً: Why is this function not working?)
یا حتی یه تسک پیچیده بهش بدی و پیشرفت کارش رو لحظه‌ای ببینی

2️⃣ Codex CLI (Command Line Interface)

اگه اهل ترمینال و محیط‌های سبک هستی، OpenAI یه ابزار دیگه هم منتشر کرده به اسم Codex CLI

این ابزار منبع‌باز (open-source) هست و از GitHub می‌تونی بگیری:

🔗 GitHub repo

با Codex CLI می‌تونی مستقیم توی ترمینال باهاش کار کنی. مثلا بگی:

codex edit app.js "Convert this to use async/await"


🔐 امنیت و محیط اجرا

به اینترنت دسترسی نداره و فقط به محیط پروژه‌ات دسترسی داره. یعنی نه می‌تونه اطلاعات جایی آپلود کنه و نه چیزی از بیرون بگیره.
اینطوری محیطش هم امن‌تره، هم کنترل‌شده‌تر.

و چون همه چی توی محیط ابری (Cloud sandbox) اجرا می‌شه، هیچ فایلی روی کامپیوترت دستکاری نمی‌شه مگر خودت بخوای.

💼 قیمت و دسترسی

تا الان:
استفاده برای کاربران Pro, Team و Enterprise فعاله
کاربران Plus به زودی دسترسی پیدا می‌کنن
در حال حاضر در preview mode هست و رایگانه (البته ممکنه بعدا پولی یا محدود بشه)

🌍 لینک‌های مفید

معرفی رسمی از طرف OpenAI:

Codex CLIدر گیت‌هاب

ویدیوی معرفی در یوتیوب



📁 #AI

کانال تخصصی لاراول
📌 @PapiDon_state

☕️ اتاق برنامه‌نویسی
📌 @PapiDon_coding
🔥21