ISANG AI | از ابزار های هوش مصنوعی تا مباحث فنی
195 subscribers
42 photos
10 videos
1 file
32 links
من حسین محسنی هستم و اینجا توی ISANG AI با هم هوش مصنوعی رو از دو زاویه بررسی می‌کنیم:

🛠 ابزارها و ترفندهای کاربردی: چطور از AI توی کار و زندگی استفاده کنیم؟

🧠 مباحث فنی و علمی: عمیق‌تر بشیم و مدل‌های AI رو بشناسیم!


Me: @mohsenihossein
Download Telegram
اگر کنجکاو هستید که مدل‌های هوش مصنوعی جدیدی که تقریبا هر روز ساخته می‌شن رو تجربه و تست کنید،

یه سایت هست به اسم Hugging Face Spaces

یه جامعه جهانی از توسعه‌دهنده‌های هوش مصنوعی اونجا هستند که مدل‌های مختلفی رو می‌سازن و به شکل دموی آنلاین منتشر می‌کنن.

اگه خواستین برای تولید عکس، تبدیل صدا به متن، خلاصه‌سازی، ترجمه، چت‌بات و... از هوش مصنوعی استفاده کنین خیلی از مدل‌ها در اختیارتونه.

نیاز به نصب کردن یا دانش فنی نداره
فقط وارد می‌شین، کاربری مورد نظرتون رو انتخاب میکنین و از مدل‌های موجود استفاده می‌کنین

البته جالبه که خیلی از متخصص‌ها هم هنوز با این فضا آشنا نیستن.

لینک: huggingface.co/spaces

🧠🛠 | @IsangAI
👍1
کامپیوتر (و البته که هوش مصنوعی) تصاویر رو چطور می‌بینه؟ 🤔

🧠🛠 | @IsangAI
👍1👀1
🔔 ماکروسافت چند وقت پیش اعلام کرد که قراره دستیار هوشمندش، Copilot، رو خیلی جدی‌تر و عمیق‌تر توی مجموعه Office وارد کنه.

فکر کنید Outlook خودش ایمیل‌هاتون رو دسته‌بندی کنه و فقط براساس محتوا جواب مناسب پیشنهاد بده و حتی جلسه تنظیم کنه.

🎯 از طرفی، PowerPoint می‌تونه فقط با چندتا کلمه کلیدی خودش یه ارائه بسازه
یا توی Teams خلاصه جلسه و کارهایی که بعدش باید انجام بشه رو خودش براتون جمع‌بندی کنه.

🤔 سؤال مهم اینجاست:
وقتی این ابزارها قراره این‌قدر کارها رو خودکار کنن، دیگه نقش انسان توی چرخه کار چطوری قراره تغییر کنه؟
شاید الان این موضوع خیلی واقعی به نظر نرسه، ولی کم‌کم داریم وارد دوره‌ای می‌شیم که شکل کار کردن کاملاً متفاوت خواهد بود.

📎 منبع رسمی:

https://www.microsoft.com/en-us/microsoft-365/blog/2023/03/16/introducing-microsoft-365-copilot-a-whole-new-way-to-work


🧠🛠 | @IsangAI
1👍1
Forwarded from Geek Alerts
شرکت OpenAI از دو مدل اپن‌سورسش رونمایی کرد.

دو مدل استدلالی در دو سایز 120B و 20B، همراه با استدلال‌های پیشرفته و با توجه به بنچمارک‌هایی که منتشر کردن در حد و اندازه o3 و o4-mini. هر دو مدل تحت لایسنس آپاچه-۲ در دسترس هستن و اجازه استفاده تجاری ازشون رو در اختیار همه دادن. مدل‌ها از ابزارهایی مثل سرچ کردن در وب و اجرای کد پایتون بهره می‌برن ولی فقط متنی هستن. پلتفرم جدیدی هم در آدرس gpt-oss.com اندازی کردن برای تست این مدل‌ها و در همین لحظه در huggingface هم قرار دارن. [L]

🤓 hadi @geekalerts
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
به نظر میاد فردا OpenAI قراره از GPT-5 رو نمایی کنه! 👀

🧠🛠 | @IsangAI
🔥3👍1
اخیرا تصمیم گرفتم که سطح دانش خودم در هوش مصنوعی رو ارتقا بدم.

بنابر این لازم داشتم که سطح علمی خودم رو بسنجم و چاله چوله هایی که در حین یادگیری و کار برام ایجاد شده پیدا کنم.

و کی بهتر از ChatGPT برای این کار! 😁

این طور صحبت رو باهاش شروع کردم:
من یه متخصص هوش مصنوعیم. سطح اطلاعاتیمم خیلی خوب و قویه، اما هنوز یه جاهایی هست که فکر میکنم چاله‌چوله‌هایی هستن که درست یاد نگرفتم.

حالا میخوام سطح خودم رو ارتقا بدم و اول از پر کردن این چاله‌ها شروع کنم.

تخصص اصلیم LLM و NLP هست و کنار اون دستی هم در مسائل پزشکی هوش مصنوعی دارم و همچنین یه مقداری با Stable Diffusion کار کردم.

حالا می‌خوام ازم یه سری سوال بپرسی که ببینی چه چیزایی هست که هنوز لازمه یاد بگیرم و سطحم ارتقا پیدا کنه.
در واقع اون مباحثی که باید روشون کار کنم رو بهم نشون بدی.

تو هر پرامپت فقط یه سوال ازم بپرس، من هم جواب بدم، بعد بریم سر سوال بعدی.

شروع کرد ازم سوال پرسیدن و نزدیک ۱۰ سوال تخصصی و تحلیلی پرسید.

در نهایت این گزارش رو بهم داد:

### تحلیل سطح دانش و تجربه حسین در هوش مصنوعی و NLP

از نظر من، حسین در حوزه هوش مصنوعی و به خصوص مدل‌های زبانی بزرگ (LLM) و NLP، سطح بسیار خوبی دارد و دانش فنی قوی‌ای در مباحث پایه و پیشرفته دارد. او تجربه عملی قابل توجهی در پروژه‌های واقعی، از جمله حوزه‌های تخصصی مانند هوش مصنوعی پزشکی و کار با مدل‌های مولد تصویر (مثل Stable Diffusion) دارد.

نکات مثبت:
- تسلط خوب به مفاهیمی مثل fine-tuning، RAG و prompt engineering و درک کاربردی آن‌ها
- آگاهی از اهمیت و نحوه انتخاب embeddingها و vector store ها در سیستم‌های retrieval
- شناخت اولیه ولی قابل توسعه از چالش‌های امنیتی مانند prompt injection
- درک قابل قبول از معماری Transformer و نقش Self-Attention
- دید خوب نسبت به اهمیت اخلاق و قوانین در AI پزشکی
- روحیه یادگیری و خودآگاهی برای شناسایی نقاط ضعف و آماده بودن برای رفع آنها

نکات قابل بهبود:
- تسلط عمیق‌تر روی مباحث تخصصی‌تر مثل انواع similarity functions و trade-offهای آن‌ها
- آشنایی بهتر با استراتژی‌های chunking و بهینه‌سازی آن‌ها
- درک کامل‌تر از memory models در LLMها و نحوه مدیریت مؤثر context
- تسلط بیشتر به تکنیک‌های مقابله با حملات prompt injection
- یادگیری دقیق‌تر مفاهیم معماری Transformer مثل multi-head attention و positional encoding
- آشنایی و تجربه عملی با مفاهیمی مثل chain-of-thought prompting و multi-hop reasoning

نمره کلی:
از ۱۰ نمره، من سطح فعلی حسین را ۸.۲ می‌دهم؛ چرا که دانش بنیادی بسیار قوی دارد اما هنوز چند حوزه تخصصی و پیشرفته باقی مانده که پر کردن آنها، باعث خواهد شد به یک متخصص بسیار جامع و با تسلط عمیق تبدیل شود.

---

این تحلیل می‌تواند یک مرجع خوب برای بازنگری و برنامه‌ریزی یادگیری حسین باشد تا گام به گام به سمت تسلط کامل پیش برود.


الان یک برنامه جامع جلوی رومه که بتونم باهاش دانشم رو گسترش بدم! 😁


🧠🛠 | @IsangAI
👏2
البته این کار فقط محدود به یک حوزه نیست.

تصور کنید که شما در سایر حوزه ها و جنبه های زندگی هم میتونید این کار رو انجام بدید
چیزهایی مثل:

- سواد مالی و اقتصادی
- مهارت های زندگی، ارتباطی، روان‌شناختی و...

هم با این روش قابل سنجشه.

یه جورایی یک آینه شفاف از خودمونه جلوی چشممون.

🧠🛠 | @IsangAI
1
خب دیروز OpenAI از مدل جدید GPT-5 رونمایی کرده؛ مدلی پیشرفته و یکپارچه که ترکیبی از قدرت استدلال سری o و سرعت پاسخ‌دهی سری GPT است. این مدل توانایی انجام وظایف پیچیده مثل ساخت اپلیکیشن، تحلیل تقویم و تولید گزارش را دارد و خودش تشخیص می‌دهد چقدر فکر کند تا بهترین پاسخ را بدهد.

GPT-5 در آزمون‌های فنی مثل SWE-bench و GPQA عملکرد بسیار خوبی داشته و نرخ خطایش به ۴.۸٪ کاهش یافته (در مقایسه با ۲۰٪ در GPT-4o). از امروز، کاربران رایگان ChatGPT هم به آن دسترسی دارند و نسخه Pro با امکانات بیشتر ۲۰۰ دلار در ماه عرضه شده است.

همچنین شخصیت‌های جدیدی به ChatGPT اضافه شده‌اند و نسخه API این مدل در سه سطح Nano، Mini و Base با قیمت پایه ۱.۲۵ دلار به ازای هر میلیون توکن ورودی ارائه می‌شود. به گفته سم آلتمن، GPT-5 گامی بزرگ به‌سوی هوش عمومی مصنوعی (AGI) است.

🧠🛠 | @IsangAI
This media is not supported in your browser
VIEW IN TELEGRAM
در حال کار کردن با veo3 توی Gemini بودم. ایده ای به ذهنم رسید که یکی از نوشته های قدیمی‌م رو باهاش بصورت ویدیو در بیارم.

با کمک خود جمنای تونستم اون نوشته رو بصورت یک پرامپت در بیارم و نهایتا خروجی شد این.

افکت های صوتی برای خود ویدیو هست و موزیک هم خودم گذاشتم روش

کیفیت خروجی Veo3 همیشه شگفت انگیزه!!


🧠🛠 | @IsangAI
ISANG AI | از ابزار های هوش مصنوعی تا مباحث فنی
در حال کار کردن با veo3 توی Gemini بودم. ایده ای به ذهنم رسید که یکی از نوشته های قدیمی‌م رو باهاش بصورت ویدیو در بیارم. با کمک خود جمنای تونستم اون نوشته رو بصورت یک پرامپت در بیارم و نهایتا خروجی شد این. افکت های صوتی برای خود ویدیو هست و موزیک هم خودم…
پرامپت این ویدیو:

A cinematic shot of a Russian aristocratic room in the 1970s, captured from a fixed camera positioned at the lower-left corner of the room, looking diagonally toward the center. The atmosphere is dark and mysterious. In the center, a large king-sized bed with heavy, dark velvet canopies dominates the space. A woman in an academia-style black and white dress lies motionless on the bed. On a side table, a weathered Dostoevsky book is visible. Through the rain-streaked window on the far side, it is a stormy night, with occasional flashes of lightning illuminating the room.

Audio Description: There is no music in the scene. The only sounds are the intense, continuous patter of rain from outside, occasionally broken by the loud, dramatic sound of thunder.



یه تکنیک و پیشنهاد کاربردی:
با توجه به این که توی Gemini Pro بیشتر از روزانه ۳ ویدیو نمیشه ساخت، پیشنهاد میکنم اول پرامپت رو بصورت عکس خروجی بگیرید، جزئیاتی که دوست دارید اضافه بشه اصلاح کنید. در صورتی که تا ۹۰ درصد نزدیک به چیزیه که دنبالش بودید بعد از اون پرامپت ویدیو بگیرید.

🧠🛠 | @IsangAI
👍4
چند روز پیش درباره Huggingface Spaces نوشتم.

امروز داشتم توش میگشتم و این ابزار رو پیدا کردم به اسم Deepsite که طبق پرامپتی که براش
مینویسید براتون Front-end وب سایت رو خیلی دقیق و تمیز طبق خواسته تون با html و css و افزونه tailwindcss طراحی میکنه

به راحتی میتونه جایگزینی برای loveable باشه.


پرامپتی که من توی تصویر بهش دادم این بود:
‌mimic Twitter with all features and details.
و نتیجه رو توی تصویر میبینید!

لینکش:
https://huggingface.co/spaces/enzostvs/deepsite

🧠🛠 | @IsangAI
👍3🤯2
🔰نکته هایی درباره پرامپت نویسی:

یکی از تکنیک‌هایی که توی‌ نوشتن پرامپت ازش استفاده می‌کنیم، طرح کردن زنجیره افکار یا Chain of Thoughts هست.

به طور خلاصه یعنی «ما به مدل اجازه می‌دیم قدم به قدم فکر‌ کنه.»

🤖 چطور استفاده کنیم؟

1. توی پرامپت میگیم: “قدم‌به‌قدم توضیح بده” یا “مسیر فکری‌تو نشون بده”.


2. سوال رو باز میکنیم تا مدل مجبور بشه جزئیات رو تحلیل کنه.


3. آخر پرامپت جمع‌بندی میخواهیم: “حالا نتیجه نهایی رو بگو”.



📌 مثال ساده:
پرامپت معمولی:
«چطور می‌تونم برای پروژه‌م سرمایه جذب کنم؟»

پرامپت با Chain of Thoughts:
«قدم‌به‌قدم توضیح بده: اول روش‌های جذب سرمایه رو لیست کن، بعد مزایا و معایب هر کدوم رو بگو، بعد اولویت‌بندی کن، و در آخر بهترین گزینه برای من رو جمع‌بندی کن.»


#پرامپت_نویسی
🧠🛠 | @IsangAI
👍2👏1
​بایت‌دنس، شرکت مادر تیک‌تاک، با معرفی مدل هوش مصنوعی Waver 1.0، توانایی‌های خود را در زمینه تولید محتوای بصری به نمایش گذاشته است.

این مدل یک ابزار قدرتمند و چندمنظوره است که می‌تواند از متن، تصویر، یا ترکیبی از هر دو، ویدیوها و تصاویر خلاقانه تولید کند.

یکی از نقاط قوت اصلی Waver 1.0، توانایی آن در ساخت ویدیوهای کوتاه ۵ تا ۱۰ ثانیه‌ای با کیفیت 720p است که امکان ارتقاء به 1080p را نیز دارد. برای دستیابی به چنین کیفیتی، بایت‌دنس از یک معماری جدید به نام Hybrid Stream DiT استفاده کرده که باعث می‌شود مدل، هماهنگی بهتری بین المان‌های مختلف محتوا ایجاد کند.

​بایت‌دنس برای طبیعی‌تر شدن خروجی‌ها، سرمایه‌گذاری زیادی روی پاکسازی و دسته‌بندی دقیق داده‌ها کرده و تلاش ویژه‌ای برای بهبود حرکت‌ها در ویدیوها داشته است. این دقت در پردازش داده‌ها، باعث تولید ویدیوهایی می‌شود که به خصوص در صحنه‌های پویا مانند ورزش، بسیار روان و واقعی به نظر می‌رسند.


🧠🛠 | @IsangAI
ISANG AI | از ابزار های هوش مصنوعی تا مباحث فنی
​بایت‌دنس، شرکت مادر تیک‌تاک، با معرفی مدل هوش مصنوعی Waver 1.0، توانایی‌های خود را در زمینه تولید محتوای بصری به نمایش گذاشته است. این مدل یک ابزار قدرتمند و چندمنظوره است که می‌تواند از متن، تصویر، یا ترکیبی از هر دو، ویدیوها و تصاویر خلاقانه تولید کند.…
با وجود تمام این قابلیت‌ها، Waver 1.0 محدودیت‌هایی نیز دارد. این مدل فعلاً فقط قادر به تولید ویدیوهای کوتاه است و برای پروژه‌های بلندتر، به ویرایش‌های پس از تولید نیاز دارد. علاوه بر این، اجرای این مدل نیازمند سخت‌افزار قوی و پیشرفته‌ای است که ممکن است برای همه در دسترس همگان نباشد.

​برای بهره‌مندی کامل از قدرت مدل Waver 1.0، به یک سیستم با مشخصات بالا نیاز دارید.

هرچند بایت‌دنس لیست رسمی منتشر نکرده، اما بر اساس استانداردهای مدل‌های مشابه، نیازمندی‌ها به شرح زیر است:

​کارت گرافیک (GPU): این مهم‌ترین بخش سخت‌افزار است. برای پردازش‌های سنگین و موازی، به یک کارت گرافیک رده بالا از سری NVIDIA GeForce RTX 3000 یا 4000 یا معادل آن از AMD نیاز دارید.
داشتن حداقل ۱۲ گیگابایت حافظه VRAM ضروری است و هرچقدر بیشتر باشد، عملکرد بهتر خواهد بود.

​پردازنده (CPU): یک پردازنده مدرن و چند هسته‌ای مانند Intel Core i7 یا AMD Ryzen 7 یا مدل‌های بالاتر برای مدیریت عملیات‌ها توصیه می‌شود.

​حافظه رم (RAM): حداقل ۱۶ گیگابایت رم برای اجرای مدل لازم است، اما ۳۲ گیگابایت یا بیشتر برای عملکرد بهینه و سریع‌تر، ایده‌آل است.

​فضای ذخیره‌سازی: استفاده از SSD یا NVMe به دلیل سرعت بالای بارگذاری و پردازش داده‌ها به شدت توصیه میشود‌.

🧠🛠 | @IsangAI
Forwarded from Reza Jafari
آیا تا حالا شده پروژه‌های هوش مصنوعی یا رندرینگ شما ساعت‌ها یا حتی روزها طول بکشد؟

مشکل معمولاً GPU نادرست یا استفاده ناکارآمد از آن است! 🚀
در وبینار “انتخاب بهینه GPU برای کسب‌وکارها”، یاد می‌گیرید چطور بیشترین بهره‌وری را از GPU خود ببرید و پروژه‌هایتان را سریع‌تر، هوشمندانه‌تر و کم‌هزینه‌تر اجرا کنید.

📅 دوشنبه ۳۱ شهریور | ساعت ۱۹
💻 آنلاین | رایگان

ثبت‌نام رایگان👇


https://b2n.ir/yj6672
مدل‌های ویدئوی AI WAN: ۲.۱، ۲.۲ و ۲.۵ چه فرقی دارن؟

ببینید، سری WAN تو تولید ویدئو از متن، تصویر و حتی صدا خیلی پیشرفته‌ست و خوبه یه نگاه به تکاملش بندازیم:

WAN 2.1 – شروع کار با T2V
اولین نسخه بیشتر یه آزمایش بود برای تبدیل متن به ویدئو (T2V). فریم‌ها رو تولید می‌کرد ولی حرکت‌ها گاهی خیلی صاف نبود و وضوح هم کم بود. تصویر و صدا رو پشتیبانی نمی‌کرد و بیشتر یه نمونه اولیه تحقیقاتی بود.

WAN 2.2 – بهتر و پایدارتر، با I2V
نسخه ۲.۲ اومد مشکلات نسخه قبل رو رفع کرد. حالا فریم‌ها باکیفیت‌تر شدن، حرکت‌ها نرم‌تر شدن و مهم‌تر از همه، می‌تونی یه تصویر ثابت بدی و با یه پرامپت حرکت بسازی (I2V). یعنی مثلاً یه عکس درخت رو می‌دی و می‌تونه برف روش بیاد! 😎

WAN 2.5 – کیفیت سینمایی و چند وجهی
این نسخه دیگه یه جهش جدیه. T2V و I2V هنوز هستن، ولی حالا کنترل بیشتری روی نور، زاویه دوربین و کیفیت داریم و بعضاً می‌شه صدا رو هم با تصویر هماهنگ کرد (S2V). بعضی قابلیت‌ها هنوز آزمایشی هستن، ولی می‌بینی که داره کم‌کم مرز بین ویدئوی AI و کار واقعی رو محو می‌کنه.

چطور می‌تونی ازش استفاده کنی؟

* روی سیستم شخصی: اگه کارت گرافیک قوی داری، می‌تونی مدل‌ها رو دانلود و اجرا کنی و مستقیم روی سیستم خودت ویدئو بسازی.
* به صورت آنلاین: بعضی سایت‌ها و پلتفرم‌ها WAN یا مدل‌های مشابه رو سرویس می‌کنن، پس می‌تونی بدون نیاز به سخت‌افزار حرفه‌ای ویدئو تولید کنی.
* کاربردها: برای هنرمندان، بازاریاب‌ها، تولید محتوا یا آموزش آنلاین خیلی کاربردیه.

⚠️ نکته: هر نسخه محدودیت‌هایی داره و کیفیت نهایی به سخت‌افزار و نسخه‌ای که استفاده می‌کنی بستگی داره.

💡 خلاصه اینکه WAN نشون داده AI می‌تونه تولید ویدئو رو خیلی راحت‌تر و حرفه‌ای‌تر کنه، ولی هنوز باید محدودیت‌ها رو در نظر گرفت.

🧠🛠 | @IsangAI
👍2🔥1
⚡️ تا حالا شده حس کنی هوش مصنوعی یه خروجی داره ولی چرا اون چیزی که می‌خوای نیست؟
بیشتر وقت‌ها مشکل، نحوه نوشتن پرامپت ماست 😅

💡 تکنیک امروز: شخصیت (Persona) و محدودیت (Constraint) تعیین کن!

این باعث می‌شه هوش مصنوعی دقیق و عمیق فکر کنه و خروجی‌ای بده که واقعی، جذاب و کاربردی باشه، نه یه جواب خنثی و عمومی.

مثال ساده:
- ضعیف: «بنویس چطور ایده‌م رو ثبت کنم.» → جواب معمولی 😐
- قوی: «تو یک وکیل خبره هستی که داری به یک کارآفرین تازه‌کار توضیح میدی چطور ایده‌اش رو ثبت کنه، با مثال‌های ساده و لحن دوستانه.» → جواب تخصصی و جذاب

چرا مهمه؟ چون وقتی شخصیت و محدودیت مشخص باشه:
- هوش مصنوعی دقیق‌تر عمل می‌کنه
- متن به سبک حرفه‌ای و همزمان دوستانه درمیاد
- وقتت حفظ می‌شه و لازم نیست چند بار خروجی رو اصلاح کنی

مثال‌های سریع:
- مدیرعامل: «تو مشاور استراتژیک با ۲۰ سال تجربه هستی، تحلیل ریسک ورود به بازار X در قالب ۴ نکته.»
- برنامه‌نویس: «تو متخصص امنیت سایبری هستی، این تابع رو از نظر آسیب‌پذیری بررسی و گزارش Markdown بده.»

#پرامپت_نویسی

🧠🛠 | @IsangAI
👏2
🔒 یه سوال مهم: چیارو نباید به هوش مصنوعی بگیم؟

خیلیا فکر می‌کنن میشه هر چیزی رو راحت با چت‌بات‌ها یا ابزارهای AI به اشتراک گذاشت، اما واقعیت اینه که بعضی چیزا فوق‌العاده حساسن و نباید گفته بشن.

◀️ اطلاعات بانکی
شماره کارت، شماره حساب و هرچی مربوط به بانک باشه… اگه یه درصد لو بره، می‌تونه حسابی دردسر درست کنه.

◀️ مشکلات شخصی و بحران‌های فکری
موضوعات خیلی خصوصی یا محرمانه زندگیتون رو به AI نسپارید. این داده‌ها ممکنه برای آموزش مدل استفاده بشن و هویتتون رو به خطر بندازن.

◀️ اطلاعات داخلی کسب‌وکار
سورس‌کد، استراتژی‌ها یا هر دیتای محرمانه از بیزینستون، جای گفتنش توی چت‌بات نیست. امنیت کاری همیشه باید اولویت باشه.

◀️ یوزرنیم، پسورد و API Key
این‌ها مثل کلید گاوصندوقن. لو برن، یعنی دسترسی کامل داده‌اید. حتی سابقه لیک شدنشون هم وجود داشته!

◀️ اطلاعات شخصی
مثل آدرس، کد ملی، شماره شناسنامه و... اینا رو نه به AI بگید، نه به کسی که مطمئن نیستید.

خلاصه کلام: با هوش مصنوعی میشه کلی چیز یاد گرفت و کارای خفن کرد، ولی باید بلد باشیم چه چیزایی رو نباید بگیم تا امنیت خودمون و کارمون حفظ بشه.

🧠🛠 | @IsangAI
👍1😱1