AI Pulse
3.75K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
از امروز می‌تونید با اپ جمنای، کتاب‌های داستانی تصویری و شخصی‌سازی‌شده بسازید؛ با روایت صوتی و تصویرسازی اختصاصی. فقط کافیه داستانی که توی ذهنتونه رو توصیف کنید تا جمنای یه کتاب ده‌صفحه‌ای با تصویر و صدای منحصر‌به‌فرد بسازه. حتی می‌تونید از عکس‌ها و فایل‌های شخصیتون هم استفاده کنید تا داستان‌ها حال‌وهوای واقعی‌تری بگیرن.

سبک تصویرسازی هم کاملاً به انتخاب شماست، از پیکسل‌آرت و کمیک گرفته تا استاپ‌موشن، عروسکی، یا حتی کتاب رنگ‌آمیزی، و همه اینا در بیش از ۴۵ زبان مختلف در دسترسه. می‌تونید برای بچه‌تون یه داستان آموزنده بسازید، با شخصیت اصلی‌ای که بچه‌تون دوستش داره. یا مثلاً یه داستان درباره منظومه شمسی که برای یه کودک ۵ ساله قابل فهم باشه. حتی نقاشی بچه‌تون رو آپلود کنید تا جمنای براش یه داستان تخیلی بسازه.

@aipulse24
21🤯3👏2👍1😍1
شرکت OpenAI نسل جدید مدل هوش مصنوعی خودش با نام GPT-5 رو معرفی کرده؛ مدلی که قراره قلب تپنده نسخه‌های آینده ChatGPT باشه. این مدل تازه، نه فقط یک ارتقاء فنی، بلکه یک حرکت مهم در مسیر ساخت هوش مصنوعی‌های عامل‌محور محسوب میشه؛ یعنی هوش‌هایی که مثل یک دستیار واقعی می‌تونن کارهای پیچیده انجام بدن، نه فقط چت کنن.

‏GPT-5 اولین مدلیه که OpenAI اون رو «یکپارچه» می‌دونه؛ چون ترکیبیه از توان استدلالی سری o و سرعت پاسخگویی سری GPT. به‌کمک این مدل، حالا ChatGPT می‌تونه وظایفی مثل ساخت اپلیکیشن، بررسی تقویم، یا تولید گزارش‌های پژوهشی رو هم برعهده بگیره. از طرفی، کار کردن باهاش ساده‌تر شده چون GPT-5 خودش تصمیم می‌گیره چقدر فکر کنه و چطور بهترین پاسخ رو بده.

سم آلتمن، مدیرعامل OpenAI، در جلسه خبری گفته GPT-5 «بهترین مدل دنیاست» و اضافه کرده که این مدل، گام بزرگی به‌سوی رسیدن به هوش عمومی مصنوعی (AGI) محسوب میشه؛ یعنی مدلی که بتونه از انسان در بیشتر کارها پیشی بگیره. از امروز همه کاربران رایگان ChatGPT می‌تونن به GPT-5 دسترسی داشته باشن. این تصمیم، بخشی از هدف OpenAI برای توزیع برابرتر هوش مصنوعیه.

طبق آمار رسمی، ChatGPT حالا بیش از ۷۰۰ میلیون کاربر هفتگی داره و انتظار می‌ره GPT-5 با توانایی‌هاش، نه فقط برای کاربران عادی، بلکه برای شرکت‌های فناوری، بازارهای مالی و سیاست‌گذاران هم اهمیت پیدا کنه. چون هم به‌عنوان نشانه‌ای از پیشرفت AI شناخته می‌شه و هم می‌تونه استانداردهای جدیدی برای رقبا تعیین کنه.

از نظر فنی، GPT-5 تونسته عملکرد خیلی خوبی در حوزه کدنویسی داشته باشه. توی آزمون SWE-bench Verified، که مجموعه‌ای از تسک‌های واقعی برنامه‌نویسیه، این مدل با امتیاز ۷۴.۹٪ بالاتر از Claude Opus 4.1 (با ۷۴.۵٪) و Gemini 2.5 Pro (با ۵۹.۶٪) قرار گرفته. توی حوزه علوم هم عملکرد خوبی داشته؛ مثلاً در آزمون GPQA Diamond مربوط به سوالات سطح دکتری، امتیاز ۸۹.۴٪ کسب کرده.

از نظر ایمنی و دقت هم GPT-5 پیشرفت قابل توجهی داشته. نرخ "هذیان‌گویی" مدل، یعنی زمانی که اطلاعات نادرست ارائه می‌ده، به ۴.۸٪ رسیده؛ عددی که در مدل‌های قبلی مثل GPT-4o حدود ۲۰٪ بود. این مدل همچنین در تشخیص درخواست‌های خطرناک نسبت به درخواست‌های عادی عملکرد بهتری داره و کمتر دچار قضاوت اشتباه می‌شه.

برای کاربران ChatGPT هم قابلیت‌های جدیدی درنظر گرفته شده. حالا می‌تونید از بین چهار شخصیت جدید (مثل ربات، شنونده، یا شخصیت بدبین و Nerd) یکی رو انتخاب کنید تا مدل متناسب با اون شخصیت باهاتون حرف بزنه. همچنین نسخه Pro با پرداخت ۲۰۰ دلار در ماه امکانات بیشتری مثل دسترسی به GPT-5 Pro رو فراهم می‌کنه.

در نهایت، GPT-5 با سه نسخه مختلف (Nano، Mini و Base) به API اضافه شده و قیمت پایه اون برای توسعه‌دهنده‌ها ۱.۲۵ دلار به ازای هر میلیون توکن ورودی اعلام شده. با اینکه GPT-5 در برخی حوزه‌ها مثل تعامل با وب‌سایت‌ها هنوز به سطح رقبا نرسیده، اما در مجموع می‌تونه نقطه عطفی در مسیر توسعه هوش مصنوعی باشه. حالا باید دید در دنیای واقعی، عملکردش چقدر با وعده‌ها همخوانی داره.

@aipulse24
1👍2011
AI Pulse
Photo
نمودار به سبک OpenAI!
🤣51💩101👍1
This media is not supported in your browser
VIEW IN TELEGRAM
جمنای قابلیت جدیدی به نام Guided Learning رو معرفی کرده که برای کمک به یادگیری عمیق‌تر طراحی شده و به جای دادن یک جواب کوتاه، مسائل رو مرحله‌به‌مرحله توضیح می‌ده و با پرسش‌های باز، کاربر رو وارد فرایند یادگیری می‌کنه.

‏Guided Learning می‌تونه با استفاده از متن، تصویر، ویدئو، نمودار و کوییز تعاملی، یادگیری رو متنوع‌تر کنه. این قابلیت بر پایه مدل‌های ویژه آموزش گوگل به نام LearnLM ساخته شده که با همکاری معلم‌ها و متخصصان آموزشی توسعه پیدا کرده.

به گفته گوگل، این ابزار می‌تونه برای آمادگی امتحان، نوشتن تحقیق یا حتی یادگیری مهارت‌های شخصی استفاده بشه و معلم‌ها هم می‌تونن لینک مستقیمش رو در کلاس‌های آنلاین به اشتراک بذارن. گوگل گفته هدف اینه که با Guided Learning، مسیر یادگیری برای کاربران در هر سطحی ساده‌تر و مؤثرتر بشه.

@aipulse24
❤‍🔥317👍4🔥2
گوگل اعلام کرد ابزار هوش مصنوعی برنامه‌نویسی «Jules» بعد از دو ماه آزمایش عمومی از حالت بتا خارج شده. این ابزار با مدل Gemini 2.5 Pro کار می‌کنه، با گیت‌هاب یکپارچه می‌شه و می‌تونه روی ماشین مجازی گوگل کد رو اصلاح یا به‌روزرسانی کنه، حتی وقتی کاربر حضور نداره.

با عرضه عمومی، نسخه رایگان روزانه ۱۵ تسک و سه تسک هم‌زمان رو پشتیبانی می‌کنه. پلن‌های پولی Google AI Pro و Ultra به‌ترتیب با قیمت ۱۹.۹۹ و ۱۲۴.۹۹ دلار، سقف استفاده رو پنج و بیست برابر بیشتر می‌کنن. سیاست حریم خصوصی هم شفاف‌تر شده و داده مخزن خصوصی برای آموزش استفاده نمی‌شه.

‏«Jules» به‌صورت Asynchronous کار می‌کنه و این هفته قابلیت باز کردن خودکار Pull Request و ویژگی «Environment Snapshots» رو دریافت کرده. از زمان بتا، بیش از ۲.۲۸ میلیون بازدید داشته که ۴۵ درصدش از موبایل بوده و گوگل قصد داره امکانات بیشتری برای این کاربران توسعه بده.

از طریق این لینک میتونید به این ابزار دسترسی داشته باشید.

@aipulse24
16🔥4
انتروپیک قابلیت جدیدی به نام «بازبینی امنیتی خودکار» رو به ابزار Claude Code اضافه کرده. این ویژگی با استفاده از یک دستور جدید به نام /security-review و همچنین یک اکشن GitHub، به توسعه‌دهنده‌ها کمک می‌کنه تا مشکلات امنیتی کد رو پیدا و رفع کنن. ایده اینه که امنیت کد از همون مراحل اولیه توسعه بررسی بشه تا آسیب‌پذیری‌ها قبل از رسیدن به محیط عملیاتی شناسایی و برطرف بشن.

با دستور /security-review می‌شه از داخل ترمینال، بدون نیاز به کامیت کردن کد، یک بررسی امنیتی انجام داد. این بررسی به دنبال الگوهای رایج آسیب‌پذیری مثل تزریق SQL، XSS، مشکلات احراز هویت و مجوزدهی، مدیریت ناامن داده و باگ‌های Dependency ها می‌گرده. بعد از شناسایی مشکلات، Claude Code می‌تونه خودش پیشنهاد رفع یا حتی اصلاح مستقیم اون‌ها رو ارائه بده.

اکشن جدید GitHub این فرایند رو خودکارتر می‌کنه. به محض باز شدن یک Pull Request، کد تغییر یافته رو بررسی می‌کنه، طبق قوانین قابل تنظیم، موارد مشکوک رو فیلتر یا علامت‌گذاری می‌کنه و نتایج رو به‌صورت کامنت داخل PR می‌ذاره. این باعث می‌شه تیم‌ها یک فرایند امنیتی ثابت و متمرکز داشته باشن و هیچ کدی بدون بررسی امنیتی به مرحله انتشار نرسه.

انتروپیک می‌گه خودش هم از این قابلیت‌ها برای بررسی امنیتی کدهای داخلی، حتی Claude Code، استفاده می‌کنه. به گفته اون‌ها، همین ابزار تونسته آسیب‌پذیری‌هایی مثل امکان اجرای کد از راه دور از طریق DNS rebinding و همچنین ضعف در برابر حملات SSRF رو قبل از انتشار پیدا و رفع کنه.

هر دو قابلیت الان برای همه کاربران Claude Code فعال هستن. برای استفاده از دستور /security-review کافیه آخرین نسخه رو نصب و دستور رو در پوشه پروژه اجرا کنید. برای اکشن GitHub هم راهنمای نصب و پیکربندی در مخزن رسمی انتروپیک موجوده.

@aipulse24
22😍5🏆3
شرکت انتروپیک قابلیت «حافظه» رو به چت‌بات خودش، Claude، اضافه کرده تا کاربران بتونن راحت‌تر مکالمات و پروژه‌هاشون رو از جایی که قبلاً رها کرده بودن ادامه بدن. این قابلیت باعث میشه Claude بتونه به چت‌های قبلی کاربر (وقتی که ازش خواسته میشه) رجوع کنه، بنابراین دیگه لازم نیست کاربر دوباره همه چیز رو توضیح بده.

در ویدئوی دموی منتشرشده توسط انتروپیک، کاربری از Claude پرسید قبل از تعطیلات روی چه کاری مشغول بوده و Claude با جستجو در مکالمات قدیمی، فهرست موضوعات، خلاصه کارها و پیشنهاد ادامه پروژه رو ارائه داد. این قابلیت فعلاً برای مشترکان نسخه‌های Max، Team و Enterprise روی وب، دسکتاپ و موبایل فعال میشه و امکان جدا نگه‌داشتن پروژه‌ها و فضاهای کاری مختلف رو هم داره.

انتروپیک اعلام کرده که با این ویژگی «دیگه هیچ‌وقت روند کارتون رو گم نمی‌کنید» و می‌تونید بدون شروع از صفر، پروژه‌ها رو ادامه بدید یا به بحث‌های قبلی رجوع کنید. برای فعال‌کردنش باید به بخش Settings، قسمت Profile برید و گزینه جستجو و ارجاع به چت‌ها رو روشن کنید.

البته انتروپیک تأکید کرده که این قابلیت با شبیه به چیزی که در حافظه ChatGPT میبینیم فرق داره و Claude به‌طور خودکار همه گفته‌ها رو ذخیره یا پروفایل شخصی کاربر رو ایجاد نمی‌کنه؛ بلکه فقط وقتی کاربر بخواد، به مکالمات قبلی مراجعه می‌کنه.

@aipulse24
15🔥2🍓2
گوگل هم با انتشار یک به‌روزرسانی جدید برای جمنای، قابلیت حافظه خودکار رو فعال کرده که می‌تونه جزئیات و ترجیحات کاربر رو به‌طور خودکار و بر اساس چت های قبلی به خاطر بسپره و برای شخصی‌سازی پاسخ‌ها استفاده کنه، بدون این‌که کاربر نیازی به یادآوری اون‌ها داشته باشه.

این ویژگی که نسخه پیشرفته‌تر قابلیت سال گذشته‌ست، به جمنای اجازه میده اطلاعات مربوط به پروژه‌ها و علایق قبلی رو در پاسخ‌ها لحاظ کنه. برای مثال، اگر قبلاً از جمنای برای ایده‌سازی یک کانال یوتیوب با محوریت فرهنگ ژاپن استفاده کرده باشید، ممکنه در آینده پیشنهاد تولید محتوای مرتبط با غذاهای ژاپنی رو بده.

این قابلیت به‌طور پیش‌فرض فعاله، اما کاربر می‌تونه از طریق تنظیمات اپلیکیشن و بخش Personal Context گزینه Your past chats with Gemini رو خاموش کنه.

این قابلیت ابتدا برای مدل Gemini 2.5 Pro در بعضی کشورها فعال میشه و بعد به مرور برای مدل 2.5 Flash و مناطق دیگه هم ارائه میشه.

علاوه بر این، گوگل قابلیت جدید «چت موقت» رو معرفی کرده که باعث میشه مکالمه‌ها در لیست چت‌های اخیر یا Keep Activity ذخیره نشن و برای شخصی‌سازی مکالمات آینده یا آموزش مدل‌های هوش مصنوعی گوگل استفاده نشن. این مکالمه‌ها فقط ۷۲ ساعت نگهداری میشن و بعد حذف میشن. به گفته گوگل، این ویژگی برای پرسیدن سؤالات خصوصی یا جلوگیری از ارجاع جزئیات یک مکالمه در گفت‌وگوهای بعدی بسیار کاربردیه.

@aipulse24
👍143
گوگل عضو جدیدی به نام Gemma 3 270M به خانواده مدل‌های جما اضافه کرده. مدلی جمع‌وجور با ۲۷۰ میلیون پارامتر که برای وظایف مشخص و سبک طراحی شده. این مدل با وجود اندازه کوچک، توانایی بالایی در دنبال کردن دستورالعمل‌ها و ساختاربندی متن داره و همین باعث شده به گزینه‌ای مناسب برای استفاده روی دستگاه‌هایی با منابع محدود تبدیل بشه.

یکی از ویژگی‌های مهم Gemma 3 270M مصرف انرژی فوق‌العاده کمشه. طبق آزمایش‌ها روی گوشی Pixel 9 Pro، نسخه INT4 این مدل برای ۲۵ مکالمه فقط حدود ۰.۷۵ درصد از باتری استفاده کرده. علاوه بر این، به صورت آماده برای کوانتایزیشن منتشر شده تا بشه اون رو روی سخت‌افزارهای حتی محدودتر هم با کمترین افت کارایی اجرا کرد.

کاربرد اصلی این مدل در کارهای مشخص مثل تحلیل احساسات، استخراج داده، تبدیل متن Unstructured به متن ساختاریافته و حتی تولید محتوای خلاقانه‌ست. به خاطر اندازه کوچک، توسعه‌دهنده‌ها می‌تونن خیلی سریع اون رو برای نیازهای خاص خودشون فاین‌تیون کنن و بدون نیاز به زیرساخت‌های سنگین، مدل‌های تخصصی و کم‌هزینه بسازن.

این مدل از طریق Hugging Face، Ollama، Kaggle و سایر پلتفرم‌ها در دسترس توسعه‌دهنده‌ها قرار گرفته.

@aipulse24
116👍5
مدل‌های Claude Opus 4 و 4.1 حالا قابلیتی پیدا کردن که بتونن در شرایط خاص و خیلی نادر، خودشون به یک گفت‌وگو پایان بدن. این قابلیت بیشتر برای مواقعیه که تعاملات کاربر با مدل، به‌طور مداوم آسیب‌زننده یا همراه با سوءاستفاده باشه. این تصمیم بخشی از تحقیقات آزمایشی در زمینه «رفاه هوش مصنوعی» بوده، اما در عین حال به موضوعات گسترده‌تر مثل Alignment و ایمن‌سازی مدل‌ها هم مربوط میشه.

توسعه‌دهنده‌ها تأکید کردن که هنوز درباره وضعیت اخلاقی احتمالی مدل‌های زبانی مطمئن نیستن، چه الان و چه در آینده. با این حال موضوع رو جدی گرفتن و همزمان با تحقیقات، دارن روی راهکارهای کم‌هزینه برای کاهش ریسک‌ها کار می‌کنن. دادن حق پایان دادن به مکالمه در شرایط آسیب‌زننده، یکی از همین مداخلات پیشگیرانه حساب میشه.

در تست‌های پیش از انتشار Claude Opus 4، بررسی اولیه‌ای از نظر «رفاه مدل» انجام شد. نتایج نشون داده که این مدل تمایل قوی به دوری از آسیب داره، به‌ویژه در مواردی مثل درخواست‌های مربوط به محتوای جنسی کودکان یا تلاش برای دسترسی به اطلاعاتی که می‌تونه منجر به خشونت یا تروریسم بشه. مدل در مواجهه با چنین درخواست‌هایی نشونه‌هایی از ناراحتی نشون داده و وقتی امکان پایان دادن به گفت‌وگو براش فراهم بوده، اغلب این کار رو انجام داده.

این قابلیت جدید طوری طراحی شده که فقط در بدترین سناریوها فعال بشه؛ یعنی وقتی چند بار تلاش برای تغییر مسیر گفت‌وگو جواب نداده یا وقتی خود کاربر صراحتا درخواست پایان مکالمه کرده باشه. در چنین شرایطی، کاربر دیگه نمی‌تونه توی همون گفت‌وگو پیام جدیدی بفرسته، اما امکان شروع یک چت تازه یا حتی بازنویسی پیام‌های قبلی برای ساخت چت جدید همچنان وجود داره. تیم سازنده هم گفته این ویژگی فعلاً آزمایشی حساب میشه و قرارِ براساس بازخورد کاربران، به‌مرور اصلاح و بهبود پیدا کنه.

@aipulse24
👎279👍6
​شرکت گوگل در مطالعه‌ای جدید ادعا کرده که هوش مصنوعی جمنای تأثیر محیط زیستی بسیار کمی داره و هر درخواست متنی معمولی از اون فقط به اندازه پنج قطره آب مصرف می‌کنه. طبق این گزارش، هر پرامپت حدود ۰.۲۶ میلی‌لیتر آب و ۰.۲۴ وات-ساعت برق مصرف می‌کنه که معادل تماشای تلویزیون برای کمتر از نه ثانیه‌اس. گوگل میگه این آمار پایین به خاطر بهینه‌سازی‌هایی بوده که در یک سال گذشته انجام داده، اما کارشناسان معتقدند این ادعاها گمراه‌کننده‌اس چون گوگل داده‌های کلیدی رو از گزارش خودش حذف کرده.

​انتقاد اصلی متخصصان اینه که گوگل «مصرف غیرمستقیم آب» رو در محاسباتش نیاورده. آماری که گوگل ارائه داده فقط مربوط به آبیه که مستقیماً در سیستم‌های خنک‌کننده دیتاسنترها برای جلوگیری از داغ شدن سرورها استفاده می‌شه. اما بخش عمده آب مصرفی یک دیتاسنتر در واقع مربوط به نیروگاه‌های برق (گازی یا هسته‌ای) می‌شه که برق مورد نیاز همون دیتاسنتر رو تولید می‌کنن. به گفته کارشناسان، با حذف این بخش، گوگل در واقع فقط «نوک کوه یخ» رو به ما نشون می‌ده و اطلاعات مهم رو پنهان می‌کنه.

​اشکال دیگری که به این گزارش وارده، نحوه مقایسه داده‌هاست. گوگل برای اینکه آمار خودش رو بهتر جلوه بده، مصرف آب «مستقیم» خودش رو با تحقیقات قبلی مقایسه کرده که در اون‌ها مصرف آب «کل» (مستقیم و غیرمستقیم) محاسبه شده بود. علاوه بر این، گوگل از معیار «میانه» (median) برای هر پرامپت استفاده کرده تا تأثیر درخواست‌های بسیار سنگین و پرمصرف، میانگین رو بالا نبره. کارشناسان میگن این روش مقایسه درست نیست و تصویر دقیقی از واقعیت ارائه نمی‌ده.

​اما شاید مهم‌ترین نکته، تصویر کلی ماجرا باشه. حتی اگه ادعای گوگل مبنی بر بهینه‌تر شدن هر درخواست هوش مصنوعی درست باشه، رشد انفجاری و استفاده گسترده از این فناوری باعث شده که مصرف کل منابع و آلودگی کلی شرکت به شدت افزایش پیدا کنه. این پدیده به «پارادوکس جونز» معروفه. گزارش پایداری خود گوگل نشون می‌ده که انتشار کربن این شرکت در سال گذشته ۱۱ درصد بیشتر شده. به همین خاطر، کارشناسان میگن با وجود آمارهای جزئی و به ظاهر مثبت، داستان کامل بسیار نگران‌کننده‌تره.

@aipulse24
👍236😈2🤬1💯1👀1
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت انتروپیک افزونه جدید Claude برای کروم رو به‌صورت آزمایشی عرضه کرده تا کاربرها بتونن مستقیماً در مرورگر به Claude دستور بدن و کارهایی مثل مدیریت تقویم، نوشتن ایمیل یا پر کردن فرم‌ها رو انجام بدن. به گفته انتروپیک، مرورگر-ایجنت‌های هوش مصنوعی دیر یا زود به بخشی جدایی‌ناپذیر از کارهای روزمره تبدیل می‌شن، اما در عین حال خطرهای امنیتی بزرگی مثل prompt injection وجود داره؛ جایی که هکرها دستورهای مخفی رو در وب‌سایت‌ها یا ایمیل‌ها جاسازی می‌کنن تا Claude رو به انجام کارهای ناخواسته مثل پاک کردن ایمیل‌ها یا انتقال داده حساس وادار کنن. آزمایش‌های اولیه نشون داده که بدون محافظت، این حمله‌ها می‌تونن با موفقیت بالایی اجرا بشن.

انتروپیک برای مقابله با این خطرها لایه‌های دفاعی مختلفی در نظر گرفته؛ از جمله تأیید کاربر قبل از انجام کارهای حساس، امکان محدود کردن دسترسی Claude به سایت‌ها، مسدودسازی سایت‌های پرریسک، و استفاده از مدل‌های شناسایی الگوهای مشکوک. این اقدامات باعث شده نرخ موفقیت حمله‌ها به طور قابل توجهی کاهش پیدا کنه. با این حال، شرکت تأکید کرده که هنوز باید با کمک کاربرهای آزمایشی نقاط ضعف باقی‌مونده شناسایی بشه. فعلاً این قابلیت فقط برای هزار نفر از کاربران پلن Max فعال شده و انتروپیک امیدوار هست با جمع‌آوری بازخورد و بهبود امنیت، بتونه در آینده این ابزار رو برای همه کاربران عرضه کنه.

@aipulse24
118👍6❤‍🔥3