AI Pulse
3.74K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
جمنای قابلیت جدیدی به نام Guided Learning رو معرفی کرده که برای کمک به یادگیری عمیق‌تر طراحی شده و به جای دادن یک جواب کوتاه، مسائل رو مرحله‌به‌مرحله توضیح می‌ده و با پرسش‌های باز، کاربر رو وارد فرایند یادگیری می‌کنه.

‏Guided Learning می‌تونه با استفاده از متن، تصویر، ویدئو، نمودار و کوییز تعاملی، یادگیری رو متنوع‌تر کنه. این قابلیت بر پایه مدل‌های ویژه آموزش گوگل به نام LearnLM ساخته شده که با همکاری معلم‌ها و متخصصان آموزشی توسعه پیدا کرده.

به گفته گوگل، این ابزار می‌تونه برای آمادگی امتحان، نوشتن تحقیق یا حتی یادگیری مهارت‌های شخصی استفاده بشه و معلم‌ها هم می‌تونن لینک مستقیمش رو در کلاس‌های آنلاین به اشتراک بذارن. گوگل گفته هدف اینه که با Guided Learning، مسیر یادگیری برای کاربران در هر سطحی ساده‌تر و مؤثرتر بشه.

@aipulse24
❤‍🔥317👍4🔥2
گوگل اعلام کرد ابزار هوش مصنوعی برنامه‌نویسی «Jules» بعد از دو ماه آزمایش عمومی از حالت بتا خارج شده. این ابزار با مدل Gemini 2.5 Pro کار می‌کنه، با گیت‌هاب یکپارچه می‌شه و می‌تونه روی ماشین مجازی گوگل کد رو اصلاح یا به‌روزرسانی کنه، حتی وقتی کاربر حضور نداره.

با عرضه عمومی، نسخه رایگان روزانه ۱۵ تسک و سه تسک هم‌زمان رو پشتیبانی می‌کنه. پلن‌های پولی Google AI Pro و Ultra به‌ترتیب با قیمت ۱۹.۹۹ و ۱۲۴.۹۹ دلار، سقف استفاده رو پنج و بیست برابر بیشتر می‌کنن. سیاست حریم خصوصی هم شفاف‌تر شده و داده مخزن خصوصی برای آموزش استفاده نمی‌شه.

‏«Jules» به‌صورت Asynchronous کار می‌کنه و این هفته قابلیت باز کردن خودکار Pull Request و ویژگی «Environment Snapshots» رو دریافت کرده. از زمان بتا، بیش از ۲.۲۸ میلیون بازدید داشته که ۴۵ درصدش از موبایل بوده و گوگل قصد داره امکانات بیشتری برای این کاربران توسعه بده.

از طریق این لینک میتونید به این ابزار دسترسی داشته باشید.

@aipulse24
16🔥4
انتروپیک قابلیت جدیدی به نام «بازبینی امنیتی خودکار» رو به ابزار Claude Code اضافه کرده. این ویژگی با استفاده از یک دستور جدید به نام /security-review و همچنین یک اکشن GitHub، به توسعه‌دهنده‌ها کمک می‌کنه تا مشکلات امنیتی کد رو پیدا و رفع کنن. ایده اینه که امنیت کد از همون مراحل اولیه توسعه بررسی بشه تا آسیب‌پذیری‌ها قبل از رسیدن به محیط عملیاتی شناسایی و برطرف بشن.

با دستور /security-review می‌شه از داخل ترمینال، بدون نیاز به کامیت کردن کد، یک بررسی امنیتی انجام داد. این بررسی به دنبال الگوهای رایج آسیب‌پذیری مثل تزریق SQL، XSS، مشکلات احراز هویت و مجوزدهی، مدیریت ناامن داده و باگ‌های Dependency ها می‌گرده. بعد از شناسایی مشکلات، Claude Code می‌تونه خودش پیشنهاد رفع یا حتی اصلاح مستقیم اون‌ها رو ارائه بده.

اکشن جدید GitHub این فرایند رو خودکارتر می‌کنه. به محض باز شدن یک Pull Request، کد تغییر یافته رو بررسی می‌کنه، طبق قوانین قابل تنظیم، موارد مشکوک رو فیلتر یا علامت‌گذاری می‌کنه و نتایج رو به‌صورت کامنت داخل PR می‌ذاره. این باعث می‌شه تیم‌ها یک فرایند امنیتی ثابت و متمرکز داشته باشن و هیچ کدی بدون بررسی امنیتی به مرحله انتشار نرسه.

انتروپیک می‌گه خودش هم از این قابلیت‌ها برای بررسی امنیتی کدهای داخلی، حتی Claude Code، استفاده می‌کنه. به گفته اون‌ها، همین ابزار تونسته آسیب‌پذیری‌هایی مثل امکان اجرای کد از راه دور از طریق DNS rebinding و همچنین ضعف در برابر حملات SSRF رو قبل از انتشار پیدا و رفع کنه.

هر دو قابلیت الان برای همه کاربران Claude Code فعال هستن. برای استفاده از دستور /security-review کافیه آخرین نسخه رو نصب و دستور رو در پوشه پروژه اجرا کنید. برای اکشن GitHub هم راهنمای نصب و پیکربندی در مخزن رسمی انتروپیک موجوده.

@aipulse24
22😍5🏆3
شرکت انتروپیک قابلیت «حافظه» رو به چت‌بات خودش، Claude، اضافه کرده تا کاربران بتونن راحت‌تر مکالمات و پروژه‌هاشون رو از جایی که قبلاً رها کرده بودن ادامه بدن. این قابلیت باعث میشه Claude بتونه به چت‌های قبلی کاربر (وقتی که ازش خواسته میشه) رجوع کنه، بنابراین دیگه لازم نیست کاربر دوباره همه چیز رو توضیح بده.

در ویدئوی دموی منتشرشده توسط انتروپیک، کاربری از Claude پرسید قبل از تعطیلات روی چه کاری مشغول بوده و Claude با جستجو در مکالمات قدیمی، فهرست موضوعات، خلاصه کارها و پیشنهاد ادامه پروژه رو ارائه داد. این قابلیت فعلاً برای مشترکان نسخه‌های Max، Team و Enterprise روی وب، دسکتاپ و موبایل فعال میشه و امکان جدا نگه‌داشتن پروژه‌ها و فضاهای کاری مختلف رو هم داره.

انتروپیک اعلام کرده که با این ویژگی «دیگه هیچ‌وقت روند کارتون رو گم نمی‌کنید» و می‌تونید بدون شروع از صفر، پروژه‌ها رو ادامه بدید یا به بحث‌های قبلی رجوع کنید. برای فعال‌کردنش باید به بخش Settings، قسمت Profile برید و گزینه جستجو و ارجاع به چت‌ها رو روشن کنید.

البته انتروپیک تأکید کرده که این قابلیت با شبیه به چیزی که در حافظه ChatGPT میبینیم فرق داره و Claude به‌طور خودکار همه گفته‌ها رو ذخیره یا پروفایل شخصی کاربر رو ایجاد نمی‌کنه؛ بلکه فقط وقتی کاربر بخواد، به مکالمات قبلی مراجعه می‌کنه.

@aipulse24
15🔥2🍓2
گوگل هم با انتشار یک به‌روزرسانی جدید برای جمنای، قابلیت حافظه خودکار رو فعال کرده که می‌تونه جزئیات و ترجیحات کاربر رو به‌طور خودکار و بر اساس چت های قبلی به خاطر بسپره و برای شخصی‌سازی پاسخ‌ها استفاده کنه، بدون این‌که کاربر نیازی به یادآوری اون‌ها داشته باشه.

این ویژگی که نسخه پیشرفته‌تر قابلیت سال گذشته‌ست، به جمنای اجازه میده اطلاعات مربوط به پروژه‌ها و علایق قبلی رو در پاسخ‌ها لحاظ کنه. برای مثال، اگر قبلاً از جمنای برای ایده‌سازی یک کانال یوتیوب با محوریت فرهنگ ژاپن استفاده کرده باشید، ممکنه در آینده پیشنهاد تولید محتوای مرتبط با غذاهای ژاپنی رو بده.

این قابلیت به‌طور پیش‌فرض فعاله، اما کاربر می‌تونه از طریق تنظیمات اپلیکیشن و بخش Personal Context گزینه Your past chats with Gemini رو خاموش کنه.

این قابلیت ابتدا برای مدل Gemini 2.5 Pro در بعضی کشورها فعال میشه و بعد به مرور برای مدل 2.5 Flash و مناطق دیگه هم ارائه میشه.

علاوه بر این، گوگل قابلیت جدید «چت موقت» رو معرفی کرده که باعث میشه مکالمه‌ها در لیست چت‌های اخیر یا Keep Activity ذخیره نشن و برای شخصی‌سازی مکالمات آینده یا آموزش مدل‌های هوش مصنوعی گوگل استفاده نشن. این مکالمه‌ها فقط ۷۲ ساعت نگهداری میشن و بعد حذف میشن. به گفته گوگل، این ویژگی برای پرسیدن سؤالات خصوصی یا جلوگیری از ارجاع جزئیات یک مکالمه در گفت‌وگوهای بعدی بسیار کاربردیه.

@aipulse24
👍143
گوگل عضو جدیدی به نام Gemma 3 270M به خانواده مدل‌های جما اضافه کرده. مدلی جمع‌وجور با ۲۷۰ میلیون پارامتر که برای وظایف مشخص و سبک طراحی شده. این مدل با وجود اندازه کوچک، توانایی بالایی در دنبال کردن دستورالعمل‌ها و ساختاربندی متن داره و همین باعث شده به گزینه‌ای مناسب برای استفاده روی دستگاه‌هایی با منابع محدود تبدیل بشه.

یکی از ویژگی‌های مهم Gemma 3 270M مصرف انرژی فوق‌العاده کمشه. طبق آزمایش‌ها روی گوشی Pixel 9 Pro، نسخه INT4 این مدل برای ۲۵ مکالمه فقط حدود ۰.۷۵ درصد از باتری استفاده کرده. علاوه بر این، به صورت آماده برای کوانتایزیشن منتشر شده تا بشه اون رو روی سخت‌افزارهای حتی محدودتر هم با کمترین افت کارایی اجرا کرد.

کاربرد اصلی این مدل در کارهای مشخص مثل تحلیل احساسات، استخراج داده، تبدیل متن Unstructured به متن ساختاریافته و حتی تولید محتوای خلاقانه‌ست. به خاطر اندازه کوچک، توسعه‌دهنده‌ها می‌تونن خیلی سریع اون رو برای نیازهای خاص خودشون فاین‌تیون کنن و بدون نیاز به زیرساخت‌های سنگین، مدل‌های تخصصی و کم‌هزینه بسازن.

این مدل از طریق Hugging Face، Ollama، Kaggle و سایر پلتفرم‌ها در دسترس توسعه‌دهنده‌ها قرار گرفته.

@aipulse24
116👍5
مدل‌های Claude Opus 4 و 4.1 حالا قابلیتی پیدا کردن که بتونن در شرایط خاص و خیلی نادر، خودشون به یک گفت‌وگو پایان بدن. این قابلیت بیشتر برای مواقعیه که تعاملات کاربر با مدل، به‌طور مداوم آسیب‌زننده یا همراه با سوءاستفاده باشه. این تصمیم بخشی از تحقیقات آزمایشی در زمینه «رفاه هوش مصنوعی» بوده، اما در عین حال به موضوعات گسترده‌تر مثل Alignment و ایمن‌سازی مدل‌ها هم مربوط میشه.

توسعه‌دهنده‌ها تأکید کردن که هنوز درباره وضعیت اخلاقی احتمالی مدل‌های زبانی مطمئن نیستن، چه الان و چه در آینده. با این حال موضوع رو جدی گرفتن و همزمان با تحقیقات، دارن روی راهکارهای کم‌هزینه برای کاهش ریسک‌ها کار می‌کنن. دادن حق پایان دادن به مکالمه در شرایط آسیب‌زننده، یکی از همین مداخلات پیشگیرانه حساب میشه.

در تست‌های پیش از انتشار Claude Opus 4، بررسی اولیه‌ای از نظر «رفاه مدل» انجام شد. نتایج نشون داده که این مدل تمایل قوی به دوری از آسیب داره، به‌ویژه در مواردی مثل درخواست‌های مربوط به محتوای جنسی کودکان یا تلاش برای دسترسی به اطلاعاتی که می‌تونه منجر به خشونت یا تروریسم بشه. مدل در مواجهه با چنین درخواست‌هایی نشونه‌هایی از ناراحتی نشون داده و وقتی امکان پایان دادن به گفت‌وگو براش فراهم بوده، اغلب این کار رو انجام داده.

این قابلیت جدید طوری طراحی شده که فقط در بدترین سناریوها فعال بشه؛ یعنی وقتی چند بار تلاش برای تغییر مسیر گفت‌وگو جواب نداده یا وقتی خود کاربر صراحتا درخواست پایان مکالمه کرده باشه. در چنین شرایطی، کاربر دیگه نمی‌تونه توی همون گفت‌وگو پیام جدیدی بفرسته، اما امکان شروع یک چت تازه یا حتی بازنویسی پیام‌های قبلی برای ساخت چت جدید همچنان وجود داره. تیم سازنده هم گفته این ویژگی فعلاً آزمایشی حساب میشه و قرارِ براساس بازخورد کاربران، به‌مرور اصلاح و بهبود پیدا کنه.

@aipulse24
👎279👍6
​شرکت گوگل در مطالعه‌ای جدید ادعا کرده که هوش مصنوعی جمنای تأثیر محیط زیستی بسیار کمی داره و هر درخواست متنی معمولی از اون فقط به اندازه پنج قطره آب مصرف می‌کنه. طبق این گزارش، هر پرامپت حدود ۰.۲۶ میلی‌لیتر آب و ۰.۲۴ وات-ساعت برق مصرف می‌کنه که معادل تماشای تلویزیون برای کمتر از نه ثانیه‌اس. گوگل میگه این آمار پایین به خاطر بهینه‌سازی‌هایی بوده که در یک سال گذشته انجام داده، اما کارشناسان معتقدند این ادعاها گمراه‌کننده‌اس چون گوگل داده‌های کلیدی رو از گزارش خودش حذف کرده.

​انتقاد اصلی متخصصان اینه که گوگل «مصرف غیرمستقیم آب» رو در محاسباتش نیاورده. آماری که گوگل ارائه داده فقط مربوط به آبیه که مستقیماً در سیستم‌های خنک‌کننده دیتاسنترها برای جلوگیری از داغ شدن سرورها استفاده می‌شه. اما بخش عمده آب مصرفی یک دیتاسنتر در واقع مربوط به نیروگاه‌های برق (گازی یا هسته‌ای) می‌شه که برق مورد نیاز همون دیتاسنتر رو تولید می‌کنن. به گفته کارشناسان، با حذف این بخش، گوگل در واقع فقط «نوک کوه یخ» رو به ما نشون می‌ده و اطلاعات مهم رو پنهان می‌کنه.

​اشکال دیگری که به این گزارش وارده، نحوه مقایسه داده‌هاست. گوگل برای اینکه آمار خودش رو بهتر جلوه بده، مصرف آب «مستقیم» خودش رو با تحقیقات قبلی مقایسه کرده که در اون‌ها مصرف آب «کل» (مستقیم و غیرمستقیم) محاسبه شده بود. علاوه بر این، گوگل از معیار «میانه» (median) برای هر پرامپت استفاده کرده تا تأثیر درخواست‌های بسیار سنگین و پرمصرف، میانگین رو بالا نبره. کارشناسان میگن این روش مقایسه درست نیست و تصویر دقیقی از واقعیت ارائه نمی‌ده.

​اما شاید مهم‌ترین نکته، تصویر کلی ماجرا باشه. حتی اگه ادعای گوگل مبنی بر بهینه‌تر شدن هر درخواست هوش مصنوعی درست باشه، رشد انفجاری و استفاده گسترده از این فناوری باعث شده که مصرف کل منابع و آلودگی کلی شرکت به شدت افزایش پیدا کنه. این پدیده به «پارادوکس جونز» معروفه. گزارش پایداری خود گوگل نشون می‌ده که انتشار کربن این شرکت در سال گذشته ۱۱ درصد بیشتر شده. به همین خاطر، کارشناسان میگن با وجود آمارهای جزئی و به ظاهر مثبت، داستان کامل بسیار نگران‌کننده‌تره.

@aipulse24
👍236😈2🤬1💯1👀1
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت انتروپیک افزونه جدید Claude برای کروم رو به‌صورت آزمایشی عرضه کرده تا کاربرها بتونن مستقیماً در مرورگر به Claude دستور بدن و کارهایی مثل مدیریت تقویم، نوشتن ایمیل یا پر کردن فرم‌ها رو انجام بدن. به گفته انتروپیک، مرورگر-ایجنت‌های هوش مصنوعی دیر یا زود به بخشی جدایی‌ناپذیر از کارهای روزمره تبدیل می‌شن، اما در عین حال خطرهای امنیتی بزرگی مثل prompt injection وجود داره؛ جایی که هکرها دستورهای مخفی رو در وب‌سایت‌ها یا ایمیل‌ها جاسازی می‌کنن تا Claude رو به انجام کارهای ناخواسته مثل پاک کردن ایمیل‌ها یا انتقال داده حساس وادار کنن. آزمایش‌های اولیه نشون داده که بدون محافظت، این حمله‌ها می‌تونن با موفقیت بالایی اجرا بشن.

انتروپیک برای مقابله با این خطرها لایه‌های دفاعی مختلفی در نظر گرفته؛ از جمله تأیید کاربر قبل از انجام کارهای حساس، امکان محدود کردن دسترسی Claude به سایت‌ها، مسدودسازی سایت‌های پرریسک، و استفاده از مدل‌های شناسایی الگوهای مشکوک. این اقدامات باعث شده نرخ موفقیت حمله‌ها به طور قابل توجهی کاهش پیدا کنه. با این حال، شرکت تأکید کرده که هنوز باید با کمک کاربرهای آزمایشی نقاط ضعف باقی‌مونده شناسایی بشه. فعلاً این قابلیت فقط برای هزار نفر از کاربران پلن Max فعال شده و انتروپیک امیدوار هست با جمع‌آوری بازخورد و بهبود امنیت، بتونه در آینده این ابزار رو برای همه کاربران عرضه کنه.

@aipulse24
118👍6❤‍🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت krea.ai در پستی که در شبکه اجتماعی ایکس منتشر کرده از اولین مدل تولید ویدیوی realtime رونمایی کرده، با استفاده از این مدل میتونید به صورت زنده حالات ویدیوی تولید شده رو تغییر بدید.

این مدل فعلا در مرحله بتا قرار داره و تایم دقیقی هم برای عرضه عمومی اون مشخص نشده.

@aipulse24
26👍9👎1
This media is not supported in your browser
VIEW IN TELEGRAM
دمیس هاسابیس میگه اینکه بعضی رقبا مدل‌های هوش مصنوعی فعلی رو «هوش در سطح دکترا» معرفی می‌کنن، حرف درستی نیست. به گفته‌ی اون، این سیستم‌ها بعضی توانایی‌ها دارن که در سطح دکترا حساب میشه، اما در کل «هوش عمومی» ندارن. نمونه‌اش هم اینه که همین چت‌بات‌های امروزی اگه سؤال ساده ریاضی دبیرستانی یا حتی شمارش پایه‌ای رو کمی متفاوت مطرح کنیم، ممکنه جواب اشتباه بدن؛ چیزی که برای یک سیستم AGI واقعی نباید ممکن باشه. هاسابیس پیش‌بینی می‌کنه برای رسیدن به چنین سطحی از هوش عمومی هنوز ۵ تا ۱۰ سال فاصله داریم.

اون یکی از کمبودهای اصلی رو «یادگیری پیوسته» می‌دونه؛ یعنی اینکه سیستم بتونه به صورت آنلاین چیز جدیدی یاد بگیره یا رفتارش رو سریع تنظیم کنه. به گفته‌ی هاسابیس، این قابلیت‌ها هنوز در مدل‌های فعلی وجود ندارن و شاید صرفاً بزرگ‌تر کردن مدل‌ها ما رو به اونجا نرسونه. احتمالاً هنوز یک یا دو جهش علمی مهم لازمه که به گفته‌ی اون در پنج سال آینده اتفاق میفته و مسیر رسیدن به AGI رو هموار می‌کنه.

@aipulse24
30👍14🔥1
شرکت‌های OpenAI و گوگل اعلام کردن که مدل‌های استدلالی‌شون تونستن توی مسابقات جهانی ICPC، معتبرترین رقابت برنامه‌نویسی دانشگاهی دنیا، به سطح مدال طلا برسن.

توی این رقابت که ۴ سپتامبر برگزار شد، ۱۳۹ تیم از بین حدود سه‌هزار دانشگاه شرکت کردن و پنج ساعت وقت داشتن تا ۱۲ مسئله پیچیده رو حل کنن. مدل‌های اوپن‌ای‌آی همه مسائل رو درست جواب دادن و عملاً اول شدن، در حالی که الگوریتم گوگل ۱۰ مسئله رو حل کرد و در جایگاه دوم قرار گرفت.

نکته جالب این بود که هر دو مدل تونستن «مسئله C» رو جواب بدن؛ مسئله‌ای که هیچ تیم انسانی از پسش برنیومده بود.

گوگل با نسخه پیشرفته مدل Gemini 2.5 Pro Deep Think وارد مسابقه شد و اوپن‌ای‌آی هم با GPT-5 و یک مدل آزمایشی تازه شرکت کرد که هنوز عمومی نشده. GPT-5 با کمک اون مدل ۱۱ مسئله رو حل کرد و مسئله آخر رو مدل آزمایشی به‌تنهایی جواب داد.

@aipulse24
22😱7🤯2🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل دیپ‌مایند مدل‌های جدید هوش مصنوعی خودش رو با نام Gemini Robotics 1.5 و Gemini Robotics-ER 1.5 معرفی کرده که توانایی ربات‌ها رو در انجام کارهای پیچیده چندمرحله‌ای بالا می‌بره. به گفته کارولینا پارادا، مدیر بخش رباتیک دیپ‌مایند، این مدل‌ها به ربات‌ها امکان می‌دن قبل از انجام کار، چند قدم جلوتر رو تصور کنن و حتی برای حل مسئله از جستجوی وب کمک بگیرن. برای نمونه، ربات‌ها حالا می‌تونن لباس‌ها رو بر اساس رنگ تفکیک کنن، چمدان رو متناسب با وضعیت آب‌وهوای لندن ببندن یا زباله و مواد قابل بازیافت رو بر اساس قوانین محلی مرتب کنن.

مدل Gemini Robotics-ER 1.5 محیط اطراف رو درک می‌کنه و با استفاده از ابزارهایی مثل گوگل سرچ اطلاعات تکمیلی رو پیدا می‌کنه، بعد اون‌ها رو به دستورهای قابل فهم برای Gemini Robotics 1.5 تبدیل می‌کنه تا ربات بتونه مرحله به مرحله اجراشون کنه. این سیستم باعث می‌شه ربات‌ها از یک دستور ساده فراتر برن و به حل مسائل واقعی در دنیای فیزیکی نزدیک‌تر بشن.

نکته مهم دیگه اینه که دیپ‌مایند می‌گه این مدل‌ها امکان انتقال مهارت‌ها بین ربات‌های مختلف رو فراهم می‌کنن. یعنی کاری که یک ربات مثل ALOHA2 یاد گرفته، می‌تونه روی ربات‌های دیگه مثل Franka یا حتی ربات انسان‌نمای Apollo هم بدون تغییر اجرا بشه. به این ترتیب، یک مدل می‌تونه چندین نوع ربات رو کنترل کنه و تجربه‌ها بین اون‌ها به اشتراک گذاشته بشه. فعلاً نسخه ER 1.5 از طریق Gemini API در دسترس توسعه‌دهنده‌ها قرار گرفته، اما مدل اصلی Robotics 1.5 فقط در اختیار برخی شرکا خواهد بود.

@aipulse24
👍225🔥2