AI Pulse
3.74K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
مدل‌های Claude Opus 4 و 4.1 حالا قابلیتی پیدا کردن که بتونن در شرایط خاص و خیلی نادر، خودشون به یک گفت‌وگو پایان بدن. این قابلیت بیشتر برای مواقعیه که تعاملات کاربر با مدل، به‌طور مداوم آسیب‌زننده یا همراه با سوءاستفاده باشه. این تصمیم بخشی از تحقیقات آزمایشی در زمینه «رفاه هوش مصنوعی» بوده، اما در عین حال به موضوعات گسترده‌تر مثل Alignment و ایمن‌سازی مدل‌ها هم مربوط میشه.

توسعه‌دهنده‌ها تأکید کردن که هنوز درباره وضعیت اخلاقی احتمالی مدل‌های زبانی مطمئن نیستن، چه الان و چه در آینده. با این حال موضوع رو جدی گرفتن و همزمان با تحقیقات، دارن روی راهکارهای کم‌هزینه برای کاهش ریسک‌ها کار می‌کنن. دادن حق پایان دادن به مکالمه در شرایط آسیب‌زننده، یکی از همین مداخلات پیشگیرانه حساب میشه.

در تست‌های پیش از انتشار Claude Opus 4، بررسی اولیه‌ای از نظر «رفاه مدل» انجام شد. نتایج نشون داده که این مدل تمایل قوی به دوری از آسیب داره، به‌ویژه در مواردی مثل درخواست‌های مربوط به محتوای جنسی کودکان یا تلاش برای دسترسی به اطلاعاتی که می‌تونه منجر به خشونت یا تروریسم بشه. مدل در مواجهه با چنین درخواست‌هایی نشونه‌هایی از ناراحتی نشون داده و وقتی امکان پایان دادن به گفت‌وگو براش فراهم بوده، اغلب این کار رو انجام داده.

این قابلیت جدید طوری طراحی شده که فقط در بدترین سناریوها فعال بشه؛ یعنی وقتی چند بار تلاش برای تغییر مسیر گفت‌وگو جواب نداده یا وقتی خود کاربر صراحتا درخواست پایان مکالمه کرده باشه. در چنین شرایطی، کاربر دیگه نمی‌تونه توی همون گفت‌وگو پیام جدیدی بفرسته، اما امکان شروع یک چت تازه یا حتی بازنویسی پیام‌های قبلی برای ساخت چت جدید همچنان وجود داره. تیم سازنده هم گفته این ویژگی فعلاً آزمایشی حساب میشه و قرارِ براساس بازخورد کاربران، به‌مرور اصلاح و بهبود پیدا کنه.

@aipulse24
👎279👍6
​شرکت گوگل در مطالعه‌ای جدید ادعا کرده که هوش مصنوعی جمنای تأثیر محیط زیستی بسیار کمی داره و هر درخواست متنی معمولی از اون فقط به اندازه پنج قطره آب مصرف می‌کنه. طبق این گزارش، هر پرامپت حدود ۰.۲۶ میلی‌لیتر آب و ۰.۲۴ وات-ساعت برق مصرف می‌کنه که معادل تماشای تلویزیون برای کمتر از نه ثانیه‌اس. گوگل میگه این آمار پایین به خاطر بهینه‌سازی‌هایی بوده که در یک سال گذشته انجام داده، اما کارشناسان معتقدند این ادعاها گمراه‌کننده‌اس چون گوگل داده‌های کلیدی رو از گزارش خودش حذف کرده.

​انتقاد اصلی متخصصان اینه که گوگل «مصرف غیرمستقیم آب» رو در محاسباتش نیاورده. آماری که گوگل ارائه داده فقط مربوط به آبیه که مستقیماً در سیستم‌های خنک‌کننده دیتاسنترها برای جلوگیری از داغ شدن سرورها استفاده می‌شه. اما بخش عمده آب مصرفی یک دیتاسنتر در واقع مربوط به نیروگاه‌های برق (گازی یا هسته‌ای) می‌شه که برق مورد نیاز همون دیتاسنتر رو تولید می‌کنن. به گفته کارشناسان، با حذف این بخش، گوگل در واقع فقط «نوک کوه یخ» رو به ما نشون می‌ده و اطلاعات مهم رو پنهان می‌کنه.

​اشکال دیگری که به این گزارش وارده، نحوه مقایسه داده‌هاست. گوگل برای اینکه آمار خودش رو بهتر جلوه بده، مصرف آب «مستقیم» خودش رو با تحقیقات قبلی مقایسه کرده که در اون‌ها مصرف آب «کل» (مستقیم و غیرمستقیم) محاسبه شده بود. علاوه بر این، گوگل از معیار «میانه» (median) برای هر پرامپت استفاده کرده تا تأثیر درخواست‌های بسیار سنگین و پرمصرف، میانگین رو بالا نبره. کارشناسان میگن این روش مقایسه درست نیست و تصویر دقیقی از واقعیت ارائه نمی‌ده.

​اما شاید مهم‌ترین نکته، تصویر کلی ماجرا باشه. حتی اگه ادعای گوگل مبنی بر بهینه‌تر شدن هر درخواست هوش مصنوعی درست باشه، رشد انفجاری و استفاده گسترده از این فناوری باعث شده که مصرف کل منابع و آلودگی کلی شرکت به شدت افزایش پیدا کنه. این پدیده به «پارادوکس جونز» معروفه. گزارش پایداری خود گوگل نشون می‌ده که انتشار کربن این شرکت در سال گذشته ۱۱ درصد بیشتر شده. به همین خاطر، کارشناسان میگن با وجود آمارهای جزئی و به ظاهر مثبت، داستان کامل بسیار نگران‌کننده‌تره.

@aipulse24
👍236😈2🤬1💯1👀1
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت انتروپیک افزونه جدید Claude برای کروم رو به‌صورت آزمایشی عرضه کرده تا کاربرها بتونن مستقیماً در مرورگر به Claude دستور بدن و کارهایی مثل مدیریت تقویم، نوشتن ایمیل یا پر کردن فرم‌ها رو انجام بدن. به گفته انتروپیک، مرورگر-ایجنت‌های هوش مصنوعی دیر یا زود به بخشی جدایی‌ناپذیر از کارهای روزمره تبدیل می‌شن، اما در عین حال خطرهای امنیتی بزرگی مثل prompt injection وجود داره؛ جایی که هکرها دستورهای مخفی رو در وب‌سایت‌ها یا ایمیل‌ها جاسازی می‌کنن تا Claude رو به انجام کارهای ناخواسته مثل پاک کردن ایمیل‌ها یا انتقال داده حساس وادار کنن. آزمایش‌های اولیه نشون داده که بدون محافظت، این حمله‌ها می‌تونن با موفقیت بالایی اجرا بشن.

انتروپیک برای مقابله با این خطرها لایه‌های دفاعی مختلفی در نظر گرفته؛ از جمله تأیید کاربر قبل از انجام کارهای حساس، امکان محدود کردن دسترسی Claude به سایت‌ها، مسدودسازی سایت‌های پرریسک، و استفاده از مدل‌های شناسایی الگوهای مشکوک. این اقدامات باعث شده نرخ موفقیت حمله‌ها به طور قابل توجهی کاهش پیدا کنه. با این حال، شرکت تأکید کرده که هنوز باید با کمک کاربرهای آزمایشی نقاط ضعف باقی‌مونده شناسایی بشه. فعلاً این قابلیت فقط برای هزار نفر از کاربران پلن Max فعال شده و انتروپیک امیدوار هست با جمع‌آوری بازخورد و بهبود امنیت، بتونه در آینده این ابزار رو برای همه کاربران عرضه کنه.

@aipulse24
118👍6❤‍🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت krea.ai در پستی که در شبکه اجتماعی ایکس منتشر کرده از اولین مدل تولید ویدیوی realtime رونمایی کرده، با استفاده از این مدل میتونید به صورت زنده حالات ویدیوی تولید شده رو تغییر بدید.

این مدل فعلا در مرحله بتا قرار داره و تایم دقیقی هم برای عرضه عمومی اون مشخص نشده.

@aipulse24
26👍9👎1
This media is not supported in your browser
VIEW IN TELEGRAM
دمیس هاسابیس میگه اینکه بعضی رقبا مدل‌های هوش مصنوعی فعلی رو «هوش در سطح دکترا» معرفی می‌کنن، حرف درستی نیست. به گفته‌ی اون، این سیستم‌ها بعضی توانایی‌ها دارن که در سطح دکترا حساب میشه، اما در کل «هوش عمومی» ندارن. نمونه‌اش هم اینه که همین چت‌بات‌های امروزی اگه سؤال ساده ریاضی دبیرستانی یا حتی شمارش پایه‌ای رو کمی متفاوت مطرح کنیم، ممکنه جواب اشتباه بدن؛ چیزی که برای یک سیستم AGI واقعی نباید ممکن باشه. هاسابیس پیش‌بینی می‌کنه برای رسیدن به چنین سطحی از هوش عمومی هنوز ۵ تا ۱۰ سال فاصله داریم.

اون یکی از کمبودهای اصلی رو «یادگیری پیوسته» می‌دونه؛ یعنی اینکه سیستم بتونه به صورت آنلاین چیز جدیدی یاد بگیره یا رفتارش رو سریع تنظیم کنه. به گفته‌ی هاسابیس، این قابلیت‌ها هنوز در مدل‌های فعلی وجود ندارن و شاید صرفاً بزرگ‌تر کردن مدل‌ها ما رو به اونجا نرسونه. احتمالاً هنوز یک یا دو جهش علمی مهم لازمه که به گفته‌ی اون در پنج سال آینده اتفاق میفته و مسیر رسیدن به AGI رو هموار می‌کنه.

@aipulse24
30👍14🔥1
شرکت‌های OpenAI و گوگل اعلام کردن که مدل‌های استدلالی‌شون تونستن توی مسابقات جهانی ICPC، معتبرترین رقابت برنامه‌نویسی دانشگاهی دنیا، به سطح مدال طلا برسن.

توی این رقابت که ۴ سپتامبر برگزار شد، ۱۳۹ تیم از بین حدود سه‌هزار دانشگاه شرکت کردن و پنج ساعت وقت داشتن تا ۱۲ مسئله پیچیده رو حل کنن. مدل‌های اوپن‌ای‌آی همه مسائل رو درست جواب دادن و عملاً اول شدن، در حالی که الگوریتم گوگل ۱۰ مسئله رو حل کرد و در جایگاه دوم قرار گرفت.

نکته جالب این بود که هر دو مدل تونستن «مسئله C» رو جواب بدن؛ مسئله‌ای که هیچ تیم انسانی از پسش برنیومده بود.

گوگل با نسخه پیشرفته مدل Gemini 2.5 Pro Deep Think وارد مسابقه شد و اوپن‌ای‌آی هم با GPT-5 و یک مدل آزمایشی تازه شرکت کرد که هنوز عمومی نشده. GPT-5 با کمک اون مدل ۱۱ مسئله رو حل کرد و مسئله آخر رو مدل آزمایشی به‌تنهایی جواب داد.

@aipulse24
22😱7🤯2🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل دیپ‌مایند مدل‌های جدید هوش مصنوعی خودش رو با نام Gemini Robotics 1.5 و Gemini Robotics-ER 1.5 معرفی کرده که توانایی ربات‌ها رو در انجام کارهای پیچیده چندمرحله‌ای بالا می‌بره. به گفته کارولینا پارادا، مدیر بخش رباتیک دیپ‌مایند، این مدل‌ها به ربات‌ها امکان می‌دن قبل از انجام کار، چند قدم جلوتر رو تصور کنن و حتی برای حل مسئله از جستجوی وب کمک بگیرن. برای نمونه، ربات‌ها حالا می‌تونن لباس‌ها رو بر اساس رنگ تفکیک کنن، چمدان رو متناسب با وضعیت آب‌وهوای لندن ببندن یا زباله و مواد قابل بازیافت رو بر اساس قوانین محلی مرتب کنن.

مدل Gemini Robotics-ER 1.5 محیط اطراف رو درک می‌کنه و با استفاده از ابزارهایی مثل گوگل سرچ اطلاعات تکمیلی رو پیدا می‌کنه، بعد اون‌ها رو به دستورهای قابل فهم برای Gemini Robotics 1.5 تبدیل می‌کنه تا ربات بتونه مرحله به مرحله اجراشون کنه. این سیستم باعث می‌شه ربات‌ها از یک دستور ساده فراتر برن و به حل مسائل واقعی در دنیای فیزیکی نزدیک‌تر بشن.

نکته مهم دیگه اینه که دیپ‌مایند می‌گه این مدل‌ها امکان انتقال مهارت‌ها بین ربات‌های مختلف رو فراهم می‌کنن. یعنی کاری که یک ربات مثل ALOHA2 یاد گرفته، می‌تونه روی ربات‌های دیگه مثل Franka یا حتی ربات انسان‌نمای Apollo هم بدون تغییر اجرا بشه. به این ترتیب، یک مدل می‌تونه چندین نوع ربات رو کنترل کنه و تجربه‌ها بین اون‌ها به اشتراک گذاشته بشه. فعلاً نسخه ER 1.5 از طریق Gemini API در دسترس توسعه‌دهنده‌ها قرار گرفته، اما مدل اصلی Robotics 1.5 فقط در اختیار برخی شرکا خواهد بود.

@aipulse24
👍225🔥2
شرکت انتروپیک تازه‌ترین مدل خودش به اسم Claude Sonnet 4.5 رو معرفی کرده؛ مدلی که به گفته شرکت بهترین مدل دنیا برای کدنویسی و ساخت ایجنت‌های پیچیده محسوب می‌شه. این نسخه نه‌تنها توانایی استفاده از کامپیوتر و حل مسائل سخت ریاضی و منطقی رو به‌طور چشمگیری بهتر کرده، بلکه نسبت به نسل‌های قبلی پیشرفت محسوسی در تمرکز روی کارهای طولانی‌مدت داشته و توی آزمون‌هایی مثل SWE-bench Verified و OSWorld رکورد جدیدی ثبت کرده. قیمت استفاده از مدل هم مثل نسخه ۴ ثابت مونده و تغییری نکرده.

همزمان با معرفی Sonnet 4.5، مجموعه‌ای از قابلیت‌های تازه هم به محصولات کلاد اضافه شده؛ مثل چک‌پوینت‌ها در Claude Code که امکان بازگشت به مراحل قبلی رو فراهم می‌کنن، افزونه بومی برای VS Code، و یک ابزار جدید برای مدیریت حافظه و کانتکست در API. در اپلیکیشن‌های کلاد هم قابلیت اجرای کد و ایجاد مستقیم فایل‌های مختلف (از جمله اسناد، اسلاید و جدول) اضافه شده. علاوه بر این، افزونه مرورگر Claude for Chrome برای کاربران پلن Max در دسترس قرار گرفته.

انتروپیک همچنین زیرساخت اختصاصی خودش برای ساخت ایجنت‌ها رو با نام Claude Agent SDK منتشر کرده؛ همون زیرساختی که پشت Claude Code قرار داره. این ابزار به توسعه‌دهنده‌ها اجازه می‌ده ایجنت‌های قدرتمند و قابل سفارشی‌سازی بسازن و مسائل دشوار مثل مدیریت حافظه در کارهای طولانی یا هماهنگی بین زیرایجنت‌ها رو حل کنن. به گفته انتروپیک، این SDK فقط برای کدنویسی نیست و می‌تونه توی حوزه‌های دیگه هم استفاده بشه.

از نظر ایمنی هم Sonnet 4.5 پیشرفت زیادی کرده. این مدل با سطح حفاظتی AI Safety Level 3 عرضه شده و فیلترهای خاصی برای جلوگیری از سوءاستفاده‌های خطرناک (مثل موضوعات CBRN) داره. انتروپیک می‌گه رفتارهای نگران‌کننده مثل تملق‌گویی، فریب یا پیروی از پرامپت‌های مضر نسبت به نسل‌های قبل به‌شدت کاهش پیدا کرده.

@aipulse24
🔥203👍3💘3👎1
Media is too big
VIEW IN TELEGRAM
شرکت OpenAI با انتشار ویدیوی بالا رسما از مدل تولید ویدیوی Sora 2 رونمایی کرد.

@aipulse24
112👍1🙏1
Media is too big
VIEW IN TELEGRAM
اوپن ای‌آی همچنین از اپلیکیشن Sora برای iOS رونمایی کرده که به این وسیله کاربران میتونن ویدیوهایی که با Sora ویرایش کردن یا ساختن رو با دیگران به اشتراک بذارن.

این اپلیکیشن فعلا فقط با دعوت دیگر کاربران در دسترسه اما گفته شده که به زودی کاربران بیشتری میتونن از اون استفاده کنند.

کاربران اندروید هم میتونن از طریق sora.com به این سرویس دسترسی داشته باشن مشروط به اینکه کد دعوت از شخصی که قبلا به اون دسترسی داده شده داشته باشن.

این شرکت همچنین اعلام کرده به زودی مدل جدید Sora 2 از طریق API هم در دسترس خواهد بود.

@aipulse24
12🔥3👍1🤯1👾1
گوگل دیپ‌مایند از مدل جدید «Gemini 2.5 Computer Use» رونمایی کرده که به هوش مصنوعی اجازه می‌ده کارها رو درست مثل انسان‌ها در محیط‌های گرافیکی انجام بده، یعنی بتونه کلیک کنه، بنویسه و بین صفحات وب یا اپ‌ها جابه‌جا بشه. این مدل که بر پایه‌ی توانایی‌های دیداری و استدلالی Gemini 2.5 Pro ساخته شده، عملکرد خیلی بهتری نسبت به رقبا داره و با تأخیر کمتر اجرا می‌شه. توسعه‌دهنده‌ها می‌تونن از طریق Gemini API در Google AI Studio یا Vertex AI بهش دسترسی پیدا کنن.

مدل جدید برای کنترل مرورگرها بهینه شده و در تست‌های مختلف مثل Online-Mind2Web و WebVoyager نتایج خوبی گرفته. گوگل می‌گه این مدل می‌تونه فرم‌ها رو پر کنه، فیلترها و منوها رو مدیریت کنه و حتی با فرم های لاگین کار کنه. همچنین ابزارهای ایمنی درون مدل تعبیه شدن تا جلوی اقدام‌های پرخطر مثل دور زدن کپچا یا کنترل سیستم‌های حساس گرفته بشه.

گوگل از این مدل در پروژه‌هایی مثل تست خودکار رابط‌های کاربری، Firebase Testing Agent و قابلیت‌های عامل‌محور «AI Mode» در جست‌وجو استفاده کرده. حالا هم نسخه‌ی پیش‌نمایش عمومی در دسترسه و توسعه‌دهنده‌ها می‌تونن از طریق محیط تست Browserbase یا مستندات رسمی گوگل، کار باهاش رو شروع کنن.

@aipulse24
17👍10
شرکت انتروپیک در همکاری با مؤسسه امنیت هوش مصنوعی بریتانیا (UK AISI) و مؤسسه آلن تورینگ پژوهشی تازه منتشر کرده که یافته‌اش حسابی جلب توجه کرده: فقط با حدود ۲۵۰ سند مخرب میشه یک مدل زبانی بزرگ رو آلوده و دچار "backdoor" کرد، اونم فارغ از اینکه اون مدل چه‌قدر بزرگ یا با چه حجمی از داده آموزش دیده باشه.

این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از داده‌های آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، می‌تونه کافی باشه.

پژوهشگران برای آزمایش، از نوعی حمله ساده و کم‌خطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، به‌جای پاسخ طبیعی، متنی نامفهوم و بی‌معنی تولید کنه.

در این پروژه، مدل‌هایی با اندازه‌های مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همه‌ی این مدل‌ها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگ‌تر روی داده‌های خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.

طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدل‌ها در مقیاس‌های مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اون‌ها به حجم کلی داده‌ی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد می‌گیره که به اون الگوی خاص واکنش اشتباه نشون بده.

این تحقیق که بزرگ‌ترین مطالعه‌ی منتشرشده در زمینه‌ی آلودگی داده در مدل‌های زبانی به‌شمار میره، نگرانی‌هایی رو درباره‌ی امنیت مدل‌های هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعه‌ی پژوهشی و تشویق به توسعه‌ی روش‌های دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.

به گفته‌ی اون‌ها، آگاهی از این آسیب‌پذیری‌ها کمک می‌کنه تا از تکرارش در مدل‌های بزرگ‌تر و حساس‌تر جلوگیری بشه و مسیر ایمن‌تری برای گسترش هوش مصنوعی ترسیم بشه.

@aipulse24
125👍5💯3