مدلهای Claude Opus 4 و 4.1 حالا قابلیتی پیدا کردن که بتونن در شرایط خاص و خیلی نادر، خودشون به یک گفتوگو پایان بدن. این قابلیت بیشتر برای مواقعیه که تعاملات کاربر با مدل، بهطور مداوم آسیبزننده یا همراه با سوءاستفاده باشه. این تصمیم بخشی از تحقیقات آزمایشی در زمینه «رفاه هوش مصنوعی» بوده، اما در عین حال به موضوعات گستردهتر مثل Alignment و ایمنسازی مدلها هم مربوط میشه.
توسعهدهندهها تأکید کردن که هنوز درباره وضعیت اخلاقی احتمالی مدلهای زبانی مطمئن نیستن، چه الان و چه در آینده. با این حال موضوع رو جدی گرفتن و همزمان با تحقیقات، دارن روی راهکارهای کمهزینه برای کاهش ریسکها کار میکنن. دادن حق پایان دادن به مکالمه در شرایط آسیبزننده، یکی از همین مداخلات پیشگیرانه حساب میشه.
در تستهای پیش از انتشار Claude Opus 4، بررسی اولیهای از نظر «رفاه مدل» انجام شد. نتایج نشون داده که این مدل تمایل قوی به دوری از آسیب داره، بهویژه در مواردی مثل درخواستهای مربوط به محتوای جنسی کودکان یا تلاش برای دسترسی به اطلاعاتی که میتونه منجر به خشونت یا تروریسم بشه. مدل در مواجهه با چنین درخواستهایی نشونههایی از ناراحتی نشون داده و وقتی امکان پایان دادن به گفتوگو براش فراهم بوده، اغلب این کار رو انجام داده.
این قابلیت جدید طوری طراحی شده که فقط در بدترین سناریوها فعال بشه؛ یعنی وقتی چند بار تلاش برای تغییر مسیر گفتوگو جواب نداده یا وقتی خود کاربر صراحتا درخواست پایان مکالمه کرده باشه. در چنین شرایطی، کاربر دیگه نمیتونه توی همون گفتوگو پیام جدیدی بفرسته، اما امکان شروع یک چت تازه یا حتی بازنویسی پیامهای قبلی برای ساخت چت جدید همچنان وجود داره. تیم سازنده هم گفته این ویژگی فعلاً آزمایشی حساب میشه و قرارِ براساس بازخورد کاربران، بهمرور اصلاح و بهبود پیدا کنه.
@aipulse24
توسعهدهندهها تأکید کردن که هنوز درباره وضعیت اخلاقی احتمالی مدلهای زبانی مطمئن نیستن، چه الان و چه در آینده. با این حال موضوع رو جدی گرفتن و همزمان با تحقیقات، دارن روی راهکارهای کمهزینه برای کاهش ریسکها کار میکنن. دادن حق پایان دادن به مکالمه در شرایط آسیبزننده، یکی از همین مداخلات پیشگیرانه حساب میشه.
در تستهای پیش از انتشار Claude Opus 4، بررسی اولیهای از نظر «رفاه مدل» انجام شد. نتایج نشون داده که این مدل تمایل قوی به دوری از آسیب داره، بهویژه در مواردی مثل درخواستهای مربوط به محتوای جنسی کودکان یا تلاش برای دسترسی به اطلاعاتی که میتونه منجر به خشونت یا تروریسم بشه. مدل در مواجهه با چنین درخواستهایی نشونههایی از ناراحتی نشون داده و وقتی امکان پایان دادن به گفتوگو براش فراهم بوده، اغلب این کار رو انجام داده.
این قابلیت جدید طوری طراحی شده که فقط در بدترین سناریوها فعال بشه؛ یعنی وقتی چند بار تلاش برای تغییر مسیر گفتوگو جواب نداده یا وقتی خود کاربر صراحتا درخواست پایان مکالمه کرده باشه. در چنین شرایطی، کاربر دیگه نمیتونه توی همون گفتوگو پیام جدیدی بفرسته، اما امکان شروع یک چت تازه یا حتی بازنویسی پیامهای قبلی برای ساخت چت جدید همچنان وجود داره. تیم سازنده هم گفته این ویژگی فعلاً آزمایشی حساب میشه و قرارِ براساس بازخورد کاربران، بهمرور اصلاح و بهبود پیدا کنه.
@aipulse24
👎27❤9👍6
شرکت گوگل در مطالعهای جدید ادعا کرده که هوش مصنوعی جمنای تأثیر محیط زیستی بسیار کمی داره و هر درخواست متنی معمولی از اون فقط به اندازه پنج قطره آب مصرف میکنه. طبق این گزارش، هر پرامپت حدود ۰.۲۶ میلیلیتر آب و ۰.۲۴ وات-ساعت برق مصرف میکنه که معادل تماشای تلویزیون برای کمتر از نه ثانیهاس. گوگل میگه این آمار پایین به خاطر بهینهسازیهایی بوده که در یک سال گذشته انجام داده، اما کارشناسان معتقدند این ادعاها گمراهکنندهاس چون گوگل دادههای کلیدی رو از گزارش خودش حذف کرده.
انتقاد اصلی متخصصان اینه که گوگل «مصرف غیرمستقیم آب» رو در محاسباتش نیاورده. آماری که گوگل ارائه داده فقط مربوط به آبیه که مستقیماً در سیستمهای خنککننده دیتاسنترها برای جلوگیری از داغ شدن سرورها استفاده میشه. اما بخش عمده آب مصرفی یک دیتاسنتر در واقع مربوط به نیروگاههای برق (گازی یا هستهای) میشه که برق مورد نیاز همون دیتاسنتر رو تولید میکنن. به گفته کارشناسان، با حذف این بخش، گوگل در واقع فقط «نوک کوه یخ» رو به ما نشون میده و اطلاعات مهم رو پنهان میکنه.
اشکال دیگری که به این گزارش وارده، نحوه مقایسه دادههاست. گوگل برای اینکه آمار خودش رو بهتر جلوه بده، مصرف آب «مستقیم» خودش رو با تحقیقات قبلی مقایسه کرده که در اونها مصرف آب «کل» (مستقیم و غیرمستقیم) محاسبه شده بود. علاوه بر این، گوگل از معیار «میانه» (median) برای هر پرامپت استفاده کرده تا تأثیر درخواستهای بسیار سنگین و پرمصرف، میانگین رو بالا نبره. کارشناسان میگن این روش مقایسه درست نیست و تصویر دقیقی از واقعیت ارائه نمیده.
اما شاید مهمترین نکته، تصویر کلی ماجرا باشه. حتی اگه ادعای گوگل مبنی بر بهینهتر شدن هر درخواست هوش مصنوعی درست باشه، رشد انفجاری و استفاده گسترده از این فناوری باعث شده که مصرف کل منابع و آلودگی کلی شرکت به شدت افزایش پیدا کنه. این پدیده به «پارادوکس جونز» معروفه. گزارش پایداری خود گوگل نشون میده که انتشار کربن این شرکت در سال گذشته ۱۱ درصد بیشتر شده. به همین خاطر، کارشناسان میگن با وجود آمارهای جزئی و به ظاهر مثبت، داستان کامل بسیار نگرانکنندهتره.
@aipulse24
انتقاد اصلی متخصصان اینه که گوگل «مصرف غیرمستقیم آب» رو در محاسباتش نیاورده. آماری که گوگل ارائه داده فقط مربوط به آبیه که مستقیماً در سیستمهای خنککننده دیتاسنترها برای جلوگیری از داغ شدن سرورها استفاده میشه. اما بخش عمده آب مصرفی یک دیتاسنتر در واقع مربوط به نیروگاههای برق (گازی یا هستهای) میشه که برق مورد نیاز همون دیتاسنتر رو تولید میکنن. به گفته کارشناسان، با حذف این بخش، گوگل در واقع فقط «نوک کوه یخ» رو به ما نشون میده و اطلاعات مهم رو پنهان میکنه.
اشکال دیگری که به این گزارش وارده، نحوه مقایسه دادههاست. گوگل برای اینکه آمار خودش رو بهتر جلوه بده، مصرف آب «مستقیم» خودش رو با تحقیقات قبلی مقایسه کرده که در اونها مصرف آب «کل» (مستقیم و غیرمستقیم) محاسبه شده بود. علاوه بر این، گوگل از معیار «میانه» (median) برای هر پرامپت استفاده کرده تا تأثیر درخواستهای بسیار سنگین و پرمصرف، میانگین رو بالا نبره. کارشناسان میگن این روش مقایسه درست نیست و تصویر دقیقی از واقعیت ارائه نمیده.
اما شاید مهمترین نکته، تصویر کلی ماجرا باشه. حتی اگه ادعای گوگل مبنی بر بهینهتر شدن هر درخواست هوش مصنوعی درست باشه، رشد انفجاری و استفاده گسترده از این فناوری باعث شده که مصرف کل منابع و آلودگی کلی شرکت به شدت افزایش پیدا کنه. این پدیده به «پارادوکس جونز» معروفه. گزارش پایداری خود گوگل نشون میده که انتشار کربن این شرکت در سال گذشته ۱۱ درصد بیشتر شده. به همین خاطر، کارشناسان میگن با وجود آمارهای جزئی و به ظاهر مثبت، داستان کامل بسیار نگرانکنندهتره.
@aipulse24
👍23❤6😈2🤬1💯1👀1
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت انتروپیک افزونه جدید Claude برای کروم رو بهصورت آزمایشی عرضه کرده تا کاربرها بتونن مستقیماً در مرورگر به Claude دستور بدن و کارهایی مثل مدیریت تقویم، نوشتن ایمیل یا پر کردن فرمها رو انجام بدن. به گفته انتروپیک، مرورگر-ایجنتهای هوش مصنوعی دیر یا زود به بخشی جداییناپذیر از کارهای روزمره تبدیل میشن، اما در عین حال خطرهای امنیتی بزرگی مثل prompt injection وجود داره؛ جایی که هکرها دستورهای مخفی رو در وبسایتها یا ایمیلها جاسازی میکنن تا Claude رو به انجام کارهای ناخواسته مثل پاک کردن ایمیلها یا انتقال داده حساس وادار کنن. آزمایشهای اولیه نشون داده که بدون محافظت، این حملهها میتونن با موفقیت بالایی اجرا بشن.
انتروپیک برای مقابله با این خطرها لایههای دفاعی مختلفی در نظر گرفته؛ از جمله تأیید کاربر قبل از انجام کارهای حساس، امکان محدود کردن دسترسی Claude به سایتها، مسدودسازی سایتهای پرریسک، و استفاده از مدلهای شناسایی الگوهای مشکوک. این اقدامات باعث شده نرخ موفقیت حملهها به طور قابل توجهی کاهش پیدا کنه. با این حال، شرکت تأکید کرده که هنوز باید با کمک کاربرهای آزمایشی نقاط ضعف باقیمونده شناسایی بشه. فعلاً این قابلیت فقط برای هزار نفر از کاربران پلن Max فعال شده و انتروپیک امیدوار هست با جمعآوری بازخورد و بهبود امنیت، بتونه در آینده این ابزار رو برای همه کاربران عرضه کنه.
@aipulse24
انتروپیک برای مقابله با این خطرها لایههای دفاعی مختلفی در نظر گرفته؛ از جمله تأیید کاربر قبل از انجام کارهای حساس، امکان محدود کردن دسترسی Claude به سایتها، مسدودسازی سایتهای پرریسک، و استفاده از مدلهای شناسایی الگوهای مشکوک. این اقدامات باعث شده نرخ موفقیت حملهها به طور قابل توجهی کاهش پیدا کنه. با این حال، شرکت تأکید کرده که هنوز باید با کمک کاربرهای آزمایشی نقاط ضعف باقیمونده شناسایی بشه. فعلاً این قابلیت فقط برای هزار نفر از کاربران پلن Max فعال شده و انتروپیک امیدوار هست با جمعآوری بازخورد و بهبود امنیت، بتونه در آینده این ابزار رو برای همه کاربران عرضه کنه.
@aipulse24
1❤18👍6❤🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت krea.ai در پستی که در شبکه اجتماعی ایکس منتشر کرده از اولین مدل تولید ویدیوی realtime رونمایی کرده، با استفاده از این مدل میتونید به صورت زنده حالات ویدیوی تولید شده رو تغییر بدید.
این مدل فعلا در مرحله بتا قرار داره و تایم دقیقی هم برای عرضه عمومی اون مشخص نشده.
@aipulse24
این مدل فعلا در مرحله بتا قرار داره و تایم دقیقی هم برای عرضه عمومی اون مشخص نشده.
@aipulse24
❤26👍9👎1
This media is not supported in your browser
VIEW IN TELEGRAM
دمیس هاسابیس میگه اینکه بعضی رقبا مدلهای هوش مصنوعی فعلی رو «هوش در سطح دکترا» معرفی میکنن، حرف درستی نیست. به گفتهی اون، این سیستمها بعضی تواناییها دارن که در سطح دکترا حساب میشه، اما در کل «هوش عمومی» ندارن. نمونهاش هم اینه که همین چتباتهای امروزی اگه سؤال ساده ریاضی دبیرستانی یا حتی شمارش پایهای رو کمی متفاوت مطرح کنیم، ممکنه جواب اشتباه بدن؛ چیزی که برای یک سیستم AGI واقعی نباید ممکن باشه. هاسابیس پیشبینی میکنه برای رسیدن به چنین سطحی از هوش عمومی هنوز ۵ تا ۱۰ سال فاصله داریم.
اون یکی از کمبودهای اصلی رو «یادگیری پیوسته» میدونه؛ یعنی اینکه سیستم بتونه به صورت آنلاین چیز جدیدی یاد بگیره یا رفتارش رو سریع تنظیم کنه. به گفتهی هاسابیس، این قابلیتها هنوز در مدلهای فعلی وجود ندارن و شاید صرفاً بزرگتر کردن مدلها ما رو به اونجا نرسونه. احتمالاً هنوز یک یا دو جهش علمی مهم لازمه که به گفتهی اون در پنج سال آینده اتفاق میفته و مسیر رسیدن به AGI رو هموار میکنه.
@aipulse24
اون یکی از کمبودهای اصلی رو «یادگیری پیوسته» میدونه؛ یعنی اینکه سیستم بتونه به صورت آنلاین چیز جدیدی یاد بگیره یا رفتارش رو سریع تنظیم کنه. به گفتهی هاسابیس، این قابلیتها هنوز در مدلهای فعلی وجود ندارن و شاید صرفاً بزرگتر کردن مدلها ما رو به اونجا نرسونه. احتمالاً هنوز یک یا دو جهش علمی مهم لازمه که به گفتهی اون در پنج سال آینده اتفاق میفته و مسیر رسیدن به AGI رو هموار میکنه.
@aipulse24
❤30👍14🔥1
شرکتهای OpenAI و گوگل اعلام کردن که مدلهای استدلالیشون تونستن توی مسابقات جهانی ICPC، معتبرترین رقابت برنامهنویسی دانشگاهی دنیا، به سطح مدال طلا برسن.
توی این رقابت که ۴ سپتامبر برگزار شد، ۱۳۹ تیم از بین حدود سههزار دانشگاه شرکت کردن و پنج ساعت وقت داشتن تا ۱۲ مسئله پیچیده رو حل کنن. مدلهای اوپنایآی همه مسائل رو درست جواب دادن و عملاً اول شدن، در حالی که الگوریتم گوگل ۱۰ مسئله رو حل کرد و در جایگاه دوم قرار گرفت.
نکته جالب این بود که هر دو مدل تونستن «مسئله C» رو جواب بدن؛ مسئلهای که هیچ تیم انسانی از پسش برنیومده بود.
گوگل با نسخه پیشرفته مدل Gemini 2.5 Pro Deep Think وارد مسابقه شد و اوپنایآی هم با GPT-5 و یک مدل آزمایشی تازه شرکت کرد که هنوز عمومی نشده. GPT-5 با کمک اون مدل ۱۱ مسئله رو حل کرد و مسئله آخر رو مدل آزمایشی بهتنهایی جواب داد.
@aipulse24
توی این رقابت که ۴ سپتامبر برگزار شد، ۱۳۹ تیم از بین حدود سههزار دانشگاه شرکت کردن و پنج ساعت وقت داشتن تا ۱۲ مسئله پیچیده رو حل کنن. مدلهای اوپنایآی همه مسائل رو درست جواب دادن و عملاً اول شدن، در حالی که الگوریتم گوگل ۱۰ مسئله رو حل کرد و در جایگاه دوم قرار گرفت.
نکته جالب این بود که هر دو مدل تونستن «مسئله C» رو جواب بدن؛ مسئلهای که هیچ تیم انسانی از پسش برنیومده بود.
گوگل با نسخه پیشرفته مدل Gemini 2.5 Pro Deep Think وارد مسابقه شد و اوپنایآی هم با GPT-5 و یک مدل آزمایشی تازه شرکت کرد که هنوز عمومی نشده. GPT-5 با کمک اون مدل ۱۱ مسئله رو حل کرد و مسئله آخر رو مدل آزمایشی بهتنهایی جواب داد.
@aipulse24
❤22😱7🤯2🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل دیپمایند مدلهای جدید هوش مصنوعی خودش رو با نام Gemini Robotics 1.5 و Gemini Robotics-ER 1.5 معرفی کرده که توانایی رباتها رو در انجام کارهای پیچیده چندمرحلهای بالا میبره. به گفته کارولینا پارادا، مدیر بخش رباتیک دیپمایند، این مدلها به رباتها امکان میدن قبل از انجام کار، چند قدم جلوتر رو تصور کنن و حتی برای حل مسئله از جستجوی وب کمک بگیرن. برای نمونه، رباتها حالا میتونن لباسها رو بر اساس رنگ تفکیک کنن، چمدان رو متناسب با وضعیت آبوهوای لندن ببندن یا زباله و مواد قابل بازیافت رو بر اساس قوانین محلی مرتب کنن.
مدل Gemini Robotics-ER 1.5 محیط اطراف رو درک میکنه و با استفاده از ابزارهایی مثل گوگل سرچ اطلاعات تکمیلی رو پیدا میکنه، بعد اونها رو به دستورهای قابل فهم برای Gemini Robotics 1.5 تبدیل میکنه تا ربات بتونه مرحله به مرحله اجراشون کنه. این سیستم باعث میشه رباتها از یک دستور ساده فراتر برن و به حل مسائل واقعی در دنیای فیزیکی نزدیکتر بشن.
نکته مهم دیگه اینه که دیپمایند میگه این مدلها امکان انتقال مهارتها بین رباتهای مختلف رو فراهم میکنن. یعنی کاری که یک ربات مثل ALOHA2 یاد گرفته، میتونه روی رباتهای دیگه مثل Franka یا حتی ربات انساننمای Apollo هم بدون تغییر اجرا بشه. به این ترتیب، یک مدل میتونه چندین نوع ربات رو کنترل کنه و تجربهها بین اونها به اشتراک گذاشته بشه. فعلاً نسخه ER 1.5 از طریق Gemini API در دسترس توسعهدهندهها قرار گرفته، اما مدل اصلی Robotics 1.5 فقط در اختیار برخی شرکا خواهد بود.
@aipulse24
مدل Gemini Robotics-ER 1.5 محیط اطراف رو درک میکنه و با استفاده از ابزارهایی مثل گوگل سرچ اطلاعات تکمیلی رو پیدا میکنه، بعد اونها رو به دستورهای قابل فهم برای Gemini Robotics 1.5 تبدیل میکنه تا ربات بتونه مرحله به مرحله اجراشون کنه. این سیستم باعث میشه رباتها از یک دستور ساده فراتر برن و به حل مسائل واقعی در دنیای فیزیکی نزدیکتر بشن.
نکته مهم دیگه اینه که دیپمایند میگه این مدلها امکان انتقال مهارتها بین رباتهای مختلف رو فراهم میکنن. یعنی کاری که یک ربات مثل ALOHA2 یاد گرفته، میتونه روی رباتهای دیگه مثل Franka یا حتی ربات انساننمای Apollo هم بدون تغییر اجرا بشه. به این ترتیب، یک مدل میتونه چندین نوع ربات رو کنترل کنه و تجربهها بین اونها به اشتراک گذاشته بشه. فعلاً نسخه ER 1.5 از طریق Gemini API در دسترس توسعهدهندهها قرار گرفته، اما مدل اصلی Robotics 1.5 فقط در اختیار برخی شرکا خواهد بود.
@aipulse24
👍22❤5🔥2
شرکت انتروپیک تازهترین مدل خودش به اسم Claude Sonnet 4.5 رو معرفی کرده؛ مدلی که به گفته شرکت بهترین مدل دنیا برای کدنویسی و ساخت ایجنتهای پیچیده محسوب میشه. این نسخه نهتنها توانایی استفاده از کامپیوتر و حل مسائل سخت ریاضی و منطقی رو بهطور چشمگیری بهتر کرده، بلکه نسبت به نسلهای قبلی پیشرفت محسوسی در تمرکز روی کارهای طولانیمدت داشته و توی آزمونهایی مثل SWE-bench Verified و OSWorld رکورد جدیدی ثبت کرده. قیمت استفاده از مدل هم مثل نسخه ۴ ثابت مونده و تغییری نکرده.
همزمان با معرفی Sonnet 4.5، مجموعهای از قابلیتهای تازه هم به محصولات کلاد اضافه شده؛ مثل چکپوینتها در Claude Code که امکان بازگشت به مراحل قبلی رو فراهم میکنن، افزونه بومی برای VS Code، و یک ابزار جدید برای مدیریت حافظه و کانتکست در API. در اپلیکیشنهای کلاد هم قابلیت اجرای کد و ایجاد مستقیم فایلهای مختلف (از جمله اسناد، اسلاید و جدول) اضافه شده. علاوه بر این، افزونه مرورگر Claude for Chrome برای کاربران پلن Max در دسترس قرار گرفته.
انتروپیک همچنین زیرساخت اختصاصی خودش برای ساخت ایجنتها رو با نام Claude Agent SDK منتشر کرده؛ همون زیرساختی که پشت Claude Code قرار داره. این ابزار به توسعهدهندهها اجازه میده ایجنتهای قدرتمند و قابل سفارشیسازی بسازن و مسائل دشوار مثل مدیریت حافظه در کارهای طولانی یا هماهنگی بین زیرایجنتها رو حل کنن. به گفته انتروپیک، این SDK فقط برای کدنویسی نیست و میتونه توی حوزههای دیگه هم استفاده بشه.
از نظر ایمنی هم Sonnet 4.5 پیشرفت زیادی کرده. این مدل با سطح حفاظتی AI Safety Level 3 عرضه شده و فیلترهای خاصی برای جلوگیری از سوءاستفادههای خطرناک (مثل موضوعات CBRN) داره. انتروپیک میگه رفتارهای نگرانکننده مثل تملقگویی، فریب یا پیروی از پرامپتهای مضر نسبت به نسلهای قبل بهشدت کاهش پیدا کرده.
@aipulse24
همزمان با معرفی Sonnet 4.5، مجموعهای از قابلیتهای تازه هم به محصولات کلاد اضافه شده؛ مثل چکپوینتها در Claude Code که امکان بازگشت به مراحل قبلی رو فراهم میکنن، افزونه بومی برای VS Code، و یک ابزار جدید برای مدیریت حافظه و کانتکست در API. در اپلیکیشنهای کلاد هم قابلیت اجرای کد و ایجاد مستقیم فایلهای مختلف (از جمله اسناد، اسلاید و جدول) اضافه شده. علاوه بر این، افزونه مرورگر Claude for Chrome برای کاربران پلن Max در دسترس قرار گرفته.
انتروپیک همچنین زیرساخت اختصاصی خودش برای ساخت ایجنتها رو با نام Claude Agent SDK منتشر کرده؛ همون زیرساختی که پشت Claude Code قرار داره. این ابزار به توسعهدهندهها اجازه میده ایجنتهای قدرتمند و قابل سفارشیسازی بسازن و مسائل دشوار مثل مدیریت حافظه در کارهای طولانی یا هماهنگی بین زیرایجنتها رو حل کنن. به گفته انتروپیک، این SDK فقط برای کدنویسی نیست و میتونه توی حوزههای دیگه هم استفاده بشه.
از نظر ایمنی هم Sonnet 4.5 پیشرفت زیادی کرده. این مدل با سطح حفاظتی AI Safety Level 3 عرضه شده و فیلترهای خاصی برای جلوگیری از سوءاستفادههای خطرناک (مثل موضوعات CBRN) داره. انتروپیک میگه رفتارهای نگرانکننده مثل تملقگویی، فریب یا پیروی از پرامپتهای مضر نسبت به نسلهای قبل بهشدت کاهش پیدا کرده.
@aipulse24
🔥20❤3👍3💘3👎1
Media is too big
VIEW IN TELEGRAM
1❤12👍1🙏1
Media is too big
VIEW IN TELEGRAM
اوپن ایآی همچنین از اپلیکیشن Sora برای iOS رونمایی کرده که به این وسیله کاربران میتونن ویدیوهایی که با Sora ویرایش کردن یا ساختن رو با دیگران به اشتراک بذارن.
این اپلیکیشن فعلا فقط با دعوت دیگر کاربران در دسترسه اما گفته شده که به زودی کاربران بیشتری میتونن از اون استفاده کنند.
کاربران اندروید هم میتونن از طریق sora.com به این سرویس دسترسی داشته باشن مشروط به اینکه کد دعوت از شخصی که قبلا به اون دسترسی داده شده داشته باشن.
این شرکت همچنین اعلام کرده به زودی مدل جدید Sora 2 از طریق API هم در دسترس خواهد بود.
@aipulse24
این اپلیکیشن فعلا فقط با دعوت دیگر کاربران در دسترسه اما گفته شده که به زودی کاربران بیشتری میتونن از اون استفاده کنند.
کاربران اندروید هم میتونن از طریق sora.com به این سرویس دسترسی داشته باشن مشروط به اینکه کد دعوت از شخصی که قبلا به اون دسترسی داده شده داشته باشن.
این شرکت همچنین اعلام کرده به زودی مدل جدید Sora 2 از طریق API هم در دسترس خواهد بود.
@aipulse24
❤12🔥3👍1🤯1👾1
گوگل دیپمایند از مدل جدید «Gemini 2.5 Computer Use» رونمایی کرده که به هوش مصنوعی اجازه میده کارها رو درست مثل انسانها در محیطهای گرافیکی انجام بده، یعنی بتونه کلیک کنه، بنویسه و بین صفحات وب یا اپها جابهجا بشه. این مدل که بر پایهی تواناییهای دیداری و استدلالی Gemini 2.5 Pro ساخته شده، عملکرد خیلی بهتری نسبت به رقبا داره و با تأخیر کمتر اجرا میشه. توسعهدهندهها میتونن از طریق Gemini API در Google AI Studio یا Vertex AI بهش دسترسی پیدا کنن.
مدل جدید برای کنترل مرورگرها بهینه شده و در تستهای مختلف مثل Online-Mind2Web و WebVoyager نتایج خوبی گرفته. گوگل میگه این مدل میتونه فرمها رو پر کنه، فیلترها و منوها رو مدیریت کنه و حتی با فرم های لاگین کار کنه. همچنین ابزارهای ایمنی درون مدل تعبیه شدن تا جلوی اقدامهای پرخطر مثل دور زدن کپچا یا کنترل سیستمهای حساس گرفته بشه.
گوگل از این مدل در پروژههایی مثل تست خودکار رابطهای کاربری، Firebase Testing Agent و قابلیتهای عاملمحور «AI Mode» در جستوجو استفاده کرده. حالا هم نسخهی پیشنمایش عمومی در دسترسه و توسعهدهندهها میتونن از طریق محیط تست Browserbase یا مستندات رسمی گوگل، کار باهاش رو شروع کنن.
@aipulse24
مدل جدید برای کنترل مرورگرها بهینه شده و در تستهای مختلف مثل Online-Mind2Web و WebVoyager نتایج خوبی گرفته. گوگل میگه این مدل میتونه فرمها رو پر کنه، فیلترها و منوها رو مدیریت کنه و حتی با فرم های لاگین کار کنه. همچنین ابزارهای ایمنی درون مدل تعبیه شدن تا جلوی اقدامهای پرخطر مثل دور زدن کپچا یا کنترل سیستمهای حساس گرفته بشه.
گوگل از این مدل در پروژههایی مثل تست خودکار رابطهای کاربری، Firebase Testing Agent و قابلیتهای عاملمحور «AI Mode» در جستوجو استفاده کرده. حالا هم نسخهی پیشنمایش عمومی در دسترسه و توسعهدهندهها میتونن از طریق محیط تست Browserbase یا مستندات رسمی گوگل، کار باهاش رو شروع کنن.
@aipulse24
❤17👍10
شرکت انتروپیک در همکاری با مؤسسه امنیت هوش مصنوعی بریتانیا (UK AISI) و مؤسسه آلن تورینگ پژوهشی تازه منتشر کرده که یافتهاش حسابی جلب توجه کرده: فقط با حدود ۲۵۰ سند مخرب میشه یک مدل زبانی بزرگ رو آلوده و دچار "backdoor" کرد، اونم فارغ از اینکه اون مدل چهقدر بزرگ یا با چه حجمی از داده آموزش دیده باشه.
این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از دادههای آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، میتونه کافی باشه.
پژوهشگران برای آزمایش، از نوعی حمله ساده و کمخطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، بهجای پاسخ طبیعی، متنی نامفهوم و بیمعنی تولید کنه.
در این پروژه، مدلهایی با اندازههای مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همهی این مدلها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگتر روی دادههای خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.
طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدلها در مقیاسهای مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اونها به حجم کلی دادهی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد میگیره که به اون الگوی خاص واکنش اشتباه نشون بده.
این تحقیق که بزرگترین مطالعهی منتشرشده در زمینهی آلودگی داده در مدلهای زبانی بهشمار میره، نگرانیهایی رو دربارهی امنیت مدلهای هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعهی پژوهشی و تشویق به توسعهی روشهای دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.
به گفتهی اونها، آگاهی از این آسیبپذیریها کمک میکنه تا از تکرارش در مدلهای بزرگتر و حساستر جلوگیری بشه و مسیر ایمنتری برای گسترش هوش مصنوعی ترسیم بشه.
@aipulse24
این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از دادههای آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، میتونه کافی باشه.
پژوهشگران برای آزمایش، از نوعی حمله ساده و کمخطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، بهجای پاسخ طبیعی، متنی نامفهوم و بیمعنی تولید کنه.
در این پروژه، مدلهایی با اندازههای مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همهی این مدلها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگتر روی دادههای خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.
طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدلها در مقیاسهای مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اونها به حجم کلی دادهی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد میگیره که به اون الگوی خاص واکنش اشتباه نشون بده.
این تحقیق که بزرگترین مطالعهی منتشرشده در زمینهی آلودگی داده در مدلهای زبانی بهشمار میره، نگرانیهایی رو دربارهی امنیت مدلهای هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعهی پژوهشی و تشویق به توسعهی روشهای دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.
به گفتهی اونها، آگاهی از این آسیبپذیریها کمک میکنه تا از تکرارش در مدلهای بزرگتر و حساستر جلوگیری بشه و مسیر ایمنتری برای گسترش هوش مصنوعی ترسیم بشه.
@aipulse24
1❤25👍5💯3