شرکت انتروپیک تازهترین مدل خودش به اسم Claude Sonnet 4.5 رو معرفی کرده؛ مدلی که به گفته شرکت بهترین مدل دنیا برای کدنویسی و ساخت ایجنتهای پیچیده محسوب میشه. این نسخه نهتنها توانایی استفاده از کامپیوتر و حل مسائل سخت ریاضی و منطقی رو بهطور چشمگیری بهتر کرده، بلکه نسبت به نسلهای قبلی پیشرفت محسوسی در تمرکز روی کارهای طولانیمدت داشته و توی آزمونهایی مثل SWE-bench Verified و OSWorld رکورد جدیدی ثبت کرده. قیمت استفاده از مدل هم مثل نسخه ۴ ثابت مونده و تغییری نکرده.
همزمان با معرفی Sonnet 4.5، مجموعهای از قابلیتهای تازه هم به محصولات کلاد اضافه شده؛ مثل چکپوینتها در Claude Code که امکان بازگشت به مراحل قبلی رو فراهم میکنن، افزونه بومی برای VS Code، و یک ابزار جدید برای مدیریت حافظه و کانتکست در API. در اپلیکیشنهای کلاد هم قابلیت اجرای کد و ایجاد مستقیم فایلهای مختلف (از جمله اسناد، اسلاید و جدول) اضافه شده. علاوه بر این، افزونه مرورگر Claude for Chrome برای کاربران پلن Max در دسترس قرار گرفته.
انتروپیک همچنین زیرساخت اختصاصی خودش برای ساخت ایجنتها رو با نام Claude Agent SDK منتشر کرده؛ همون زیرساختی که پشت Claude Code قرار داره. این ابزار به توسعهدهندهها اجازه میده ایجنتهای قدرتمند و قابل سفارشیسازی بسازن و مسائل دشوار مثل مدیریت حافظه در کارهای طولانی یا هماهنگی بین زیرایجنتها رو حل کنن. به گفته انتروپیک، این SDK فقط برای کدنویسی نیست و میتونه توی حوزههای دیگه هم استفاده بشه.
از نظر ایمنی هم Sonnet 4.5 پیشرفت زیادی کرده. این مدل با سطح حفاظتی AI Safety Level 3 عرضه شده و فیلترهای خاصی برای جلوگیری از سوءاستفادههای خطرناک (مثل موضوعات CBRN) داره. انتروپیک میگه رفتارهای نگرانکننده مثل تملقگویی، فریب یا پیروی از پرامپتهای مضر نسبت به نسلهای قبل بهشدت کاهش پیدا کرده.
@aipulse24
همزمان با معرفی Sonnet 4.5، مجموعهای از قابلیتهای تازه هم به محصولات کلاد اضافه شده؛ مثل چکپوینتها در Claude Code که امکان بازگشت به مراحل قبلی رو فراهم میکنن، افزونه بومی برای VS Code، و یک ابزار جدید برای مدیریت حافظه و کانتکست در API. در اپلیکیشنهای کلاد هم قابلیت اجرای کد و ایجاد مستقیم فایلهای مختلف (از جمله اسناد، اسلاید و جدول) اضافه شده. علاوه بر این، افزونه مرورگر Claude for Chrome برای کاربران پلن Max در دسترس قرار گرفته.
انتروپیک همچنین زیرساخت اختصاصی خودش برای ساخت ایجنتها رو با نام Claude Agent SDK منتشر کرده؛ همون زیرساختی که پشت Claude Code قرار داره. این ابزار به توسعهدهندهها اجازه میده ایجنتهای قدرتمند و قابل سفارشیسازی بسازن و مسائل دشوار مثل مدیریت حافظه در کارهای طولانی یا هماهنگی بین زیرایجنتها رو حل کنن. به گفته انتروپیک، این SDK فقط برای کدنویسی نیست و میتونه توی حوزههای دیگه هم استفاده بشه.
از نظر ایمنی هم Sonnet 4.5 پیشرفت زیادی کرده. این مدل با سطح حفاظتی AI Safety Level 3 عرضه شده و فیلترهای خاصی برای جلوگیری از سوءاستفادههای خطرناک (مثل موضوعات CBRN) داره. انتروپیک میگه رفتارهای نگرانکننده مثل تملقگویی، فریب یا پیروی از پرامپتهای مضر نسبت به نسلهای قبل بهشدت کاهش پیدا کرده.
@aipulse24
🔥20❤3👍3💘3👎1
Media is too big
VIEW IN TELEGRAM
1❤12👍1🙏1
Media is too big
VIEW IN TELEGRAM
اوپن ایآی همچنین از اپلیکیشن Sora برای iOS رونمایی کرده که به این وسیله کاربران میتونن ویدیوهایی که با Sora ویرایش کردن یا ساختن رو با دیگران به اشتراک بذارن.
این اپلیکیشن فعلا فقط با دعوت دیگر کاربران در دسترسه اما گفته شده که به زودی کاربران بیشتری میتونن از اون استفاده کنند.
کاربران اندروید هم میتونن از طریق sora.com به این سرویس دسترسی داشته باشن مشروط به اینکه کد دعوت از شخصی که قبلا به اون دسترسی داده شده داشته باشن.
این شرکت همچنین اعلام کرده به زودی مدل جدید Sora 2 از طریق API هم در دسترس خواهد بود.
@aipulse24
این اپلیکیشن فعلا فقط با دعوت دیگر کاربران در دسترسه اما گفته شده که به زودی کاربران بیشتری میتونن از اون استفاده کنند.
کاربران اندروید هم میتونن از طریق sora.com به این سرویس دسترسی داشته باشن مشروط به اینکه کد دعوت از شخصی که قبلا به اون دسترسی داده شده داشته باشن.
این شرکت همچنین اعلام کرده به زودی مدل جدید Sora 2 از طریق API هم در دسترس خواهد بود.
@aipulse24
❤12🔥3👍1🤯1👾1
گوگل دیپمایند از مدل جدید «Gemini 2.5 Computer Use» رونمایی کرده که به هوش مصنوعی اجازه میده کارها رو درست مثل انسانها در محیطهای گرافیکی انجام بده، یعنی بتونه کلیک کنه، بنویسه و بین صفحات وب یا اپها جابهجا بشه. این مدل که بر پایهی تواناییهای دیداری و استدلالی Gemini 2.5 Pro ساخته شده، عملکرد خیلی بهتری نسبت به رقبا داره و با تأخیر کمتر اجرا میشه. توسعهدهندهها میتونن از طریق Gemini API در Google AI Studio یا Vertex AI بهش دسترسی پیدا کنن.
مدل جدید برای کنترل مرورگرها بهینه شده و در تستهای مختلف مثل Online-Mind2Web و WebVoyager نتایج خوبی گرفته. گوگل میگه این مدل میتونه فرمها رو پر کنه، فیلترها و منوها رو مدیریت کنه و حتی با فرم های لاگین کار کنه. همچنین ابزارهای ایمنی درون مدل تعبیه شدن تا جلوی اقدامهای پرخطر مثل دور زدن کپچا یا کنترل سیستمهای حساس گرفته بشه.
گوگل از این مدل در پروژههایی مثل تست خودکار رابطهای کاربری، Firebase Testing Agent و قابلیتهای عاملمحور «AI Mode» در جستوجو استفاده کرده. حالا هم نسخهی پیشنمایش عمومی در دسترسه و توسعهدهندهها میتونن از طریق محیط تست Browserbase یا مستندات رسمی گوگل، کار باهاش رو شروع کنن.
@aipulse24
مدل جدید برای کنترل مرورگرها بهینه شده و در تستهای مختلف مثل Online-Mind2Web و WebVoyager نتایج خوبی گرفته. گوگل میگه این مدل میتونه فرمها رو پر کنه، فیلترها و منوها رو مدیریت کنه و حتی با فرم های لاگین کار کنه. همچنین ابزارهای ایمنی درون مدل تعبیه شدن تا جلوی اقدامهای پرخطر مثل دور زدن کپچا یا کنترل سیستمهای حساس گرفته بشه.
گوگل از این مدل در پروژههایی مثل تست خودکار رابطهای کاربری، Firebase Testing Agent و قابلیتهای عاملمحور «AI Mode» در جستوجو استفاده کرده. حالا هم نسخهی پیشنمایش عمومی در دسترسه و توسعهدهندهها میتونن از طریق محیط تست Browserbase یا مستندات رسمی گوگل، کار باهاش رو شروع کنن.
@aipulse24
❤17👍10
شرکت انتروپیک در همکاری با مؤسسه امنیت هوش مصنوعی بریتانیا (UK AISI) و مؤسسه آلن تورینگ پژوهشی تازه منتشر کرده که یافتهاش حسابی جلب توجه کرده: فقط با حدود ۲۵۰ سند مخرب میشه یک مدل زبانی بزرگ رو آلوده و دچار "backdoor" کرد، اونم فارغ از اینکه اون مدل چهقدر بزرگ یا با چه حجمی از داده آموزش دیده باشه.
این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از دادههای آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، میتونه کافی باشه.
پژوهشگران برای آزمایش، از نوعی حمله ساده و کمخطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، بهجای پاسخ طبیعی، متنی نامفهوم و بیمعنی تولید کنه.
در این پروژه، مدلهایی با اندازههای مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همهی این مدلها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگتر روی دادههای خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.
طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدلها در مقیاسهای مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اونها به حجم کلی دادهی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد میگیره که به اون الگوی خاص واکنش اشتباه نشون بده.
این تحقیق که بزرگترین مطالعهی منتشرشده در زمینهی آلودگی داده در مدلهای زبانی بهشمار میره، نگرانیهایی رو دربارهی امنیت مدلهای هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعهی پژوهشی و تشویق به توسعهی روشهای دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.
به گفتهی اونها، آگاهی از این آسیبپذیریها کمک میکنه تا از تکرارش در مدلهای بزرگتر و حساستر جلوگیری بشه و مسیر ایمنتری برای گسترش هوش مصنوعی ترسیم بشه.
@aipulse24
این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از دادههای آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، میتونه کافی باشه.
پژوهشگران برای آزمایش، از نوعی حمله ساده و کمخطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، بهجای پاسخ طبیعی، متنی نامفهوم و بیمعنی تولید کنه.
در این پروژه، مدلهایی با اندازههای مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همهی این مدلها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگتر روی دادههای خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.
طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدلها در مقیاسهای مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اونها به حجم کلی دادهی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد میگیره که به اون الگوی خاص واکنش اشتباه نشون بده.
این تحقیق که بزرگترین مطالعهی منتشرشده در زمینهی آلودگی داده در مدلهای زبانی بهشمار میره، نگرانیهایی رو دربارهی امنیت مدلهای هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعهی پژوهشی و تشویق به توسعهی روشهای دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.
به گفتهی اونها، آگاهی از این آسیبپذیریها کمک میکنه تا از تکرارش در مدلهای بزرگتر و حساستر جلوگیری بشه و مسیر ایمنتری برای گسترش هوش مصنوعی ترسیم بشه.
@aipulse24
1❤25👍5💯3
گوگل در همکاری با دانشگاه ییل از مدل جدیدی به نام Cell2Sentence-Scale 27B (C2S-Scale) رونمایی کرده؛ مدلی با ۲۷ میلیارد پارامتر که برای درک «زبان سلولها» طراحی شده. این مدل بر پایهی خانواده مدلهای باز Gemma ساخته شده و مرز جدیدی در تحلیل سلولهای منفرد به شمار میره. اهمیت این دستاورد زمانی دوچندان میشه که C2S-Scale تونسته یک فرضیهی جدید درباره رفتار سلولهای سرطانی مطرح کنه که بعدتر با آزمایش روی سلولهای زنده هم تأیید شده؛ نتیجهای که مسیر تازهای برای درمانهای احتمالی سرطان باز میکنه.
این مدل برای حل یکی از چالشهای مهم ایمنیدرمانی سرطان یعنی نامرئی بودن تومورها برای سیستم ایمنی (تومورهای «سرد») به کار گرفته شده. C2S-Scale با شبیهسازی اثر بیش از ۴۰۰۰ دارو، دارویی به نام سیلمیتاسرتیب (Silmitasertib) رو شناسایی کرده که در حضور مقدار کم پروتئین سیگنالدهندهی اینترفرون، باعث افزایش چشمگیر نمایش آنتیژن روی سطح سلولها میشه؛ اتفاقی که تومور رو برای سیستم ایمنی «قابل دیدنتر» میکنه. آزمایشهای بعدی در سلولهای انسانی هم این پیشبینی رو تأیید کرده و نشون داده ترکیب سیلمیتاسرتیب با اینترفرون میتونه تا حدود ۵۰٪ میزان نمایش آنتیژن رو افزایش بده.
این موفقیت نهتنها یک کشف علمی مهم به حساب میاد، بلکه الگویی تازه برای نحوهی استفاده از مدلهای بزرگ در زیستشناسی ارائه میده. گوگل و ییل معتقدن این رویکرد میتونه روند کشف داروهای جدید و طراحی درمانهای ترکیبی رو سرعت بده. مدل و ابزارهای مرتبط با C2S-Scale 27B از امروز برای جامعه پژوهشی در دسترس قرار گرفته و روی پلتفرمهایی مثل Hugging Face و GitHub قابل استفادهست.
همچنین نسخه کامل این مقاله رو میتونید از اینجا مشاهده کنید.
@aipulse24
این مدل برای حل یکی از چالشهای مهم ایمنیدرمانی سرطان یعنی نامرئی بودن تومورها برای سیستم ایمنی (تومورهای «سرد») به کار گرفته شده. C2S-Scale با شبیهسازی اثر بیش از ۴۰۰۰ دارو، دارویی به نام سیلمیتاسرتیب (Silmitasertib) رو شناسایی کرده که در حضور مقدار کم پروتئین سیگنالدهندهی اینترفرون، باعث افزایش چشمگیر نمایش آنتیژن روی سطح سلولها میشه؛ اتفاقی که تومور رو برای سیستم ایمنی «قابل دیدنتر» میکنه. آزمایشهای بعدی در سلولهای انسانی هم این پیشبینی رو تأیید کرده و نشون داده ترکیب سیلمیتاسرتیب با اینترفرون میتونه تا حدود ۵۰٪ میزان نمایش آنتیژن رو افزایش بده.
این موفقیت نهتنها یک کشف علمی مهم به حساب میاد، بلکه الگویی تازه برای نحوهی استفاده از مدلهای بزرگ در زیستشناسی ارائه میده. گوگل و ییل معتقدن این رویکرد میتونه روند کشف داروهای جدید و طراحی درمانهای ترکیبی رو سرعت بده. مدل و ابزارهای مرتبط با C2S-Scale 27B از امروز برای جامعه پژوهشی در دسترس قرار گرفته و روی پلتفرمهایی مثل Hugging Face و GitHub قابل استفادهست.
همچنین نسخه کامل این مقاله رو میتونید از اینجا مشاهده کنید.
@aipulse24
👍18🔥7❤🔥2❤1👏1💯1
انتروپیک از نسخه جدید مدل هوش مصنوعی کوچک خودش با نام Claude Haiku 4.5 رونمایی کرده. این مدل طبق گفتهی شرکت، عملکردی مشابه با Sonnet 4 ارائه میده اما با یکسوم هزینه و بیش از دو برابر سرعت. به گفتهی انتروپیک، Haiku 4.5 در تستهای مختلف از جمله SWE-Bench و Terminal-Bench نتایج قابل توجهی گرفته و عملکردش در سطح مدلهایی مثل Sonnet 4، GPT-5 و Gemini 2.5 بوده. همچنین در زمینهی استفاده از ابزارها، تعامل با رایانه و استدلال بصری هم نتایج مشابهی ثبت کرده.
این مدل جدید بلافاصله در تمام پلنهای رایگان انتروپیک در دسترس قرار گرفته و به گفتهی شرکت، بهویژه برای نسخههای رایگان محصولات مبتنی بر هوش مصنوعی جذاب خواهد بود، چون میتونه با حداقل فشار بر سرورها، توانایی بالایی ارائه بده. ماهیت سبک بودن Haiku 4.5 باعث میشه بشه چندین عامل (agent) رو بهصورت همزمان اجرا کرد یا اونها رو در ترکیب با مدلهای قویتر مثل Sonnet به کار گرفت.
Haiku 4.5 تنها دو هفته بعد از عرضهی Sonnet 4.5 و دو ماه پس از Opus 4.1 منتشر شده و ادامهدهندهی روند سریع پیشرفت مدلهای انتروپیکه.
@aipulse24
این مدل جدید بلافاصله در تمام پلنهای رایگان انتروپیک در دسترس قرار گرفته و به گفتهی شرکت، بهویژه برای نسخههای رایگان محصولات مبتنی بر هوش مصنوعی جذاب خواهد بود، چون میتونه با حداقل فشار بر سرورها، توانایی بالایی ارائه بده. ماهیت سبک بودن Haiku 4.5 باعث میشه بشه چندین عامل (agent) رو بهصورت همزمان اجرا کرد یا اونها رو در ترکیب با مدلهای قویتر مثل Sonnet به کار گرفت.
Haiku 4.5 تنها دو هفته بعد از عرضهی Sonnet 4.5 و دو ماه پس از Opus 4.1 منتشر شده و ادامهدهندهی روند سریع پیشرفت مدلهای انتروپیکه.
@aipulse24
1👍20🔥11❤1
گوگل مدل هوش مصنوعی Gemma رو از پلتفرم AI Studio حذف کرده، درست بعد از اینکه سناتور جمهوریخواه «مارشا بلکبرن» اعلام کرده این مدل دربارهاش اتهامهای ساختگی منتشر کرده. گوگل گفته Gemma از ابتدا برای توسعهدهندهها طراحی شده بود و نباید برای پاسخ به پرسشهای واقعی یا استفاده عمومی به کار میرفته. با این حال به گفتهی شرکت، برای جلوگیری از این سوءبرداشت، دسترسی به Gemma در AI Studio قطع شده، اما همچنان از طریق API در اختیار توسعهدهندهها قرار داره.
بلکبرن در نامهای به ساندار پیچای، مدیرعامل گوگل، این شرکت رو به افترا و سوگیری ضدمحافظهکارانه متهم کرده. او گفته Gemma در پاسخ به پرسشی درباره خودش، داستانی دروغین از رابطه غیراخلاقی و اتهام تجاوز ساخته و حتی لینکهای جعلی به خبرهایی که اصلاً وجود نداشتن داده. بلکبرن تأکید کرده هیچکدوم از این ادعاها واقعیت ندارن و این کار، افترا از سوی یک مدل هوش مصنوعی متعلق به گوگل محسوب میشه.
گوگل اعلام کرده همچنان برای کاهش خطاها و «توهمات هوش مصنوعی» تلاش میکنه. این اتفاق بار دیگه نشون داده مدلهای هوش مصنوعی هنوز با مشکل دقت و تولید اطلاعات نادرست روبهرو هستن. بلکبرن هم در واکنشش گفته: «تا وقتی نمیتونید کنترلش کنید، خاموشش کنید.»
@aipulse24
بلکبرن در نامهای به ساندار پیچای، مدیرعامل گوگل، این شرکت رو به افترا و سوگیری ضدمحافظهکارانه متهم کرده. او گفته Gemma در پاسخ به پرسشی درباره خودش، داستانی دروغین از رابطه غیراخلاقی و اتهام تجاوز ساخته و حتی لینکهای جعلی به خبرهایی که اصلاً وجود نداشتن داده. بلکبرن تأکید کرده هیچکدوم از این ادعاها واقعیت ندارن و این کار، افترا از سوی یک مدل هوش مصنوعی متعلق به گوگل محسوب میشه.
گوگل اعلام کرده همچنان برای کاهش خطاها و «توهمات هوش مصنوعی» تلاش میکنه. این اتفاق بار دیگه نشون داده مدلهای هوش مصنوعی هنوز با مشکل دقت و تولید اطلاعات نادرست روبهرو هستن. بلکبرن هم در واکنشش گفته: «تا وقتی نمیتونید کنترلش کنید، خاموشش کنید.»
@aipulse24
😁15🤡8❤2👍2
انتروپیک گفته در پروژهای به ارزش ۵۰ میلیارد دلار و با همکاری شرکت Fluidstack قراره دیتاسنترهای هوش مصنوعی اختصاصی خودش رو در نیویورک و تگزاس احداث کنه.
این دیتاسنترها که قراره تا سال ۲۰۲۶ عملیاتی بشن به طور مستقیم ۸۰۰ و به طور غیر مستقیم ۲۴۰۰ شغل ایجاد میکنن.
به گفته این شرکت انتروپیک حالا بیشتر از ۳۰۰ هزار مشتری سازمانی داره و تعداد سازمانهای بزرگی که از محصولات این شرکت استفاده میکنن نسبت به سال قبل ۷ برابر شده.
انتروپیک دلیل انتخاب Fluidstack به عنوان پیمانکار این پروژه رو توانایی بینظیر اونها در گسترش سریع زیرساختها برای رسیدن به مقیاس گیگاواتی در پردازش اعلام کرده.
@aipulse24
این دیتاسنترها که قراره تا سال ۲۰۲۶ عملیاتی بشن به طور مستقیم ۸۰۰ و به طور غیر مستقیم ۲۴۰۰ شغل ایجاد میکنن.
به گفته این شرکت انتروپیک حالا بیشتر از ۳۰۰ هزار مشتری سازمانی داره و تعداد سازمانهای بزرگی که از محصولات این شرکت استفاده میکنن نسبت به سال قبل ۷ برابر شده.
انتروپیک دلیل انتخاب Fluidstack به عنوان پیمانکار این پروژه رو توانایی بینظیر اونها در گسترش سریع زیرساختها برای رسیدن به مقیاس گیگاواتی در پردازش اعلام کرده.
@aipulse24
❤15👍4