AI Pulse
3.73K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
انتروپیک تو تازه‌ترین پروژه‌ی تحقیقاتی‌اش یه روش جدید معرفی کرده که به کاربرها اجازه می‌ده مسیر تصمیم‌گیری مدل‌های زبانی بزرگ رو قدم‌به‌قدم ردیابی کنن. این روش که حالا به‌صورت متن‌باز منتشر شده، از طریق تولید «گراف‌های انتسابی» (attribution graphs) کمک می‌کنه بفهمیم مدل دقیقاً چه مراحلی رو طی کرده تا به یه خروجی خاص برسه. حالا همه می‌تونن با مراجعه به Neuronpedia این گراف‌ها رو بسازن و به‌شکل تعاملی بررسی‌شون کنن.

هسته‌ی این ابزار، یه کتابخونه‌ی متن‌باز به اسم Circuit Tracer هست که قابلیت اجرا روی مدل‌های متن‌باز محبوب رو داره. تو رابط گرافیکی Neuronpedia، می‌شه گراف‌ها رو دید، حاشیه‌نویسی کرد و حتی با بقیه به اشتراک گذاشت. این ابزارها اجازه می‌دن محقق‌ها فرضیه‌هایی مثل نقش یه ویژگی خاص در تصمیم‌گیری مدل رو تست کنن و ببینن تغییر اون ویژگی چه اثری روی خروجی می‌ذاره.

این پروژه توسط دو نفر از شرکت‌کننده‌های برنامه‌ی Anthropic Fellows با همکاری Decode Research توسعه داده شده. ابزار منتشرشده پیش‌تر برای تحلیل رفتارهایی مثل استدلال چندمرحله‌ای و بازنمایی‌های چندزبانه تو مدل‌هایی مثل Gemma-2-2b و Llama-3.2-1b استفاده شده و نتایجش توی نوت‌بوک دمو قابل مشاهده‌ست.

انتروپیک امیدوار‌ه با اوپن سورس کردن این ابزارها، جامعه‌ی گسترده‌تری از محقق‌ها و علاقه‌مندا وارد حوزه‌ی تفسیربذیری مدل‌های زبانی بشن. دریو آمودئی، مدیرعامل شرکت، گفته که سرعت پیشرفت در هوش مصنوعی از درک ما از عملکرد درونی مدل‌ها جلو زده و تحقیق در این زمینه فوریت داره. انتروپیک از همه دعوت کرده با استفاده از این ابزارها، مدارهای جالب‌تری پیدا کنن یا خودشون ابزارها رو توسعه بدن.

@aipulse24
26👍6🔥5
AI Pulse
از این هفته قصد دارم دوشنبه هر هفته یک سری از مفاهیم و اصطلاحات مربوط به حوزه هوش مصنوعی رو که بنظرم لازمه هرکسی بدونه رو به زبون ساده و با ذکر مثال توضیح بدم. این هفته میخوام برای شروع مفاهیم پایه AI و ML رو توضیح بدم تا باهم بهتر بفهمیم این هوش مصنوعی که…
۱. پیش‌بینی (Inference)

‏Inference یعنی وقتی مدل آموزش دیده، ازش استفاده کنیم تا روی داده‌های جدید پیش‌بینی انجام بده. این بخش همون استفاده عملی از مدله. مثلاً وقتی یه عکس جدید به یه مدل تشخیص چهره می‌دی، مدل از چیزهایی که یاد گرفته استفاده می‌کنه تا بگه "این آدم فلانیه" یا "نمی‌شناسمش". توی برنامه‌هایی مثل Google Photos یا Face ID گوشی، هر بار که یه عکس جدید بررسی می‌شه، مرحله inference در حال انجامه.


۲. بیش‌برازش (Overfitting)

بیش‌برازش زمانی اتفاق می‌افته که مدل خیلی دقیق داده‌های آموزش رو یاد بگیره، حتی خطاها یا استثناهای اون‌ها رو، طوری که وقتی با داده‌ی جدید روبه‌رو می‌شه، عملکرد خوبی نداره. مثلاً اگه یه دانش‌آموز فقط جواب سوال‌های امتحان پارسال رو حفظ کنه، ولی نتونه سوال‌های جدید رو حل کنه، اون دچار overfitting شده! مدل خوب مدلیه که علاوه بر یاد گرفتن داده‌ها، بتونه ازشون تعمیم بده و روی داده‌های جدید هم خوب عمل کنه.


۳. کم‌برازش (Underfitting)

کم‌برازش زمانی پیش میاد که مدل حتی نتونه الگوهای ساده موجود در داده‌ها رو هم یاد بگیره. این معمولاً وقتی اتفاق می‌افته که مدل خیلی ساده‌ست یا آموزش کافی ندیده. مثلاً فرض کن می‌خوای قیمت خونه رو پیش‌بینی کنی ولی فقط از متراژ استفاده کنی و بقیه عوامل مثل موقعیت، سن بنا یا تعداد اتاق رو نادیده بگیری. مدلی که با این اطلاعات ناقص آموزش دیده باشه، خیلی خطا خواهد داشت و underfitting محسوب می‌شه.


‏۴. Bias (سوگیری مدل)

‏Bias یعنی مدل به طور سیستماتیک اشتباه کنه یا همیشه یه جور خاصی پیش‌بینی کنه. این سوگیری ممکنه به خاطر داده‌های نامتوازن یا اشتباه در آموزش مدل باشه. مثلاً اگه فقط عکس‌های گربه خاکستری به یه مدل نشون بدی، ممکنه فکر کنه همه گربه‌ها خاکستری‌ان و اگه یه گربه سیاه ببینه، بگه این گربه نیست! سوگیری‌ها توی مدل‌های واقعی می‌تونن تبعات مهمی داشته باشن.


‏۵. Variance (واریانس یا نوسان عملکرد)

‏Variance یعنی مدل نسبت به داده‌های جدید حساس باشه و خروجی‌هاش زیاد بالا پایین بشن. مدل‌هایی که واریانس بالا دارن، معمولاً روی داده‌های آموزش خوبن ولی روی داده‌های جدید عملکرد ثابتی ندارن. فرض کن یه مدل خیلی پیچیده داری که برای هر نمونه آموزش یه جواب متفاوت و دقیق تولید می‌کنه، اما روی داده‌های جدید گیج می‌شه. این مدل نیاز به کنترل پیچیدگی یا افزایش داده داره تا باثبات‌تر عمل کنه.


‏۶. Loss Function (تابع خطا)

تابع خطا یا Loss Function یه معیاره که به مدل نشون می‌ده چقدر اشتباه کرده. مدل سعی می‌کنه مقدار این خطا رو در طول آموزش کم کنه. این تابع مثل یه راهنماست که کمک می‌کنه بفهمیم وزن‌ها یا پارامترهای مدل رو باید چطوری تغییر بدیم. مثلاً توی یه مدل پیش‌بینی قیمت، اگه مدل بگه قیمت یه خونه ۱ میلیارد تومنه ولی در واقع ۸۰۰ میلیونه، تابع خطا اختلاف بین این دو عدد رو اندازه می‌گیره و کمک می‌کنه مدل خودش رو اصلاح کنه.

#آموزشی

@aipulse24
25👍15👏3
Please open Telegram to view this post
VIEW IN TELEGRAM
😍347🤡5
AI Pulse
مرسی از همه مسیج هاتون دوستان😭
بوقوران اینارو تو کامنتم میشد بگید😭
(جدای از شوخی مرسی که دنبالمون میکنید😀😀)
Please open Telegram to view this post
VIEW IN TELEGRAM
101😁236🔥1
ردیت رسماً از شرکت انتروپیک شکایت کرده و مدعی شده که این استارتاپ هوش مصنوعی، بدون داشتن مجوز قانونی، داده‌های ردیت رو برای آموزش مدل‌های خودش استفاده کرده. این شکایت در دادگاهی در شمال کالیفرنیا ثبت شده و ردیت می‌گه استفاده تجاری از محتوای پلتفرمش بدون مجوز، نقض توافق‌نامه کاربران محسوب می‌شه. این اولین باره که یک شرکت بزرگ فناوری، خودش مستقیماً علیه یک ارائه‌دهنده مدل هوش مصنوعی بابت استفاده از داده‌ها اقدام قضایی کرده.

ردیت در این پرونده، خودش رو در کنار رسانه‌هایی مثل نیویورک تایمز قرار داده که قبلاً از شرکت‌هایی مثل OpenAI و مایکروسافت بابت استفاده بدون مجوز از محتوای خبری‌شون شکایت کرده بودن. همچنین هنرمندان، نویسنده‌ها و ناشرهای موسیقی هم شکایت‌های مشابهی علیه شرکت‌هایی که مدل‌های مولد صوتی، تصویری و متنی می‌سازن، تنظیم کردن. ردیت با لحنی تند اعلام کرده که اجازه نمی‌ده شرکت‌هایی مثل آنتروپیک بدون هیچ بازگشتی برای کاربران ردیت، محتوای ردیت رو به میلیاردها دلار سود تبدیل کنن.

نکته جالب اینه که ردیت با برخی شرکت‌های دیگه مثل OpenAI و گوگل قرارداد رسمی امضا کرده که به اون‌ها اجازه می‌ده از محتوای ردیت در آموزش مدل‌هاشون استفاده کنن؛ البته تحت شرایط خاصی که شامل رعایت حریم خصوصی کاربران هم می‌شه. سم آلتمن، مدیرعامل OpenAI، خودش سومین سهام‌دار بزرگ ردیت محسوب می‌شه و قبلاً هم عضو هیئت‌مدیره‌ی این شرکت بوده.

در این شکایت، ردیت گفته که به آنتروپیک اطلاع داده استفاده از محتوای ردیت براشون مجاز نیست، اما آنتروپیک حاضر به مذاکره نشده. ردیت ادعا می‌کنه که حتی بعد از اینکه آنتروپیک گفته جلوی Crawlerهاش رو گرفته، ربات‌هاش بیش از صد هزار بار دیگه هم سایت ردیت رو اسکریپ کردن. حالا ردیت درخواست غرامت و ممنوعیت استفاده‌ی بیشتر از محتوای ردیت توسط آنتروپیک رو مطرح کرده. آنتروپیک اما ادعاهای ردیت رو رد کرده و گفته از خودش به شدت دفاع خواهد کرد.

@aipulse24
👏285😁5👎2🌚1
گوگل نسخه‌ی پیش‌نمایش جدیدی از مدل Gemini 2.5 Pro رو معرفی کرده؛ مدلی که هوشمندترین نسخه‌ی ساخته‌شده تا به امروز محسوب می‌شه. این نسخه نسبت به مدل قبلی که در رویداد I/O و در ماه مه معرفی شده بود، ارتقا پیدا کرده و قراره طی چند هفته‌ی آینده به نسخه‌ی پایدار و عمومی تبدیل بشه.

نسخه‌ی جدید تونسته با جهش ۲۴ امتیازی در رتبه‌بندی Elo، جایگاه اول خودش رو در LMArena با امتیاز ۱۴۷۰ حفظ کنه و در WebDevArena هم با جهش ۳۵ امتیازی، به امتیاز ۱۴۴۳ برسه. عملکرد مدل در حل مسائل پیچیده‌ی برنامه‌نویسی مثل Aider Polyglot و آزمون‌هایی مثل GPQA و HLE که مهارت‌های استدلالی و علمی مدل‌ها رو می‌سنجن، همچنان در سطح بالایی باقی مونده.

بر اساس بازخوردهایی که از نسخه‌ی قبلی دریافت شده بود، گوگل ساختار و سبک پاسخ‌های مدل رو هم بهبود داده؛ حالا پاسخ‌ها هم خلاقانه‌ترن و هم از نظر قالب‌بندی بهتر شدن. توسعه‌دهنده‌ها می‌تونن از همین حالا کار با نسخه‌ی ارتقایافته‌ی این مدل رو از طریق Gemini API در Google AI Studio یا Vertex AI شروع کنن. همچنین قابلیت جدیدی به اسم «بودجه‌ی تفکر» هم اضافه شده تا بشه کنترل بیشتری روی هزینه و تاخیر داشت. این نسخه از امروز در اپلیکیشن Gemini هم در دسترس قرار گرفته.

@aipulse24
🔥225
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل امروز از قابلیت مکالمه صوتی در خانواده مدل‌های Gemini 2.5 رونمایی کرده. این مدل‌ها حالا به‌طور چشمگیری درک بهتری از لحن، لهجه، حالت گفتار، و حتی نجوا و خنده پیدا کردن. این یعنی شما می‌تونین ازش بخواین که با لحن خاصی حرف بزنه یا حتی لهجه خاصی رو تقلید کنه. مدل در حین مکالمه می‌تونه به ابزارهای خارجی یا اطلاعات لحظه‌ای مثل نتایج جست‌وجوی گوگل دسترسی پیدا کنه و حتی صداهای مزاحم اطراف رو فیلتر کنه تا فقط وقتی که واقعاً لازمه، وارد گفت‌وگو بشه.

در بخش تبدیل متن به گفتار (TTS) هم Gemini 2.5 پیشرفت قابل‌توجهی داشته. حالا نه‌تنها صدایی طبیعی تولید می‌کنه، بلکه می‌تونه بر اساس فرمان‌های متنی، سبک اجرا، سرعت، احساسات و حتی شخصیت صوتی گوینده رو کنترل کنه. مثلاً می‌تونین ازش بخواین یه خبر رو با لحن جدی بخونه یا داستانی رو با شور و هیجان روایت کنه. این مدل حتی قادره چند صدای مختلف رو هم‌زمان در یک مکالمه تولید کنه، که برای تولید محتوا مثل پادکست یا ویدیوهای آموزشی یه ابزار قدرتمند محسوب می‌شه.

پشتیبانی از بیش از ۲۴ زبان مختلف (از جمله فارسی) هم به Gemini 2.5 اجازه می‌ده به‌راحتی بین زبان‌ها جابه‌جا بشه یا حتی دو زبان رو توی یک جمله ترکیب کنه. این مدل همچنین می‌تونه به لحن کاربر گوش بده و بر اساس احساساتی که در صدا هست، نوع پاسخ خودش رو تنظیم کنه. همه این‌ها باعث می‌شه تجربه مکالمه با Gemini طبیعی‌تر، انسانی‌تر و چندلایه‌تر از همیشه باشه.

گوگل اعلام کرده که در تمام مراحل توسعه این ویژگی‌های صوتی، ارزیابی‌های دقیق ایمنی و اخلاقی انجام داده. تمام خروجی‌های صوتی این مدل‌ها با ابزار SynthID علامت‌گذاری می‌شن تا قابل شناسایی باشن و از سواستفاده جلوگیری بشه. این قابلیت‌ها هم‌اکنون در Google AI Studio (بخش استریم) و Vertex AI در دسترس توسعه‌دهنده‌ها قرار دارن و می‌تونن برای ساخت اپلیکیشن‌های صوتی، داستان‌گو، آموزشی، یا حتی بازی‌های صوت‌محور ازشون استفاده کنن.

پ.ن: وقتی گفتیم «سلام»، شروع کرد اردو حرف زدن! نتیجه این شد که تصمیم گرفتیم بگیم: «درود بر شما!» :)))

در بالا ویدیویی از مکالمه فارسی با این مدل رو قرار دادیم.

@aipulse24
🤣38🔥155😁2
شرکت انتروپیک به‌تازگی از سرویس جدید خودش با نام «Claude Gov» رونمایی کرده؛ محصولی که به‌طور خاص برای استفاده نهادهای نظامی و اطلاعاتی ایالات متحده طراحی شده. این مدل‌های هوش مصنوعی طوری آموزش دیدن که اطلاعات محرمانه‌ رو بهتر تحلیل کنن و نسبت به نسخه‌های عمومی، محدودیت‌های کمتری در برابر چنین داده‌هایی دارن. انتروپیک اعلام کرده که این مدل‌ها همین حالا هم توسط بالاترین سطوح امنیتی آمریکا استفاده می‌شن، اما نگفته از کی دقیقاً این استفاده شروع شده.

‏Claude Gov برای کارهایی مثل تحلیل تهدیدها و پردازش اطلاعات پیچیده طراحی شده و طبق گفته شرکت، همچنان از تست‌های ایمنی سخت‌گیرانه گذر کرده. با این حال، برخلاف نسخه عمومی Claude، در مواجهه با اطلاعات طبقه‌بندی‌شده «کمتر امتناع می‌کنه» و همین باعث می‌شه مناسب‌تر برای عملیات‌های امنیتی باشه. این مدل‌ها همچنین توانایی بالاتری در درک اسناد نظامی، ساختارهای اطلاعاتی، و زبان‌ها یا گویش‌هایی دارن که در امنیت ملی نقش دارن.

استفاده دولت‌ها از هوش مصنوعی همیشه با نگرانی‌هایی همراه بوده؛ از جمله موارد متعدد بازداشت اشتباهی در آمریکا به‌خاطر تشخیص چهره، یا الگوریتم‌هایی که در حوزه‌هایی مثل پیش‌بینی جرم تبعیض‌آمیز عمل کردن. انتروپیک البته در سیاست استفاده‌اش همچنان تأکید داره که نباید از محصولاتش برای ساخت یا توزیع سلاح، مواد خطرناک یا عملیات سایبری مخرب استفاده شه. با این حال، این شرکت از سال گذشته برای بعضی نهادهای دولتی استثناهایی در نظر گرفته که با مأموریت و قوانین اون نهادها هماهنگ باشه.

‏Claude Gov در واقع رقیب مستقیم ChatGPT Gov محسوب می‌شه؛ سرویسی که OpenAI در دی‌ماه برای سازمان‌های دولتی آمریکا راه انداخت. انتروپیک فعلاً جزئیاتی درباره میزان استفاده یا کاربردهای خاص Claude Gov ارائه نداده، اما جزو برنامه FedStart شرکت Palantir شده؛ برنامه‌ای که به استارتاپ‌ها کمک می‌کنه نرم‌افزارهای دولتی راه‌اندازی کنن.

@aipulse24
10🤔10👍1
AI Pulse
۱. پیش‌بینی (Inference) ‏Inference یعنی وقتی مدل آموزش دیده، ازش استفاده کنیم تا روی داده‌های جدید پیش‌بینی انجام بده. این بخش همون استفاده عملی از مدله. مثلاً وقتی یه عکس جدید به یه مدل تشخیص چهره می‌دی، مدل از چیزهایی که یاد گرفته استفاده می‌کنه تا بگه…
۱. Tokenization (توکنیزه کردن)

توکنیزه کردن یعنی شکستن متن به واحدهای کوچکتر به نام «توکن». این توکن‌ها می‌تونن کلمات، بخش‌هایی از کلمات یا حتی کاراکترها باشن. مدل‌های زبانی برای اینکه بتونن با متن کار کنن، باید اول متن رو به توکن تبدیل کنن.
مثلاً جمله‌ی "من عاشق هوش مصنوعی هستم" ممکنه به توکن‌های ["من", "عاشق", "هوش", "مصنوعی", "هستم"] شکسته بشه. اما در مدل‌های مثل GPT، که از «byte pair encoding» استفاده می‌کنن، ممکنه حتی کلمات هم به قطعات کوچکتر تقسیم بشن. این مرحله خیلی مهمه چون ورودی مدل فقط می‌تونه توکن‌ها رو بفهمه، نه متن طبیعی رو.


۲. Embedding

بعد از توکنیزه کردن، نوبت به «Embedding» می‌رسه. چون مدل‌ها فقط با اعداد کار می‌کنن، هر توکن باید به یه عدد یا بردار (لیستی از اعداد) تبدیل بشه. این بردارها به مدل کمک می‌کنن معنی کلمات رو بهتر درک کنه.
مثلاً کلمات "پادشاه" و "ملکه" ممکنه بردارهایی داشته باشن که در فضای عددی به هم نزدیک باشن، چون از نظر معنایی شبیه‌ان. این مرحله باعث می‌شه مدل بتونه «معنا» رو به شکلی قابل پردازش درک کنه.


۳. Self-Attention (توجه به خود)

‏Self-Attention یکی از خلاقانه‌ترین ایده‌ها در مدل‌های زبانیه. این مکانیزم کمک می‌کنه مدل تصمیم بگیره به کدوم قسمت‌های جمله بیشتر توجه کنه.
مثلاً در جمله‌ی "کتابی که دیروز خریدم عالی بود"، مدل باید بفهمه که "عالی بود" مربوط به "کتاب"ه، نه "دیروز". Self-attention این وابستگی‌ها رو مشخص می‌کنه. به همین دلیل مدل‌هایی که از این روش استفاده می‌کنن (مثل BERT و GPT)، درک عمیق‌تری از ساختار زبان دارن.

۴. Transformer

ترنسفورمر یه معماری جدید و انقلابی در یادگیری زبان طبیعیه که از مکانیزم attention برای پردازش توالی‌ها استفاده می‌کنه. برخلاف مدل‌های قدیمی‌تر مثل RNN، این مدل‌ها می‌تونن همزمان تمام کلمات یک جمله رو ببینن و سریع‌تر و دقیق‌تر کار کنن.
‏GPT، BERT، T5، LLaMA، همه بر پایه‌ی ترنسفورمر ساخته شدن. مثلا GPT یه ترنسفورمر «سمت چپ‌نگره» که فقط به کلمات قبلی نگاه می‌کنه و کلمه بعدی رو حدس می‌زنه.


۵. Pretraining و Fine-tuning

مدل‌های زبانی مثل GPT اول در مرحله‌ای به اسم Pretraining روی مقدار زیادی متن عمومی آموزش می‌بینن (مثل کتاب، مقاله، سایت‌ها). این مرحله کمک می‌کنه زبان رو یاد بگیرن، بدون اینکه وظیفه خاصی داشته باشن.
بعداً در مرحله‌ی Fine-tuning، مدل برای انجام یه کار خاص آموزش داده می‌شه؛ مثل خلاصه‌سازی، ترجمه یا پاسخ دادن به سوال‌ها. این دو مرحله باعث می‌شن مدل هم «دانش عمومی» داشته باشه، هم توی کار خاصی بهتر از معمول عمل کنه.


۶. Prompting و Instruction Tuning

‏Prompting یعنی طراحی یک ورودی مناسب برای مدل تا کاری رو انجام بده. مثلاً وقتی به مدل میگی: «لطفاً این متن رو خلاصه کن»، این یه prompt محسوب می‌شه.
اما Instruction tuning مرحله‌ایه که طی اون مدل یاد می‌گیره چطور به دستورات مختلف پاسخ بده. این همون چیزیه که باعث شده ChatGPT یا Claude بتونن با زبان طبیعی باهات صحبت کنن.


۷. Distillation (تقطیر دانش)

‏Distillation یه تکنیکه برای اینکه یه مدل بزرگ و سنگین (Teacher) رو تبدیل کنیم به یه مدل کوچکتر و سریع‌تر (Student) بدون اینکه خیلی از دقتش کم بشه.
مثلاً GPT-4o ممکنه خیلی دقیق باشه ولی مدل گرونیه. با Distillation می‌تونیم یه نسخه سبک‌تر مثل GPT-4o mini تولید کنیم که روی موبایل یا مرورگر اجرا بشه.
به طور خلاصه این تکنیک اینطوری کار میکنه که مدل کوچکتر شروع میکنه به سوال پرسیدن از مدل اصلی و طی این فرآیند پاسخ هارو یاد میگیره.


۸. Fine-Tuning و LoRA

در Fine-Tuning سنتی، تمام پارامترهای مدل دوباره آموزش داده می‌شن، که منابع زیادی لازم داره.
اما LoRA یه روش سبک‌تره که فقط چند لایه کوچک به مدل اضافه می‌کنه و همون‌ها آموزش می‌بینن. به‌جای دستکاری کل مدل، فقط تنظیمات اضافه رو تغییر می‌دیم. این باعث می‌شه مدل سریع‌تر و با مصرف کمتر منابع برای کار خاصی بهینه بشه.


۹. Sampling, Top-k و Top-p (برای تولید متن)

وقتی مدل می‌خواد متن تولید کنه، از بین کلمه‌های ممکن، باید یه انتخاب انجام بده.
‏Greedy Sampling همیشه بهترین گزینه رو انتخاب می‌کنه ولی ممکنه جواب تکراری بشه.
‏Top-k فقط بین k تا از بهترین گزینه‌ها انتخاب می‌کنه.
‏Top-p بین گزینه‌هایی انتخاب می‌کنه که جمع احتمال‌شون به p درصد می‌رسه.
این تنظیمات روی سبک نوشتن مدل تأثیر زیادی دارن؛ مثلاً توی خلاقیت یا دقت متن.

#آموزشی

@aipulse24
2👍2713🙏4👏2
This media is not supported in your browser
VIEW IN TELEGRAM
ویدیوی جالبی که تماما با مدل Veo 3 گوگل و Suno تولید شده.

@aipulse24
🔥256👍3
شرکت OpenAI قیمت API مدل o3 رو ۸۰٪ کاهش داده و این مدل حالا ۲ دلار برای هر یک میلیون توکن ورودی و ۸ دلار برای توکن خروجی هزینه خواهد داشت.

همچنین از مدل o3-pro هم در API رونمایی کرده که ۲۰ دلار برای هر یک میلیون توکن ورودی و ۸۰ دلار برای توکن خروجی هزینه داره ولی با این حال همچنان ۸۷٪ از مدل o1-pro ارزون تره.

@aipulse24
17👏11
همچنین مدل o3-pro حالا برای تمام کاربران پلن Pro در دسترس قرار گرفته. این مدل بهبود عملکرد قابل توجهی نسبت به o3 داره.

@aipulse24
18👍6
This media is not supported in your browser
VIEW IN TELEGRAM
استارتاپ Midjourney که با مدل‌های تولید تصویر مبتنی بر هوش مصنوعی شناخته می‌شه، به‌تازگی از مدل تولید ویدئوی خودش به نام V1 رونمایی کرده. این مدل می‌تونه از یک تصویر ثابت (چه تصویر آپلودی، چه تصویر تولیدشده توسط مدل‌های قبلی Midjourney) چهار ویدئوی پنج‌ثانیه‌ای تولید کنه و کاربران می‌تونن این ویدئوها رو تا چهار بار، هر بار به‌مدت چهار ثانیه، طولانی‌تر کنن. در نتیجه، حداکثر طول ویدئویی که با V1 ساخته می‌شه می‌تونه به ۲۱ ثانیه برسه. این ویدئوها در حال حاضر فقط از طریق پلتفرم دیسکورد و در نسخه‌ی وب در دسترس قرار دارن.

‏V1 به‌گونه‌ای طراحی شده که استفاده ازش هم ساده باشه و هم قابلیت‌های فنی متنوعی در اختیار کاربران بذاره. از جمله تنظیماتی که در این مدل در نظر گرفته شده می‌شه به حالت «انیمیشن خودکار» اشاره کرد که تصویر ورودی رو به‌صورت تصادفی و بدون دخالت کاربر به حرکت در‌میاره. برای کاربران حرفه‌ای‌تر، حالت «انیمیشن دستی» فراهم شده که در اون می‌تونن به‌صورت متنی توضیح بدن که چه نوع حرکتی مدنظرشونه — مثل چرخش دوربین، حرکت کاراکتر یا تغییرات پس‌زمینه. همچنین گزینه‌هایی برای میزان تحرک صحنه در نظر گرفته شده: از «low motion» برای حرکات آرام گرفته تا «high motion» برای صحنه‌های پویاتر.

از نظر هزینه، مدل V1 نسبت به مدل‌های تصویری Midjourney پرمصرف‌تره. طبق اعلام شرکت، تولید یک ویدئو تا ۸ برابر بیشتر از یک تصویر از سهمیه‌ی ماهانه‌ی کاربران مصرف می‌کنه. اشتراک پایه برای استفاده از V1 از ۱۰ دلار در ماه شروع می‌شه، درحالی‌که مشترکین پلن Pro (با قیمت ۶۰ دلار) و Mega (۱۲۰ دلار) امکان تولید نامحدود ویدئو در حالت Relax (حالت غیرسریع) رو دارن. البته Midjourney اعلام کرده که طی ماه آینده، سیاست قیمت‌گذاری برای مدل‌های ویدئویی خودش رو بازبینی خواهد کرد.

از نظر جلوه‌های بصری، ویدئوهای تولیدشده توسط V1 در نگاه اول بیشتر «سورئال» و خیال‌گونه به‌نظر می‌رسن تا واقع‌گرایانه؛ ویژگی‌ای که پیش‌تر هم در مدل‌های تصویری Midjourney دیده شده بود. با وجود اینکه این سبک ممکنه برای برخی از کاربران مناسب نباشه، اما در میان هنرمندان و خلاقان بازخورد مثبتی دریافت کرده. با این حال، هنوز مشخص نیست که V1 در عمل تا چه حد می‌تونه با مدل‌هایی مثل Veo 3 از گوگل یا Gen-4 از Runway رقابت کنه، مخصوصاً در زمینه کیفیت، پایداری تصویر و کنترل‌پذیری دقیق صحنه.

درنهایت، Midjourney با مدل V1 نشون داده که همچنان می‌خواد مرزهای خلاقیت بصری در دنیای هوش مصنوعی رو جابه‌جا کنه — حتی در شرایطی که از سوی نهادهای حقوقی و استودیوهای بزرگ فیلم‌سازی به چالش کشیده می‌شه. مسیر بعدی این شرکت، طبق وعده‌ها، توسعه‌ی مدل‌هایی برای تولید رندرهای سه‌بعدی و شبیه‌سازی‌های بلادرنگ خواهد بود؛ هدفی جاه‌طلبانه که می‌تونه آینده‌ی طراحی و داستان‌سرایی بصری رو متحول کنه.

@aipulse24
18🔥6👍4
بعد از معرفی نه چندان موفق Llama 4 که باعث استعفای تعدادی از مدیرای متا شد حالا زاکربرگ راه افتاده و داره کاری رو انجام میده که بیشتر از هرچیزی بلده!

خریدن رقبا!!!

توی این ۲ ۳ هفته زاکربرگ اونقدر دانشمند از شرکت های دیگه دزدیده که سوژه یه عالمه میم شده

مبالغی که بهشون پیشنهاد داده بسیار عجیب غریب هستن مثلا به یه تعدادشون در لحظه امضا قرار داد ۱۰۰ میلیون دلار داده!!

زاکربرگ از OpenAI به تنهایی ۸ تا دانشمند جذب کرده که همگی طبق توئیت یکی از کارمندان که بعدا پاک کرد بسیار افراد تاثیر گذار و حساسی هستن و از اینکه مدیریت برای حفظ اونها هیچ کاری نکرده شاکی هست

یکی از اونها حتی خالق ایده مدل های Reasoning هست!!

این شرایط باعث شده که OpenAi مدعی بشه که کارمندانش خسته ان و کلا هفته جاری رو برای همه کارمندان توی OpenAi تعطیل کرده!

فکرکن بخوای ۱۰۰ میلیون دلار رو با ۱ هفته تعطیلی حل کنی😭

این شرایط بسیار شبیه به چیزیه که سالها قبل جف بزوس برای الکسا ایجاد کرد. یک شرکت به اسم Nuance وجود داشت درحد OpenAi فعلی که واسه Speech بود بزوس تمام دانشمنداش رو خرید و فکرکنم لازم نباشه بگم بقیه ماجرا چی شد چون کسی نمیدونه Nuance کیه ولی همه الکسا رو میشناسن.

انتظار میره حداقل تا ۲ ۳ مدل اینده همچنان OpenAi پیشرو باشه چون تاثیر این استعدادها همچنان روی محصولاتی که منتشر نشدن وجود داره ولی از بعدش بسیار ضربه بزرگی برای OpenAi هست مگر اینکه بتونه سریع استعدادهارو جایگزین کنه که البته درحال حاضر جهان به شدت با کمبود نیروی هوش مصنوعی کار درست مواجهه

حالا باید ببینیم در اینده زاکربرگ میتونه یه اینستاگرام دیگه بپا کنه یا این سری مثل قبل شانس نمیاره

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
22🤯9😁6🤣3👍1
کلودفلر از قابلیتی تازه به نام Pay Per Crawl رونمایی کرده که به صاحبان محتوا اجازه می‌ده تا در ازای دسترسی خزنده‌های هوش مصنوعی به محتوای خودشون، پول دریافت کنن. این قابلیت که فعلاً به‌صورت آزمایشی و خصوصی در دسترس قرار گرفته، یه راه‌حل میان‌بر برای مسئله‌ایه که مدت‌هاست ناشران و تولیدکنندگان محتوا باهاش درگیرن: یا باید همه‌چیز رو رایگان در اختیار مدل‌های هوش مصنوعی بذارن، یا کامل جلوی دسترسی اون‌ها رو ببندن.

ایده‌ی کلیدی اینه که دیگه لازم نباشه همه‌چیز صفر و یکی باشه. اگه یه خزنده بخواد محتوایی رو ایندکس کنه، می‌تونه درخواستش رو با هدر مخصوص و اعلام آمادگی برای پرداخت بفرسته و اگه قیمت از طرف ناشر مشخص شده باشه، با پرداخت اون مبلغ به محتوا دسترسی پیدا می‌کنه. اگرم پرداختی صورت نگیره، سرور یه پاسخ HTTP 402 (که قبلاً تقریباً هیچ‌وقت استفاده نمی‌شد) برمی‌گردونه و خزنده از قیمت مطلع می‌شه. کلودفلر توی این فرآیند نقش واسط مالی رو هم بازی می‌کنه.

ناشرها اختیار کامل دارن که برای هر خزنده تصمیم بگیرن: اجازه‌ی رایگان بدن، هزینه دریافت کنن یا دسترسی رو به‌طور کامل ببندن. حتی اگه خزنده‌ای حسابی توی کلودفلر نداشته باشه، باز هم می‌شه به‌صورت مشروط ازش پول خواست، که این عملاً مثل بلاک کردنه اما با امکان مذاکره‌ی آینده. همچنین امکان تعریف قیمت ثابت برای کل سایت، یا اعمال استثنا برای بعضی خزنده‌ها هم وجود داره.

کلودفلر می‌گه این فقط قدم اوله. در آینده، این مدل می‌تونه به زیرساختی برای «دیوار پرداختی عامل‌محور» تبدیل بشه؛ جایی که مثلاً یه دستیار هوشمند بتونه برای پیدا کردن بهترین منابع درباره سرطان یا تحلیل یه قرارداد حقوقی، خودش به‌صورت خودکار بودجه خرج کنه و بهترین نتایج رو بخره. این یعنی یه گام مهم به سمت اینترنتی که توش محتوا، ارزش‌گذاری و کنترل دست تولیدکننده‌هاست، نه خزنده‌های بی‌نام و نشان.

@aipulse24
🔥24👍95👎3🤔1
بریم سراغ جدیدترین کیس عجیب و غریب سیلیکون ولی آقای سوهام پارخ!

ایشون مثل اینکه تو مدرسه درس سو و شون رو نخونده واسه همین به شلخته درو کردن اعتقادی نداره. 😭
برای همین همزمان برای 6 الی 7 تا استارتاپ درحال کار کردن هست!!!


دو روز قبل سهیل دوشی مدیرعامل شرکت playground.ai توی یک توئیت درمورد این فرد صحبت کرد.

توی توئیتش گفت که این فرد ساکن هند هست و اخیرا استارتاپ های تحت حمایت Ycombinator (یک موسسه سرمایه گذاری خطرپذیر معروف) رو هدف قرار داده.

بعد از این توئیت تمام استارتاپ های دیگه ای هم که سهیل رو فالو میکردن اومدن و گفتن که این فرد رو استخدام کردن!

نکته جالب اینه که ایشون به نظر میرسه به شدت توی مصاحبه ها خوب عمل میکنه ولی عملکرد سر کارش زیاد جالب نیست یا شایدم دلیلش اینه که داره همزمان واسه 7 تا شرکت کار میکنه!!!

اینطور که گفته میشه ایشون از حقوق های مختلف این شرکت های متفاوت سالی 800 هزار دلار درامد داره!

همچنین افراد مختلف در تویئت هاشون گفتن که ایشون مدعی هست ساکن امریکاست تا بتونه این کارهارو بگیره ولی بعد مشخص میشه که ساکن امریکا هم نیست و ساکن هنده!

خلاصه اون توئیت سهیل 20 میلیون ویو گرفت و این خبر بسیار وایرال شد و درنتیجه سوهام سوژه یه عالمه میم و توئیت های دیگه شد

لیست یه سری از استارتاپ هایی که مشخص شده توی مصاحبه شون موفق بوده و تونسته استخدام بشه: (نصف سیلیکون ولی عه😃😃):

1. Playground AI
2. Dynamo AI
3. Union AI
4. Synthesia
5. Antimetal
6. Composio
7. Lindy
8. Browser Use
9. Resolve AI
10. Fleet AI

23 تای دیگه هم هست که از تایپ کردنشون خسته شدم😂😂

حالا واکنش ایشون؟
هیچی خیلی ریلکس رفته توی یه پادکست و گفته واقعیت داره، همزمان واسه خودش سخنگو استخدام کرده و مثل هر فردی در سیلیکون ولی (البته به صورت مجازی چون خودش که هند هست) در تلاشه که این شهرت رو تبدیل به بیزنس و پول کنه😭😭

خلاصه که فعلا به نظر میرسه:
ASI =
Artificial Superintelligence
Artificial Soham Intelligence

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁37🤣6🤯41👍1