انتروپیک تو تازهترین پروژهی تحقیقاتیاش یه روش جدید معرفی کرده که به کاربرها اجازه میده مسیر تصمیمگیری مدلهای زبانی بزرگ رو قدمبهقدم ردیابی کنن. این روش که حالا بهصورت متنباز منتشر شده، از طریق تولید «گرافهای انتسابی» (attribution graphs) کمک میکنه بفهمیم مدل دقیقاً چه مراحلی رو طی کرده تا به یه خروجی خاص برسه. حالا همه میتونن با مراجعه به Neuronpedia این گرافها رو بسازن و بهشکل تعاملی بررسیشون کنن.
هستهی این ابزار، یه کتابخونهی متنباز به اسم Circuit Tracer هست که قابلیت اجرا روی مدلهای متنباز محبوب رو داره. تو رابط گرافیکی Neuronpedia، میشه گرافها رو دید، حاشیهنویسی کرد و حتی با بقیه به اشتراک گذاشت. این ابزارها اجازه میدن محققها فرضیههایی مثل نقش یه ویژگی خاص در تصمیمگیری مدل رو تست کنن و ببینن تغییر اون ویژگی چه اثری روی خروجی میذاره.
این پروژه توسط دو نفر از شرکتکنندههای برنامهی Anthropic Fellows با همکاری Decode Research توسعه داده شده. ابزار منتشرشده پیشتر برای تحلیل رفتارهایی مثل استدلال چندمرحلهای و بازنماییهای چندزبانه تو مدلهایی مثل Gemma-2-2b و Llama-3.2-1b استفاده شده و نتایجش توی نوتبوک دمو قابل مشاهدهست.
انتروپیک امیدواره با اوپن سورس کردن این ابزارها، جامعهی گستردهتری از محققها و علاقهمندا وارد حوزهی تفسیربذیری مدلهای زبانی بشن. دریو آمودئی، مدیرعامل شرکت، گفته که سرعت پیشرفت در هوش مصنوعی از درک ما از عملکرد درونی مدلها جلو زده و تحقیق در این زمینه فوریت داره. انتروپیک از همه دعوت کرده با استفاده از این ابزارها، مدارهای جالبتری پیدا کنن یا خودشون ابزارها رو توسعه بدن.
@aipulse24
هستهی این ابزار، یه کتابخونهی متنباز به اسم Circuit Tracer هست که قابلیت اجرا روی مدلهای متنباز محبوب رو داره. تو رابط گرافیکی Neuronpedia، میشه گرافها رو دید، حاشیهنویسی کرد و حتی با بقیه به اشتراک گذاشت. این ابزارها اجازه میدن محققها فرضیههایی مثل نقش یه ویژگی خاص در تصمیمگیری مدل رو تست کنن و ببینن تغییر اون ویژگی چه اثری روی خروجی میذاره.
این پروژه توسط دو نفر از شرکتکنندههای برنامهی Anthropic Fellows با همکاری Decode Research توسعه داده شده. ابزار منتشرشده پیشتر برای تحلیل رفتارهایی مثل استدلال چندمرحلهای و بازنماییهای چندزبانه تو مدلهایی مثل Gemma-2-2b و Llama-3.2-1b استفاده شده و نتایجش توی نوتبوک دمو قابل مشاهدهست.
انتروپیک امیدواره با اوپن سورس کردن این ابزارها، جامعهی گستردهتری از محققها و علاقهمندا وارد حوزهی تفسیربذیری مدلهای زبانی بشن. دریو آمودئی، مدیرعامل شرکت، گفته که سرعت پیشرفت در هوش مصنوعی از درک ما از عملکرد درونی مدلها جلو زده و تحقیق در این زمینه فوریت داره. انتروپیک از همه دعوت کرده با استفاده از این ابزارها، مدارهای جالبتری پیدا کنن یا خودشون ابزارها رو توسعه بدن.
@aipulse24
❤26👍6🔥5
AI Pulse
از این هفته قصد دارم دوشنبه هر هفته یک سری از مفاهیم و اصطلاحات مربوط به حوزه هوش مصنوعی رو که بنظرم لازمه هرکسی بدونه رو به زبون ساده و با ذکر مثال توضیح بدم. این هفته میخوام برای شروع مفاهیم پایه AI و ML رو توضیح بدم تا باهم بهتر بفهمیم این هوش مصنوعی که…
۱. پیشبینی (Inference)
Inference یعنی وقتی مدل آموزش دیده، ازش استفاده کنیم تا روی دادههای جدید پیشبینی انجام بده. این بخش همون استفاده عملی از مدله. مثلاً وقتی یه عکس جدید به یه مدل تشخیص چهره میدی، مدل از چیزهایی که یاد گرفته استفاده میکنه تا بگه "این آدم فلانیه" یا "نمیشناسمش". توی برنامههایی مثل Google Photos یا Face ID گوشی، هر بار که یه عکس جدید بررسی میشه، مرحله inference در حال انجامه.
۲. بیشبرازش (Overfitting)
بیشبرازش زمانی اتفاق میافته که مدل خیلی دقیق دادههای آموزش رو یاد بگیره، حتی خطاها یا استثناهای اونها رو، طوری که وقتی با دادهی جدید روبهرو میشه، عملکرد خوبی نداره. مثلاً اگه یه دانشآموز فقط جواب سوالهای امتحان پارسال رو حفظ کنه، ولی نتونه سوالهای جدید رو حل کنه، اون دچار overfitting شده! مدل خوب مدلیه که علاوه بر یاد گرفتن دادهها، بتونه ازشون تعمیم بده و روی دادههای جدید هم خوب عمل کنه.
۳. کمبرازش (Underfitting)
کمبرازش زمانی پیش میاد که مدل حتی نتونه الگوهای ساده موجود در دادهها رو هم یاد بگیره. این معمولاً وقتی اتفاق میافته که مدل خیلی سادهست یا آموزش کافی ندیده. مثلاً فرض کن میخوای قیمت خونه رو پیشبینی کنی ولی فقط از متراژ استفاده کنی و بقیه عوامل مثل موقعیت، سن بنا یا تعداد اتاق رو نادیده بگیری. مدلی که با این اطلاعات ناقص آموزش دیده باشه، خیلی خطا خواهد داشت و underfitting محسوب میشه.
۴. Bias (سوگیری مدل)
Bias یعنی مدل به طور سیستماتیک اشتباه کنه یا همیشه یه جور خاصی پیشبینی کنه. این سوگیری ممکنه به خاطر دادههای نامتوازن یا اشتباه در آموزش مدل باشه. مثلاً اگه فقط عکسهای گربه خاکستری به یه مدل نشون بدی، ممکنه فکر کنه همه گربهها خاکستریان و اگه یه گربه سیاه ببینه، بگه این گربه نیست! سوگیریها توی مدلهای واقعی میتونن تبعات مهمی داشته باشن.
۵. Variance (واریانس یا نوسان عملکرد)
Variance یعنی مدل نسبت به دادههای جدید حساس باشه و خروجیهاش زیاد بالا پایین بشن. مدلهایی که واریانس بالا دارن، معمولاً روی دادههای آموزش خوبن ولی روی دادههای جدید عملکرد ثابتی ندارن. فرض کن یه مدل خیلی پیچیده داری که برای هر نمونه آموزش یه جواب متفاوت و دقیق تولید میکنه، اما روی دادههای جدید گیج میشه. این مدل نیاز به کنترل پیچیدگی یا افزایش داده داره تا باثباتتر عمل کنه.
۶. Loss Function (تابع خطا)
تابع خطا یا Loss Function یه معیاره که به مدل نشون میده چقدر اشتباه کرده. مدل سعی میکنه مقدار این خطا رو در طول آموزش کم کنه. این تابع مثل یه راهنماست که کمک میکنه بفهمیم وزنها یا پارامترهای مدل رو باید چطوری تغییر بدیم. مثلاً توی یه مدل پیشبینی قیمت، اگه مدل بگه قیمت یه خونه ۱ میلیارد تومنه ولی در واقع ۸۰۰ میلیونه، تابع خطا اختلاف بین این دو عدد رو اندازه میگیره و کمک میکنه مدل خودش رو اصلاح کنه.
#آموزشی
@aipulse24
Inference یعنی وقتی مدل آموزش دیده، ازش استفاده کنیم تا روی دادههای جدید پیشبینی انجام بده. این بخش همون استفاده عملی از مدله. مثلاً وقتی یه عکس جدید به یه مدل تشخیص چهره میدی، مدل از چیزهایی که یاد گرفته استفاده میکنه تا بگه "این آدم فلانیه" یا "نمیشناسمش". توی برنامههایی مثل Google Photos یا Face ID گوشی، هر بار که یه عکس جدید بررسی میشه، مرحله inference در حال انجامه.
۲. بیشبرازش (Overfitting)
بیشبرازش زمانی اتفاق میافته که مدل خیلی دقیق دادههای آموزش رو یاد بگیره، حتی خطاها یا استثناهای اونها رو، طوری که وقتی با دادهی جدید روبهرو میشه، عملکرد خوبی نداره. مثلاً اگه یه دانشآموز فقط جواب سوالهای امتحان پارسال رو حفظ کنه، ولی نتونه سوالهای جدید رو حل کنه، اون دچار overfitting شده! مدل خوب مدلیه که علاوه بر یاد گرفتن دادهها، بتونه ازشون تعمیم بده و روی دادههای جدید هم خوب عمل کنه.
۳. کمبرازش (Underfitting)
کمبرازش زمانی پیش میاد که مدل حتی نتونه الگوهای ساده موجود در دادهها رو هم یاد بگیره. این معمولاً وقتی اتفاق میافته که مدل خیلی سادهست یا آموزش کافی ندیده. مثلاً فرض کن میخوای قیمت خونه رو پیشبینی کنی ولی فقط از متراژ استفاده کنی و بقیه عوامل مثل موقعیت، سن بنا یا تعداد اتاق رو نادیده بگیری. مدلی که با این اطلاعات ناقص آموزش دیده باشه، خیلی خطا خواهد داشت و underfitting محسوب میشه.
۴. Bias (سوگیری مدل)
Bias یعنی مدل به طور سیستماتیک اشتباه کنه یا همیشه یه جور خاصی پیشبینی کنه. این سوگیری ممکنه به خاطر دادههای نامتوازن یا اشتباه در آموزش مدل باشه. مثلاً اگه فقط عکسهای گربه خاکستری به یه مدل نشون بدی، ممکنه فکر کنه همه گربهها خاکستریان و اگه یه گربه سیاه ببینه، بگه این گربه نیست! سوگیریها توی مدلهای واقعی میتونن تبعات مهمی داشته باشن.
۵. Variance (واریانس یا نوسان عملکرد)
Variance یعنی مدل نسبت به دادههای جدید حساس باشه و خروجیهاش زیاد بالا پایین بشن. مدلهایی که واریانس بالا دارن، معمولاً روی دادههای آموزش خوبن ولی روی دادههای جدید عملکرد ثابتی ندارن. فرض کن یه مدل خیلی پیچیده داری که برای هر نمونه آموزش یه جواب متفاوت و دقیق تولید میکنه، اما روی دادههای جدید گیج میشه. این مدل نیاز به کنترل پیچیدگی یا افزایش داده داره تا باثباتتر عمل کنه.
۶. Loss Function (تابع خطا)
تابع خطا یا Loss Function یه معیاره که به مدل نشون میده چقدر اشتباه کرده. مدل سعی میکنه مقدار این خطا رو در طول آموزش کم کنه. این تابع مثل یه راهنماست که کمک میکنه بفهمیم وزنها یا پارامترهای مدل رو باید چطوری تغییر بدیم. مثلاً توی یه مدل پیشبینی قیمت، اگه مدل بگه قیمت یه خونه ۱ میلیارد تومنه ولی در واقع ۸۰۰ میلیونه، تابع خطا اختلاف بین این دو عدد رو اندازه میگیره و کمک میکنه مدل خودش رو اصلاح کنه.
#آموزشی
@aipulse24
❤25👍15👏3
AI Pulse
مرسی از همه مسیج هاتون دوستان😭
بوقوران اینارو تو کامنتم میشد بگید😭
(جدای از شوخی مرسی که دنبالمون میکنید😀 😀 )
بوقوران اینارو تو کامنتم میشد بگید
(جدای از شوخی مرسی که دنبالمون میکنید
Please open Telegram to view this post
VIEW IN TELEGRAM
101😁23❤6🔥1
ردیت رسماً از شرکت انتروپیک شکایت کرده و مدعی شده که این استارتاپ هوش مصنوعی، بدون داشتن مجوز قانونی، دادههای ردیت رو برای آموزش مدلهای خودش استفاده کرده. این شکایت در دادگاهی در شمال کالیفرنیا ثبت شده و ردیت میگه استفاده تجاری از محتوای پلتفرمش بدون مجوز، نقض توافقنامه کاربران محسوب میشه. این اولین باره که یک شرکت بزرگ فناوری، خودش مستقیماً علیه یک ارائهدهنده مدل هوش مصنوعی بابت استفاده از دادهها اقدام قضایی کرده.
ردیت در این پرونده، خودش رو در کنار رسانههایی مثل نیویورک تایمز قرار داده که قبلاً از شرکتهایی مثل OpenAI و مایکروسافت بابت استفاده بدون مجوز از محتوای خبریشون شکایت کرده بودن. همچنین هنرمندان، نویسندهها و ناشرهای موسیقی هم شکایتهای مشابهی علیه شرکتهایی که مدلهای مولد صوتی، تصویری و متنی میسازن، تنظیم کردن. ردیت با لحنی تند اعلام کرده که اجازه نمیده شرکتهایی مثل آنتروپیک بدون هیچ بازگشتی برای کاربران ردیت، محتوای ردیت رو به میلیاردها دلار سود تبدیل کنن.
نکته جالب اینه که ردیت با برخی شرکتهای دیگه مثل OpenAI و گوگل قرارداد رسمی امضا کرده که به اونها اجازه میده از محتوای ردیت در آموزش مدلهاشون استفاده کنن؛ البته تحت شرایط خاصی که شامل رعایت حریم خصوصی کاربران هم میشه. سم آلتمن، مدیرعامل OpenAI، خودش سومین سهامدار بزرگ ردیت محسوب میشه و قبلاً هم عضو هیئتمدیرهی این شرکت بوده.
در این شکایت، ردیت گفته که به آنتروپیک اطلاع داده استفاده از محتوای ردیت براشون مجاز نیست، اما آنتروپیک حاضر به مذاکره نشده. ردیت ادعا میکنه که حتی بعد از اینکه آنتروپیک گفته جلوی Crawlerهاش رو گرفته، رباتهاش بیش از صد هزار بار دیگه هم سایت ردیت رو اسکریپ کردن. حالا ردیت درخواست غرامت و ممنوعیت استفادهی بیشتر از محتوای ردیت توسط آنتروپیک رو مطرح کرده. آنتروپیک اما ادعاهای ردیت رو رد کرده و گفته از خودش به شدت دفاع خواهد کرد.
@aipulse24
ردیت در این پرونده، خودش رو در کنار رسانههایی مثل نیویورک تایمز قرار داده که قبلاً از شرکتهایی مثل OpenAI و مایکروسافت بابت استفاده بدون مجوز از محتوای خبریشون شکایت کرده بودن. همچنین هنرمندان، نویسندهها و ناشرهای موسیقی هم شکایتهای مشابهی علیه شرکتهایی که مدلهای مولد صوتی، تصویری و متنی میسازن، تنظیم کردن. ردیت با لحنی تند اعلام کرده که اجازه نمیده شرکتهایی مثل آنتروپیک بدون هیچ بازگشتی برای کاربران ردیت، محتوای ردیت رو به میلیاردها دلار سود تبدیل کنن.
نکته جالب اینه که ردیت با برخی شرکتهای دیگه مثل OpenAI و گوگل قرارداد رسمی امضا کرده که به اونها اجازه میده از محتوای ردیت در آموزش مدلهاشون استفاده کنن؛ البته تحت شرایط خاصی که شامل رعایت حریم خصوصی کاربران هم میشه. سم آلتمن، مدیرعامل OpenAI، خودش سومین سهامدار بزرگ ردیت محسوب میشه و قبلاً هم عضو هیئتمدیرهی این شرکت بوده.
در این شکایت، ردیت گفته که به آنتروپیک اطلاع داده استفاده از محتوای ردیت براشون مجاز نیست، اما آنتروپیک حاضر به مذاکره نشده. ردیت ادعا میکنه که حتی بعد از اینکه آنتروپیک گفته جلوی Crawlerهاش رو گرفته، رباتهاش بیش از صد هزار بار دیگه هم سایت ردیت رو اسکریپ کردن. حالا ردیت درخواست غرامت و ممنوعیت استفادهی بیشتر از محتوای ردیت توسط آنتروپیک رو مطرح کرده. آنتروپیک اما ادعاهای ردیت رو رد کرده و گفته از خودش به شدت دفاع خواهد کرد.
@aipulse24
👏28❤5😁5👎2🌚1
گوگل نسخهی پیشنمایش جدیدی از مدل Gemini 2.5 Pro رو معرفی کرده؛ مدلی که هوشمندترین نسخهی ساختهشده تا به امروز محسوب میشه. این نسخه نسبت به مدل قبلی که در رویداد I/O و در ماه مه معرفی شده بود، ارتقا پیدا کرده و قراره طی چند هفتهی آینده به نسخهی پایدار و عمومی تبدیل بشه.
نسخهی جدید تونسته با جهش ۲۴ امتیازی در رتبهبندی Elo، جایگاه اول خودش رو در LMArena با امتیاز ۱۴۷۰ حفظ کنه و در WebDevArena هم با جهش ۳۵ امتیازی، به امتیاز ۱۴۴۳ برسه. عملکرد مدل در حل مسائل پیچیدهی برنامهنویسی مثل Aider Polyglot و آزمونهایی مثل GPQA و HLE که مهارتهای استدلالی و علمی مدلها رو میسنجن، همچنان در سطح بالایی باقی مونده.
بر اساس بازخوردهایی که از نسخهی قبلی دریافت شده بود، گوگل ساختار و سبک پاسخهای مدل رو هم بهبود داده؛ حالا پاسخها هم خلاقانهترن و هم از نظر قالببندی بهتر شدن. توسعهدهندهها میتونن از همین حالا کار با نسخهی ارتقایافتهی این مدل رو از طریق Gemini API در Google AI Studio یا Vertex AI شروع کنن. همچنین قابلیت جدیدی به اسم «بودجهی تفکر» هم اضافه شده تا بشه کنترل بیشتری روی هزینه و تاخیر داشت. این نسخه از امروز در اپلیکیشن Gemini هم در دسترس قرار گرفته.
@aipulse24
نسخهی جدید تونسته با جهش ۲۴ امتیازی در رتبهبندی Elo، جایگاه اول خودش رو در LMArena با امتیاز ۱۴۷۰ حفظ کنه و در WebDevArena هم با جهش ۳۵ امتیازی، به امتیاز ۱۴۴۳ برسه. عملکرد مدل در حل مسائل پیچیدهی برنامهنویسی مثل Aider Polyglot و آزمونهایی مثل GPQA و HLE که مهارتهای استدلالی و علمی مدلها رو میسنجن، همچنان در سطح بالایی باقی مونده.
بر اساس بازخوردهایی که از نسخهی قبلی دریافت شده بود، گوگل ساختار و سبک پاسخهای مدل رو هم بهبود داده؛ حالا پاسخها هم خلاقانهترن و هم از نظر قالببندی بهتر شدن. توسعهدهندهها میتونن از همین حالا کار با نسخهی ارتقایافتهی این مدل رو از طریق Gemini API در Google AI Studio یا Vertex AI شروع کنن. همچنین قابلیت جدیدی به اسم «بودجهی تفکر» هم اضافه شده تا بشه کنترل بیشتری روی هزینه و تاخیر داشت. این نسخه از امروز در اپلیکیشن Gemini هم در دسترس قرار گرفته.
@aipulse24
🔥22❤5
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل امروز از قابلیت مکالمه صوتی در خانواده مدلهای Gemini 2.5 رونمایی کرده. این مدلها حالا بهطور چشمگیری درک بهتری از لحن، لهجه، حالت گفتار، و حتی نجوا و خنده پیدا کردن. این یعنی شما میتونین ازش بخواین که با لحن خاصی حرف بزنه یا حتی لهجه خاصی رو تقلید کنه. مدل در حین مکالمه میتونه به ابزارهای خارجی یا اطلاعات لحظهای مثل نتایج جستوجوی گوگل دسترسی پیدا کنه و حتی صداهای مزاحم اطراف رو فیلتر کنه تا فقط وقتی که واقعاً لازمه، وارد گفتوگو بشه.
در بخش تبدیل متن به گفتار (TTS) هم Gemini 2.5 پیشرفت قابلتوجهی داشته. حالا نهتنها صدایی طبیعی تولید میکنه، بلکه میتونه بر اساس فرمانهای متنی، سبک اجرا، سرعت، احساسات و حتی شخصیت صوتی گوینده رو کنترل کنه. مثلاً میتونین ازش بخواین یه خبر رو با لحن جدی بخونه یا داستانی رو با شور و هیجان روایت کنه. این مدل حتی قادره چند صدای مختلف رو همزمان در یک مکالمه تولید کنه، که برای تولید محتوا مثل پادکست یا ویدیوهای آموزشی یه ابزار قدرتمند محسوب میشه.
پشتیبانی از بیش از ۲۴ زبان مختلف (از جمله فارسی) هم به Gemini 2.5 اجازه میده بهراحتی بین زبانها جابهجا بشه یا حتی دو زبان رو توی یک جمله ترکیب کنه. این مدل همچنین میتونه به لحن کاربر گوش بده و بر اساس احساساتی که در صدا هست، نوع پاسخ خودش رو تنظیم کنه. همه اینها باعث میشه تجربه مکالمه با Gemini طبیعیتر، انسانیتر و چندلایهتر از همیشه باشه.
گوگل اعلام کرده که در تمام مراحل توسعه این ویژگیهای صوتی، ارزیابیهای دقیق ایمنی و اخلاقی انجام داده. تمام خروجیهای صوتی این مدلها با ابزار SynthID علامتگذاری میشن تا قابل شناسایی باشن و از سواستفاده جلوگیری بشه. این قابلیتها هماکنون در Google AI Studio (بخش استریم) و Vertex AI در دسترس توسعهدهندهها قرار دارن و میتونن برای ساخت اپلیکیشنهای صوتی، داستانگو، آموزشی، یا حتی بازیهای صوتمحور ازشون استفاده کنن.
پ.ن: وقتی گفتیم «سلام»، شروع کرد اردو حرف زدن! نتیجه این شد که تصمیم گرفتیم بگیم: «درود بر شما!» :)))
در بالا ویدیویی از مکالمه فارسی با این مدل رو قرار دادیم.
@aipulse24
در بخش تبدیل متن به گفتار (TTS) هم Gemini 2.5 پیشرفت قابلتوجهی داشته. حالا نهتنها صدایی طبیعی تولید میکنه، بلکه میتونه بر اساس فرمانهای متنی، سبک اجرا، سرعت، احساسات و حتی شخصیت صوتی گوینده رو کنترل کنه. مثلاً میتونین ازش بخواین یه خبر رو با لحن جدی بخونه یا داستانی رو با شور و هیجان روایت کنه. این مدل حتی قادره چند صدای مختلف رو همزمان در یک مکالمه تولید کنه، که برای تولید محتوا مثل پادکست یا ویدیوهای آموزشی یه ابزار قدرتمند محسوب میشه.
پشتیبانی از بیش از ۲۴ زبان مختلف (از جمله فارسی) هم به Gemini 2.5 اجازه میده بهراحتی بین زبانها جابهجا بشه یا حتی دو زبان رو توی یک جمله ترکیب کنه. این مدل همچنین میتونه به لحن کاربر گوش بده و بر اساس احساساتی که در صدا هست، نوع پاسخ خودش رو تنظیم کنه. همه اینها باعث میشه تجربه مکالمه با Gemini طبیعیتر، انسانیتر و چندلایهتر از همیشه باشه.
گوگل اعلام کرده که در تمام مراحل توسعه این ویژگیهای صوتی، ارزیابیهای دقیق ایمنی و اخلاقی انجام داده. تمام خروجیهای صوتی این مدلها با ابزار SynthID علامتگذاری میشن تا قابل شناسایی باشن و از سواستفاده جلوگیری بشه. این قابلیتها هماکنون در Google AI Studio (بخش استریم) و Vertex AI در دسترس توسعهدهندهها قرار دارن و میتونن برای ساخت اپلیکیشنهای صوتی، داستانگو، آموزشی، یا حتی بازیهای صوتمحور ازشون استفاده کنن.
پ.ن: وقتی گفتیم «سلام»، شروع کرد اردو حرف زدن! نتیجه این شد که تصمیم گرفتیم بگیم: «درود بر شما!» :)))
در بالا ویدیویی از مکالمه فارسی با این مدل رو قرار دادیم.
@aipulse24
🤣38🔥15❤5😁2
شرکت انتروپیک بهتازگی از سرویس جدید خودش با نام «Claude Gov» رونمایی کرده؛ محصولی که بهطور خاص برای استفاده نهادهای نظامی و اطلاعاتی ایالات متحده طراحی شده. این مدلهای هوش مصنوعی طوری آموزش دیدن که اطلاعات محرمانه رو بهتر تحلیل کنن و نسبت به نسخههای عمومی، محدودیتهای کمتری در برابر چنین دادههایی دارن. انتروپیک اعلام کرده که این مدلها همین حالا هم توسط بالاترین سطوح امنیتی آمریکا استفاده میشن، اما نگفته از کی دقیقاً این استفاده شروع شده.
Claude Gov برای کارهایی مثل تحلیل تهدیدها و پردازش اطلاعات پیچیده طراحی شده و طبق گفته شرکت، همچنان از تستهای ایمنی سختگیرانه گذر کرده. با این حال، برخلاف نسخه عمومی Claude، در مواجهه با اطلاعات طبقهبندیشده «کمتر امتناع میکنه» و همین باعث میشه مناسبتر برای عملیاتهای امنیتی باشه. این مدلها همچنین توانایی بالاتری در درک اسناد نظامی، ساختارهای اطلاعاتی، و زبانها یا گویشهایی دارن که در امنیت ملی نقش دارن.
استفاده دولتها از هوش مصنوعی همیشه با نگرانیهایی همراه بوده؛ از جمله موارد متعدد بازداشت اشتباهی در آمریکا بهخاطر تشخیص چهره، یا الگوریتمهایی که در حوزههایی مثل پیشبینی جرم تبعیضآمیز عمل کردن. انتروپیک البته در سیاست استفادهاش همچنان تأکید داره که نباید از محصولاتش برای ساخت یا توزیع سلاح، مواد خطرناک یا عملیات سایبری مخرب استفاده شه. با این حال، این شرکت از سال گذشته برای بعضی نهادهای دولتی استثناهایی در نظر گرفته که با مأموریت و قوانین اون نهادها هماهنگ باشه.
Claude Gov در واقع رقیب مستقیم ChatGPT Gov محسوب میشه؛ سرویسی که OpenAI در دیماه برای سازمانهای دولتی آمریکا راه انداخت. انتروپیک فعلاً جزئیاتی درباره میزان استفاده یا کاربردهای خاص Claude Gov ارائه نداده، اما جزو برنامه FedStart شرکت Palantir شده؛ برنامهای که به استارتاپها کمک میکنه نرمافزارهای دولتی راهاندازی کنن.
@aipulse24
Claude Gov برای کارهایی مثل تحلیل تهدیدها و پردازش اطلاعات پیچیده طراحی شده و طبق گفته شرکت، همچنان از تستهای ایمنی سختگیرانه گذر کرده. با این حال، برخلاف نسخه عمومی Claude، در مواجهه با اطلاعات طبقهبندیشده «کمتر امتناع میکنه» و همین باعث میشه مناسبتر برای عملیاتهای امنیتی باشه. این مدلها همچنین توانایی بالاتری در درک اسناد نظامی، ساختارهای اطلاعاتی، و زبانها یا گویشهایی دارن که در امنیت ملی نقش دارن.
استفاده دولتها از هوش مصنوعی همیشه با نگرانیهایی همراه بوده؛ از جمله موارد متعدد بازداشت اشتباهی در آمریکا بهخاطر تشخیص چهره، یا الگوریتمهایی که در حوزههایی مثل پیشبینی جرم تبعیضآمیز عمل کردن. انتروپیک البته در سیاست استفادهاش همچنان تأکید داره که نباید از محصولاتش برای ساخت یا توزیع سلاح، مواد خطرناک یا عملیات سایبری مخرب استفاده شه. با این حال، این شرکت از سال گذشته برای بعضی نهادهای دولتی استثناهایی در نظر گرفته که با مأموریت و قوانین اون نهادها هماهنگ باشه.
Claude Gov در واقع رقیب مستقیم ChatGPT Gov محسوب میشه؛ سرویسی که OpenAI در دیماه برای سازمانهای دولتی آمریکا راه انداخت. انتروپیک فعلاً جزئیاتی درباره میزان استفاده یا کاربردهای خاص Claude Gov ارائه نداده، اما جزو برنامه FedStart شرکت Palantir شده؛ برنامهای که به استارتاپها کمک میکنه نرمافزارهای دولتی راهاندازی کنن.
@aipulse24
❤10🤔10👍1
AI Pulse
۱. پیشبینی (Inference) Inference یعنی وقتی مدل آموزش دیده، ازش استفاده کنیم تا روی دادههای جدید پیشبینی انجام بده. این بخش همون استفاده عملی از مدله. مثلاً وقتی یه عکس جدید به یه مدل تشخیص چهره میدی، مدل از چیزهایی که یاد گرفته استفاده میکنه تا بگه…
۱. Tokenization (توکنیزه کردن)
توکنیزه کردن یعنی شکستن متن به واحدهای کوچکتر به نام «توکن». این توکنها میتونن کلمات، بخشهایی از کلمات یا حتی کاراکترها باشن. مدلهای زبانی برای اینکه بتونن با متن کار کنن، باید اول متن رو به توکن تبدیل کنن.
مثلاً جملهی "من عاشق هوش مصنوعی هستم" ممکنه به توکنهای ["من", "عاشق", "هوش", "مصنوعی", "هستم"] شکسته بشه. اما در مدلهای مثل GPT، که از «byte pair encoding» استفاده میکنن، ممکنه حتی کلمات هم به قطعات کوچکتر تقسیم بشن. این مرحله خیلی مهمه چون ورودی مدل فقط میتونه توکنها رو بفهمه، نه متن طبیعی رو.
۲. Embedding
بعد از توکنیزه کردن، نوبت به «Embedding» میرسه. چون مدلها فقط با اعداد کار میکنن، هر توکن باید به یه عدد یا بردار (لیستی از اعداد) تبدیل بشه. این بردارها به مدل کمک میکنن معنی کلمات رو بهتر درک کنه.
مثلاً کلمات "پادشاه" و "ملکه" ممکنه بردارهایی داشته باشن که در فضای عددی به هم نزدیک باشن، چون از نظر معنایی شبیهان. این مرحله باعث میشه مدل بتونه «معنا» رو به شکلی قابل پردازش درک کنه.
۳. Self-Attention (توجه به خود)
Self-Attention یکی از خلاقانهترین ایدهها در مدلهای زبانیه. این مکانیزم کمک میکنه مدل تصمیم بگیره به کدوم قسمتهای جمله بیشتر توجه کنه.
مثلاً در جملهی "کتابی که دیروز خریدم عالی بود"، مدل باید بفهمه که "عالی بود" مربوط به "کتاب"ه، نه "دیروز". Self-attention این وابستگیها رو مشخص میکنه. به همین دلیل مدلهایی که از این روش استفاده میکنن (مثل BERT و GPT)، درک عمیقتری از ساختار زبان دارن.
۴. Transformer
ترنسفورمر یه معماری جدید و انقلابی در یادگیری زبان طبیعیه که از مکانیزم attention برای پردازش توالیها استفاده میکنه. برخلاف مدلهای قدیمیتر مثل RNN، این مدلها میتونن همزمان تمام کلمات یک جمله رو ببینن و سریعتر و دقیقتر کار کنن.
GPT، BERT، T5، LLaMA، همه بر پایهی ترنسفورمر ساخته شدن. مثلا GPT یه ترنسفورمر «سمت چپنگره» که فقط به کلمات قبلی نگاه میکنه و کلمه بعدی رو حدس میزنه.
۵. Pretraining و Fine-tuning
مدلهای زبانی مثل GPT اول در مرحلهای به اسم Pretraining روی مقدار زیادی متن عمومی آموزش میبینن (مثل کتاب، مقاله، سایتها). این مرحله کمک میکنه زبان رو یاد بگیرن، بدون اینکه وظیفه خاصی داشته باشن.
بعداً در مرحلهی Fine-tuning، مدل برای انجام یه کار خاص آموزش داده میشه؛ مثل خلاصهسازی، ترجمه یا پاسخ دادن به سوالها. این دو مرحله باعث میشن مدل هم «دانش عمومی» داشته باشه، هم توی کار خاصی بهتر از معمول عمل کنه.
۶. Prompting و Instruction Tuning
Prompting یعنی طراحی یک ورودی مناسب برای مدل تا کاری رو انجام بده. مثلاً وقتی به مدل میگی: «لطفاً این متن رو خلاصه کن»، این یه prompt محسوب میشه.
اما Instruction tuning مرحلهایه که طی اون مدل یاد میگیره چطور به دستورات مختلف پاسخ بده. این همون چیزیه که باعث شده ChatGPT یا Claude بتونن با زبان طبیعی باهات صحبت کنن.
۷. Distillation (تقطیر دانش)
Distillation یه تکنیکه برای اینکه یه مدل بزرگ و سنگین (Teacher) رو تبدیل کنیم به یه مدل کوچکتر و سریعتر (Student) بدون اینکه خیلی از دقتش کم بشه.
مثلاً GPT-4o ممکنه خیلی دقیق باشه ولی مدل گرونیه. با Distillation میتونیم یه نسخه سبکتر مثل GPT-4o mini تولید کنیم که روی موبایل یا مرورگر اجرا بشه.
به طور خلاصه این تکنیک اینطوری کار میکنه که مدل کوچکتر شروع میکنه به سوال پرسیدن از مدل اصلی و طی این فرآیند پاسخ هارو یاد میگیره.
۸. Fine-Tuning و LoRA
در Fine-Tuning سنتی، تمام پارامترهای مدل دوباره آموزش داده میشن، که منابع زیادی لازم داره.
اما LoRA یه روش سبکتره که فقط چند لایه کوچک به مدل اضافه میکنه و همونها آموزش میبینن. بهجای دستکاری کل مدل، فقط تنظیمات اضافه رو تغییر میدیم. این باعث میشه مدل سریعتر و با مصرف کمتر منابع برای کار خاصی بهینه بشه.
۹. Sampling, Top-k و Top-p (برای تولید متن)
وقتی مدل میخواد متن تولید کنه، از بین کلمههای ممکن، باید یه انتخاب انجام بده.
Greedy Sampling همیشه بهترین گزینه رو انتخاب میکنه ولی ممکنه جواب تکراری بشه.
Top-k فقط بین k تا از بهترین گزینهها انتخاب میکنه.
Top-p بین گزینههایی انتخاب میکنه که جمع احتمالشون به p درصد میرسه.
این تنظیمات روی سبک نوشتن مدل تأثیر زیادی دارن؛ مثلاً توی خلاقیت یا دقت متن.
#آموزشی
@aipulse24
توکنیزه کردن یعنی شکستن متن به واحدهای کوچکتر به نام «توکن». این توکنها میتونن کلمات، بخشهایی از کلمات یا حتی کاراکترها باشن. مدلهای زبانی برای اینکه بتونن با متن کار کنن، باید اول متن رو به توکن تبدیل کنن.
مثلاً جملهی "من عاشق هوش مصنوعی هستم" ممکنه به توکنهای ["من", "عاشق", "هوش", "مصنوعی", "هستم"] شکسته بشه. اما در مدلهای مثل GPT، که از «byte pair encoding» استفاده میکنن، ممکنه حتی کلمات هم به قطعات کوچکتر تقسیم بشن. این مرحله خیلی مهمه چون ورودی مدل فقط میتونه توکنها رو بفهمه، نه متن طبیعی رو.
۲. Embedding
بعد از توکنیزه کردن، نوبت به «Embedding» میرسه. چون مدلها فقط با اعداد کار میکنن، هر توکن باید به یه عدد یا بردار (لیستی از اعداد) تبدیل بشه. این بردارها به مدل کمک میکنن معنی کلمات رو بهتر درک کنه.
مثلاً کلمات "پادشاه" و "ملکه" ممکنه بردارهایی داشته باشن که در فضای عددی به هم نزدیک باشن، چون از نظر معنایی شبیهان. این مرحله باعث میشه مدل بتونه «معنا» رو به شکلی قابل پردازش درک کنه.
۳. Self-Attention (توجه به خود)
Self-Attention یکی از خلاقانهترین ایدهها در مدلهای زبانیه. این مکانیزم کمک میکنه مدل تصمیم بگیره به کدوم قسمتهای جمله بیشتر توجه کنه.
مثلاً در جملهی "کتابی که دیروز خریدم عالی بود"، مدل باید بفهمه که "عالی بود" مربوط به "کتاب"ه، نه "دیروز". Self-attention این وابستگیها رو مشخص میکنه. به همین دلیل مدلهایی که از این روش استفاده میکنن (مثل BERT و GPT)، درک عمیقتری از ساختار زبان دارن.
۴. Transformer
ترنسفورمر یه معماری جدید و انقلابی در یادگیری زبان طبیعیه که از مکانیزم attention برای پردازش توالیها استفاده میکنه. برخلاف مدلهای قدیمیتر مثل RNN، این مدلها میتونن همزمان تمام کلمات یک جمله رو ببینن و سریعتر و دقیقتر کار کنن.
GPT، BERT، T5، LLaMA، همه بر پایهی ترنسفورمر ساخته شدن. مثلا GPT یه ترنسفورمر «سمت چپنگره» که فقط به کلمات قبلی نگاه میکنه و کلمه بعدی رو حدس میزنه.
۵. Pretraining و Fine-tuning
مدلهای زبانی مثل GPT اول در مرحلهای به اسم Pretraining روی مقدار زیادی متن عمومی آموزش میبینن (مثل کتاب، مقاله، سایتها). این مرحله کمک میکنه زبان رو یاد بگیرن، بدون اینکه وظیفه خاصی داشته باشن.
بعداً در مرحلهی Fine-tuning، مدل برای انجام یه کار خاص آموزش داده میشه؛ مثل خلاصهسازی، ترجمه یا پاسخ دادن به سوالها. این دو مرحله باعث میشن مدل هم «دانش عمومی» داشته باشه، هم توی کار خاصی بهتر از معمول عمل کنه.
۶. Prompting و Instruction Tuning
Prompting یعنی طراحی یک ورودی مناسب برای مدل تا کاری رو انجام بده. مثلاً وقتی به مدل میگی: «لطفاً این متن رو خلاصه کن»، این یه prompt محسوب میشه.
اما Instruction tuning مرحلهایه که طی اون مدل یاد میگیره چطور به دستورات مختلف پاسخ بده. این همون چیزیه که باعث شده ChatGPT یا Claude بتونن با زبان طبیعی باهات صحبت کنن.
۷. Distillation (تقطیر دانش)
Distillation یه تکنیکه برای اینکه یه مدل بزرگ و سنگین (Teacher) رو تبدیل کنیم به یه مدل کوچکتر و سریعتر (Student) بدون اینکه خیلی از دقتش کم بشه.
مثلاً GPT-4o ممکنه خیلی دقیق باشه ولی مدل گرونیه. با Distillation میتونیم یه نسخه سبکتر مثل GPT-4o mini تولید کنیم که روی موبایل یا مرورگر اجرا بشه.
به طور خلاصه این تکنیک اینطوری کار میکنه که مدل کوچکتر شروع میکنه به سوال پرسیدن از مدل اصلی و طی این فرآیند پاسخ هارو یاد میگیره.
۸. Fine-Tuning و LoRA
در Fine-Tuning سنتی، تمام پارامترهای مدل دوباره آموزش داده میشن، که منابع زیادی لازم داره.
اما LoRA یه روش سبکتره که فقط چند لایه کوچک به مدل اضافه میکنه و همونها آموزش میبینن. بهجای دستکاری کل مدل، فقط تنظیمات اضافه رو تغییر میدیم. این باعث میشه مدل سریعتر و با مصرف کمتر منابع برای کار خاصی بهینه بشه.
۹. Sampling, Top-k و Top-p (برای تولید متن)
وقتی مدل میخواد متن تولید کنه، از بین کلمههای ممکن، باید یه انتخاب انجام بده.
Greedy Sampling همیشه بهترین گزینه رو انتخاب میکنه ولی ممکنه جواب تکراری بشه.
Top-k فقط بین k تا از بهترین گزینهها انتخاب میکنه.
Top-p بین گزینههایی انتخاب میکنه که جمع احتمالشون به p درصد میرسه.
این تنظیمات روی سبک نوشتن مدل تأثیر زیادی دارن؛ مثلاً توی خلاقیت یا دقت متن.
#آموزشی
@aipulse24
2👍27❤13🙏4👏2
شرکت OpenAI قیمت API مدل o3 رو ۸۰٪ کاهش داده و این مدل حالا ۲ دلار برای هر یک میلیون توکن ورودی و ۸ دلار برای توکن خروجی هزینه خواهد داشت.
همچنین از مدل o3-pro هم در API رونمایی کرده که ۲۰ دلار برای هر یک میلیون توکن ورودی و ۸۰ دلار برای توکن خروجی هزینه داره ولی با این حال همچنان ۸۷٪ از مدل o1-pro ارزون تره.
@aipulse24
همچنین از مدل o3-pro هم در API رونمایی کرده که ۲۰ دلار برای هر یک میلیون توکن ورودی و ۸۰ دلار برای توکن خروجی هزینه داره ولی با این حال همچنان ۸۷٪ از مدل o1-pro ارزون تره.
@aipulse24
❤17👏11
همچنین مدل o3-pro حالا برای تمام کاربران پلن Pro در دسترس قرار گرفته. این مدل بهبود عملکرد قابل توجهی نسبت به o3 داره.
@aipulse24
@aipulse24
❤18👍6
This media is not supported in your browser
VIEW IN TELEGRAM
استارتاپ Midjourney که با مدلهای تولید تصویر مبتنی بر هوش مصنوعی شناخته میشه، بهتازگی از مدل تولید ویدئوی خودش به نام V1 رونمایی کرده. این مدل میتونه از یک تصویر ثابت (چه تصویر آپلودی، چه تصویر تولیدشده توسط مدلهای قبلی Midjourney) چهار ویدئوی پنجثانیهای تولید کنه و کاربران میتونن این ویدئوها رو تا چهار بار، هر بار بهمدت چهار ثانیه، طولانیتر کنن. در نتیجه، حداکثر طول ویدئویی که با V1 ساخته میشه میتونه به ۲۱ ثانیه برسه. این ویدئوها در حال حاضر فقط از طریق پلتفرم دیسکورد و در نسخهی وب در دسترس قرار دارن.
V1 بهگونهای طراحی شده که استفاده ازش هم ساده باشه و هم قابلیتهای فنی متنوعی در اختیار کاربران بذاره. از جمله تنظیماتی که در این مدل در نظر گرفته شده میشه به حالت «انیمیشن خودکار» اشاره کرد که تصویر ورودی رو بهصورت تصادفی و بدون دخالت کاربر به حرکت درمیاره. برای کاربران حرفهایتر، حالت «انیمیشن دستی» فراهم شده که در اون میتونن بهصورت متنی توضیح بدن که چه نوع حرکتی مدنظرشونه — مثل چرخش دوربین، حرکت کاراکتر یا تغییرات پسزمینه. همچنین گزینههایی برای میزان تحرک صحنه در نظر گرفته شده: از «low motion» برای حرکات آرام گرفته تا «high motion» برای صحنههای پویاتر.
از نظر هزینه، مدل V1 نسبت به مدلهای تصویری Midjourney پرمصرفتره. طبق اعلام شرکت، تولید یک ویدئو تا ۸ برابر بیشتر از یک تصویر از سهمیهی ماهانهی کاربران مصرف میکنه. اشتراک پایه برای استفاده از V1 از ۱۰ دلار در ماه شروع میشه، درحالیکه مشترکین پلن Pro (با قیمت ۶۰ دلار) و Mega (۱۲۰ دلار) امکان تولید نامحدود ویدئو در حالت Relax (حالت غیرسریع) رو دارن. البته Midjourney اعلام کرده که طی ماه آینده، سیاست قیمتگذاری برای مدلهای ویدئویی خودش رو بازبینی خواهد کرد.
از نظر جلوههای بصری، ویدئوهای تولیدشده توسط V1 در نگاه اول بیشتر «سورئال» و خیالگونه بهنظر میرسن تا واقعگرایانه؛ ویژگیای که پیشتر هم در مدلهای تصویری Midjourney دیده شده بود. با وجود اینکه این سبک ممکنه برای برخی از کاربران مناسب نباشه، اما در میان هنرمندان و خلاقان بازخورد مثبتی دریافت کرده. با این حال، هنوز مشخص نیست که V1 در عمل تا چه حد میتونه با مدلهایی مثل Veo 3 از گوگل یا Gen-4 از Runway رقابت کنه، مخصوصاً در زمینه کیفیت، پایداری تصویر و کنترلپذیری دقیق صحنه.
درنهایت، Midjourney با مدل V1 نشون داده که همچنان میخواد مرزهای خلاقیت بصری در دنیای هوش مصنوعی رو جابهجا کنه — حتی در شرایطی که از سوی نهادهای حقوقی و استودیوهای بزرگ فیلمسازی به چالش کشیده میشه. مسیر بعدی این شرکت، طبق وعدهها، توسعهی مدلهایی برای تولید رندرهای سهبعدی و شبیهسازیهای بلادرنگ خواهد بود؛ هدفی جاهطلبانه که میتونه آیندهی طراحی و داستانسرایی بصری رو متحول کنه.
@aipulse24
V1 بهگونهای طراحی شده که استفاده ازش هم ساده باشه و هم قابلیتهای فنی متنوعی در اختیار کاربران بذاره. از جمله تنظیماتی که در این مدل در نظر گرفته شده میشه به حالت «انیمیشن خودکار» اشاره کرد که تصویر ورودی رو بهصورت تصادفی و بدون دخالت کاربر به حرکت درمیاره. برای کاربران حرفهایتر، حالت «انیمیشن دستی» فراهم شده که در اون میتونن بهصورت متنی توضیح بدن که چه نوع حرکتی مدنظرشونه — مثل چرخش دوربین، حرکت کاراکتر یا تغییرات پسزمینه. همچنین گزینههایی برای میزان تحرک صحنه در نظر گرفته شده: از «low motion» برای حرکات آرام گرفته تا «high motion» برای صحنههای پویاتر.
از نظر هزینه، مدل V1 نسبت به مدلهای تصویری Midjourney پرمصرفتره. طبق اعلام شرکت، تولید یک ویدئو تا ۸ برابر بیشتر از یک تصویر از سهمیهی ماهانهی کاربران مصرف میکنه. اشتراک پایه برای استفاده از V1 از ۱۰ دلار در ماه شروع میشه، درحالیکه مشترکین پلن Pro (با قیمت ۶۰ دلار) و Mega (۱۲۰ دلار) امکان تولید نامحدود ویدئو در حالت Relax (حالت غیرسریع) رو دارن. البته Midjourney اعلام کرده که طی ماه آینده، سیاست قیمتگذاری برای مدلهای ویدئویی خودش رو بازبینی خواهد کرد.
از نظر جلوههای بصری، ویدئوهای تولیدشده توسط V1 در نگاه اول بیشتر «سورئال» و خیالگونه بهنظر میرسن تا واقعگرایانه؛ ویژگیای که پیشتر هم در مدلهای تصویری Midjourney دیده شده بود. با وجود اینکه این سبک ممکنه برای برخی از کاربران مناسب نباشه، اما در میان هنرمندان و خلاقان بازخورد مثبتی دریافت کرده. با این حال، هنوز مشخص نیست که V1 در عمل تا چه حد میتونه با مدلهایی مثل Veo 3 از گوگل یا Gen-4 از Runway رقابت کنه، مخصوصاً در زمینه کیفیت، پایداری تصویر و کنترلپذیری دقیق صحنه.
درنهایت، Midjourney با مدل V1 نشون داده که همچنان میخواد مرزهای خلاقیت بصری در دنیای هوش مصنوعی رو جابهجا کنه — حتی در شرایطی که از سوی نهادهای حقوقی و استودیوهای بزرگ فیلمسازی به چالش کشیده میشه. مسیر بعدی این شرکت، طبق وعدهها، توسعهی مدلهایی برای تولید رندرهای سهبعدی و شبیهسازیهای بلادرنگ خواهد بود؛ هدفی جاهطلبانه که میتونه آیندهی طراحی و داستانسرایی بصری رو متحول کنه.
@aipulse24
❤18🔥6👍4
بعد از معرفی نه چندان موفق Llama 4 که باعث استعفای تعدادی از مدیرای متا شد حالا زاکربرگ راه افتاده و داره کاری رو انجام میده که بیشتر از هرچیزی بلده!
خریدن رقبا!!!
توی این ۲ ۳ هفته زاکربرگ اونقدر دانشمند از شرکت های دیگه دزدیده که سوژه یه عالمه میم شده
مبالغی که بهشون پیشنهاد داده بسیار عجیب غریب هستن مثلا به یه تعدادشون در لحظه امضا قرار داد ۱۰۰ میلیون دلار داده!!
زاکربرگ از OpenAI به تنهایی ۸ تا دانشمند جذب کرده که همگی طبق توئیت یکی از کارمندان که بعدا پاک کرد بسیار افراد تاثیر گذار و حساسی هستن و از اینکه مدیریت برای حفظ اونها هیچ کاری نکرده شاکی هست
یکی از اونها حتی خالق ایده مدل های Reasoning هست!!
این شرایط باعث شده که OpenAi مدعی بشه که کارمندانش خسته ان و کلا هفته جاری رو برای همه کارمندان توی OpenAi تعطیل کرده!
فکرکن بخوای ۱۰۰ میلیون دلار رو با ۱ هفته تعطیلی حل کنی😭
این شرایط بسیار شبیه به چیزیه که سالها قبل جف بزوس برای الکسا ایجاد کرد. یک شرکت به اسم Nuance وجود داشت درحد OpenAi فعلی که واسه Speech بود بزوس تمام دانشمنداش رو خرید و فکرکنم لازم نباشه بگم بقیه ماجرا چی شد چون کسی نمیدونه Nuance کیه ولی همه الکسا رو میشناسن.
انتظار میره حداقل تا ۲ ۳ مدل اینده همچنان OpenAi پیشرو باشه چون تاثیر این استعدادها همچنان روی محصولاتی که منتشر نشدن وجود داره ولی از بعدش بسیار ضربه بزرگی برای OpenAi هست مگر اینکه بتونه سریع استعدادهارو جایگزین کنه که البته درحال حاضر جهان به شدت با کمبود نیروی هوش مصنوعی کار درست مواجهه
حالا باید ببینیم در اینده زاکربرگ میتونه یه اینستاگرام دیگه بپا کنه یا این سری مثل قبل شانس نمیاره
@aipulse24
خریدن رقبا!!!
توی این ۲ ۳ هفته زاکربرگ اونقدر دانشمند از شرکت های دیگه دزدیده که سوژه یه عالمه میم شده
مبالغی که بهشون پیشنهاد داده بسیار عجیب غریب هستن مثلا به یه تعدادشون در لحظه امضا قرار داد ۱۰۰ میلیون دلار داده!!
زاکربرگ از OpenAI به تنهایی ۸ تا دانشمند جذب کرده که همگی طبق توئیت یکی از کارمندان که بعدا پاک کرد بسیار افراد تاثیر گذار و حساسی هستن و از اینکه مدیریت برای حفظ اونها هیچ کاری نکرده شاکی هست
یکی از اونها حتی خالق ایده مدل های Reasoning هست!!
این شرایط باعث شده که OpenAi مدعی بشه که کارمندانش خسته ان و کلا هفته جاری رو برای همه کارمندان توی OpenAi تعطیل کرده!
فکرکن بخوای ۱۰۰ میلیون دلار رو با ۱ هفته تعطیلی حل کنی
این شرایط بسیار شبیه به چیزیه که سالها قبل جف بزوس برای الکسا ایجاد کرد. یک شرکت به اسم Nuance وجود داشت درحد OpenAi فعلی که واسه Speech بود بزوس تمام دانشمنداش رو خرید و فکرکنم لازم نباشه بگم بقیه ماجرا چی شد چون کسی نمیدونه Nuance کیه ولی همه الکسا رو میشناسن.
انتظار میره حداقل تا ۲ ۳ مدل اینده همچنان OpenAi پیشرو باشه چون تاثیر این استعدادها همچنان روی محصولاتی که منتشر نشدن وجود داره ولی از بعدش بسیار ضربه بزرگی برای OpenAi هست مگر اینکه بتونه سریع استعدادهارو جایگزین کنه که البته درحال حاضر جهان به شدت با کمبود نیروی هوش مصنوعی کار درست مواجهه
حالا باید ببینیم در اینده زاکربرگ میتونه یه اینستاگرام دیگه بپا کنه یا این سری مثل قبل شانس نمیاره
@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22🤯9😁6🤣3👍1
کلودفلر از قابلیتی تازه به نام Pay Per Crawl رونمایی کرده که به صاحبان محتوا اجازه میده تا در ازای دسترسی خزندههای هوش مصنوعی به محتوای خودشون، پول دریافت کنن. این قابلیت که فعلاً بهصورت آزمایشی و خصوصی در دسترس قرار گرفته، یه راهحل میانبر برای مسئلهایه که مدتهاست ناشران و تولیدکنندگان محتوا باهاش درگیرن: یا باید همهچیز رو رایگان در اختیار مدلهای هوش مصنوعی بذارن، یا کامل جلوی دسترسی اونها رو ببندن.
ایدهی کلیدی اینه که دیگه لازم نباشه همهچیز صفر و یکی باشه. اگه یه خزنده بخواد محتوایی رو ایندکس کنه، میتونه درخواستش رو با هدر مخصوص و اعلام آمادگی برای پرداخت بفرسته و اگه قیمت از طرف ناشر مشخص شده باشه، با پرداخت اون مبلغ به محتوا دسترسی پیدا میکنه. اگرم پرداختی صورت نگیره، سرور یه پاسخ HTTP 402 (که قبلاً تقریباً هیچوقت استفاده نمیشد) برمیگردونه و خزنده از قیمت مطلع میشه. کلودفلر توی این فرآیند نقش واسط مالی رو هم بازی میکنه.
ناشرها اختیار کامل دارن که برای هر خزنده تصمیم بگیرن: اجازهی رایگان بدن، هزینه دریافت کنن یا دسترسی رو بهطور کامل ببندن. حتی اگه خزندهای حسابی توی کلودفلر نداشته باشه، باز هم میشه بهصورت مشروط ازش پول خواست، که این عملاً مثل بلاک کردنه اما با امکان مذاکرهی آینده. همچنین امکان تعریف قیمت ثابت برای کل سایت، یا اعمال استثنا برای بعضی خزندهها هم وجود داره.
کلودفلر میگه این فقط قدم اوله. در آینده، این مدل میتونه به زیرساختی برای «دیوار پرداختی عاملمحور» تبدیل بشه؛ جایی که مثلاً یه دستیار هوشمند بتونه برای پیدا کردن بهترین منابع درباره سرطان یا تحلیل یه قرارداد حقوقی، خودش بهصورت خودکار بودجه خرج کنه و بهترین نتایج رو بخره. این یعنی یه گام مهم به سمت اینترنتی که توش محتوا، ارزشگذاری و کنترل دست تولیدکنندههاست، نه خزندههای بینام و نشان.
@aipulse24
ایدهی کلیدی اینه که دیگه لازم نباشه همهچیز صفر و یکی باشه. اگه یه خزنده بخواد محتوایی رو ایندکس کنه، میتونه درخواستش رو با هدر مخصوص و اعلام آمادگی برای پرداخت بفرسته و اگه قیمت از طرف ناشر مشخص شده باشه، با پرداخت اون مبلغ به محتوا دسترسی پیدا میکنه. اگرم پرداختی صورت نگیره، سرور یه پاسخ HTTP 402 (که قبلاً تقریباً هیچوقت استفاده نمیشد) برمیگردونه و خزنده از قیمت مطلع میشه. کلودفلر توی این فرآیند نقش واسط مالی رو هم بازی میکنه.
ناشرها اختیار کامل دارن که برای هر خزنده تصمیم بگیرن: اجازهی رایگان بدن، هزینه دریافت کنن یا دسترسی رو بهطور کامل ببندن. حتی اگه خزندهای حسابی توی کلودفلر نداشته باشه، باز هم میشه بهصورت مشروط ازش پول خواست، که این عملاً مثل بلاک کردنه اما با امکان مذاکرهی آینده. همچنین امکان تعریف قیمت ثابت برای کل سایت، یا اعمال استثنا برای بعضی خزندهها هم وجود داره.
کلودفلر میگه این فقط قدم اوله. در آینده، این مدل میتونه به زیرساختی برای «دیوار پرداختی عاملمحور» تبدیل بشه؛ جایی که مثلاً یه دستیار هوشمند بتونه برای پیدا کردن بهترین منابع درباره سرطان یا تحلیل یه قرارداد حقوقی، خودش بهصورت خودکار بودجه خرج کنه و بهترین نتایج رو بخره. این یعنی یه گام مهم به سمت اینترنتی که توش محتوا، ارزشگذاری و کنترل دست تولیدکنندههاست، نه خزندههای بینام و نشان.
@aipulse24
🔥24👍9❤5👎3🤔1
بریم سراغ جدیدترین کیس عجیب و غریب سیلیکون ولی آقای سوهام پارخ!
ایشون مثل اینکه تو مدرسه درس سو و شون رو نخونده واسه همین به شلخته درو کردن اعتقادی نداره.😭
برای همین همزمان برای 6 الی 7 تا استارتاپ درحال کار کردن هست!!!
دو روز قبل سهیل دوشی مدیرعامل شرکت playground.ai توی یک توئیت درمورد این فرد صحبت کرد.
توی توئیتش گفت که این فرد ساکن هند هست و اخیرا استارتاپ های تحت حمایت Ycombinator (یک موسسه سرمایه گذاری خطرپذیر معروف) رو هدف قرار داده.
بعد از این توئیت تمام استارتاپ های دیگه ای هم که سهیل رو فالو میکردن اومدن و گفتن که این فرد رو استخدام کردن!
نکته جالب اینه که ایشون به نظر میرسه به شدت توی مصاحبه ها خوب عمل میکنه ولی عملکرد سر کارش زیاد جالب نیست یا شایدم دلیلش اینه که داره همزمان واسه 7 تا شرکت کار میکنه!!!
اینطور که گفته میشه ایشون از حقوق های مختلف این شرکت های متفاوت سالی 800 هزار دلار درامد داره!
همچنین افراد مختلف در تویئت هاشون گفتن که ایشون مدعی هست ساکن امریکاست تا بتونه این کارهارو بگیره ولی بعد مشخص میشه که ساکن امریکا هم نیست و ساکن هنده!
خلاصه اون توئیت سهیل 20 میلیون ویو گرفت و این خبر بسیار وایرال شد و درنتیجه سوهام سوژه یه عالمه میم و توئیت های دیگه شد
لیست یه سری از استارتاپ هایی که مشخص شده توی مصاحبه شون موفق بوده و تونسته استخدام بشه: (نصف سیلیکون ولی عه😃 😃 ):
1. Playground AI
2. Dynamo AI
3. Union AI
4. Synthesia
5. Antimetal
6. Composio
7. Lindy
8. Browser Use
9. Resolve AI
10. Fleet AI
23 تای دیگه هم هست که از تایپ کردنشون خسته شدم😂 😂
حالا واکنش ایشون؟
هیچی خیلی ریلکس رفته توی یه پادکست و گفته واقعیت داره، همزمان واسه خودش سخنگو استخدام کرده و مثل هر فردی در سیلیکون ولی (البته به صورت مجازی چون خودش که هند هست) در تلاشه که این شهرت رو تبدیل به بیزنس و پول کنه😭 😭
خلاصه که فعلا به نظر میرسه:
ASI =
❌ Artificial Superintelligence
✅ Artificial Soham Intelligence
@aipulse24
ایشون مثل اینکه تو مدرسه درس سو و شون رو نخونده واسه همین به شلخته درو کردن اعتقادی نداره.
برای همین همزمان برای 6 الی 7 تا استارتاپ درحال کار کردن هست!!!
دو روز قبل سهیل دوشی مدیرعامل شرکت playground.ai توی یک توئیت درمورد این فرد صحبت کرد.
توی توئیتش گفت که این فرد ساکن هند هست و اخیرا استارتاپ های تحت حمایت Ycombinator (یک موسسه سرمایه گذاری خطرپذیر معروف) رو هدف قرار داده.
بعد از این توئیت تمام استارتاپ های دیگه ای هم که سهیل رو فالو میکردن اومدن و گفتن که این فرد رو استخدام کردن!
نکته جالب اینه که ایشون به نظر میرسه به شدت توی مصاحبه ها خوب عمل میکنه ولی عملکرد سر کارش زیاد جالب نیست یا شایدم دلیلش اینه که داره همزمان واسه 7 تا شرکت کار میکنه!!!
اینطور که گفته میشه ایشون از حقوق های مختلف این شرکت های متفاوت سالی 800 هزار دلار درامد داره!
همچنین افراد مختلف در تویئت هاشون گفتن که ایشون مدعی هست ساکن امریکاست تا بتونه این کارهارو بگیره ولی بعد مشخص میشه که ساکن امریکا هم نیست و ساکن هنده!
خلاصه اون توئیت سهیل 20 میلیون ویو گرفت و این خبر بسیار وایرال شد و درنتیجه سوهام سوژه یه عالمه میم و توئیت های دیگه شد
لیست یه سری از استارتاپ هایی که مشخص شده توی مصاحبه شون موفق بوده و تونسته استخدام بشه: (نصف سیلیکون ولی عه
1. Playground AI
2. Dynamo AI
3. Union AI
4. Synthesia
5. Antimetal
6. Composio
7. Lindy
8. Browser Use
9. Resolve AI
10. Fleet AI
23 تای دیگه هم هست که از تایپ کردنشون خسته شدم
حالا واکنش ایشون؟
هیچی خیلی ریلکس رفته توی یه پادکست و گفته واقعیت داره، همزمان واسه خودش سخنگو استخدام کرده و مثل هر فردی در سیلیکون ولی (البته به صورت مجازی چون خودش که هند هست) در تلاشه که این شهرت رو تبدیل به بیزنس و پول کنه
خلاصه که فعلا به نظر میرسه:
ASI =
❌ Artificial Superintelligence
✅ Artificial Soham Intelligence
@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁37🤣6🤯4❤1👍1