سپهر تک
2.59K subscribers
1.5K photos
169 videos
134 files
1.18K links
کالای ما دانش است


تبلیغات نداریم
Download Telegram
#گزارش_کار
دیپلماسی گفتمان
2👍2
Forwarded from Learning With M
اگر فکر می کنی که رشد سخته، باید بگم که حق داری.
اگر فکر می کنی بالا رفتن سخته، باید بهت اطمینان بدم که قطعا هست.

صبح زود بیدار شدن داره، مطالعه لازم داره، سخت تلاش کردن لازم داره، برنامه ریزی لازم داره، استراتژی لازم داره، هدف گذاری لازم داره و از همه مهم تر، کوک چهارم لازم داره.

ولی بهت قول میدم برای همه هم جا هست.

فقط مساله اینه که انتخابت چیه؟

پ.ن: انتخاب چیه؟
10🔥3💯3👍1
ایمیل جهت ارسال رزومه :
Info@elai-il.com
اینم بازی خوبیه اگه بازی نکردین
https://launch.matchmasters.com/l/friend/5fc964481a00f44345ac1627
1👍1
سپهر تک
کپشن با نمک فنی با شما..
وقتی خوشحالی که همه چیز خوب جلو رفته و کد رو بدیم بره برای تست نهایی، قبلش یه چک میکنی و میبینی به به ، دو سه تا سوراخ گنده داره هنوز ! اونم آخر وقت !
👏61💔1
Media is too big
VIEW IN TELEGRAM
ران‌وی مدل Gen-4.5 رو معرفی کرد. جهش جدی در کیفیت ویدیوهای هوش مصنوعی
دیروز شرکت ران‌وی مدل جدید تولید ویدیو یعنی Gen-4.5 رو معرفی کرد. این مدل هم‌زمان با انتشار، مستقیم رفت صدر جدول Video Arena و با امتیاز Elo حدود ۱۲۴۷، بالاتر از رقبای بزرگی مثل Veo 3 گوگل و Sora 2 Pro اوپن‌ای‌آی قرار گرفت. این رتبه براساس رأی کاربران در تست‌های کور به دست اومده و فعلاً Gen-4.5 رو به عنوان «بهترین مدل عمومی برای تولید ویدیو از متن و عکس» نشون می‌ده.

طبق اطلاعات رسمی ران‌وی و گزارش‌هایی مثل CNBC و The Decoder، نسخهٔ جدید نسبت به Gen-4 چند پیشرفت مهم داره. حرکت دوربین‌ها طبیعی‌تر و سینمایی‌تر شده.

فیزیک محیط و تعامل اجسام واقعی‌تره و شخصیت‌ها ثبات هویتی خیلی بهتری دارن. جزئیات چهره، دست و حرکات بدن هم چشمگیرتر شده. مدل حالا می‌تونه پرامپت‌های پیچیده و طولانی رو بدون افت کیفیت اجرا کنه، از جمله دستورهای زمان‌بندی‌شده و تغییرات مرحله‌ای در صحنه.

مدل Gen-4.5 روی GPU های Hopper و Blackwell اجرا می‌شه که باعث شده سرعت استنتاج بالا بمونه در حالی که کیفیت خروجی به‌مراتب بهتر شده. همهٔ حالت‌های قبلی مثل Image-to-Video، Keyframes و Video-to-Video هم در نسخهٔ جدید فعال هستن و کنترل‌های سبکی مختلف از فوتورئال تا سینمایی رو پشتیبانی می‌کنه.

رول‌اوت مدل تدریجیه. کاربرای پلن Pro و Unlimited تا آخر همین هفته بهش دسترسی کامل پیدا می‌کنن و چند شرکت بزرگ هم دسترسی زودهنگام گرفتن. در کنار این، مدل Gen-4 قدیمی هم برای همهٔ کاربرای رایگان باز شده.

البته ران‌وی خودش گفته که مدل هنوز محدودیت‌هایی داره. مثال‌هایی مثل مشکل در علت‌ومعلول دقیق یا ناپدیدشدن بعضی اشیا در موقعیت‌های پیچیده هنوز کامل حل نشده. ولی طبق گفتهٔ تیم ران‌وی، Gen-4.5 فقط اولین قدم از چند انتشار بزرگ جدیده و سرعت پیشرفت‌شون در حوزهٔ world modeling قراره بیشتر هم بشه.
#هوش_مصنوعی

✈️@mohammad_zammani
📱Mohammad.zammani.offical
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍1
هر دم از این باغ، بری می رسد..
تازه تر از تازه تری می رسد...
کارآفرینی کرگدن طورانه فقط در این مرز پرگهر...
💔10🤣21👍1
وقتی سازمانت رو به سمت ساعت فروشی جلو میبری، آدم ها به تو ساعت هاشونو میفروشن، نه تلاش و انگیزه شونو...
👍222
Forwarded from Reza Jafari
تحقیق جدید Google در مورد شبکه‌های عصبی، یعنی این همه مدت داشتیم اشتباه فکر می‌کردیم؟

تازگیا یه مقاله خیلی خوب از گوگل منتشر شده که توجه زیادی رو به خودش جلب کرده، و جالب‌تر اینکه ۳ نفر از ۴ نویسنده‌ش ایرانی هستن: علی بهروز، میثم رضویان و وهاب میررکنی. این تحقیق با عنوان "The Illusion of Deep Learning Architecture" نکته مهم و قابل‌تأملی رو مطرح می‌کنه، مخصوصاً برای کسایی که روی continual learning کار می‌کنن و ارزش دنبال کردن داره.

ایده اصلی اینه که به‌جای اینکه مثل همیشه هی layer بیشتر اضافه کنیم، شاید بهتر باشه به neural networkها «سطح‌های یادگیری» بیشتری بدیم. امروز ساخت مدل‌های قوی‌تر بیشتر بر پایه افزایش عمق و اندازه است: layer‌های بیشتر، parameter‌های بیشتر و pre-training data بیشتر؛ رویکردی که از CNNها تا Transformerها و LLMها پیشرفت رو جلو برده. اما این مسیر یه سقف داره که کمتر درباره‌ش صحبت شده: مدل‌های فعلی گرفتار چیزی هستن که نویسنده‌ها بهش computational anterograde amnesia می‌گن. یعنی بعد از pre-training، دانش مدل عملاً یخ می‌زنه و نمی‌تونه یادگیری مداوم داشته باشه یا مهارت‌هایی خارج از context window خودش کسب کنه.

اینجاست که ایده Nested Learning (NL) مطرح می‌شه؛ رویکردی که ML model رو مجموعه‌ای از مسائل multi-level optimization در نظر می‌گیره، با چند سطح یادگیری که هر کدوم «context flow» و سرعت آپدیت مخصوص خودشونو دارن. از نگاه این تحقیق، optimizerها و architectureها از نظر بنیادی تفاوتی ندارن؛ هر دو نوعی حافظه هستن که کانتکست خودشونو فشرده می‌کنن. مثلاً Adam و SGD حافظه‌هایی هستن که gradient رو فشرده می‌کنن، Transformerها حافظه‌هایی هستن که tokenها رو فشرده می‌کنن، و خود pre-training هم نوعی in-context learningه—فقط با این تفاوت که کانتکستش کل دیتاست train هست.

اهمیت NL اینه که یه محور طراحی جدید وارد بازی می‌کنه. به‌جای اینکه شبکه‌ها رو فقط عمیق‌تر یا پهن‌تر کنیم، می‌تونیم مدل‌هایی بسازیم که چند سطح nested optimization دارن و هر سطح با یه update frequency متفاوت عمل می‌کنه. این ساختار خیلی شبیه سازوکار مغزه که توش gamma wave‌ها اطلاعات حسی رو پردازش می‌کنن و theta wave‌ها مسئول تثبیت حافظه هستن. بر اساس همین ایده، محقق‌ها Hope رو معرفی می‌کنن؛ یه architecture که self-modifying memory رو با continuum memory system ترکیب می‌کنه و به‌جای تقسیم سنتی حافظه به کوتاه‌مدت/بلندمدت، یه طیف پیوسته از سرعت‌های آپدیت ارائه می‌ده.

نتایج هم واقعاً چشمگیرن: Hope تو تسک‌های needle-in-a-haystack تا کانتکست 16K به ۱۰۰٪ accuracy می‌رسه، در حالی که Transformerها حدود ۷۹.۸٪ می‌زنن.
روی BABILong، Hope تا کانتکست ۱۰M همچنان عملکرد خودش رو حفظ می‌کنه، در حالی که GPT-4 حدود ۱۲۸K دچار افت جدی می‌شه.
تو continual learning هم Hope از in-context learning، EWC و روش‌های external-learner تو class-incremental classification بهتر ظاهر شده. حتی تو language modeling با ۱.۳B پارامتر، روی WikiText به ۱۴.۳۹ perplexity می‌رسه؛ در حالی که Transformer++ حدود ۱۷.۹۲ داره.

در نهایت NL به‌جای اینکه بپرسه «چطور شبکه‌ها رو عمیق‌تر کنیم»، سؤال مهم‌تری مطرح می‌کنه: «چطور به شبکه‌ها سطح‌های بیشتری برای یادگیری بدیم؟» شاید مسیر رسیدن به continual learning از مدل‌های عظیم‌تر رد نشه، بلکه از مدل‌هایی عبور کنه که هم‌زمان تو چند timescale مختلف یاد می‌گیرن.

🔗 لینک مقاله

@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥1
برای تست تو دوره وایب کدینگ دانشکار یه سرویس نوشتم قند و نبات، سر فرصت بهتون میگم 😁😁😁
👍81
اگه هفته خوبی نداشتین، برید برنامه #گنگ رو تو فیلیمو با مجری گری علی ضیا و اجرای #ممرضاشایع ببینید. انشالله که گامی باشه برای فضای باز و آزاد تر برای هنرمندان #رپ مون.
👎53🤣7🔥51
سپهر تک
برای تست تو دوره وایب کدینگ دانشکار یه سرویس نوشتم قند و نبات، سر فرصت بهتون میگم 😁😁😁
این همون سرویسه ست که دیشب نوشتم. قشنگیش اینه که کاراکترها رو ثابت نگه میداره تو تصاویر متفاوت
9🔥5👍2👎1
سپهر تک
چون خارجیا پول نمیدادن، نسخه انگلیسی رفهاب رو به Monetag مسلح کردم :)) تو این چند روز، درآمدش خیلی بیشتر از یکتاپی بود ، اصلا قابل مقایسه نیست، کمه ها، ولی واقعا قابل مقایسه نیست
اینو محدود کردم به اینکه کاربر لاگین نباشه، یا زیر 20 امتیاز داشته باشه، اکثرتون دیگه مشکل نخواهید داشت عزیزانم
2
افسانه‌ی دارا_20251206_180408.pdf
486.8 KB
چون، چند تا مورد باز داشتیم، گفتم اینو یه نسخه قبل از انتشار بدم، هم فیدبک بدین اگه دوست داشتین، هم بدقول نشده باشم.
نسخه اصلی شامل تصویر سازی فصل ها و به صورت چاپی خواهد بود.
توجه داشته باشین این کتاب برای رنج سنی نوجوان هست، اگر جایی پیچش های داستان کم میشه یه سری قانون و rule براش دارن.
خوشحال میشم فیدبک بدین بهم حتما
4
سپهر تک
پنجشنبه آینده یه برنامه خواهیم داشت در باره اینکه چطور یک محصول مبتنی بر AI و Automation همون Refhub.ir خودمون رو به عنوان یک فاندر و دولوپر و نیمچه مدیرمحصولش توسعه دادم.
این رو هم با یکی از بچه ها صحبت کردیم، قراره یه برنامه خیلی جدی تر بچینیم براش، کار اصولی در بیاد، یه کم زمان میبره تا چیزی که میخوایم رو پلن کنیم، ولی خیلی خفن میشه.
چون پروژه ش باز بود، گفتم در جریان باشید که ماجرا چیه و چرا یهو استاپ شد.
به جاش دوره وایب کدینگ رو برای دانشکار دارم ضبط میکنم تا این یکی زمانش برسه
11
#گزارش_کار
قانون جاذبه زمین
4
شبکه احراز هویت دارک وب ایرانیان:
حدود ۶۹ میلیون رکورد ایرانیان برای فروش در دارک‌وب عرضه شده.
خدا رو شکر برای امنیت
🤣9💔3🔥2😍2😢1