This media is not supported in your browser
VIEW IN TELEGRAM
🧠⌚ سنسورالام (SensorLM)؛ ساعتی که شما را مثل کتاب میخواند!
گوگل با استفاده از حدود ۶۰ میلیون ساعت داده ناشناس از ساعتهای هوشمند فیتبیت و پیکسل واچ، مدلی توسعه داده که قادر است اطلاعات خامی مثل ضربان قلب، تعداد قدمها و دمای بدن را به زبان طبیعی تبدیل کند.
📌 بهجای نمایش نمودارهای خشک، این مدل جملاتی مانند این تولید میکند:
«بعد از نوشیدن دومین فنجان قهوه، سطح استرس افزایش یافت، اما یک پیادهروی ۱۵ دقیقهای شما را به تعادل برگرداند.»
📊 روش کار تیم گوگل به این صورت بود:
۱. ساخت دیتاست عظیم شامل ۲.۵ میلیون روز فعالیت انسانی از ۱۲۷ کشور
۲. ایجاد برچسبگذاری چندلایه برای هر روز:
آمار: «پالس بین ۵۴ تا ۱۷۸، میانگین ۷۲»
ساختار: «افزایش تدریجی ضربان از ساعت ۱۱ تا ۱۲ ظهر»
معنا: «تمرین قدرتی به مدت ۲۶ دقیقه»
۳. آموزش ترنسفورمر چندوجهی با دو هدف:
مقایسه بین دادهی سنسور و متن (مثل مدل کلیپ)
تولید توضیح متنی (مثل مدل کوکا)
🚀 تواناییهای این مدل شامل موارد زیر است:
✔️ شناسایی دقیق فعالیت و استرس بدون نیاز به آموزش مجدد
✔️ پاسخ به درخواستهایی مانند «چه زمانی استرسم بالا بود؟» با بازههای زمانی دقیق
✔️ تطبیق با سبک زندگی کاربر تنها با چند نمونه
📌 مدل SensorLM، دادههای سنسوری دقیقهای را به زبان انسانی تبدیل میکند؛ حرکتی مهم برای از بین بردن شکاف میان دادهی خام و درک انسانی.
📄 مقاله: لینک
📎 بلاگ: لینک
📡 @rss_ai_ir
#سلامت_هوشمند #هوش_مصنوعی #گوگل #SensorLM #پوشیدنی #CLIP #CoCa #سلامت #AI
گوگل با استفاده از حدود ۶۰ میلیون ساعت داده ناشناس از ساعتهای هوشمند فیتبیت و پیکسل واچ، مدلی توسعه داده که قادر است اطلاعات خامی مثل ضربان قلب، تعداد قدمها و دمای بدن را به زبان طبیعی تبدیل کند.
📌 بهجای نمایش نمودارهای خشک، این مدل جملاتی مانند این تولید میکند:
«بعد از نوشیدن دومین فنجان قهوه، سطح استرس افزایش یافت، اما یک پیادهروی ۱۵ دقیقهای شما را به تعادل برگرداند.»
📊 روش کار تیم گوگل به این صورت بود:
۱. ساخت دیتاست عظیم شامل ۲.۵ میلیون روز فعالیت انسانی از ۱۲۷ کشور
۲. ایجاد برچسبگذاری چندلایه برای هر روز:
آمار: «پالس بین ۵۴ تا ۱۷۸، میانگین ۷۲»
ساختار: «افزایش تدریجی ضربان از ساعت ۱۱ تا ۱۲ ظهر»
معنا: «تمرین قدرتی به مدت ۲۶ دقیقه»
۳. آموزش ترنسفورمر چندوجهی با دو هدف:
مقایسه بین دادهی سنسور و متن (مثل مدل کلیپ)
تولید توضیح متنی (مثل مدل کوکا)
🚀 تواناییهای این مدل شامل موارد زیر است:
✔️ شناسایی دقیق فعالیت و استرس بدون نیاز به آموزش مجدد
✔️ پاسخ به درخواستهایی مانند «چه زمانی استرسم بالا بود؟» با بازههای زمانی دقیق
✔️ تطبیق با سبک زندگی کاربر تنها با چند نمونه
📌 مدل SensorLM، دادههای سنسوری دقیقهای را به زبان انسانی تبدیل میکند؛ حرکتی مهم برای از بین بردن شکاف میان دادهی خام و درک انسانی.
📄 مقاله: لینک
📎 بلاگ: لینک
📡 @rss_ai_ir
#سلامت_هوشمند #هوش_مصنوعی #گوگل #SensorLM #پوشیدنی #CLIP #CoCa #سلامت #AI
❤2🔥2👍1
📸 تشخیص اشیاء با استفاده از مدلهای بینایی-زبانی (VLM)
@rss_ai_ir 🤖
⛔️در مدلهای سنتی تشخیص شیء، یک محدودیت جدی وجود دارد: مجموعه کلاسها همانهایی هستند که در دادههای آموزشی دیده شدهاند (Closed-set Object Detection). برای رفع این محدودیت، نسل جدیدی از مدلها به نام Open Vocabulary Object Detection (OVOD) معرفی شدهاند که توانایی تشخیص اشیاء دلخواه را دارند.
در یک مقاله جدید، مروری بر مدلهای OVOD مبتنی بر Vision Language Model (VLM) انجام شده است.
📌 در این مقاله میخوانید:
✳️رویکردهای مختلف برای بهکارگیری VLM در تشخیص شیء
✳️نتایج مقایسه مدلها در بنچمارکهای Closed-Set و Open Vocabulary
✳️دلیل ماندگاری ایدههای CLIP در این حوزه
🔗 مطالعه کامل مقاله در لینک زیر 👇
مقاله
#هوش_مصنوعی #بینایی_ماشین #VLM #تشخیص_شیء #CLIP #OpenVocabulary #ComputerVision #OVOD
@rss_ai_ir 🤖
⛔️در مدلهای سنتی تشخیص شیء، یک محدودیت جدی وجود دارد: مجموعه کلاسها همانهایی هستند که در دادههای آموزشی دیده شدهاند (Closed-set Object Detection). برای رفع این محدودیت، نسل جدیدی از مدلها به نام Open Vocabulary Object Detection (OVOD) معرفی شدهاند که توانایی تشخیص اشیاء دلخواه را دارند.
در یک مقاله جدید، مروری بر مدلهای OVOD مبتنی بر Vision Language Model (VLM) انجام شده است.
📌 در این مقاله میخوانید:
✳️رویکردهای مختلف برای بهکارگیری VLM در تشخیص شیء
✳️نتایج مقایسه مدلها در بنچمارکهای Closed-Set و Open Vocabulary
✳️دلیل ماندگاری ایدههای CLIP در این حوزه
🔗 مطالعه کامل مقاله در لینک زیر 👇
مقاله
#هوش_مصنوعی #بینایی_ماشین #VLM #تشخیص_شیء #CLIP #OpenVocabulary #ComputerVision #OVOD
🎉7🔥6❤5😁5👍3👏1