و اما یک مثال از کاربردش:
فرض کنید شما یک فروشگاه آنلاین دارید و با ایمیل مارکتینگ میخوایید برای مشتریانتون تبلیغ ارسال کنید.
شما یک لیست بزرگ از مشتریانتون دارید، اما بر اساس تبلیغ های قبلی و رفتار مشتریان فقط از رفتار بعضی از مشتریانتون خبر دارید میدونید آیا واقعاً از تبلیغاتتون خوششون میاد یا نه. به این دسته از مشتریان، که رفتارشون رو میدونید، “برچسبدار” میگیم.
اما برای بقیه مشتریان، یعنی اونهایی که نمیدونید از تبلیغات شما خوششون میاد یا نه، نمیدونید چه برچسبی بزنید. به این دسته از مشتریان “بدون برچسب” میگیم.
یادگیری نیمهنظارتی اینجا کاربرد داره. با استفاده از این روش، شما میتونید یک الگو یا “قاعده” از رفتار مشتریان “برچسبدار” خودتون بسازید. بعد با استفاده از این الگو، میتونید حدس بزنید که کدوم مشتریان “بدون برچسب” واقعاً از تبلیغات شما خوششون میاد. در نتیجه، شما میتونید تبلیغاتتون رو هدفمندتر کنید.
امیدوارم توضیحاتم کافی باشه و متوجه شده باشید.
البته اگه متوجه نشدید نگران نباشید. تو محتوای تصویری بیشتر دربارش توضیح میدم😉
🦾 @techwich
فرض کنید شما یک فروشگاه آنلاین دارید و با ایمیل مارکتینگ میخوایید برای مشتریانتون تبلیغ ارسال کنید.
شما یک لیست بزرگ از مشتریانتون دارید، اما بر اساس تبلیغ های قبلی و رفتار مشتریان فقط از رفتار بعضی از مشتریانتون خبر دارید میدونید آیا واقعاً از تبلیغاتتون خوششون میاد یا نه. به این دسته از مشتریان، که رفتارشون رو میدونید، “برچسبدار” میگیم.
اما برای بقیه مشتریان، یعنی اونهایی که نمیدونید از تبلیغات شما خوششون میاد یا نه، نمیدونید چه برچسبی بزنید. به این دسته از مشتریان “بدون برچسب” میگیم.
یادگیری نیمهنظارتی اینجا کاربرد داره. با استفاده از این روش، شما میتونید یک الگو یا “قاعده” از رفتار مشتریان “برچسبدار” خودتون بسازید. بعد با استفاده از این الگو، میتونید حدس بزنید که کدوم مشتریان “بدون برچسب” واقعاً از تبلیغات شما خوششون میاد. در نتیجه، شما میتونید تبلیغاتتون رو هدفمندتر کنید.
امیدوارم توضیحاتم کافی باشه و متوجه شده باشید.
البته اگه متوجه نشدید نگران نباشید. تو محتوای تصویری بیشتر دربارش توضیح میدم😉
🦾 @techwich
This media is not supported in your browser
VIEW IN TELEGRAM
نمایش پیکر منسوب به دو موجود بیگانه
Techwich
https://youtube.com/shorts/5sphzC1vMo8?si=s3PGcnyPZFvllcse
ویژگی های جدید اندرویید 🤩
ویژه برنامه تکویچ از جدید ترین های حوزه تکنولوژی در کنگره جهانی موبایل بارسلون۲۰۲۴ 😎
https://youtu.be/SSQEJ5AfNTM?si=y2R9D-s6i1futSJ-
https://youtu.be/SSQEJ5AfNTM?si=y2R9D-s6i1futSJ-
YouTube
کنگره جهانی موبایل ۲۰۲۴
کنگره جهانی #موبایل هر سال در شهر #بارسلون برگزار میشه. تو این نمایشگاه بسیاری از شرکتهای بزرگ از جدیدترین محصولات و خدماتشون رونمایی میکنند.
#تکویچ دو ویژه برنامه از این نمایشگاه آماده کرده که این اولین قسمت از ویژه برنامه کنگره جهانی موبایل ۲۰۲۴ هست.…
#تکویچ دو ویژه برنامه از این نمایشگاه آماده کرده که این اولین قسمت از ویژه برنامه کنگره جهانی موبایل ۲۰۲۴ هست.…
This media is not supported in your browser
VIEW IN TELEGRAM
درود به همگی👋🏽
همونطور که میدونید مدل هوش مصنوعی GPT-4o در مراسم امروز معرفی شد.
اما قبل از اینکه این مدل جدید رو معرفی کنم، اول بریم سراغ بهروزرسانی مهم GPT-4o برای ما فارسی زبان ها.
از ۵۰ زبانی که در مدل جدید ساپورت میشه، ۲۰ زبان به عنوان نماینده فشردهسازی توکنها در خانوادههای مختلف زبانی توسط توکنایزر جدید انتخاب شدند که فارسی هم یکیش بوده و با ۱.۹ برابر کمتر از ۶۱ به ۳۲ رسیده.
توکنایزیشن زبان در چت جی پی تی به فرآیندی گفته میشه که طی اون متن ورودی به واحدهای کوچکتری به نام توکنهاتقسیم میشه. این توکنها میتونند کلمات، عبارات یا حتی بخشهایی از کلمات باشند. فرآیند توکنایزیشن به مدل کمک میکنه تا متن رو بهتر درک کنه و بر اساس اون پاسخهای دقیقتری ارائه بده. به زبان سادهتر، توکنایزیشن زبان روشی هست که جی پی تی از اون برای تجزیه و تحلیل و فهمیدن متنی که بهش داده میشه استفاده میکنه.
وقتی میگیم توکنایزیشن یک زبان دو برابر کمتر شده، به این معناست که مدل میتونه متنهایی به اون زبان رو با استفاده از تعداد کمتری توکن نسبت به قبل پردازش کنه.
همونطور که میدونید مدل هوش مصنوعی GPT-4o در مراسم امروز معرفی شد.
اما قبل از اینکه این مدل جدید رو معرفی کنم، اول بریم سراغ بهروزرسانی مهم GPT-4o برای ما فارسی زبان ها.
از ۵۰ زبانی که در مدل جدید ساپورت میشه، ۲۰ زبان به عنوان نماینده فشردهسازی توکنها در خانوادههای مختلف زبانی توسط توکنایزر جدید انتخاب شدند که فارسی هم یکیش بوده و با ۱.۹ برابر کمتر از ۶۱ به ۳۲ رسیده.
توکنایزیشن زبان در چت جی پی تی به فرآیندی گفته میشه که طی اون متن ورودی به واحدهای کوچکتری به نام توکنهاتقسیم میشه. این توکنها میتونند کلمات، عبارات یا حتی بخشهایی از کلمات باشند. فرآیند توکنایزیشن به مدل کمک میکنه تا متن رو بهتر درک کنه و بر اساس اون پاسخهای دقیقتری ارائه بده. به زبان سادهتر، توکنایزیشن زبان روشی هست که جی پی تی از اون برای تجزیه و تحلیل و فهمیدن متنی که بهش داده میشه استفاده میکنه.
وقتی میگیم توکنایزیشن یک زبان دو برابر کمتر شده، به این معناست که مدل میتونه متنهایی به اون زبان رو با استفاده از تعداد کمتری توکن نسبت به قبل پردازش کنه.
اما بهروزرسانی:
مدل هوش مصنوعی GPT-4o برپایه مدل قبلی OpenAI ساخته شده و از جهات مختلفی بهبود پیدا کرده.
وب سرویس این مدل هوش مصنوعی دو برابر سریعتر و 50 درصد ارزانتر شده و محدودیتش
۵ برابر نسبت به GPT-4 توربو کاهش پیدا کرده.
یکی از ارتقاهای بزرگ این مدل جدید گفتار هم زمان و زنده است. درواقع GPT-4o بهجای اینکه ابتدا صدا رو به متن تبدیل کنه و بعد اون رو بفهمه میتونه به خود صدا گوش بده.
GPT-4o یک گام به سوی تعاملات طبیعیتر بین انسان و کامپیوتر هست. این مدل میتونه هر ترکیبی از متن، صوت و تصویر رو به عنوان ورودی قبول کنه و هر ترکیبی از متن، صوت و تصویر رو به عنوان خروجی تولید کنه.
این مدل به ورودیهای صوتی در کمتر از ۲۳۲ میلیثانیه پاسخ میده و با میانگین زمان پاسخ ۳۲۰ میلیثانیه، مشابه با زمان واکنش انسان در یک گفتگو هست.
این مدل در متنهای انگلیسی و برنامهنویسی، عملکردی شبیه به GPT-4 Turbo داره و در متون زبانهای غیرانگلیسی بهبود چشمگیری داشته. GPT-4o به ویژه در درک بینایی و صوت نسبت به مدلهای موجود بهتر شده.
پیش از GPT-4o، شما میتونستید از حالت صوتی برای صحبت با ChatGPT استفاده کنید که میانگین تأخیرش 2.8 ثانیه برای GPT-3.5 و 5.4 ثانیه برای GPT-4 بود.
قبلا برای این کار از سه مدل جداگانه استفاده می شد: یک مدل ساده که صدا رو به متن تبدیل میکرد، GPT-3.5 یا GPT-4 که متن رو دریافت و متن خروجی تولید میکرد، و یک مدل ساده دیگه که متن رو به صوت تبدیل میکرد.
این فرآیند باعث میشد که GPT-4، اطلاعات زیادی رو از دست بده و نمیتونست به طور مستقیم لحن، چندین گوینده، یا صداهای پسزمینه رو متوجه بشه و قادر به بیان خنده، آواز خواندن یا احساسات نبود.
در بهروزرسانی جدید، مدل جدید به طور کامل و از ابتدا تا انتها برای متن، بینایی و صوت آموزش داده شده، به این معنی که همه ورودیها و خروجیها توسط همون شبکه عصبی پردازش میشن.
در واقع GPT-4o اولین مدل OpenAI هست که تمام این مدیاها رو ترکیب میکنه.
مدل هوش مصنوعی GPT-4o در اختیار تمام کاربران شامل کاربران سرویس رایگان و پولی این شرکت قرار میگیره اما قابلیت جدید Voice Mode از چند هفته آینده بهصورت آلفا برای کاربران ChatGPT Plus در دسترس قرار میگیره.
@techwich
مدل هوش مصنوعی GPT-4o برپایه مدل قبلی OpenAI ساخته شده و از جهات مختلفی بهبود پیدا کرده.
وب سرویس این مدل هوش مصنوعی دو برابر سریعتر و 50 درصد ارزانتر شده و محدودیتش
۵ برابر نسبت به GPT-4 توربو کاهش پیدا کرده.
یکی از ارتقاهای بزرگ این مدل جدید گفتار هم زمان و زنده است. درواقع GPT-4o بهجای اینکه ابتدا صدا رو به متن تبدیل کنه و بعد اون رو بفهمه میتونه به خود صدا گوش بده.
GPT-4o یک گام به سوی تعاملات طبیعیتر بین انسان و کامپیوتر هست. این مدل میتونه هر ترکیبی از متن، صوت و تصویر رو به عنوان ورودی قبول کنه و هر ترکیبی از متن، صوت و تصویر رو به عنوان خروجی تولید کنه.
این مدل به ورودیهای صوتی در کمتر از ۲۳۲ میلیثانیه پاسخ میده و با میانگین زمان پاسخ ۳۲۰ میلیثانیه، مشابه با زمان واکنش انسان در یک گفتگو هست.
این مدل در متنهای انگلیسی و برنامهنویسی، عملکردی شبیه به GPT-4 Turbo داره و در متون زبانهای غیرانگلیسی بهبود چشمگیری داشته. GPT-4o به ویژه در درک بینایی و صوت نسبت به مدلهای موجود بهتر شده.
پیش از GPT-4o، شما میتونستید از حالت صوتی برای صحبت با ChatGPT استفاده کنید که میانگین تأخیرش 2.8 ثانیه برای GPT-3.5 و 5.4 ثانیه برای GPT-4 بود.
قبلا برای این کار از سه مدل جداگانه استفاده می شد: یک مدل ساده که صدا رو به متن تبدیل میکرد، GPT-3.5 یا GPT-4 که متن رو دریافت و متن خروجی تولید میکرد، و یک مدل ساده دیگه که متن رو به صوت تبدیل میکرد.
این فرآیند باعث میشد که GPT-4، اطلاعات زیادی رو از دست بده و نمیتونست به طور مستقیم لحن، چندین گوینده، یا صداهای پسزمینه رو متوجه بشه و قادر به بیان خنده، آواز خواندن یا احساسات نبود.
در بهروزرسانی جدید، مدل جدید به طور کامل و از ابتدا تا انتها برای متن، بینایی و صوت آموزش داده شده، به این معنی که همه ورودیها و خروجیها توسط همون شبکه عصبی پردازش میشن.
در واقع GPT-4o اولین مدل OpenAI هست که تمام این مدیاها رو ترکیب میکنه.
مدل هوش مصنوعی GPT-4o در اختیار تمام کاربران شامل کاربران سرویس رایگان و پولی این شرکت قرار میگیره اما قابلیت جدید Voice Mode از چند هفته آینده بهصورت آلفا برای کاربران ChatGPT Plus در دسترس قرار میگیره.
@techwich
This media is not supported in your browser
VIEW IN TELEGRAM
درود به همگی 👋🏽
چند ساعت پیش در رویداد Google I/O 2024، پروژهی Astra رونمایی شد.
گوگل با رونمایی از پروژه Astra قابلیتهای جدید ChatGPT که دیروز معرفی شد رو هدف گرفت.
پروژه Astra با استفاده از هوش مصنوعی Gemini، به شما کمک میکنه تا با دنیای اطرافتون به گونهای جدید تعامل داشته باشید.
این دستیار هوشمند میتونه:
محیط اطراف رو درک کنه و به سوالات شما در مورد اشیا، شرایط و هر چیزی که در محیط هست پاسخ بده.
برای مثال میتونه اشیاء گمشده شما رو پیدا کنه، منابع ایجاد صدا در محیط رو مشخص کنه و بسیاری از کارهای شگفتانگیز دیگه!
پروژه Astra نه تنها روی گوشیهای هوشمند، بلکه روی عینکهای هوشمند هم قابل استفاده است. ️
پروژهی Astra هنوز در مراحل اولیه توسعه قرار داره و هنوز برنامهی انتشار عمومی اون مشخص نشده.
@techwich
چند ساعت پیش در رویداد Google I/O 2024، پروژهی Astra رونمایی شد.
گوگل با رونمایی از پروژه Astra قابلیتهای جدید ChatGPT که دیروز معرفی شد رو هدف گرفت.
پروژه Astra با استفاده از هوش مصنوعی Gemini، به شما کمک میکنه تا با دنیای اطرافتون به گونهای جدید تعامل داشته باشید.
این دستیار هوشمند میتونه:
محیط اطراف رو درک کنه و به سوالات شما در مورد اشیا، شرایط و هر چیزی که در محیط هست پاسخ بده.
برای مثال میتونه اشیاء گمشده شما رو پیدا کنه، منابع ایجاد صدا در محیط رو مشخص کنه و بسیاری از کارهای شگفتانگیز دیگه!
پروژه Astra نه تنها روی گوشیهای هوشمند، بلکه روی عینکهای هوشمند هم قابل استفاده است. ️
پروژهی Astra هنوز در مراحل اولیه توسعه قرار داره و هنوز برنامهی انتشار عمومی اون مشخص نشده.
@techwich
مدل جدید OpenAI o1 معرفی شد 🤩
مدل جدید OpenAI o1 بیشتر از مدلهای قبلی وقت میذاره تا قبل از جواب دادن، مشکل رو به خوبی تجزیه و تحلیل کنه. این مدل برای کارهایی که نیاز به استدلال و فکر کردن دارن، مثل مسائل علمی، ریاضی یا کدنویسی پیچیده، طراحی شده. به عنوان مثال، این مدل توی آزمونهایی مثل المپیاد ریاضی تونسته ۸۳٪ از سوالات رو درست جواب بده، در حالی که مدل GPT-4 فقط ۱۳٪ رو حل کرده بود.
این مدل توی رقابتهای برنامهنویسی هم جزو ۸۹٪ برتر Codeforces بوده، که نشون میده چقدر تو این حوزه قویه.
یکی دیگه از ویژگیهای مهم این مدل، پیشرفت تو بخش ایمنی و رعایت قوانین امنیتیاشه. توی یکی از سختترین تستهای “جیلبریک” (یعنی دور زدن قوانین امنیتی)، مدل جدید امتیاز ۸۴ از ۱۰۰ رو گرفته که خیلی بیشتر از GPT-4 با امتیاز ۲۲ه. این یعنی میتونه قوانین امنیتی رو خیلی بهتر رعایت کنه.
این مدل بهخصوص برای کسانی مناسبه که با مسائل پیچیده علمی، برنامهنویسی و ریاضی سروکار دارن، مثل محققهای حوزه بهداشت که روی دادههای سلولی کار میکنن یا فیزیکدانهایی که نیاز به فرمولهای پیچیده برای تحقیقاتشون دارن. حتی توسعهدهندهها هم میتونن از این مدل برای ساخت و اجرای کارهای چند مرحلهای استفاده کنن.
💻 @techwich
مدل جدید OpenAI o1 بیشتر از مدلهای قبلی وقت میذاره تا قبل از جواب دادن، مشکل رو به خوبی تجزیه و تحلیل کنه. این مدل برای کارهایی که نیاز به استدلال و فکر کردن دارن، مثل مسائل علمی، ریاضی یا کدنویسی پیچیده، طراحی شده. به عنوان مثال، این مدل توی آزمونهایی مثل المپیاد ریاضی تونسته ۸۳٪ از سوالات رو درست جواب بده، در حالی که مدل GPT-4 فقط ۱۳٪ رو حل کرده بود.
این مدل توی رقابتهای برنامهنویسی هم جزو ۸۹٪ برتر Codeforces بوده، که نشون میده چقدر تو این حوزه قویه.
یکی دیگه از ویژگیهای مهم این مدل، پیشرفت تو بخش ایمنی و رعایت قوانین امنیتیاشه. توی یکی از سختترین تستهای “جیلبریک” (یعنی دور زدن قوانین امنیتی)، مدل جدید امتیاز ۸۴ از ۱۰۰ رو گرفته که خیلی بیشتر از GPT-4 با امتیاز ۲۲ه. این یعنی میتونه قوانین امنیتی رو خیلی بهتر رعایت کنه.
این مدل بهخصوص برای کسانی مناسبه که با مسائل پیچیده علمی، برنامهنویسی و ریاضی سروکار دارن، مثل محققهای حوزه بهداشت که روی دادههای سلولی کار میکنن یا فیزیکدانهایی که نیاز به فرمولهای پیچیده برای تحقیقاتشون دارن. حتی توسعهدهندهها هم میتونن از این مدل برای ساخت و اجرای کارهای چند مرحلهای استفاده کنن.
💻 @techwich
🔥یک خبر خوب هم داریم😎
هنوز چند ساعت از معرفی این مدل هوش مصنوعی نگذشته و شما از طریق وب سایت و یا اپلیکیشن اندرویید تکویچ میتونید به صورت رایگان به OpenAI o1
دسترسی داشته باشید.
بعد از ورود به سایت وارد بخش تالار گفتمان بشید و سوالتون رو از o1 بپرسید 😎
وب سایت:
http://techwich.org
اپلیکیشن اندرویید:
https://play.google.com/store/apps/details?id=com.techwich&hl=en
این مدل از شنبه صبح در دسترس هست.
هنوز چند ساعت از معرفی این مدل هوش مصنوعی نگذشته و شما از طریق وب سایت و یا اپلیکیشن اندرویید تکویچ میتونید به صورت رایگان به OpenAI o1
دسترسی داشته باشید.
بعد از ورود به سایت وارد بخش تالار گفتمان بشید و سوالتون رو از o1 بپرسید 😎
وب سایت:
http://techwich.org
اپلیکیشن اندرویید:
https://play.google.com/store/apps/details?id=com.techwich&hl=en
این مدل از شنبه صبح در دسترس هست.
Google Play
techwich - Apps on Google Play
TECHWICH has the largest collection of code learning content, beginner to pro!
درود به همگی 👋🏽
علیبابا یک مدل جدید رو منتشر کرد که ۷ میلیارد پارامتر داره (پارامتر یعنی همون تنظیمات و جزئیاتی که مدل باهاش یاد میگیره). این مدل رو به صورت متنباز منتشر کرده.
نکتهی جالبش اینه که یک مدل همهفنحریفه! میتونه با متن، صدا، تصویر و ویدئو کار کنه.
یکی از ویژگیهای خوب این مدل یک معماریه که باعث میشه مدل همزمان بتونه فکر کنه و حرف بزنه.
این مدل ورودیهایی مثل صدا، متن یا عکس رو تحلیل میکنه، اطلاعات مهمش رو درمیاره و یک متن مرتب آماده میکنه.
در مرحله بعد متنهایی که آماده میشه رو میگیره و منظم و روان به صدا تبدیلشون میکنه.
یک نکتهی جالب اینه که در زمان آموزش یا استفاده از این مدل، بخش گوینده فقط اطلاعات جدید رو نمیگیره، بلکه همه چیزهایی که قبلاً بخش متفکر یاد گرفته هم بهش منتقل میشه. اینجوری کل سیستم به صورت یک مدل یکپارچه و هماهنگ کار میکنه و از اول تا آخر بدون نیاز به مرحلههای جدا، قابل آموزش و استفادهست
از اینجا میتونید به صورت رایگان این مدل رو آزمایش کنید:
https://chat.qwen.ai/
🦾 @techwich
علیبابا یک مدل جدید رو منتشر کرد که ۷ میلیارد پارامتر داره (پارامتر یعنی همون تنظیمات و جزئیاتی که مدل باهاش یاد میگیره). این مدل رو به صورت متنباز منتشر کرده.
نکتهی جالبش اینه که یک مدل همهفنحریفه! میتونه با متن، صدا، تصویر و ویدئو کار کنه.
یکی از ویژگیهای خوب این مدل یک معماریه که باعث میشه مدل همزمان بتونه فکر کنه و حرف بزنه.
این مدل ورودیهایی مثل صدا، متن یا عکس رو تحلیل میکنه، اطلاعات مهمش رو درمیاره و یک متن مرتب آماده میکنه.
در مرحله بعد متنهایی که آماده میشه رو میگیره و منظم و روان به صدا تبدیلشون میکنه.
یک نکتهی جالب اینه که در زمان آموزش یا استفاده از این مدل، بخش گوینده فقط اطلاعات جدید رو نمیگیره، بلکه همه چیزهایی که قبلاً بخش متفکر یاد گرفته هم بهش منتقل میشه. اینجوری کل سیستم به صورت یک مدل یکپارچه و هماهنگ کار میکنه و از اول تا آخر بدون نیاز به مرحلههای جدا، قابل آموزش و استفادهست
از اینجا میتونید به صورت رایگان این مدل رو آزمایش کنید:
https://chat.qwen.ai/
🦾 @techwich
chat.qwen.ai
Qwen Chat
Qwen Chat offers comprehensive functionality spanning chatbot, image and video understanding, image generation, document processing, web search integration, tool utilization, and artifacts.