Techwich
2.73K subscribers
98 photos
62 videos
1 file
82 links
تکویچ، یه لقمه تکنولوژی

کانال آموزشی رایگان برنامه نویسی، ترفند های موبایل و کامپوتر، اخبار تکنولوژی و ...

👇🏼اینستاگرام ما👇🏼

https://instagram.com/techwich.persian

👇🏼یوتیوب ما👇🏼

https://m.youtube.com/techwich
Download Telegram
و‌ اما یک مثال از کاربردش:

فرض کنید شما یک فروشگاه آنلاین دارید و با ایمیل مارکتینگ میخوایید برای مشتریانتون تبلیغ ارسال کنید.
شما یک لیست بزرگ از مشتریانتون دارید، اما بر اساس تبلیغ های قبلی و رفتار مشتریان فقط از رفتار بعضی‌ از مشتریانتون خبر دارید میدونید آیا واقعاً از تبلیغاتتون خوششون میاد یا نه. به این دسته از مشتریان، که رفتارشون رو می‌دونید، “برچسب‌دار” می‌گیم.
اما برای بقیه مشتریان، یعنی اونهایی که نمی‌دونید از تبلیغات شما خوششون میاد یا نه، نمی‌دونید چه برچسبی بزنید. به این دسته از مشتریان “بدون برچسب” می‌گیم.

یادگیری نیمه‌نظارتی اینجا کاربرد داره. با استفاده از این روش، شما می‌تونید یک الگو یا “قاعده” از رفتار مشتریان “برچسب‌دار” خودتون بسازید. بعد با استفاده از این الگو، می‌تونید حدس بزنید که کدوم مشتریان “بدون برچسب” واقعاً از تبلیغات شما خوششون میاد. در نتیجه، شما می‌تونید تبلیغاتتون رو هدفمندتر کنید.

امیدوارم توضیحاتم کافی باشه و متوجه شده باشید.
البته اگه متوجه نشدید نگران نباشید. تو محتوای تصویری بیشتر دربارش توضیح میدم😉

🦾 @techwich
Threads
اپلیکیشن جدید متا پنجشنبه لانچ میشه. این اپ مثل توییتر متن محور هست.

@techwich
This media is not supported in your browser
VIEW IN TELEGRAM
نمایش پیکر منسوب به دو موجود بیگانه
اینم پادکست مهترین اخبار تکنولوژی برای دوستانی که هفته گذشته موفق به دیدن برنامه تکویچ نشدند 🎧

🦾 @techwich
از دوشنبه منتظر گزارش روزانه تیم تکویچ از کنگره جهانی موبایل بارسلون باشید🦾
این هم خودرو برقی شیائومی که در کنگره جهانی موبایل ۲۰۲۴ رونمایی شد🤩
🔥تجربه حس لامسه در واقعیت گسترده!!!
Techwich
https://youtube.com/shorts/5sphzC1vMo8?si=s3PGcnyPZFvllcse
ویژگی های جدید اندرویید 🤩
This media is not supported in your browser
VIEW IN TELEGRAM
درود به همگی👋🏽
همونطور که میدونید مدل هوش مصنوعی GPT-4o در مراسم امروز معرفی شد.
اما قبل از اینکه این مدل جدید رو معرفی کنم، اول بریم سراغ به‌روزرسانی مهم GPT-4o برای ما فارسی زبان ها.


از ۵۰ زبانی که در مدل جدید ساپورت میشه، ۲۰ زبان به عنوان نماینده فشرده‌سازی توکن‌ها در خانواده‌های مختلف زبانی توسط توکنایزر جدید انتخاب شدند که فارسی هم یکیش بوده و با ۱.۹ برابر کمتر از ۶۱ به ۳۲ رسیده.

توکنایزیشن زبان در چت جی پی تی به فرآیندی گفته می‌شه که طی اون متن ورودی به واحدهای کوچکتری به نام توکن‌ها‌تقسیم می‌شه. این توکن‌ها می‌تونند کلمات، عبارات یا حتی بخش‌هایی از کلمات باشند. فرآیند توکنایزیشن به مدل کمک می‌کنه تا متن رو بهتر درک کنه و بر اساس اون پاسخ‌های دقیق‌تری ارائه بده. به زبان ساده‌تر، توکنایزیشن زبان روشی هست که جی پی تی از اون برای تجزیه و تحلیل و فهمیدن متنی که بهش داده می‌شه استفاده می‌کنه.

وقتی می‌گیم توکنایزیشن یک زبان دو برابر کمتر شده، به این معناست که مدل میتونه متن‌هایی به اون زبان رو با استفاده از تعداد کمتری توکن نسبت به قبل پردازش کنه.
اما به‌روزرسانی:

مدل هوش مصنوعی GPT-4o برپایه مدل قبلی OpenAI ساخته شده و از جهات مختلفی بهبود پیدا کرده.

وب سرویس این مدل هوش مصنوعی دو برابر سریع‌تر و 50 درصد ارزان‌تر شده و محدودیتش
۵ برابر نسبت به GPT-4 توربو کاهش پیدا کرده.

یکی از ارتقاهای بزرگ این مدل جدید گفتار هم زمان و زنده است. درواقع GPT-4o به‌جای اینکه ابتدا صدا رو به متن تبدیل کنه و بعد اون رو بفهمه می‌تونه به خود صدا گوش بده.


GPT-4o یک گام به سوی تعاملات طبیعی‌تر بین انسان و کامپیوتر هست. این مدل می‌تونه هر ترکیبی از متن، صوت و تصویر رو به عنوان ورودی قبول کنه و هر ترکیبی از متن، صوت و تصویر رو به عنوان خروجی تولید کنه.
این مدل به ورودی‌های صوتی در کمتر از ۲۳۲ میلی‌ثانیه پاسخ میده و با میانگین زمان پاسخ ۳۲۰ میلی‌ثانیه، مشابه با زمان واکنش انسان در یک گفتگو هست.

این مدل در متن‌های انگلیسی و برنامه‌نویسی، عملکردی شبیه به GPT-4 Turbo داره و در متون زبان‌های غیرانگلیسی بهبود چشمگیری داشته. GPT-4o به ویژه در درک بینایی و صوت نسبت به مدل‌های موجود بهتر شده.

پیش از GPT-4o، شما می‌تونستید از حالت صوتی برای صحبت با ChatGPT استفاده کنید که میانگین تأخیرش 2.8 ثانیه برای GPT-3.5 و 5.4 ثانیه برای GPT-4 بود.
قبلا برای این کار از سه مدل جداگانه استفاده می شد: یک مدل ساده که صدا رو به متن تبدیل می‌کرد، GPT-3.5 یا GPT-4 که متن رو دریافت و متن خروجی تولید می‌کرد، و یک مدل ساده دیگه که متن رو به صوت تبدیل می‌کرد.
این فرآیند باعث می‌شد که GPT-4، اطلاعات زیادی رو از دست بده و نمی‌تونست به طور مستقیم لحن، چندین گوینده، یا صداهای پس‌زمینه رو متوجه بشه و قادر به بیان خنده، آواز خواندن یا احساسات نبود.

در به‌روزرسانی جدید، مدل جدید به طور کامل و از ابتدا تا انتها برای متن، بینایی و صوت آموزش داده‌ شده، به این معنی که همه ورودی‌ها و خروجی‌ها توسط همون شبکه عصبی پردازش می‌شن.
در واقع GPT-4o اولین مدل OpenAI هست که تمام این مدیاها رو ترکیب می‌کنه.

مدل هوش مصنوعی GPT-4o در اختیار تمام کاربران شامل کاربران سرویس رایگان و پولی این شرکت قرار می‌گیره اما قابلیت جدید Voice Mode از چند هفته آینده به‌صورت آلفا برای کاربران ChatGPT Plus در دسترس قرار میگیره.



@techwich
This media is not supported in your browser
VIEW IN TELEGRAM
درود به همگی 👋🏽

چند ساعت پیش در رویداد Google I/O 2024، پروژه‌ی Astra رونمایی شد.

گوگل با رونمایی از پروژه Astra قابلیت‌های جدید ChatGPT که دیروز معرفی شد رو هدف گرفت.

پروژه Astra با استفاده از هوش مصنوعی Gemini، به شما کمک می‌کنه تا با دنیای اطرافتون به گونه‌ای جدید تعامل داشته باشید.

این دستیار هوشمند می‌تونه:
محیط اطراف رو درک کنه و به سوالات شما در مورد اشیا، شرایط و هر چیزی که در محیط هست پاسخ بده.
برای مثال میتونه اشیاء گمشده شما رو پیدا کنه، منابع ایجاد صدا در محیط رو مشخص کنه و بسیاری از کارهای شگفت‌انگیز دیگه!

پروژه Astra نه تنها روی گوشی‌های هوشمند، بلکه روی عینک‌های هوشمند هم قابل استفاده است. ️

پروژه‌ی Astra هنوز در مراحل اولیه توسعه قرار داره و هنوز برنامه‌‌ی انتشار عمومی اون مشخص نشده.

@techwich
مدل جدید OpenAI o1 معرفی شد 🤩

مدل جدید OpenAI o1 بیشتر از مدل‌های قبلی وقت می‌ذاره تا قبل از جواب دادن، مشکل رو به خوبی تجزیه و تحلیل کنه. این مدل برای کارهایی که نیاز به استدلال و فکر کردن دارن، مثل مسائل علمی، ریاضی یا کدنویسی پیچیده، طراحی شده. به عنوان مثال، این مدل توی آزمون‌هایی مثل المپیاد ریاضی تونسته ۸۳٪ از سوالات رو درست جواب بده، در حالی که مدل GPT-4 فقط ۱۳٪ رو حل کرده بود.
این مدل توی رقابت‌های برنامه‌نویسی هم جزو ۸۹٪ برتر Codeforces بوده، که نشون می‌ده چقدر تو این حوزه قویه.

یکی دیگه از ویژگی‌های مهم این مدل، پیشرفت تو بخش ایمنی و رعایت قوانین امنیتی‌اشه. توی یکی از سخت‌ترین تست‌های “جیل‌بریک” (یعنی دور زدن قوانین امنیتی)، مدل جدید امتیاز ۸۴ از ۱۰۰ رو گرفته که خیلی بیشتر از GPT-4 با امتیاز ۲۲ه. این یعنی می‌تونه قوانین امنیتی رو خیلی بهتر رعایت کنه.

این مدل به‌خصوص برای کسانی مناسبه که با مسائل پیچیده علمی، برنامه‌نویسی و ریاضی سروکار دارن، مثل محقق‌های حوزه بهداشت که روی داده‌های سلولی کار می‌کنن یا فیزیک‌دان‌هایی که نیاز به فرمول‌های پیچیده برای تحقیقاتشون دارن. حتی توسعه‌دهنده‌ها هم می‌تونن از این مدل برای ساخت و اجرای کارهای چند مرحله‌ای استفاده کنن.

💻 @techwich
🔥یک خبر خوب هم داریم😎

هنوز چند ساعت از معرفی این مدل هوش مصنوعی نگذشته و شما از طریق وب سایت و یا اپلیکیشن اندرویید تکویچ میتونید به صورت رایگان به OpenAI o1
دسترسی داشته باشید.

بعد از ورود به سایت وارد بخش تالار گفتمان بشید و سوالتون رو از o1 بپرسید 😎

وب سایت:

http://techwich.org

اپلیکیشن اندرویید:

https://play.google.com/store/apps/details?id=com.techwich&hl=en

این مدل از شنبه صبح در دسترس هست.
‎درود به همگی 👋🏽


‎علی‌بابا یک مدل جدید رو منتشر کرد که ۷ میلیارد پارامتر داره (پارامتر یعنی همون تنظیمات و جزئیاتی که مدل باهاش یاد می‌گیره). این مدل رو به صورت متن‌باز منتشر کرده.
‎نکته‌ی جالبش اینه که یک مدل همه‌فن‌حریفه! می‌تونه با متن، صدا، تصویر و ویدئو کار کنه.

‎یکی از ویژگی‌های خوب این مدل یک معماریه که باعث می‌شه مدل همزمان بتونه فکر کنه و حرف بزنه.

‎این مدل ورودی‌هایی مثل صدا، متن یا عکس رو تحلیل می‌کنه، اطلاعات مهمش رو درمیاره و یک متن مرتب آماده می‌کنه.

‎ در مرحله بعد متن‌هایی که آماده میشه رو می‌گیره و منظم و روان به صدا تبدیلشون می‌کنه.

یک نکته‌ی جالب اینه که در زمان آموزش یا استفاده از این مدل، بخش گوینده فقط اطلاعات جدید رو نمی‌گیره، بلکه همه چیزهایی که قبلاً بخش متفکر یاد گرفته هم بهش منتقل می‌شه. اینجوری کل سیستم به صورت یک مدل یکپارچه و هماهنگ کار می‌کنه و از اول تا آخر بدون نیاز به مرحله‌های جدا، قابل آموزش و استفاده‌ست

از اینجا میتونید به صورت رایگان این مدل رو آزمایش کنید:


https://chat.qwen.ai/

🦾 @techwich