AI DeepMind
8.82K subscribers
456 photos
123 videos
31 files
871 links
هوش مصنوعی، پایتون و...

لینک گروه DeepLearning AI:
https://t.me/DeepLearningAIExperts

AI Admin:
https://t.me/Farzadhhss
Download Telegram
Forwarded from Meysam
اگه میخواهید پردازش زبان طبیعی مدرن رو شروع کنید اینم یه منبع خوب:

https://arxiv.org/abs/2209.00099

@ai_person
Forwarded from AI DeepMind (Farzad)
اگر حال نوشتن ندارین، حرف بزنید تا هوش مصنوعی براتون مینویسه.

سایت زیر به صورت رایگان ابزار صوت به متن در زبانهای مختلف از جمله فارسی رو در اختیار شما قرار میده، از دست ندید.

لینک سایت:
https://speechtexter.com

پ.ن: بررسی کردم کیفیت خوبی داره

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
لیست جامع از cloud coding های انلاین

🔔 https://lambdalabs.com/service/gpu-cloud

🔔 https://colab.research.google.com/

🔔 Lightning.ai

🔔 https://modal.com/pricing

🔔 https://replicate.com/

🔔 https://huggingface.co/pricing

🔔 https://www.lepton.ai/

🔔 https://aws.amazon.com/sagemaker/train/ 📣
مهم هستش و خیلی بهتر از بقیه موارد گفته شده در بالا هستش.

پ.ن : اگه چیزی دیگه وجود داره کامنت کنید تا اضافه کنم

#الگوریتمها #منابع #پردازش_آنلاین

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
تفاوت‌های کلیدی بین لیست‌ها و تاپل‌ها

قابلیت تغییر (Mutability)

لیست‌ها:

قابل تغییر (Mutable): لیست‌ها می‌توانند پس از ایجاد تغییر کنند؛ می‌توانید عناصر را اضافه، حذف یا جایگزین کنید.



my_list = [1, 2, 3]
my_list[0] = 4 # تغییر اولین عنصر
my_list.append(5) # اضافه کردن عنصر جدید
print(my_list) # خروجی: [4, 2, 3, 5]

تاپل‌ها:

غیرقابل تغییر (Immutable): پس از ایجاد یک تاپل، نمی‌توانید عناصر آن را تغییر دهید. این ویژگی باعث افزایش کارایی و امنیت داده‌ها در مواردی می‌شود که نیاز به تغییرات مکرر ندارند.



my_tuple = (1, 2, 3)
# my_tuple[0] = 4 # این خط خطا می‌دهد

عملکرد (Performance)

لیست‌ها:

کندتر: به دلیل قابلیت تغییر، لیست‌ها دارای سربار (overhead) بیشتری هستند که می‌تواند منجر به کاهش کارایی در برخی موارد شود.

تاپل‌ها:

سریع‌تر: از آنجا که تاپل‌ها غیرقابل تغییر هستند، بهینه‌تر بوده و سربار کمتری دارند، که منجر به افزایش سرعت عملیات می‌شود، به خصوص در ساختارهای داده بزرگ.

استفاده حافظه (Memory Usage)

لیست‌ها:

مصرف حافظه بیشتر: به دلیل قابلیت تغییر، لیست‌ها برای مدیریت تغییرات به فضای اضافی نیاز دارند.

تاپل‌ها:

مصرف حافظه کمتر: تاپل‌ها به دلیل غیرقابل تغییر بودن و ساختار ساده‌تر، معمولاً فضای حافظه کمتری نسبت به لیست‌ها اشغال می‌کنند.

امنیت داده (Data Integrity)

لیست‌ها:

کمتر امن: از آنجا که لیست‌ها قابل تغییر هستند، ممکن است به‌طور ناخواسته تغییر یابند و داده‌ها دچار ناپایداری شوند.

تاپل‌ها:

بیشتر امن: تاپل‌ها به دلیل غیرقابل تغییر بودن، امنیت داده‌ها را تضمین می‌کنند و برای استفاده در موقعیت‌هایی که نیاز به عدم تغییر داده‌ها داریم، مناسب‌تر هستند.

کاربرد (Usage)

لیست‌ها:

زمانی که نیاز به تغییرات مکرر دارید: برای مجموعه‌هایی از داده‌ها که به‌طور مداوم نیاز به اضافه کردن، حذف یا تغییر دارند، لیست‌ها مناسب‌تر هستند.



my_list = [1, 2, 3]
my_list.append(4)
my_list.remove(2)
print(my_list) # خروجی: [1, 3, 4]

تاپل‌ها:

زمانی که نیاز به ثابت ماندن داده‌ها دارید: برای داده‌هایی که نباید تغییر کنند، مانند کلیدهای دیکشنری یا مقادیر ثابت در برنامه‌نویسی.



my_tuple = (1, 2, 3)
my_dict = {my_tuple: "value"} # استفاده از تاپل به عنوان کلید در دیکشنری

عملیات‌های مجاز

لیست‌ها:

پشتیبانی از تمام عملیات‌های تغییرپذیری مانند append(), remove(), insert(), pop(), و غیره.

تاپل‌ها:

پشتیبانی از عملیات دسترسی و شمارش عناصر مانند index() و count(), اما بدون قابلیت تغییر.

ترکیب داده‌ها (Concatenation) و تکرار (Repetition)
هر دو نوع داده از ترکیب و تکرار پشتیبانی می‌کنند، اما ترکیب و تکرار در تاپل‌ها منجر به ایجاد تاپل‌های جدید می‌شود.


# ترکیب
list1 = [1, 2]
list2 = [3, 4]
combined_list = list1 + list2
print(combined_list) # خروجی: [1, 2, 3, 4]

tuple1 = (1, 2)
tuple2 = (3, 4)
combined_tuple = tuple1 + tuple2
print(combined_tuple) # خروجی: (1, 2, 3, 4)

# تکرار
repeated_list = list1 * 3
print(repeated_list) # خروجی: [1, 2, 1, 2, 1, 2]

repeated_tuple = tuple1 * 3
print(repeated_tuple) # خروجی: (1, 2, 1, 2, 1, 2)

تبدیل بین لیست و تاپل

گاهی اوقات نیاز به تبدیل بین این دو نوع داده وجود دارد.


# لیست به تاپل
my_list = [1, 2, 3]
my_tuple = tuple(my_list)
print(my_tuple) # خروجی: (1, 2, 3)

# تاپل به لیست
my_tuple = (1, 2, 3)
my_list = list(my_tuple)
print(my_list) # خروجی: [1, 2, 3]

نتیجه‌گیری

لیست‌ها برای مواردی مناسب هستند که نیاز به تغییر، اضافه کردن یا حذف عناصر دارید. از لیست‌ها در برنامه‌هایی استفاده کنید که انعطاف‌پذیری داده‌ها مهم است.
تاپل‌ها برای مواردی مناسب هستند که داده‌ها باید ثابت بمانند و بهینه‌سازی عملکرد و استفاده از حافظه مهم است. از تاپل‌ها در مواردی استفاده کنید که داده‌ها نباید تغییر کنند و امنیت داده‌ها حائز اهمیت است

@lython
Question answering group for Python and Linux

https://t.me/PythonLinuxExperts
مقاله یکی از همراهان کانال در حیطه فشن و مد منتشر شده علاقمندان به این حوزه میتونین مطالعه و موضوع تحقیقاتی خودتون رو این موضوع انتخاب کنید

▪️ PRFashion24: A Dataset for Sentiment Analysis of Fashion Products Reviews in Persian

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
Forwarded from A. Ashofteh
در طی چند سال گذشته افتخار داشتم ضمن تدریس در دانشگاه، یکی از چهار مشاور مرکز آمار کشور پرتغال هم باشم. خرسندم به همراه دو نفر دیگر از این مرکز آمار رسمی (دکتر ژوا و دکتر پدرو)، نتیجه بخشی از تحقیقات چهار سال گذشته را در کنفرانس اروپایی کیفیت آمار رسمی 2024 (Q2024) ارایه می کنیم.
تولید آمار رسمی در مورد چگونگی زندگی و دسترسی به کالاها برای گروه های مختلف جامعه بسیار مهم است مخصوصا زمانی که تفاوت های نژادی و قومی و کاهش جمعیت فعال به عنوان یک چالش مهم جمعیتی معاصر می توانند در نتایج مطالعه موثر باشند ولی در اینگونه مطالعات، جمع آوری داده ها برای اقلیت ها و بر اساس خصوصیات قومی و نژادی با چالش هایی همراه است. در این مطالعه، یک بررسی نمونه‌گیری با کمک روشهای یادگیری ماشین و بیگ دیتا برای کشور پرتغال طراحی شده است و از فناوری های جدید برای غلبه بر این چالش ها استفاده شد و در سه مرحله مطالعه، طراحی، بررسی نمونه گیری اولیه، و بررسی نمونه ای در سطح ملی اجرا شد و نتایج نهایی این مطالعه نیز به زودی توسط این مرکز آمار رسمی منتشر می شود. ما از روش‌های خوشه‌بندی و داده‌های سرشماری برای شناسایی متغیرهای اساسی و از روش های داده های فضایی برای تعیین گروه های نمونه گیری همگن برای توزیع حجم نمونه استفاده کردیم. علاوه بر این، مناطق مختلف کشور تقسیم‌بندی شدند و خوشه‌ها برای به حداقل رساندن خطاهای عدم پاسخ و پوشش مورد تجزیه و تحلیل و بحث قرار گرفتند. روش پیشنهادی یک طرح نمونه گیری بهینه بر مبنای داده های فضایی را با کمک روش های یادگیری ماشین و داده های حجیم (بیگ دیتا) ارایه می دهد و از فناوری های مختلفی مانند سس، آر، اسپارک و اس کیو ال استفاده شد./افشین آشفته
آدرس کنفرانس برای علاقه مندان:
https://www.q2024.pt/
آدرس مجموعه خلاصه مقالات:
https://www.q2024.pt/abstract/book-of-abstracts
Forwarded from Ali (Ali Najafi)
خب سلامی دوباره!

Engineer
یا همون مهندس خودمون، یک شخص practitioner هستش
یعنی اینکه ایده رو به عمل میرسونه!
مثلا ساخت و تولید یک چیزی!
حالا شاید شما بپرسید که خب طرف نمیشینه این رو فکر کنه که چطوری بسازه و فلان؟!
جواب اینکه فکر میکنه که چطوری بسازه و به عمل برسونه اما! سوال نمیپرسه!!!!!!!!!!!!!
سوال پرسیدن سخته!
قاضی بودن سخته!


بزارید با یه مثالی این قضیه رو براتون بشکنم.
مثالم میشه همین ChatGPT که یهو ترکید و همه ازش حرف زدن.
تکنولوژی و علم ساخت ChatGPT از سال 2015 بوده، اما ما ChatGPT رو اون موقع ندیدیم
Engineer
های محترم اومدن و با داشتن ایده و علم که بوده( نه شاید متمرکز) با گرفتن Consulting از researcher های محترم
تونستن تحت عنوان شرکت OpenAI این محصول(ChatGPT) رو بسازن و ما شاهد این زیبایی باشیم.

ریسرچر فقط به رسیدن جواب بسنده نمیکنه!
میشینه فکر میکنه که چرا این جواب ها بیرون اومدن
یا اصلا چرا جواب درست شد
سوال میپرسه و از سوال پرسیدن دست نمیکشه و اینطوری هستش که دنیای علم بزرگ و بزرگ تر میشه


یه مثال دیگه میشه هم این باشه که یه دولوپر وبسایت میاد میسازه یه محصولی رو بلی روی ساختش فکر میکنه
اما تکنولوژی ساخت وبسایت رو ایشون پیدا نکرده. بلکه توسط اشخاصی(ریسرچر های حوزه وب) بالا اومده و این دولوپر از نتیجه کار اون ها استفاده میکنه
و یک وبسایت رو ایجاد میکنه.

من فارسیم زیاد خوب نیست اگر غلط املایی بوده باشه از قبل عذرخواهی میکنم.

@css_nlp
Forwarded from AI DeepMind (Farzad 🦅)
This media is not supported in your browser
VIEW IN TELEGRAM
این استاد سابق دانشگاه هاروارد خیلی جالب آینده پروگرمینگ و تغییر جهت به سمت آموزش llm ها برای یادگیری مهارتهای مختلف از جمله برنامه نویسی را توضیح میده. اینک ویدیو کامل هم هست.
https://m.youtube.com/watch?v=JhCl-GeT4jw&t=252s&ab_channel=CS50

#مقاله #منابع #ایده_جذاب #فیلم #کلاس_آموزشی

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
This media is not supported in your browser
VIEW IN TELEGRAM
How can an RL agent successfully solve a task while showcasing versatility of behaviors a property intuitive to intelligent systems like humans?

▪️ Learning Multimodal Behaviors from Scratch with Diffusion Policy Gradient

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
Can an emerging field called ‘neural systems understanding’ explain the brain?


This mashup of neuroscience, artificial intelligence and even linguistics and philosophy of mind aims to crack the deep question of what “understanding” is, however un-brain-like its models may be.

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
Safety Alignment Should Be Made More Than Just a Few Tokens Deep

1. Crrent LLM safety alignment is only a few tokens deep.
2. Deepening the safety alignment can make it more robust against multiple jailbreak attacks.
3. Protecting initial token positions can make the alignment more robust against fine-tuning attacks.

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
As an alternative to RLHF and adversarial training, we released short-circuiting.
It makes models ~100x more robust. It works for LLMs, multimodal models, and agents.

Unlike before, I now think robustly stopping models from generating harmful outputs may be highly tractable and not hopeless.

▪️ Improving Alignment and Robustness with Short Circuiting

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
GPTs are generating sequences in a left-to-right order. Is there another way?

▪️ σ-GPTs: A New Approach to Autoregressive Models
▪️ Project

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
در آپدیت جدید مرورگر Opera با فریمورک Ollama کار می‌کنه
این یعنی هر کسی که دانش برنامه نویسی نداره الان می‌تونه به مدل های اپن سورس دسترسی داشته باشه و هزینه ای پرداخت نکنه.
#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
BERTs are not dead!

▪️ BERTs are Generative In-Context Learners

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
Andrej Karpathy:

▪️ Let’s reproduce GPT-2 (124M)


The video ended up so long because it is... comprehensive: we start with empty file and end up with a GPT-2 (124M) model:
- first we build the GPT-2 network
- then we optimize it to train very fast
- then we set up the training run optimization and hyperparameters by referencing GPT-2 and GPT-3 papers
- then we bring up model evaluation, and
- then cross our fingers and go to sleep.
In the morning we look through the results and enjoy amusing model generations. Our "overnight" run even gets very close to the GPT-3 (124M) model. This video builds on the Zero To Hero series and at times references previous videos. You could also see this video as building my nanoGPT repo, which by the end is about 90% similar.

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person