Forwarded from Meysam
اگه میخواهید پردازش زبان طبیعی مدرن رو شروع کنید اینم یه منبع خوب:
https://arxiv.org/abs/2209.00099
@ai_person
https://arxiv.org/abs/2209.00099
@ai_person
Forwarded from AI DeepMind (Farzad)
اگر حال نوشتن ندارین، حرف بزنید تا هوش مصنوعی براتون مینویسه.
سایت زیر به صورت رایگان ابزار صوت به متن در زبانهای مختلف از جمله فارسی رو در اختیار شما قرار میده، از دست ندید.
لینک سایت:
https://speechtexter.com
پ.ن: بررسی کردم کیفیت خوبی داره
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
سایت زیر به صورت رایگان ابزار صوت به متن در زبانهای مختلف از جمله فارسی رو در اختیار شما قرار میده، از دست ندید.
لینک سایت:
https://speechtexter.com
پ.ن: بررسی کردم کیفیت خوبی داره
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from Meysam
Linkedin
Meysam Asgari-Chenaghlu on LinkedIn: Finally done!
Mastering Transformers: Second edition
It was a really long… | 29 comments
Mastering Transformers: Second edition
It was a really long… | 29 comments
Finally done!
Mastering Transformers: Second edition
It was a really long and joyful journey to be honest.
Also thanks to my dear coauthor Savaş Yıldırım for… | 29 comments on LinkedIn
Mastering Transformers: Second edition
It was a really long and joyful journey to be honest.
Also thanks to my dear coauthor Savaş Yıldırım for… | 29 comments on LinkedIn
لیست جامع از cloud coding های انلاین
🔔 https://lambdalabs.com/service/gpu-cloud
🔔 https://colab.research.google.com/
🔔 Lightning.ai
🔔 https://modal.com/pricing
🔔 https://replicate.com/
🔔 https://huggingface.co/pricing
🔔 https://www.lepton.ai/
🔔 https://aws.amazon.com/sagemaker/train/ 📣
مهم هستش و خیلی بهتر از بقیه موارد گفته شده در بالا هستش.
پ.ن : اگه چیزی دیگه وجود داره کامنت کنید تا اضافه کنم
#الگوریتمها #منابع #پردازش_آنلاین
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔔 https://lambdalabs.com/service/gpu-cloud
🔔 https://colab.research.google.com/
🔔 Lightning.ai
🔔 https://modal.com/pricing
🔔 https://replicate.com/
🔔 https://huggingface.co/pricing
🔔 https://www.lepton.ai/
🔔 https://aws.amazon.com/sagemaker/train/ 📣
مهم هستش و خیلی بهتر از بقیه موارد گفته شده در بالا هستش.
پ.ن : اگه چیزی دیگه وجود داره کامنت کنید تا اضافه کنم
#الگوریتمها #منابع #پردازش_آنلاین
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from روزمرگی های یک برنامه نویس
✅ تفاوتهای کلیدی بین لیستها و تاپلها
قابلیت تغییر (Mutability)
لیستها:
قابل تغییر (Mutable): لیستها میتوانند پس از ایجاد تغییر کنند؛ میتوانید عناصر را اضافه، حذف یا جایگزین کنید.
تاپلها:
غیرقابل تغییر (Immutable): پس از ایجاد یک تاپل، نمیتوانید عناصر آن را تغییر دهید. این ویژگی باعث افزایش کارایی و امنیت دادهها در مواردی میشود که نیاز به تغییرات مکرر ندارند.
عملکرد (Performance)
لیستها:
کندتر: به دلیل قابلیت تغییر، لیستها دارای سربار (overhead) بیشتری هستند که میتواند منجر به کاهش کارایی در برخی موارد شود.
تاپلها:
سریعتر: از آنجا که تاپلها غیرقابل تغییر هستند، بهینهتر بوده و سربار کمتری دارند، که منجر به افزایش سرعت عملیات میشود، به خصوص در ساختارهای داده بزرگ.
استفاده حافظه (Memory Usage)
لیستها:
مصرف حافظه بیشتر: به دلیل قابلیت تغییر، لیستها برای مدیریت تغییرات به فضای اضافی نیاز دارند.
تاپلها:
مصرف حافظه کمتر: تاپلها به دلیل غیرقابل تغییر بودن و ساختار سادهتر، معمولاً فضای حافظه کمتری نسبت به لیستها اشغال میکنند.
امنیت داده (Data Integrity)
لیستها:
کمتر امن: از آنجا که لیستها قابل تغییر هستند، ممکن است بهطور ناخواسته تغییر یابند و دادهها دچار ناپایداری شوند.
تاپلها:
بیشتر امن: تاپلها به دلیل غیرقابل تغییر بودن، امنیت دادهها را تضمین میکنند و برای استفاده در موقعیتهایی که نیاز به عدم تغییر دادهها داریم، مناسبتر هستند.
کاربرد (Usage)
لیستها:
زمانی که نیاز به تغییرات مکرر دارید: برای مجموعههایی از دادهها که بهطور مداوم نیاز به اضافه کردن، حذف یا تغییر دارند، لیستها مناسبتر هستند.
تاپلها:
زمانی که نیاز به ثابت ماندن دادهها دارید: برای دادههایی که نباید تغییر کنند، مانند کلیدهای دیکشنری یا مقادیر ثابت در برنامهنویسی.
عملیاتهای مجاز
لیستها:
پشتیبانی از تمام عملیاتهای تغییرپذیری مانند append(), remove(), insert(), pop(), و غیره.
تاپلها:
پشتیبانی از عملیات دسترسی و شمارش عناصر مانند index() و count(), اما بدون قابلیت تغییر.
ترکیب دادهها (Concatenation) و تکرار (Repetition)
هر دو نوع داده از ترکیب و تکرار پشتیبانی میکنند، اما ترکیب و تکرار در تاپلها منجر به ایجاد تاپلهای جدید میشود.
تبدیل بین لیست و تاپل
گاهی اوقات نیاز به تبدیل بین این دو نوع داده وجود دارد.
نتیجهگیری
لیستها برای مواردی مناسب هستند که نیاز به تغییر، اضافه کردن یا حذف عناصر دارید. از لیستها در برنامههایی استفاده کنید که انعطافپذیری دادهها مهم است.
تاپلها برای مواردی مناسب هستند که دادهها باید ثابت بمانند و بهینهسازی عملکرد و استفاده از حافظه مهم است. از تاپلها در مواردی استفاده کنید که دادهها نباید تغییر کنند و امنیت دادهها حائز اهمیت است
@lython
قابلیت تغییر (Mutability)
لیستها:
قابل تغییر (Mutable): لیستها میتوانند پس از ایجاد تغییر کنند؛ میتوانید عناصر را اضافه، حذف یا جایگزین کنید.
my_list = [1, 2, 3]
my_list[0] = 4 # تغییر اولین عنصر
my_list.append(5) # اضافه کردن عنصر جدید
print(my_list) # خروجی: [4, 2, 3, 5]
تاپلها:
غیرقابل تغییر (Immutable): پس از ایجاد یک تاپل، نمیتوانید عناصر آن را تغییر دهید. این ویژگی باعث افزایش کارایی و امنیت دادهها در مواردی میشود که نیاز به تغییرات مکرر ندارند.
my_tuple = (1, 2, 3)
# my_tuple[0] = 4 # این خط خطا میدهد
عملکرد (Performance)
لیستها:
کندتر: به دلیل قابلیت تغییر، لیستها دارای سربار (overhead) بیشتری هستند که میتواند منجر به کاهش کارایی در برخی موارد شود.
تاپلها:
سریعتر: از آنجا که تاپلها غیرقابل تغییر هستند، بهینهتر بوده و سربار کمتری دارند، که منجر به افزایش سرعت عملیات میشود، به خصوص در ساختارهای داده بزرگ.
استفاده حافظه (Memory Usage)
لیستها:
مصرف حافظه بیشتر: به دلیل قابلیت تغییر، لیستها برای مدیریت تغییرات به فضای اضافی نیاز دارند.
تاپلها:
مصرف حافظه کمتر: تاپلها به دلیل غیرقابل تغییر بودن و ساختار سادهتر، معمولاً فضای حافظه کمتری نسبت به لیستها اشغال میکنند.
امنیت داده (Data Integrity)
لیستها:
کمتر امن: از آنجا که لیستها قابل تغییر هستند، ممکن است بهطور ناخواسته تغییر یابند و دادهها دچار ناپایداری شوند.
تاپلها:
بیشتر امن: تاپلها به دلیل غیرقابل تغییر بودن، امنیت دادهها را تضمین میکنند و برای استفاده در موقعیتهایی که نیاز به عدم تغییر دادهها داریم، مناسبتر هستند.
کاربرد (Usage)
لیستها:
زمانی که نیاز به تغییرات مکرر دارید: برای مجموعههایی از دادهها که بهطور مداوم نیاز به اضافه کردن، حذف یا تغییر دارند، لیستها مناسبتر هستند.
my_list = [1, 2, 3]
my_list.append(4)
my_list.remove(2)
print(my_list) # خروجی: [1, 3, 4]
تاپلها:
زمانی که نیاز به ثابت ماندن دادهها دارید: برای دادههایی که نباید تغییر کنند، مانند کلیدهای دیکشنری یا مقادیر ثابت در برنامهنویسی.
my_tuple = (1, 2, 3)
my_dict = {my_tuple: "value"} # استفاده از تاپل به عنوان کلید در دیکشنری
عملیاتهای مجاز
لیستها:
پشتیبانی از تمام عملیاتهای تغییرپذیری مانند append(), remove(), insert(), pop(), و غیره.
تاپلها:
پشتیبانی از عملیات دسترسی و شمارش عناصر مانند index() و count(), اما بدون قابلیت تغییر.
ترکیب دادهها (Concatenation) و تکرار (Repetition)
هر دو نوع داده از ترکیب و تکرار پشتیبانی میکنند، اما ترکیب و تکرار در تاپلها منجر به ایجاد تاپلهای جدید میشود.
# ترکیب
list1 = [1, 2]
list2 = [3, 4]
combined_list = list1 + list2
print(combined_list) # خروجی: [1, 2, 3, 4]
tuple1 = (1, 2)
tuple2 = (3, 4)
combined_tuple = tuple1 + tuple2
print(combined_tuple) # خروجی: (1, 2, 3, 4)
# تکرار
repeated_list = list1 * 3
print(repeated_list) # خروجی: [1, 2, 1, 2, 1, 2]
repeated_tuple = tuple1 * 3
print(repeated_tuple) # خروجی: (1, 2, 1, 2, 1, 2)
تبدیل بین لیست و تاپل
گاهی اوقات نیاز به تبدیل بین این دو نوع داده وجود دارد.
# لیست به تاپل
my_list = [1, 2, 3]
my_tuple = tuple(my_list)
print(my_tuple) # خروجی: (1, 2, 3)
# تاپل به لیست
my_tuple = (1, 2, 3)
my_list = list(my_tuple)
print(my_list) # خروجی: [1, 2, 3]
نتیجهگیری
لیستها برای مواردی مناسب هستند که نیاز به تغییر، اضافه کردن یا حذف عناصر دارید. از لیستها در برنامههایی استفاده کنید که انعطافپذیری دادهها مهم است.
تاپلها برای مواردی مناسب هستند که دادهها باید ثابت بمانند و بهینهسازی عملکرد و استفاده از حافظه مهم است. از تاپلها در مواردی استفاده کنید که دادهها نباید تغییر کنند و امنیت دادهها حائز اهمیت است
@lython
مقاله یکی از همراهان کانال در حیطه فشن و مد منتشر شده علاقمندان به این حوزه میتونین مطالعه و موضوع تحقیقاتی خودتون رو این موضوع انتخاب کنید
▪️ PRFashion24: A Dataset for Sentiment Analysis of Fashion Products Reviews in Persian
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ PRFashion24: A Dataset for Sentiment Analysis of Fashion Products Reviews in Persian
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from A. Ashofteh
در طی چند سال گذشته افتخار داشتم ضمن تدریس در دانشگاه، یکی از چهار مشاور مرکز آمار کشور پرتغال هم باشم. خرسندم به همراه دو نفر دیگر از این مرکز آمار رسمی (دکتر ژوا و دکتر پدرو)، نتیجه بخشی از تحقیقات چهار سال گذشته را در کنفرانس اروپایی کیفیت آمار رسمی 2024 (Q2024) ارایه می کنیم.
تولید آمار رسمی در مورد چگونگی زندگی و دسترسی به کالاها برای گروه های مختلف جامعه بسیار مهم است مخصوصا زمانی که تفاوت های نژادی و قومی و کاهش جمعیت فعال به عنوان یک چالش مهم جمعیتی معاصر می توانند در نتایج مطالعه موثر باشند ولی در اینگونه مطالعات، جمع آوری داده ها برای اقلیت ها و بر اساس خصوصیات قومی و نژادی با چالش هایی همراه است. در این مطالعه، یک بررسی نمونهگیری با کمک روشهای یادگیری ماشین و بیگ دیتا برای کشور پرتغال طراحی شده است و از فناوری های جدید برای غلبه بر این چالش ها استفاده شد و در سه مرحله مطالعه، طراحی، بررسی نمونه گیری اولیه، و بررسی نمونه ای در سطح ملی اجرا شد و نتایج نهایی این مطالعه نیز به زودی توسط این مرکز آمار رسمی منتشر می شود. ما از روشهای خوشهبندی و دادههای سرشماری برای شناسایی متغیرهای اساسی و از روش های داده های فضایی برای تعیین گروه های نمونه گیری همگن برای توزیع حجم نمونه استفاده کردیم. علاوه بر این، مناطق مختلف کشور تقسیمبندی شدند و خوشهها برای به حداقل رساندن خطاهای عدم پاسخ و پوشش مورد تجزیه و تحلیل و بحث قرار گرفتند. روش پیشنهادی یک طرح نمونه گیری بهینه بر مبنای داده های فضایی را با کمک روش های یادگیری ماشین و داده های حجیم (بیگ دیتا) ارایه می دهد و از فناوری های مختلفی مانند سس، آر، اسپارک و اس کیو ال استفاده شد./افشین آشفته
آدرس کنفرانس برای علاقه مندان:
https://www.q2024.pt/
آدرس مجموعه خلاصه مقالات:
https://www.q2024.pt/abstract/book-of-abstracts
تولید آمار رسمی در مورد چگونگی زندگی و دسترسی به کالاها برای گروه های مختلف جامعه بسیار مهم است مخصوصا زمانی که تفاوت های نژادی و قومی و کاهش جمعیت فعال به عنوان یک چالش مهم جمعیتی معاصر می توانند در نتایج مطالعه موثر باشند ولی در اینگونه مطالعات، جمع آوری داده ها برای اقلیت ها و بر اساس خصوصیات قومی و نژادی با چالش هایی همراه است. در این مطالعه، یک بررسی نمونهگیری با کمک روشهای یادگیری ماشین و بیگ دیتا برای کشور پرتغال طراحی شده است و از فناوری های جدید برای غلبه بر این چالش ها استفاده شد و در سه مرحله مطالعه، طراحی، بررسی نمونه گیری اولیه، و بررسی نمونه ای در سطح ملی اجرا شد و نتایج نهایی این مطالعه نیز به زودی توسط این مرکز آمار رسمی منتشر می شود. ما از روشهای خوشهبندی و دادههای سرشماری برای شناسایی متغیرهای اساسی و از روش های داده های فضایی برای تعیین گروه های نمونه گیری همگن برای توزیع حجم نمونه استفاده کردیم. علاوه بر این، مناطق مختلف کشور تقسیمبندی شدند و خوشهها برای به حداقل رساندن خطاهای عدم پاسخ و پوشش مورد تجزیه و تحلیل و بحث قرار گرفتند. روش پیشنهادی یک طرح نمونه گیری بهینه بر مبنای داده های فضایی را با کمک روش های یادگیری ماشین و داده های حجیم (بیگ دیتا) ارایه می دهد و از فناوری های مختلفی مانند سس، آر، اسپارک و اس کیو ال استفاده شد./افشین آشفته
آدرس کنفرانس برای علاقه مندان:
https://www.q2024.pt/
آدرس مجموعه خلاصه مقالات:
https://www.q2024.pt/abstract/book-of-abstracts
www.q2024.pt
European Conference on Quality in Official Statistics 2024
Welcome to the European Conference on Quality in Official Statistics, which brings together statisticians, academics, and external stakeholders to foster the dissemination of knowledge and research on emerging issues related to quality in official statistics.
Forwarded from Ali (Ali Najafi)
خب سلامی دوباره!
Engineer
یا همون مهندس خودمون، یک شخص practitioner هستش
یعنی اینکه ایده رو به عمل میرسونه!
مثلا ساخت و تولید یک چیزی!
حالا شاید شما بپرسید که خب طرف نمیشینه این رو فکر کنه که چطوری بسازه و فلان؟!
جواب اینکه فکر میکنه که چطوری بسازه و به عمل برسونه اما! سوال نمیپرسه!!!!!!!!!!!!!
سوال پرسیدن سخته!
قاضی بودن سخته!
بزارید با یه مثالی این قضیه رو براتون بشکنم.
مثالم میشه همین ChatGPT که یهو ترکید و همه ازش حرف زدن.
تکنولوژی و علم ساخت ChatGPT از سال 2015 بوده، اما ما ChatGPT رو اون موقع ندیدیم
Engineer
های محترم اومدن و با داشتن ایده و علم که بوده( نه شاید متمرکز) با گرفتن Consulting از researcher های محترم
تونستن تحت عنوان شرکت OpenAI این محصول(ChatGPT) رو بسازن و ما شاهد این زیبایی باشیم.
ریسرچر فقط به رسیدن جواب بسنده نمیکنه!
میشینه فکر میکنه که چرا این جواب ها بیرون اومدن
یا اصلا چرا جواب درست شد
سوال میپرسه و از سوال پرسیدن دست نمیکشه و اینطوری هستش که دنیای علم بزرگ و بزرگ تر میشه
یه مثال دیگه میشه هم این باشه که یه دولوپر وبسایت میاد میسازه یه محصولی رو بلی روی ساختش فکر میکنه
اما تکنولوژی ساخت وبسایت رو ایشون پیدا نکرده. بلکه توسط اشخاصی(ریسرچر های حوزه وب) بالا اومده و این دولوپر از نتیجه کار اون ها استفاده میکنه
و یک وبسایت رو ایجاد میکنه.
من فارسیم زیاد خوب نیست اگر غلط املایی بوده باشه از قبل عذرخواهی میکنم.
@css_nlp
Engineer
یا همون مهندس خودمون، یک شخص practitioner هستش
یعنی اینکه ایده رو به عمل میرسونه!
مثلا ساخت و تولید یک چیزی!
حالا شاید شما بپرسید که خب طرف نمیشینه این رو فکر کنه که چطوری بسازه و فلان؟!
جواب اینکه فکر میکنه که چطوری بسازه و به عمل برسونه اما! سوال نمیپرسه!!!!!!!!!!!!!
سوال پرسیدن سخته!
قاضی بودن سخته!
بزارید با یه مثالی این قضیه رو براتون بشکنم.
مثالم میشه همین ChatGPT که یهو ترکید و همه ازش حرف زدن.
تکنولوژی و علم ساخت ChatGPT از سال 2015 بوده، اما ما ChatGPT رو اون موقع ندیدیم
Engineer
های محترم اومدن و با داشتن ایده و علم که بوده( نه شاید متمرکز) با گرفتن Consulting از researcher های محترم
تونستن تحت عنوان شرکت OpenAI این محصول(ChatGPT) رو بسازن و ما شاهد این زیبایی باشیم.
ریسرچر فقط به رسیدن جواب بسنده نمیکنه!
میشینه فکر میکنه که چرا این جواب ها بیرون اومدن
یا اصلا چرا جواب درست شد
سوال میپرسه و از سوال پرسیدن دست نمیکشه و اینطوری هستش که دنیای علم بزرگ و بزرگ تر میشه
یه مثال دیگه میشه هم این باشه که یه دولوپر وبسایت میاد میسازه یه محصولی رو بلی روی ساختش فکر میکنه
اما تکنولوژی ساخت وبسایت رو ایشون پیدا نکرده. بلکه توسط اشخاصی(ریسرچر های حوزه وب) بالا اومده و این دولوپر از نتیجه کار اون ها استفاده میکنه
و یک وبسایت رو ایجاد میکنه.
من فارسیم زیاد خوب نیست اگر غلط املایی بوده باشه از قبل عذرخواهی میکنم.
@css_nlp
Forwarded from AI DeepMind (Farzad 🦅)
This media is not supported in your browser
VIEW IN TELEGRAM
این استاد سابق دانشگاه هاروارد خیلی جالب آینده پروگرمینگ و تغییر جهت به سمت آموزش llm ها برای یادگیری مهارتهای مختلف از جمله برنامه نویسی را توضیح میده. اینک ویدیو کامل هم هست.
https://m.youtube.com/watch?v=JhCl-GeT4jw&t=252s&ab_channel=CS50
#مقاله #منابع #ایده_جذاب #فیلم #کلاس_آموزشی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://m.youtube.com/watch?v=JhCl-GeT4jw&t=252s&ab_channel=CS50
#مقاله #منابع #ایده_جذاب #فیلم #کلاس_آموزشی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
This media is not supported in your browser
VIEW IN TELEGRAM
How can an RL agent successfully solve a task while showcasing versatility of behaviors a property intuitive to intelligent systems like humans?
▪️ Learning Multimodal Behaviors from Scratch with Diffusion Policy Gradient
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Learning Multimodal Behaviors from Scratch with Diffusion Policy Gradient
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Can an emerging field called ‘neural systems understanding’ explain the brain?
This mashup of neuroscience, artificial intelligence and even linguistics and philosophy of mind aims to crack the deep question of what “understanding” is, however un-brain-like its models may be.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
This mashup of neuroscience, artificial intelligence and even linguistics and philosophy of mind aims to crack the deep question of what “understanding” is, however un-brain-like its models may be.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
محدودیت معماری ترنسفورمر
▪️ On Limitation of Transformer for Learning HMMs
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ On Limitation of Transformer for Learning HMMs
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
arXiv.org
On Limitation of Transformer for Learning HMMs
Despite the remarkable success of Transformer-based architectures in various sequential modeling tasks, such as natural language processing, computer vision, and robotics, their ability to learn...
Safety Alignment Should Be Made More Than Just a Few Tokens Deep
1. Crrent LLM safety alignment is only a few tokens deep.
2. Deepening the safety alignment can make it more robust against multiple jailbreak attacks.
3. Protecting initial token positions can make the alignment more robust against fine-tuning attacks.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
1. Crrent LLM safety alignment is only a few tokens deep.
2. Deepening the safety alignment can make it more robust against multiple jailbreak attacks.
3. Protecting initial token positions can make the alignment more robust against fine-tuning attacks.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
As an alternative to RLHF and adversarial training, we released short-circuiting.
It makes models ~100x more robust. It works for LLMs, multimodal models, and agents.
Unlike before, I now think robustly stopping models from generating harmful outputs may be highly tractable and not hopeless.
▪️ Improving Alignment and Robustness with Short Circuiting
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
It makes models ~100x more robust. It works for LLMs, multimodal models, and agents.
Unlike before, I now think robustly stopping models from generating harmful outputs may be highly tractable and not hopeless.
▪️ Improving Alignment and Robustness with Short Circuiting
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
GPTs are generating sequences in a left-to-right order. Is there another way?
▪️ σ-GPTs: A New Approach to Autoregressive Models
▪️ Project
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ σ-GPTs: A New Approach to Autoregressive Models
▪️ Project
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
در آپدیت جدید مرورگر Opera با فریمورک Ollama کار میکنه
این یعنی هر کسی که دانش برنامه نویسی نداره الان میتونه به مدل های اپن سورس دسترسی داشته باشه و هزینه ای پرداخت نکنه.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این یعنی هر کسی که دانش برنامه نویسی نداره الان میتونه به مدل های اپن سورس دسترسی داشته باشه و هزینه ای پرداخت نکنه.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
BERTs are not dead!
▪️ BERTs are Generative In-Context Learners
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ BERTs are Generative In-Context Learners
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Andrej Karpathy:
▪️ Let’s reproduce GPT-2 (124M)
The video ended up so long because it is... comprehensive: we start with empty file and end up with a GPT-2 (124M) model:
- first we build the GPT-2 network
- then we optimize it to train very fast
- then we set up the training run optimization and hyperparameters by referencing GPT-2 and GPT-3 papers
- then we bring up model evaluation, and
- then cross our fingers and go to sleep.
In the morning we look through the results and enjoy amusing model generations. Our "overnight" run even gets very close to the GPT-3 (124M) model. This video builds on the Zero To Hero series and at times references previous videos. You could also see this video as building my nanoGPT repo, which by the end is about 90% similar.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Let’s reproduce GPT-2 (124M)
The video ended up so long because it is... comprehensive: we start with empty file and end up with a GPT-2 (124M) model:
- first we build the GPT-2 network
- then we optimize it to train very fast
- then we set up the training run optimization and hyperparameters by referencing GPT-2 and GPT-3 papers
- then we bring up model evaluation, and
- then cross our fingers and go to sleep.
In the morning we look through the results and enjoy amusing model generations. Our "overnight" run even gets very close to the GPT-3 (124M) model. This video builds on the Zero To Hero series and at times references previous videos. You could also see this video as building my nanoGPT repo, which by the end is about 90% similar.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person