So'ngi 10 yillik sun'iy itellektning (AI) tahlili
2-qism. AlexNet va Variational Autoencoders (2013) (davomi)
AlexNet neuron tarmog'ida, mualliflar (Alex Krizhevsky va boshqalar) beshta konvolyutsion qatlam va uchta to'liq bog'langan chiziqli qatlamdan iborat chuqur CNNni qo'lladilar(Tarmoq dizyni quyidagi rasmda 👇). O'sha paytdagi birinchi yangi neyron tarmoq dizayni edi. Bundan tashqari, tarmoq tomonidan ishlab chiqarilgan ko'p sonli parametrlar tufayli o'qitish ikkita grafik ishlov berish blokida (GPU) parallel ravishda amalga oshirildi, bu katta ma'lumotlar to'plamlarida o'qitishni sezilarli darajada tezlashtirish qobiliyatini namoyish etdi. Mualliflar, o'sha paytda an'anada bo'lgan Sigmoid va tanh kabi activation funktsiyalarini ulardan samaraliroq bo'lgan rektifikatsiya qilingan chiziqli birlikka (ReLU) almashtirish orqali o'qitish vaqti (training time) yanada qisqartirildi.
AlexNet muvaffaqiyatiga olib kelgan ushbu yutuqlar sun'iy intellekt tarixida burilish nuqtasi bo'ldi va akademiklar va texnologiya hamjamiyatida Deep Learning-ga qiziqish uyg'otdi. Natijada, 2013 yil ko'pchilik tomonidan Deep Learning haqiqatan ham rivojlana boshlagan burilish nuqtasi sifatida qabul qilinadi.
2013-yilda AlexNet soyasida qolib ketgandek tuyulgan bo'lsada, tasvir va tovushlar kabi ma’lumotlarni taqdim etish va yaratishni o‘rgana oladigan variatsion avtoencoder-lar yoki VAE’lar ishlab chiqildi (Quyidagi ikkinchi rasm 👇). Ular yashirin makon (latent space) deb nomlanuvchi past o'lchamli fazoda kirish ma'lumotlarining siqilgan tasvirini o'rganish orqali ishlaydi. Bu ularga ushbu o'rganilgan yashirin makondan namuna olish orqali yangi ma'lumotlarni yaratishga imkon beradi. Keyinchalik VAE san'at, dizayn va o'yin kabi sohalardagi ilovalar bilan generativ modellashtirish va ma'lumotlarni ishlab chiqarish uchun yangi yo'llarni ochdi.
@machine_learning_lab
2-qism. AlexNet va Variational Autoencoders (2013) (davomi)
AlexNet neuron tarmog'ida, mualliflar (Alex Krizhevsky va boshqalar) beshta konvolyutsion qatlam va uchta to'liq bog'langan chiziqli qatlamdan iborat chuqur CNNni qo'lladilar(Tarmoq dizyni quyidagi rasmda 👇). O'sha paytdagi birinchi yangi neyron tarmoq dizayni edi. Bundan tashqari, tarmoq tomonidan ishlab chiqarilgan ko'p sonli parametrlar tufayli o'qitish ikkita grafik ishlov berish blokida (GPU) parallel ravishda amalga oshirildi, bu katta ma'lumotlar to'plamlarida o'qitishni sezilarli darajada tezlashtirish qobiliyatini namoyish etdi. Mualliflar, o'sha paytda an'anada bo'lgan Sigmoid va tanh kabi activation funktsiyalarini ulardan samaraliroq bo'lgan rektifikatsiya qilingan chiziqli birlikka (ReLU) almashtirish orqali o'qitish vaqti (training time) yanada qisqartirildi.
AlexNet muvaffaqiyatiga olib kelgan ushbu yutuqlar sun'iy intellekt tarixida burilish nuqtasi bo'ldi va akademiklar va texnologiya hamjamiyatida Deep Learning-ga qiziqish uyg'otdi. Natijada, 2013 yil ko'pchilik tomonidan Deep Learning haqiqatan ham rivojlana boshlagan burilish nuqtasi sifatida qabul qilinadi.
2013-yilda AlexNet soyasida qolib ketgandek tuyulgan bo'lsada, tasvir va tovushlar kabi ma’lumotlarni taqdim etish va yaratishni o‘rgana oladigan variatsion avtoencoder-lar yoki VAE’lar ishlab chiqildi (Quyidagi ikkinchi rasm 👇). Ular yashirin makon (latent space) deb nomlanuvchi past o'lchamli fazoda kirish ma'lumotlarining siqilgan tasvirini o'rganish orqali ishlaydi. Bu ularga ushbu o'rganilgan yashirin makondan namuna olish orqali yangi ma'lumotlarni yaratishga imkon beradi. Keyinchalik VAE san'at, dizayn va o'yin kabi sohalardagi ilovalar bilan generativ modellashtirish va ma'lumotlarni ishlab chiqarish uchun yangi yo'llarni ochdi.
@machine_learning_lab
👍6👏2
Numpy darslari (Python) 2-dars. | Datatype, Copy vs View, Reshape, Iterating |
https://youtu.be/JhvVEAKDN7Q
https://youtu.be/JhvVEAKDN7Q
YouTube
Numpy darslari (Python) 2-dars. | Datatype, Copy vs View, Reshape, Iterating |
Ushbu videoda siz NumPy kutubxonasida ma'lumot turlari, nusxalash, o'chamlarni o'zgartirish va tekshirish va bir nechta metodlar haqida tushunchaga ega bo'lasiz
Bizni telegram ijtimoiy tarmog'ida ham kuzatib boring.
Link: https://t.me/machine_learning_lab
Bizni telegram ijtimoiy tarmog'ida ham kuzatib boring.
Link: https://t.me/machine_learning_lab
👍7🔥1
So'ngi 10 yillik sun'iy itellektning (AI) tahlili
3-qism. Generative Adversarial Networks (2014)
Keyingi yili, 2014 yil iyun oyida DL sohasi Ian Goodfellow va uning hamkasblari tomonidan Generative Adversarial Networks yoki GAN-larni joriy etish bilan yana bir ulkan muvaffaqiyatga guvoh bo'ldi.
GAN - bu mavjud ma'lumotlarga o'xshash yangi ma'lumotlar namunalarini yaratishga qodir bo'lgan neyron tarmoq turi. Asosan, ikkita tarmoq bir vaqtning o'zida o'qitiladi: (1) generator tarmog'i soxta yoki sintetik namunalarni yaratadi va (2) discriminator tarmog'i ularning haqiqiyligini baholaydi. Ushbu o'qitish jarayoni quyidagicha amalga oshiriladi, generator discriminator-ni aldaydigan namunalarni yaratishga harakat qiladi va discriminator soxta namunalarni klassifikatsiya qiladi. Bu jarayon discriminator soxta namunalarni real namunalar deb klassifikatsiyalagunicha davom etadi. (Rasm quyida 👇)
O'sha paytda GAN-lar nafaqat tasvir va videolarni, balki musiqa va san'at namunalarini yaratish uchun ham foydalanilgan ma'lumotlarni yaratish uchun kuchli va yangi vosita edi. Ular, shuningdek, aniq yorliqlarga (labels) tayanmasdan yuqori sifatli ma'lumotlar namunalarini yaratish imkoniyatini namoyish qilish orqali, asosan, kam rivojlangan va qiyin deb hisoblangan domen bo'lgan nazoratsiz ta'limning (unsupervised learning) rivojlanishiga hissa qo'shdilar.
@machine_learning_lab
3-qism. Generative Adversarial Networks (2014)
Keyingi yili, 2014 yil iyun oyida DL sohasi Ian Goodfellow va uning hamkasblari tomonidan Generative Adversarial Networks yoki GAN-larni joriy etish bilan yana bir ulkan muvaffaqiyatga guvoh bo'ldi.
GAN - bu mavjud ma'lumotlarga o'xshash yangi ma'lumotlar namunalarini yaratishga qodir bo'lgan neyron tarmoq turi. Asosan, ikkita tarmoq bir vaqtning o'zida o'qitiladi: (1) generator tarmog'i soxta yoki sintetik namunalarni yaratadi va (2) discriminator tarmog'i ularning haqiqiyligini baholaydi. Ushbu o'qitish jarayoni quyidagicha amalga oshiriladi, generator discriminator-ni aldaydigan namunalarni yaratishga harakat qiladi va discriminator soxta namunalarni klassifikatsiya qiladi. Bu jarayon discriminator soxta namunalarni real namunalar deb klassifikatsiyalagunicha davom etadi. (Rasm quyida 👇)
O'sha paytda GAN-lar nafaqat tasvir va videolarni, balki musiqa va san'at namunalarini yaratish uchun ham foydalanilgan ma'lumotlarni yaratish uchun kuchli va yangi vosita edi. Ular, shuningdek, aniq yorliqlarga (labels) tayanmasdan yuqori sifatli ma'lumotlar namunalarini yaratish imkoniyatini namoyish qilish orqali, asosan, kam rivojlangan va qiyin deb hisoblangan domen bo'lgan nazoratsiz ta'limning (unsupervised learning) rivojlanishiga hissa qo'shdilar.
@machine_learning_lab
👍5🔥1
So'ngi 10 yillik sun'iy itellektning (AI) tahlili
4-qism. ResNet va NLP yutuqlari (2015)
2015 yilda sun'iy intellekt sohasi ham Computer Vision (CV), ham NLP sohasida sezilarli yutuqlarga erishdi.
Kaiming He va uning hamkasblari “Deep Residual Learning for Image Recognition” nomli maqolani nashr etishdi, unda ular residual neyron tarmoqlari yoki ResNets arxitekturasi – yorliqlar qo‘shish orqali ma’lumotlarning tarmoq orqali osonroq oqishini ta’minlaydigan arxitektura tushunchasini taqdim etdilar. Har bir qatlam oldingi qatlamning chiqishini kirish sifatida qabul qiladigan oddiy neyron tarmoqdan farqli o'laroq, ResNet-da bir yoki bir nechta qatlamlarni o'tkazib yuboradigan va tarmoqdagi chuqurroq qatlamlarga to'g'ridan-to'g'ri ulanadigan qo'shimcha qoldiq ulanishlar qo'shiladi.
Natijada, ResNets yo'qolib borayotgan gradientlar muammosini hal qila oldi, bu esa o'sha paytda mumkin bo'lganidan ancha chuqurroq neyron tarmoqlarni o'rgatish imkonini berdi. Bu, o'z navbatida, tasvirni tasniflash va ob'ektni aniqlash vazifalarida sezilarli yaxshilanishlarga olib keldi.
Taxminan bir vaqtning o'zida tadqiqotchilar Recurrent Neural Network (RNN) va Long Short-Term Memory (LSTM) modellarini ishlab chiqishda sezilarli yutuqlarga erishdilar. Bu modellar 1990-yillardan beri mavjud bo'lishiga qaramay, bu modellar faqat 2015 yil atrofida shov-shuvlarni keltirib chiqara boshladi. Bunga (1) o'qitish uchun kattaroq va xilma-xil ma'lumotlar to'plamining mavjudligi hamda (2) hisoblash quvvati va apparat ta'minotining yaxshilanishi (zamonaviy CPU va GPU) kabi omillar sabab bo'ldi va bu omillar chuqurroq va murakkabroq modellarni o'qitish imkonini berdi.
Natijada, ushbu arxitekturalar til modellariga matnning konteksi va ma'nosini yaxshiroq tushunish imkonini berdi, bu esa tilni tarjima qilish, matn yaratish va hissiyotlarni tahlil qilish kabi vazifalarni sezilarli darajada yaxshilashga olib keldi. O'sha paytdagi RNN va LSTM-larning muvaffaqiyati bugungi kunda biz ko'rib turgan katta til modellarining (LLM) rivojlanishiga yo'l ochdi.
@machine_learning_lab
4-qism. ResNet va NLP yutuqlari (2015)
2015 yilda sun'iy intellekt sohasi ham Computer Vision (CV), ham NLP sohasida sezilarli yutuqlarga erishdi.
Kaiming He va uning hamkasblari “Deep Residual Learning for Image Recognition” nomli maqolani nashr etishdi, unda ular residual neyron tarmoqlari yoki ResNets arxitekturasi – yorliqlar qo‘shish orqali ma’lumotlarning tarmoq orqali osonroq oqishini ta’minlaydigan arxitektura tushunchasini taqdim etdilar. Har bir qatlam oldingi qatlamning chiqishini kirish sifatida qabul qiladigan oddiy neyron tarmoqdan farqli o'laroq, ResNet-da bir yoki bir nechta qatlamlarni o'tkazib yuboradigan va tarmoqdagi chuqurroq qatlamlarga to'g'ridan-to'g'ri ulanadigan qo'shimcha qoldiq ulanishlar qo'shiladi.
Natijada, ResNets yo'qolib borayotgan gradientlar muammosini hal qila oldi, bu esa o'sha paytda mumkin bo'lganidan ancha chuqurroq neyron tarmoqlarni o'rgatish imkonini berdi. Bu, o'z navbatida, tasvirni tasniflash va ob'ektni aniqlash vazifalarida sezilarli yaxshilanishlarga olib keldi.
Taxminan bir vaqtning o'zida tadqiqotchilar Recurrent Neural Network (RNN) va Long Short-Term Memory (LSTM) modellarini ishlab chiqishda sezilarli yutuqlarga erishdilar. Bu modellar 1990-yillardan beri mavjud bo'lishiga qaramay, bu modellar faqat 2015 yil atrofida shov-shuvlarni keltirib chiqara boshladi. Bunga (1) o'qitish uchun kattaroq va xilma-xil ma'lumotlar to'plamining mavjudligi hamda (2) hisoblash quvvati va apparat ta'minotining yaxshilanishi (zamonaviy CPU va GPU) kabi omillar sabab bo'ldi va bu omillar chuqurroq va murakkabroq modellarni o'qitish imkonini berdi.
Natijada, ushbu arxitekturalar til modellariga matnning konteksi va ma'nosini yaxshiroq tushunish imkonini berdi, bu esa tilni tarjima qilish, matn yaratish va hissiyotlarni tahlil qilish kabi vazifalarni sezilarli darajada yaxshilashga olib keldi. O'sha paytdagi RNN va LSTM-larning muvaffaqiyati bugungi kunda biz ko'rib turgan katta til modellarining (LLM) rivojlanishiga yo'l ochdi.
@machine_learning_lab
👍6🔥3
Sun’iy intelekt odamlarga juda ko’p jabhalarda yordamchi bo’lib xizmat qilayapti lekin din masalasida yoki taqvo masalasida sun’iy intelektni integratsiya qilib unga ishonishni to’g’ri deb bilmayman. Chunki bu juda jiddiy masala oddiy kichik bir xato katta narsalarga sabab bo’lib qolishi mumkin.
@machine_learning_lab
@machine_learning_lab
👍6💯3
#researchpaper #ilmiy_maqola
Hurmatli ML engineerlar! Sizlarga shuni mamnuniyat bilan ma'lum qilamanki bizni navbatdagi ilmiy maqolamiz xalqaro nufuzli ilmiy jurnallardan birida chop etildi. Alhamdulillah.
Bunda meni qo'llab quvvatlagan barchaga o'z minnatdorchiligimni bildiraman jumladan google, google scholar, youtube, ChatCPT va hakozolar (ALbatda hazil 😉😂)
Maqola nomi: "Performance Analysis of Time Series Deep Learning Models for Climate Prediction in Indoor Hydroponic Greenhouses at Different Time Intervals"
Ilmiy Journal: Plants (SCIE, IF:4.66)
👉 @machine_learning_lab
Hurmatli ML engineerlar! Sizlarga shuni mamnuniyat bilan ma'lum qilamanki bizni navbatdagi ilmiy maqolamiz xalqaro nufuzli ilmiy jurnallardan birida chop etildi. Alhamdulillah.
Bunda meni qo'llab quvvatlagan barchaga o'z minnatdorchiligimni bildiraman jumladan google, google scholar, youtube, ChatCPT va hakozolar (ALbatda hazil 😉😂)
Maqola nomi: "Performance Analysis of Time Series Deep Learning Models for Climate Prediction in Indoor Hydroponic Greenhouses at Different Time Intervals"
Ilmiy Journal: Plants (SCIE, IF:4.66)
👉 @machine_learning_lab
🎉9👍1
So'ngi 10 yillik sun'iy itellektning (AI) tahlili
5-qism. AlphaGo (2016)
1997-yilda Garri Kasparov IBMning Deep Blue kompaniyasi tomonidan mag‘lubiyatga uchraganidan so‘ng, 2016-yilda yana bir inson va mashina jangi o‘yin dunyosini hayratda qoldirdi: Google’ning AlphaGo kompaniyasi Go bo‘yicha jahon chempioni Li Sedolni mag‘lub etdi.
Go o'yinining taxtasi va toshlarini quyidagi rasmda tasvirlangan 👇.
Sedolning mag'lubiyati sun'iy intellekt taraqqiyoti traektoriyasidagi yana bir muhim bosqich bo'ldi: bu mashinalar bir paytlar kompyuterlar uchun juda murakkab hisoblangan o'yinda hatto eng malakali inson o'yinchilarni ham ortda qoldirishi mumkinligini ko'rsatdi. Deep Reinforcement Learning va Monte-Karlo (tree search) metodi kombinatsiyasidan foydalangan holda, AlphaGo oldingi o'yinlardagi millionlab pozitsiyalarni tahlil qiladi va mumkin bo'lgan eng yaxshi harakatlarni baholaydi - bu strategiya bu kontekstda inson qarorlarini qabul qilishdan ancha ustundir.
👉 @machine_learning_lab
5-qism. AlphaGo (2016)
1997-yilda Garri Kasparov IBMning Deep Blue kompaniyasi tomonidan mag‘lubiyatga uchraganidan so‘ng, 2016-yilda yana bir inson va mashina jangi o‘yin dunyosini hayratda qoldirdi: Google’ning AlphaGo kompaniyasi Go bo‘yicha jahon chempioni Li Sedolni mag‘lub etdi.
Go o'yinining taxtasi va toshlarini quyidagi rasmda tasvirlangan 👇.
Sedolning mag'lubiyati sun'iy intellekt taraqqiyoti traektoriyasidagi yana bir muhim bosqich bo'ldi: bu mashinalar bir paytlar kompyuterlar uchun juda murakkab hisoblangan o'yinda hatto eng malakali inson o'yinchilarni ham ortda qoldirishi mumkinligini ko'rsatdi. Deep Reinforcement Learning va Monte-Karlo (tree search) metodi kombinatsiyasidan foydalangan holda, AlphaGo oldingi o'yinlardagi millionlab pozitsiyalarni tahlil qiladi va mumkin bo'lgan eng yaxshi harakatlarni baholaydi - bu strategiya bu kontekstda inson qarorlarini qabul qilishdan ancha ustundir.
👉 @machine_learning_lab
👍5
So'ngi 10 yillik sun'iy itellektning (AI) tahlili
6-qism. Transformer va Til (Language) Modellari (2017)
Aytish mumkinki, 2017 yil biz guvohi bo'layotgan generativ AI sohasidagi yutuqlar uchun poydevor qo'ygan eng muhim yil bo'ldi.
2017-yil dekabr oyida Vaswani va uning hamkasblari “Attention is all you need” nomli asosiy ilmiy maqolani nashr etishdi, unda encoder va decoder qismlarini o'z ichiga oluvchi transformer arxitekturasi taqdim etildi (Quyidagi rasm 👇). Bu ilgari an'anaviy RNN arxitekturalari uchun qiyin bo'lgan ayrim muammolarni yanada samarali qayta ishlash imkonini berdi.
Bu ilgari surilgan model avvalgi modellardan RNN, LSTM lardan ko'ra jumladagi so'zlarni o'zaro bog'liqligini o'rganishda sezilarli darajada samarali ekani ushbu maqolada isbotlandi.
O'shandan beri transformer arxitekturasi LLMni rivojlantirishning asosiy komponentiga aylandi va NLP sohasida tarjimonlik, tilni modellashtirish va savollarga javob berish kabi yo'nalishlarida sezilarli o'sishlarga olib keldi.
👉 @machine_learning_lab
6-qism. Transformer va Til (Language) Modellari (2017)
Aytish mumkinki, 2017 yil biz guvohi bo'layotgan generativ AI sohasidagi yutuqlar uchun poydevor qo'ygan eng muhim yil bo'ldi.
2017-yil dekabr oyida Vaswani va uning hamkasblari “Attention is all you need” nomli asosiy ilmiy maqolani nashr etishdi, unda encoder va decoder qismlarini o'z ichiga oluvchi transformer arxitekturasi taqdim etildi (Quyidagi rasm 👇). Bu ilgari an'anaviy RNN arxitekturalari uchun qiyin bo'lgan ayrim muammolarni yanada samarali qayta ishlash imkonini berdi.
Bu ilgari surilgan model avvalgi modellardan RNN, LSTM lardan ko'ra jumladagi so'zlarni o'zaro bog'liqligini o'rganishda sezilarli darajada samarali ekani ushbu maqolada isbotlandi.
O'shandan beri transformer arxitekturasi LLMni rivojlantirishning asosiy komponentiga aylandi va NLP sohasida tarjimonlik, tilni modellashtirish va savollarga javob berish kabi yo'nalishlarida sezilarli o'sishlarga olib keldi.
👉 @machine_learning_lab
👍4🔥1
Ushbu maqolada Issiqxonaning havo parametrlarini yani temperaturasi, hamligi va karbonat angedrid gazlarini darajasini keyingi turli vaqt oraliqlarida bashorat qilishda optimal AI modellari tahlili muhokama qilingan. Yuqoridagi video o'sha issiqxonamiz haqidagi loyiha haqida qisqacha edi.
P.s. Agar qiziq bo'lsa reaksiya qoldiringlar ( 👍 ) ushbu mini issiqxona haqida batafsil video qilaman.
👉 @machine_learning_lab
Telegram
Machine Learning Lab.
#researchpaper #ilmiy_maqola
Hurmatli ML engineerlar! Sizlarga shuni mamnuniyat bilan ma'lum qilamanki bizni navbatdagi ilmiy maqolamiz xalqaro nufuzli ilmiy jurnallardan birida chop etildi. Alhamdulillah.
Bunda meni qo'llab quvvatlagan barchaga o'z…
Hurmatli ML engineerlar! Sizlarga shuni mamnuniyat bilan ma'lum qilamanki bizni navbatdagi ilmiy maqolamiz xalqaro nufuzli ilmiy jurnallardan birida chop etildi. Alhamdulillah.
Bunda meni qo'llab quvvatlagan barchaga o'z…
👍11
#tavsiya
AI yoki boshqa har qanday sohada nazariy bilimga ega bo'lishni o'zi kifoya qilmaydi albatda. Shu bilan birga amaliy bilimga ega bo'lish juda muhimdir va bu kelajakda kasb egallashda asosiy kalit bo'lib ro'l o'ynashi ham mumkin.
AI/DL/ML/DS sohada o'qiyotgan yoki qiziquvchilarning aksariyati "Qanday loyihalarni qilish mumkin?" degan umumiy savolga duch kelishadi. Shunday qilib, ushbu repo sizga kod bilan birga ML, DL, NLP, AI bo'yicha 500 dan ortiq loyihalarni o'z ichiga olgan eng muhim ro'yxatlardan birini taqdim etadi.
Bu amaliy bilimga ega bo'lishni xohlaydigan yoki o'z rezyumelari uchun loyihalar yaratmoqchi bo'lganlar uchun juda foydali.
👉 @machine_learning_lab
AI yoki boshqa har qanday sohada nazariy bilimga ega bo'lishni o'zi kifoya qilmaydi albatda. Shu bilan birga amaliy bilimga ega bo'lish juda muhimdir va bu kelajakda kasb egallashda asosiy kalit bo'lib ro'l o'ynashi ham mumkin.
AI/DL/ML/DS sohada o'qiyotgan yoki qiziquvchilarning aksariyati "Qanday loyihalarni qilish mumkin?" degan umumiy savolga duch kelishadi. Shunday qilib, ushbu repo sizga kod bilan birga ML, DL, NLP, AI bo'yicha 500 dan ortiq loyihalarni o'z ichiga olgan eng muhim ro'yxatlardan birini taqdim etadi.
Bu amaliy bilimga ega bo'lishni xohlaydigan yoki o'z rezyumelari uchun loyihalar yaratmoqchi bo'lganlar uchun juda foydali.
👉 @machine_learning_lab
GitHub
GitHub - ashishpatel26/500-AI-Machine-learning-Deep-learning-Computer-vision-NLP-Projects-with-code: 500 AI Machine learning Deep…
500 AI Machine learning Deep learning Computer vision NLP Projects with code - ashishpatel26/500-AI-Machine-learning-Deep-learning-Computer-vision-NLP-Projects-with-code
👍8🔥2
So'ngi 10 yillik sun'iy itellektning (AI) tahlili
7-qism. GPT-1 va Graph Neural Network (2018)
Transformer arxitekturasini ilgari surgan olim Vaswani va uning hamkasblari bir necha oy o'tib, 2018 yilda OpenAI tomonidan taqdim etilgan Generative Pretrained Transformer yoki GPT-1 ni asosi bo'lgan ilmiy maqolasini nashr etishdi. U matndagi keng kontekstdagi matnlar so'zlarini o'zaro bog'liqliklarni samarali o'rganish uchun transformer arxitekturasidan foydalangan. GPT-1 NLP vazifalarida eng samarodorli natija ko'rsatadigan birinchi modellardan biri edi.
2018 yil oxirlariga kelib Google kompaniyasi GPT-1 yutuqlaridan ilhomlangan holda yangi transformer arxitexturasini (Bidirectional Encoder Representations from Transformers yoki BERT) ilgari surdi.
O'sha yili GPT-1 va BERTdan tashqari, Grafik Neural Networks yoki GNNlar ham "to'palang" qildi. Ular grafik ma'lumotlar bilan ishlash uchun maxsus ishlab chiqilgan neyron tarmoqlar toifasiga kiradi. GNNlar ma'lumotni grafikning tugunlari va qirralari bo'ylab tarqatish uchun xabarlarni uzatish algoritmidan foydalanadilar. Bu tarmoqqa ma'lumotlarning tuzilishi va munosabatlarini ancha intuitiv tarzda o'rganish imkonini beradi. (GNN arxitekturasi quyidagi rasmda tasvirlangan 👇)
Bu yo'l ma'lumotlardan ancha chuqurroq tushunchalarni olish imkonini berdi va natijada DLni qo'llash mumkin bo'lgan muammolar doirasini kengaytirdi. GNN yordamida ijtimoiy tarmoqlarni tahlil qilish, tavsiyalar berish tizimlari va giyohvand moddalarni topish kabi sohalarda katta yutuqlarga erishildi.
GNN haqida batafsil bu yerda o'qishingiz mumkin. (in English language)
@machine_learning_lab
7-qism. GPT-1 va Graph Neural Network (2018)
Transformer arxitekturasini ilgari surgan olim Vaswani va uning hamkasblari bir necha oy o'tib, 2018 yilda OpenAI tomonidan taqdim etilgan Generative Pretrained Transformer yoki GPT-1 ni asosi bo'lgan ilmiy maqolasini nashr etishdi. U matndagi keng kontekstdagi matnlar so'zlarini o'zaro bog'liqliklarni samarali o'rganish uchun transformer arxitekturasidan foydalangan. GPT-1 NLP vazifalarida eng samarodorli natija ko'rsatadigan birinchi modellardan biri edi.
2018 yil oxirlariga kelib Google kompaniyasi GPT-1 yutuqlaridan ilhomlangan holda yangi transformer arxitexturasini (Bidirectional Encoder Representations from Transformers yoki BERT) ilgari surdi.
O'sha yili GPT-1 va BERTdan tashqari, Grafik Neural Networks yoki GNNlar ham "to'palang" qildi. Ular grafik ma'lumotlar bilan ishlash uchun maxsus ishlab chiqilgan neyron tarmoqlar toifasiga kiradi. GNNlar ma'lumotni grafikning tugunlari va qirralari bo'ylab tarqatish uchun xabarlarni uzatish algoritmidan foydalanadilar. Bu tarmoqqa ma'lumotlarning tuzilishi va munosabatlarini ancha intuitiv tarzda o'rganish imkonini beradi. (GNN arxitekturasi quyidagi rasmda tasvirlangan 👇)
Bu yo'l ma'lumotlardan ancha chuqurroq tushunchalarni olish imkonini berdi va natijada DLni qo'llash mumkin bo'lgan muammolar doirasini kengaytirdi. GNN yordamida ijtimoiy tarmoqlarni tahlil qilish, tavsiyalar berish tizimlari va giyohvand moddalarni topish kabi sohalarda katta yutuqlarga erishildi.
GNN haqida batafsil bu yerda o'qishingiz mumkin. (in English language)
@machine_learning_lab
👍6
Assalomu alaykum hurmatli ML engineerlar! Yana bir yaxshi yangilikni sizlar bilan ulashmoqchiman. Bizni navbatdagi ilmiy maqolamiz yana bir xalqaro nufuzli jurnallardan (IEEE Access) birida chop etildi.
Agar maqolaga qiziqsangiz ushbu link orqali o'qishingiz mumkin.
👉 @machine_learning_lab
Agar maqolaga qiziqsangiz ushbu link orqali o'qishingiz mumkin.
👉 @machine_learning_lab
👍12🎉3
Machine Learning Lab.
Video
#loyiha
Greenhouse imizga camera buyurma qilgan edik. Bugun yetib keldi.
Endi uni Greenhouse ga o’rnatib tajriba o’tkazishni boshlaymiz! Bir necha kundan beri ushbu loyihamizni bir qismi bo’lgan website ustida ishlayapman bu haqda keyinroq batafsil ☺️.
@machine_learning_lab
Greenhouse imizga camera buyurma qilgan edik. Bugun yetib keldi.
Endi uni Greenhouse ga o’rnatib tajriba o’tkazishni boshlaymiz! Bir necha kundan beri ushbu loyihamizni bir qismi bo’lgan website ustida ishlayapman bu haqda keyinroq batafsil ☺️.
@machine_learning_lab
👍10
#loyiha
Ko’chatlarni greenhouse ga o’tkazganimizdan keyin 10 kun o’tib natija ushbu rasmda! Hozircha bizni AI modelimiz tadbiq qilingani yo’q. Tadbiqdan keyin alohida tahlil qilamiz!
P.s: E’tibor bergan bo’lsangizlar 3 xil turdagi ko’chat o’tkazgan edik bir turdagisi (Kale) ko’karmadi. Nimaga bilmayman. Lekin loyihaning maqsadi bu emas 😊.
@machine_learning_lab
Ko’chatlarni greenhouse ga o’tkazganimizdan keyin 10 kun o’tib natija ushbu rasmda! Hozircha bizni AI modelimiz tadbiq qilingani yo’q. Tadbiqdan keyin alohida tahlil qilamiz!
P.s: E’tibor bergan bo’lsangizlar 3 xil turdagi ko’chat o’tkazgan edik bir turdagisi (Kale) ko’karmadi. Nimaga bilmayman. Lekin loyihaning maqsadi bu emas 😊.
@machine_learning_lab
👍9👏1
#kitob_tafsiya
📚 2023 yilda NLP mutaxasislari o'qishi uchun tavsiya etiladigan 5 ta bepul kitob.
1. Speech and Language Processing
Mualliflar: Dan Jurafsky and James H. Martin
Stenford universitetining ikki professori tomonidan yozilgan Nutq va tilni qayta ishlash NLP dunyosiga keng qamrovli kirishni taqdim etadi. U 3 bo'limga bo'lingan: NLP uchun asosiy algoritmlar, NLP ilovalari va lingvistik tuzilmaning izohlari.
2. Foundations of Statistical Natural Language Processing
Mualliflar: Christopher D. Manning and Hinrich Schütze
Ushbu kitob NLP asoslari bilan boshlanadi va sizni tabiiy tilni qayta ishlash uchun zarur bo'lgan matematik jihatlarga, masalan, ehtimollar nazariyasi, Bayes teoremasi, dispersiya va boshqalarga asta-sekinlik bilan kirib boradi.
3. Pattern Recognition and Machine Learning
Mualliflar: Christopher M. Bishop
Bu machine learning sohasiga batafsil kirish. Har bir bobning oxirida har bir tushunchani o'quvchiga yaxshiroq tushuntirish uchun tanlangan mashq mavjud.
4. Neural Network Methods in Natural Language Processing
Mualliflar: Yoav Goldberg
Kitob chiziqli modellar, perseptronlar, oldinga uzatish, neyron tarmoqlarni o'rgatish va hokazolar kabi asoslarni o'rganishdan boshlanadi. Muallif ushbu fundamental elementlarni amaliy misollar bilan birga tushuntirish uchun matematik yondashuvdan foydalangan.
5. Practical Natural Language Processing
Muallfilar: Sowmya Vajjala, Bodhisattwa Majumder, Anuj Gupta, and Harshit Surana
Ushbu kitob NLP real dunyoda qanday qo'llanilishi, NLP modellari va matn ma'lumotlari va ChatGPT kabi chatbotlardan foydalanish holatlarini qamrab oladi. Ushbu kitobda siz NLP dan chakana savdo, sog'liqni saqlash, moliya va boshqalar kabi turli sohalarda qanday foydalanish mumkinligini bilib olasiz.NLP har bir sohada qanday ishlashini bilib olasiz va uni ishingizda qanday ishlatishni tushunasiz.
@machine_learning_lab
📚 2023 yilda NLP mutaxasislari o'qishi uchun tavsiya etiladigan 5 ta bepul kitob.
1. Speech and Language Processing
Mualliflar: Dan Jurafsky and James H. Martin
Stenford universitetining ikki professori tomonidan yozilgan Nutq va tilni qayta ishlash NLP dunyosiga keng qamrovli kirishni taqdim etadi. U 3 bo'limga bo'lingan: NLP uchun asosiy algoritmlar, NLP ilovalari va lingvistik tuzilmaning izohlari.
2. Foundations of Statistical Natural Language Processing
Mualliflar: Christopher D. Manning and Hinrich Schütze
Ushbu kitob NLP asoslari bilan boshlanadi va sizni tabiiy tilni qayta ishlash uchun zarur bo'lgan matematik jihatlarga, masalan, ehtimollar nazariyasi, Bayes teoremasi, dispersiya va boshqalarga asta-sekinlik bilan kirib boradi.
3. Pattern Recognition and Machine Learning
Mualliflar: Christopher M. Bishop
Bu machine learning sohasiga batafsil kirish. Har bir bobning oxirida har bir tushunchani o'quvchiga yaxshiroq tushuntirish uchun tanlangan mashq mavjud.
4. Neural Network Methods in Natural Language Processing
Mualliflar: Yoav Goldberg
Kitob chiziqli modellar, perseptronlar, oldinga uzatish, neyron tarmoqlarni o'rgatish va hokazolar kabi asoslarni o'rganishdan boshlanadi. Muallif ushbu fundamental elementlarni amaliy misollar bilan birga tushuntirish uchun matematik yondashuvdan foydalangan.
5. Practical Natural Language Processing
Muallfilar: Sowmya Vajjala, Bodhisattwa Majumder, Anuj Gupta, and Harshit Surana
Ushbu kitob NLP real dunyoda qanday qo'llanilishi, NLP modellari va matn ma'lumotlari va ChatGPT kabi chatbotlardan foydalanish holatlarini qamrab oladi. Ushbu kitobda siz NLP dan chakana savdo, sog'liqni saqlash, moliya va boshqalar kabi turli sohalarda qanday foydalanish mumkinligini bilib olasiz.NLP har bir sohada qanday ishlashini bilib olasiz va uni ishingizda qanday ishlatishni tushunasiz.
@machine_learning_lab
👍5🔥1👏1