So'ngi 10 yillik sun'iy itellektning (AI) tahlili
4-qism. ResNet va NLP yutuqlari (2015)
2015 yilda sun'iy intellekt sohasi ham Computer Vision (CV), ham NLP sohasida sezilarli yutuqlarga erishdi.
Kaiming He va uning hamkasblari “Deep Residual Learning for Image Recognition” nomli maqolani nashr etishdi, unda ular residual neyron tarmoqlari yoki ResNets arxitekturasi – yorliqlar qo‘shish orqali ma’lumotlarning tarmoq orqali osonroq oqishini ta’minlaydigan arxitektura tushunchasini taqdim etdilar. Har bir qatlam oldingi qatlamning chiqishini kirish sifatida qabul qiladigan oddiy neyron tarmoqdan farqli o'laroq, ResNet-da bir yoki bir nechta qatlamlarni o'tkazib yuboradigan va tarmoqdagi chuqurroq qatlamlarga to'g'ridan-to'g'ri ulanadigan qo'shimcha qoldiq ulanishlar qo'shiladi.
Natijada, ResNets yo'qolib borayotgan gradientlar muammosini hal qila oldi, bu esa o'sha paytda mumkin bo'lganidan ancha chuqurroq neyron tarmoqlarni o'rgatish imkonini berdi. Bu, o'z navbatida, tasvirni tasniflash va ob'ektni aniqlash vazifalarida sezilarli yaxshilanishlarga olib keldi.
Taxminan bir vaqtning o'zida tadqiqotchilar Recurrent Neural Network (RNN) va Long Short-Term Memory (LSTM) modellarini ishlab chiqishda sezilarli yutuqlarga erishdilar. Bu modellar 1990-yillardan beri mavjud bo'lishiga qaramay, bu modellar faqat 2015 yil atrofida shov-shuvlarni keltirib chiqara boshladi. Bunga (1) o'qitish uchun kattaroq va xilma-xil ma'lumotlar to'plamining mavjudligi hamda (2) hisoblash quvvati va apparat ta'minotining yaxshilanishi (zamonaviy CPU va GPU) kabi omillar sabab bo'ldi va bu omillar chuqurroq va murakkabroq modellarni o'qitish imkonini berdi.
Natijada, ushbu arxitekturalar til modellariga matnning konteksi va ma'nosini yaxshiroq tushunish imkonini berdi, bu esa tilni tarjima qilish, matn yaratish va hissiyotlarni tahlil qilish kabi vazifalarni sezilarli darajada yaxshilashga olib keldi. O'sha paytdagi RNN va LSTM-larning muvaffaqiyati bugungi kunda biz ko'rib turgan katta til modellarining (LLM) rivojlanishiga yo'l ochdi.
@machine_learning_lab
4-qism. ResNet va NLP yutuqlari (2015)
2015 yilda sun'iy intellekt sohasi ham Computer Vision (CV), ham NLP sohasida sezilarli yutuqlarga erishdi.
Kaiming He va uning hamkasblari “Deep Residual Learning for Image Recognition” nomli maqolani nashr etishdi, unda ular residual neyron tarmoqlari yoki ResNets arxitekturasi – yorliqlar qo‘shish orqali ma’lumotlarning tarmoq orqali osonroq oqishini ta’minlaydigan arxitektura tushunchasini taqdim etdilar. Har bir qatlam oldingi qatlamning chiqishini kirish sifatida qabul qiladigan oddiy neyron tarmoqdan farqli o'laroq, ResNet-da bir yoki bir nechta qatlamlarni o'tkazib yuboradigan va tarmoqdagi chuqurroq qatlamlarga to'g'ridan-to'g'ri ulanadigan qo'shimcha qoldiq ulanishlar qo'shiladi.
Natijada, ResNets yo'qolib borayotgan gradientlar muammosini hal qila oldi, bu esa o'sha paytda mumkin bo'lganidan ancha chuqurroq neyron tarmoqlarni o'rgatish imkonini berdi. Bu, o'z navbatida, tasvirni tasniflash va ob'ektni aniqlash vazifalarida sezilarli yaxshilanishlarga olib keldi.
Taxminan bir vaqtning o'zida tadqiqotchilar Recurrent Neural Network (RNN) va Long Short-Term Memory (LSTM) modellarini ishlab chiqishda sezilarli yutuqlarga erishdilar. Bu modellar 1990-yillardan beri mavjud bo'lishiga qaramay, bu modellar faqat 2015 yil atrofida shov-shuvlarni keltirib chiqara boshladi. Bunga (1) o'qitish uchun kattaroq va xilma-xil ma'lumotlar to'plamining mavjudligi hamda (2) hisoblash quvvati va apparat ta'minotining yaxshilanishi (zamonaviy CPU va GPU) kabi omillar sabab bo'ldi va bu omillar chuqurroq va murakkabroq modellarni o'qitish imkonini berdi.
Natijada, ushbu arxitekturalar til modellariga matnning konteksi va ma'nosini yaxshiroq tushunish imkonini berdi, bu esa tilni tarjima qilish, matn yaratish va hissiyotlarni tahlil qilish kabi vazifalarni sezilarli darajada yaxshilashga olib keldi. O'sha paytdagi RNN va LSTM-larning muvaffaqiyati bugungi kunda biz ko'rib turgan katta til modellarining (LLM) rivojlanishiga yo'l ochdi.
@machine_learning_lab
👍6🔥3
Sun’iy intelekt odamlarga juda ko’p jabhalarda yordamchi bo’lib xizmat qilayapti lekin din masalasida yoki taqvo masalasida sun’iy intelektni integratsiya qilib unga ishonishni to’g’ri deb bilmayman. Chunki bu juda jiddiy masala oddiy kichik bir xato katta narsalarga sabab bo’lib qolishi mumkin.
@machine_learning_lab
@machine_learning_lab
👍6💯3
#researchpaper #ilmiy_maqola
Hurmatli ML engineerlar! Sizlarga shuni mamnuniyat bilan ma'lum qilamanki bizni navbatdagi ilmiy maqolamiz xalqaro nufuzli ilmiy jurnallardan birida chop etildi. Alhamdulillah.
Bunda meni qo'llab quvvatlagan barchaga o'z minnatdorchiligimni bildiraman jumladan google, google scholar, youtube, ChatCPT va hakozolar (ALbatda hazil 😉😂)
Maqola nomi: "Performance Analysis of Time Series Deep Learning Models for Climate Prediction in Indoor Hydroponic Greenhouses at Different Time Intervals"
Ilmiy Journal: Plants (SCIE, IF:4.66)
👉 @machine_learning_lab
Hurmatli ML engineerlar! Sizlarga shuni mamnuniyat bilan ma'lum qilamanki bizni navbatdagi ilmiy maqolamiz xalqaro nufuzli ilmiy jurnallardan birida chop etildi. Alhamdulillah.
Bunda meni qo'llab quvvatlagan barchaga o'z minnatdorchiligimni bildiraman jumladan google, google scholar, youtube, ChatCPT va hakozolar (ALbatda hazil 😉😂)
Maqola nomi: "Performance Analysis of Time Series Deep Learning Models for Climate Prediction in Indoor Hydroponic Greenhouses at Different Time Intervals"
Ilmiy Journal: Plants (SCIE, IF:4.66)
👉 @machine_learning_lab
🎉9👍1
So'ngi 10 yillik sun'iy itellektning (AI) tahlili
5-qism. AlphaGo (2016)
1997-yilda Garri Kasparov IBMning Deep Blue kompaniyasi tomonidan mag‘lubiyatga uchraganidan so‘ng, 2016-yilda yana bir inson va mashina jangi o‘yin dunyosini hayratda qoldirdi: Google’ning AlphaGo kompaniyasi Go bo‘yicha jahon chempioni Li Sedolni mag‘lub etdi.
Go o'yinining taxtasi va toshlarini quyidagi rasmda tasvirlangan 👇.
Sedolning mag'lubiyati sun'iy intellekt taraqqiyoti traektoriyasidagi yana bir muhim bosqich bo'ldi: bu mashinalar bir paytlar kompyuterlar uchun juda murakkab hisoblangan o'yinda hatto eng malakali inson o'yinchilarni ham ortda qoldirishi mumkinligini ko'rsatdi. Deep Reinforcement Learning va Monte-Karlo (tree search) metodi kombinatsiyasidan foydalangan holda, AlphaGo oldingi o'yinlardagi millionlab pozitsiyalarni tahlil qiladi va mumkin bo'lgan eng yaxshi harakatlarni baholaydi - bu strategiya bu kontekstda inson qarorlarini qabul qilishdan ancha ustundir.
👉 @machine_learning_lab
5-qism. AlphaGo (2016)
1997-yilda Garri Kasparov IBMning Deep Blue kompaniyasi tomonidan mag‘lubiyatga uchraganidan so‘ng, 2016-yilda yana bir inson va mashina jangi o‘yin dunyosini hayratda qoldirdi: Google’ning AlphaGo kompaniyasi Go bo‘yicha jahon chempioni Li Sedolni mag‘lub etdi.
Go o'yinining taxtasi va toshlarini quyidagi rasmda tasvirlangan 👇.
Sedolning mag'lubiyati sun'iy intellekt taraqqiyoti traektoriyasidagi yana bir muhim bosqich bo'ldi: bu mashinalar bir paytlar kompyuterlar uchun juda murakkab hisoblangan o'yinda hatto eng malakali inson o'yinchilarni ham ortda qoldirishi mumkinligini ko'rsatdi. Deep Reinforcement Learning va Monte-Karlo (tree search) metodi kombinatsiyasidan foydalangan holda, AlphaGo oldingi o'yinlardagi millionlab pozitsiyalarni tahlil qiladi va mumkin bo'lgan eng yaxshi harakatlarni baholaydi - bu strategiya bu kontekstda inson qarorlarini qabul qilishdan ancha ustundir.
👉 @machine_learning_lab
👍5
So'ngi 10 yillik sun'iy itellektning (AI) tahlili
6-qism. Transformer va Til (Language) Modellari (2017)
Aytish mumkinki, 2017 yil biz guvohi bo'layotgan generativ AI sohasidagi yutuqlar uchun poydevor qo'ygan eng muhim yil bo'ldi.
2017-yil dekabr oyida Vaswani va uning hamkasblari “Attention is all you need” nomli asosiy ilmiy maqolani nashr etishdi, unda encoder va decoder qismlarini o'z ichiga oluvchi transformer arxitekturasi taqdim etildi (Quyidagi rasm 👇). Bu ilgari an'anaviy RNN arxitekturalari uchun qiyin bo'lgan ayrim muammolarni yanada samarali qayta ishlash imkonini berdi.
Bu ilgari surilgan model avvalgi modellardan RNN, LSTM lardan ko'ra jumladagi so'zlarni o'zaro bog'liqligini o'rganishda sezilarli darajada samarali ekani ushbu maqolada isbotlandi.
O'shandan beri transformer arxitekturasi LLMni rivojlantirishning asosiy komponentiga aylandi va NLP sohasida tarjimonlik, tilni modellashtirish va savollarga javob berish kabi yo'nalishlarida sezilarli o'sishlarga olib keldi.
👉 @machine_learning_lab
6-qism. Transformer va Til (Language) Modellari (2017)
Aytish mumkinki, 2017 yil biz guvohi bo'layotgan generativ AI sohasidagi yutuqlar uchun poydevor qo'ygan eng muhim yil bo'ldi.
2017-yil dekabr oyida Vaswani va uning hamkasblari “Attention is all you need” nomli asosiy ilmiy maqolani nashr etishdi, unda encoder va decoder qismlarini o'z ichiga oluvchi transformer arxitekturasi taqdim etildi (Quyidagi rasm 👇). Bu ilgari an'anaviy RNN arxitekturalari uchun qiyin bo'lgan ayrim muammolarni yanada samarali qayta ishlash imkonini berdi.
Bu ilgari surilgan model avvalgi modellardan RNN, LSTM lardan ko'ra jumladagi so'zlarni o'zaro bog'liqligini o'rganishda sezilarli darajada samarali ekani ushbu maqolada isbotlandi.
O'shandan beri transformer arxitekturasi LLMni rivojlantirishning asosiy komponentiga aylandi va NLP sohasida tarjimonlik, tilni modellashtirish va savollarga javob berish kabi yo'nalishlarida sezilarli o'sishlarga olib keldi.
👉 @machine_learning_lab
👍4🔥1
Ushbu maqolada Issiqxonaning havo parametrlarini yani temperaturasi, hamligi va karbonat angedrid gazlarini darajasini keyingi turli vaqt oraliqlarida bashorat qilishda optimal AI modellari tahlili muhokama qilingan. Yuqoridagi video o'sha issiqxonamiz haqidagi loyiha haqida qisqacha edi.
P.s. Agar qiziq bo'lsa reaksiya qoldiringlar ( 👍 ) ushbu mini issiqxona haqida batafsil video qilaman.
👉 @machine_learning_lab
Telegram
Machine Learning Lab.
#researchpaper #ilmiy_maqola
Hurmatli ML engineerlar! Sizlarga shuni mamnuniyat bilan ma'lum qilamanki bizni navbatdagi ilmiy maqolamiz xalqaro nufuzli ilmiy jurnallardan birida chop etildi. Alhamdulillah.
Bunda meni qo'llab quvvatlagan barchaga o'z…
Hurmatli ML engineerlar! Sizlarga shuni mamnuniyat bilan ma'lum qilamanki bizni navbatdagi ilmiy maqolamiz xalqaro nufuzli ilmiy jurnallardan birida chop etildi. Alhamdulillah.
Bunda meni qo'llab quvvatlagan barchaga o'z…
👍11
#tavsiya
AI yoki boshqa har qanday sohada nazariy bilimga ega bo'lishni o'zi kifoya qilmaydi albatda. Shu bilan birga amaliy bilimga ega bo'lish juda muhimdir va bu kelajakda kasb egallashda asosiy kalit bo'lib ro'l o'ynashi ham mumkin.
AI/DL/ML/DS sohada o'qiyotgan yoki qiziquvchilarning aksariyati "Qanday loyihalarni qilish mumkin?" degan umumiy savolga duch kelishadi. Shunday qilib, ushbu repo sizga kod bilan birga ML, DL, NLP, AI bo'yicha 500 dan ortiq loyihalarni o'z ichiga olgan eng muhim ro'yxatlardan birini taqdim etadi.
Bu amaliy bilimga ega bo'lishni xohlaydigan yoki o'z rezyumelari uchun loyihalar yaratmoqchi bo'lganlar uchun juda foydali.
👉 @machine_learning_lab
AI yoki boshqa har qanday sohada nazariy bilimga ega bo'lishni o'zi kifoya qilmaydi albatda. Shu bilan birga amaliy bilimga ega bo'lish juda muhimdir va bu kelajakda kasb egallashda asosiy kalit bo'lib ro'l o'ynashi ham mumkin.
AI/DL/ML/DS sohada o'qiyotgan yoki qiziquvchilarning aksariyati "Qanday loyihalarni qilish mumkin?" degan umumiy savolga duch kelishadi. Shunday qilib, ushbu repo sizga kod bilan birga ML, DL, NLP, AI bo'yicha 500 dan ortiq loyihalarni o'z ichiga olgan eng muhim ro'yxatlardan birini taqdim etadi.
Bu amaliy bilimga ega bo'lishni xohlaydigan yoki o'z rezyumelari uchun loyihalar yaratmoqchi bo'lganlar uchun juda foydali.
👉 @machine_learning_lab
GitHub
GitHub - ashishpatel26/500-AI-Machine-learning-Deep-learning-Computer-vision-NLP-Projects-with-code: 500 AI Machine learning Deep…
500 AI Machine learning Deep learning Computer vision NLP Projects with code - ashishpatel26/500-AI-Machine-learning-Deep-learning-Computer-vision-NLP-Projects-with-code
👍8🔥2
So'ngi 10 yillik sun'iy itellektning (AI) tahlili
7-qism. GPT-1 va Graph Neural Network (2018)
Transformer arxitekturasini ilgari surgan olim Vaswani va uning hamkasblari bir necha oy o'tib, 2018 yilda OpenAI tomonidan taqdim etilgan Generative Pretrained Transformer yoki GPT-1 ni asosi bo'lgan ilmiy maqolasini nashr etishdi. U matndagi keng kontekstdagi matnlar so'zlarini o'zaro bog'liqliklarni samarali o'rganish uchun transformer arxitekturasidan foydalangan. GPT-1 NLP vazifalarida eng samarodorli natija ko'rsatadigan birinchi modellardan biri edi.
2018 yil oxirlariga kelib Google kompaniyasi GPT-1 yutuqlaridan ilhomlangan holda yangi transformer arxitexturasini (Bidirectional Encoder Representations from Transformers yoki BERT) ilgari surdi.
O'sha yili GPT-1 va BERTdan tashqari, Grafik Neural Networks yoki GNNlar ham "to'palang" qildi. Ular grafik ma'lumotlar bilan ishlash uchun maxsus ishlab chiqilgan neyron tarmoqlar toifasiga kiradi. GNNlar ma'lumotni grafikning tugunlari va qirralari bo'ylab tarqatish uchun xabarlarni uzatish algoritmidan foydalanadilar. Bu tarmoqqa ma'lumotlarning tuzilishi va munosabatlarini ancha intuitiv tarzda o'rganish imkonini beradi. (GNN arxitekturasi quyidagi rasmda tasvirlangan 👇)
Bu yo'l ma'lumotlardan ancha chuqurroq tushunchalarni olish imkonini berdi va natijada DLni qo'llash mumkin bo'lgan muammolar doirasini kengaytirdi. GNN yordamida ijtimoiy tarmoqlarni tahlil qilish, tavsiyalar berish tizimlari va giyohvand moddalarni topish kabi sohalarda katta yutuqlarga erishildi.
GNN haqida batafsil bu yerda o'qishingiz mumkin. (in English language)
@machine_learning_lab
7-qism. GPT-1 va Graph Neural Network (2018)
Transformer arxitekturasini ilgari surgan olim Vaswani va uning hamkasblari bir necha oy o'tib, 2018 yilda OpenAI tomonidan taqdim etilgan Generative Pretrained Transformer yoki GPT-1 ni asosi bo'lgan ilmiy maqolasini nashr etishdi. U matndagi keng kontekstdagi matnlar so'zlarini o'zaro bog'liqliklarni samarali o'rganish uchun transformer arxitekturasidan foydalangan. GPT-1 NLP vazifalarida eng samarodorli natija ko'rsatadigan birinchi modellardan biri edi.
2018 yil oxirlariga kelib Google kompaniyasi GPT-1 yutuqlaridan ilhomlangan holda yangi transformer arxitexturasini (Bidirectional Encoder Representations from Transformers yoki BERT) ilgari surdi.
O'sha yili GPT-1 va BERTdan tashqari, Grafik Neural Networks yoki GNNlar ham "to'palang" qildi. Ular grafik ma'lumotlar bilan ishlash uchun maxsus ishlab chiqilgan neyron tarmoqlar toifasiga kiradi. GNNlar ma'lumotni grafikning tugunlari va qirralari bo'ylab tarqatish uchun xabarlarni uzatish algoritmidan foydalanadilar. Bu tarmoqqa ma'lumotlarning tuzilishi va munosabatlarini ancha intuitiv tarzda o'rganish imkonini beradi. (GNN arxitekturasi quyidagi rasmda tasvirlangan 👇)
Bu yo'l ma'lumotlardan ancha chuqurroq tushunchalarni olish imkonini berdi va natijada DLni qo'llash mumkin bo'lgan muammolar doirasini kengaytirdi. GNN yordamida ijtimoiy tarmoqlarni tahlil qilish, tavsiyalar berish tizimlari va giyohvand moddalarni topish kabi sohalarda katta yutuqlarga erishildi.
GNN haqida batafsil bu yerda o'qishingiz mumkin. (in English language)
@machine_learning_lab
👍6
Assalomu alaykum hurmatli ML engineerlar! Yana bir yaxshi yangilikni sizlar bilan ulashmoqchiman. Bizni navbatdagi ilmiy maqolamiz yana bir xalqaro nufuzli jurnallardan (IEEE Access) birida chop etildi.
Agar maqolaga qiziqsangiz ushbu link orqali o'qishingiz mumkin.
👉 @machine_learning_lab
Agar maqolaga qiziqsangiz ushbu link orqali o'qishingiz mumkin.
👉 @machine_learning_lab
👍12🎉3
Machine Learning Lab.
Video
#loyiha
Greenhouse imizga camera buyurma qilgan edik. Bugun yetib keldi.
Endi uni Greenhouse ga o’rnatib tajriba o’tkazishni boshlaymiz! Bir necha kundan beri ushbu loyihamizni bir qismi bo’lgan website ustida ishlayapman bu haqda keyinroq batafsil ☺️.
@machine_learning_lab
Greenhouse imizga camera buyurma qilgan edik. Bugun yetib keldi.
Endi uni Greenhouse ga o’rnatib tajriba o’tkazishni boshlaymiz! Bir necha kundan beri ushbu loyihamizni bir qismi bo’lgan website ustida ishlayapman bu haqda keyinroq batafsil ☺️.
@machine_learning_lab
👍10
#loyiha
Ko’chatlarni greenhouse ga o’tkazganimizdan keyin 10 kun o’tib natija ushbu rasmda! Hozircha bizni AI modelimiz tadbiq qilingani yo’q. Tadbiqdan keyin alohida tahlil qilamiz!
P.s: E’tibor bergan bo’lsangizlar 3 xil turdagi ko’chat o’tkazgan edik bir turdagisi (Kale) ko’karmadi. Nimaga bilmayman. Lekin loyihaning maqsadi bu emas 😊.
@machine_learning_lab
Ko’chatlarni greenhouse ga o’tkazganimizdan keyin 10 kun o’tib natija ushbu rasmda! Hozircha bizni AI modelimiz tadbiq qilingani yo’q. Tadbiqdan keyin alohida tahlil qilamiz!
P.s: E’tibor bergan bo’lsangizlar 3 xil turdagi ko’chat o’tkazgan edik bir turdagisi (Kale) ko’karmadi. Nimaga bilmayman. Lekin loyihaning maqsadi bu emas 😊.
@machine_learning_lab
👍9👏1
#kitob_tafsiya
📚 2023 yilda NLP mutaxasislari o'qishi uchun tavsiya etiladigan 5 ta bepul kitob.
1. Speech and Language Processing
Mualliflar: Dan Jurafsky and James H. Martin
Stenford universitetining ikki professori tomonidan yozilgan Nutq va tilni qayta ishlash NLP dunyosiga keng qamrovli kirishni taqdim etadi. U 3 bo'limga bo'lingan: NLP uchun asosiy algoritmlar, NLP ilovalari va lingvistik tuzilmaning izohlari.
2. Foundations of Statistical Natural Language Processing
Mualliflar: Christopher D. Manning and Hinrich Schütze
Ushbu kitob NLP asoslari bilan boshlanadi va sizni tabiiy tilni qayta ishlash uchun zarur bo'lgan matematik jihatlarga, masalan, ehtimollar nazariyasi, Bayes teoremasi, dispersiya va boshqalarga asta-sekinlik bilan kirib boradi.
3. Pattern Recognition and Machine Learning
Mualliflar: Christopher M. Bishop
Bu machine learning sohasiga batafsil kirish. Har bir bobning oxirida har bir tushunchani o'quvchiga yaxshiroq tushuntirish uchun tanlangan mashq mavjud.
4. Neural Network Methods in Natural Language Processing
Mualliflar: Yoav Goldberg
Kitob chiziqli modellar, perseptronlar, oldinga uzatish, neyron tarmoqlarni o'rgatish va hokazolar kabi asoslarni o'rganishdan boshlanadi. Muallif ushbu fundamental elementlarni amaliy misollar bilan birga tushuntirish uchun matematik yondashuvdan foydalangan.
5. Practical Natural Language Processing
Muallfilar: Sowmya Vajjala, Bodhisattwa Majumder, Anuj Gupta, and Harshit Surana
Ushbu kitob NLP real dunyoda qanday qo'llanilishi, NLP modellari va matn ma'lumotlari va ChatGPT kabi chatbotlardan foydalanish holatlarini qamrab oladi. Ushbu kitobda siz NLP dan chakana savdo, sog'liqni saqlash, moliya va boshqalar kabi turli sohalarda qanday foydalanish mumkinligini bilib olasiz.NLP har bir sohada qanday ishlashini bilib olasiz va uni ishingizda qanday ishlatishni tushunasiz.
@machine_learning_lab
📚 2023 yilda NLP mutaxasislari o'qishi uchun tavsiya etiladigan 5 ta bepul kitob.
1. Speech and Language Processing
Mualliflar: Dan Jurafsky and James H. Martin
Stenford universitetining ikki professori tomonidan yozilgan Nutq va tilni qayta ishlash NLP dunyosiga keng qamrovli kirishni taqdim etadi. U 3 bo'limga bo'lingan: NLP uchun asosiy algoritmlar, NLP ilovalari va lingvistik tuzilmaning izohlari.
2. Foundations of Statistical Natural Language Processing
Mualliflar: Christopher D. Manning and Hinrich Schütze
Ushbu kitob NLP asoslari bilan boshlanadi va sizni tabiiy tilni qayta ishlash uchun zarur bo'lgan matematik jihatlarga, masalan, ehtimollar nazariyasi, Bayes teoremasi, dispersiya va boshqalarga asta-sekinlik bilan kirib boradi.
3. Pattern Recognition and Machine Learning
Mualliflar: Christopher M. Bishop
Bu machine learning sohasiga batafsil kirish. Har bir bobning oxirida har bir tushunchani o'quvchiga yaxshiroq tushuntirish uchun tanlangan mashq mavjud.
4. Neural Network Methods in Natural Language Processing
Mualliflar: Yoav Goldberg
Kitob chiziqli modellar, perseptronlar, oldinga uzatish, neyron tarmoqlarni o'rgatish va hokazolar kabi asoslarni o'rganishdan boshlanadi. Muallif ushbu fundamental elementlarni amaliy misollar bilan birga tushuntirish uchun matematik yondashuvdan foydalangan.
5. Practical Natural Language Processing
Muallfilar: Sowmya Vajjala, Bodhisattwa Majumder, Anuj Gupta, and Harshit Surana
Ushbu kitob NLP real dunyoda qanday qo'llanilishi, NLP modellari va matn ma'lumotlari va ChatGPT kabi chatbotlardan foydalanish holatlarini qamrab oladi. Ushbu kitobda siz NLP dan chakana savdo, sog'liqni saqlash, moliya va boshqalar kabi turli sohalarda qanday foydalanish mumkinligini bilib olasiz.NLP har bir sohada qanday ishlashini bilib olasiz va uni ishingizda qanday ishlatishni tushunasiz.
@machine_learning_lab
👍5🔥1👏1
🔥6👍3👏2
practical_natural_language_processing_a_comprehensive_guide_to_building.epub
25.4 MB
Yuqoridagi kitobni to'liq holdagi nusxasi.
(5. Practical Natural Language Processing)
@machine_learning_lab
(5. Practical Natural Language Processing)
@machine_learning_lab
👏5👍2