65 milliard dollarni Elonga beryapsizlar!)
Savol: Kompaniya yaxshi natija koβrsatayaptimi?
Oxirgi 1 oy ichida ~80$ ga ochibdi bu yaxshi ajoyib natija!
Yana bir yangilik, bizni jamoaga Golang va QA automation dasturchilar olish korib chiqilmoqda!) Tayyorlanib turingπ
Savol: Kompaniya yaxshi natija koβrsatayaptimi?
Oxirgi 1 oy ichida ~80$ ga ochibdi bu yaxshi ajoyib natija!
Yana bir yangilik, bizni jamoaga Golang va QA automation dasturchilar olish korib chiqilmoqda!) Tayyorlanib turingπ
π36π₯6β€4
Let's go Spain!π
β€21π5π₯3π1
This media is not supported in your browser
VIEW IN TELEGRAM
π20π7π₯2
π15π₯1
Teslaga ishga kirasizmi?π€«
Software Developer(React, Websockets)
Site Reliability Engineer, Platform Engineering (Kubernetes) - Juda yaxshi komandda, ko'p birga ishlimiz.
Software Engineering Internshipππ
Referal beraman :)
Software Developer(React, Websockets)
Site Reliability Engineer, Platform Engineering (Kubernetes) - Juda yaxshi komandda, ko'p birga ishlimiz.
Software Engineering Internshipππ
Referal beraman :)
Build your Career at Tesla
Careers Search
π29
Forwarded from Laziz Abdullaev
LLMs (Large Language Models) aslida fikrlash qobiliyatiga egami?
Birinchi nigohda go'yo LLMs (masalan GPT mahsulotlari) shunchaki internetdagi matnlarni "yodlab olib", savol berilganda shu yodlangan so'z va gaplardan mosini topib beradigandek. Shu tufayli ham bunday modellarga "Stochastic parrot" (tasodifiy to'tiqush) sifatida qarash keng tarqaldi. Chindan ham GPT qanday ishlashini tushuntirishga harakat qiladigan manbalarni ko'rib chiqish shunday tushunchani keltirib chiqarish ehtimoli katta - "N ta so'zni o'qiyman, keyingi so'zni ombordan topib beraman". Sodda statistik modellashtirganda ham shu jarayondan foydalanish mumkin. Ammo, inson intellekti ham to'liq gapni birdaniga tuza olmaydi, so'zlarni qandaydir ketma ketlik bilan hosil qiladi.
"Keyingi so'zni topib berish va fikrlash yer bilan osmonchalikku", - deyishingiz mumkin.
"Fikrlash" tushunchasiga qanday ta'rif berishga bog'liq.
Quyida LLMs ga oid ba'zi qiziqarli ilmiy asoslangan yoki tekshirilgan faktlarni keltiraman:
1. LMlar so'zlarni o'zida vector ko'rinishda tasvirlaydi (e.g. word2vec). Raqamlar orqali so'zlar to'plamidagi ma'noni aks ettirishiga ishonish qiyin, ammo namunaviy ilmiy tajribalar ko'rsatadiki, qaysidir "o'rganilgan" qism fazoning qaysidir yo'nalishi, misol uchun, jinsni ifodalaydi. Masalan,
2. Shunga o'xshash, "haqiqat" tushunchasi ham o'rganilgan fazoning qaysidir yo'nalishi, aytaylik A, bilan qoniqarli ifodalanishi kuzatiladi. Ya'ni "to'g'ri" va "noto'g'ri" tushunchalarini bir biridan (oddiygina chiziqli classifier bilan!) qoniqarli tarzda ajrata olish ko'nikmasi borligi ko'rildi.
3. Umuman, tushirib qoldirilgan so'zni gap ma'nosini buzib yubormay topish uchun ongimizdan aynan nima talab etiladi? Gap mazmunini tushunish talab etilmaydimi?
Sanab o'tilganlar oddiy observation'lar bo'lishi mumkin, ammo "tasodifiy to'tiqush" masalan shunday xususiyatlarni o'zida namoyish eta olarmidi? Sarlavhadagi savol aslida munozarali savol. AI'ning hozirgacha erishgan muvofaqqiyati siri aynan nimada ekanligi yetarlicha tushunilmaganligi "Ha" deyish uchun ham "Yo'q" deyish uchun ham to'sqinlik qiladi.
@lazizabdullaev
Birinchi nigohda go'yo LLMs (masalan GPT mahsulotlari) shunchaki internetdagi matnlarni "yodlab olib", savol berilganda shu yodlangan so'z va gaplardan mosini topib beradigandek. Shu tufayli ham bunday modellarga "Stochastic parrot" (tasodifiy to'tiqush) sifatida qarash keng tarqaldi. Chindan ham GPT qanday ishlashini tushuntirishga harakat qiladigan manbalarni ko'rib chiqish shunday tushunchani keltirib chiqarish ehtimoli katta - "N ta so'zni o'qiyman, keyingi so'zni ombordan topib beraman". Sodda statistik modellashtirganda ham shu jarayondan foydalanish mumkin. Ammo, inson intellekti ham to'liq gapni birdaniga tuza olmaydi, so'zlarni qandaydir ketma ketlik bilan hosil qiladi.
"Keyingi so'zni topib berish va fikrlash yer bilan osmonchalikku", - deyishingiz mumkin.
"Fikrlash" tushunchasiga qanday ta'rif berishga bog'liq.
Quyida LLMs ga oid ba'zi qiziqarli ilmiy asoslangan yoki tekshirilgan faktlarni keltiraman:
1. LMlar so'zlarni o'zida vector ko'rinishda tasvirlaydi (e.g. word2vec). Raqamlar orqali so'zlar to'plamidagi ma'noni aks ettirishiga ishonish qiyin, ammo namunaviy ilmiy tajribalar ko'rsatadiki, qaysidir "o'rganilgan" qism fazoning qaysidir yo'nalishi, misol uchun, jinsni ifodalaydi. Masalan,
word2vec
("king") - word2vec
("queen") va word2vec
("male") - word2vec
("female") ayirmalar bir biriga o'xshash. Bu tasodif emas, bunday mosliklar stabil tarzda kuzatiladi.2. Shunga o'xshash, "haqiqat" tushunchasi ham o'rganilgan fazoning qaysidir yo'nalishi, aytaylik A, bilan qoniqarli ifodalanishi kuzatiladi. Ya'ni "to'g'ri" va "noto'g'ri" tushunchalarini bir biridan (oddiygina chiziqli classifier bilan!) qoniqarli tarzda ajrata olish ko'nikmasi borligi ko'rildi.
3. Umuman, tushirib qoldirilgan so'zni gap ma'nosini buzib yubormay topish uchun ongimizdan aynan nima talab etiladi? Gap mazmunini tushunish talab etilmaydimi?
Sanab o'tilganlar oddiy observation'lar bo'lishi mumkin, ammo "tasodifiy to'tiqush" masalan shunday xususiyatlarni o'zida namoyish eta olarmidi? Sarlavhadagi savol aslida munozarali savol. AI'ning hozirgacha erishgan muvofaqqiyati siri aynan nimada ekanligi yetarlicha tushunilmaganligi "Ha" deyish uchun ham "Yo'q" deyish uchun ham to'sqinlik qiladi.
@lazizabdullaev
π₯8π5
Forwarded from Dilmurod Yangiboev | DYDO :) (Dilmurod)
#hr #interview #tesla #experience
1. HR interview
Ajralib turadigan jihati:
- Qiziqishlarim, kompaniya haqida asosan!
- 'Why' savollar ko'proq!
Yaxshi javob berish uchun:
- Qanchalik ilmga chanqoqligingizni ko'rsata olish;
- Kompaniya haqida yangiliklarni yaxshi bilish;
- 'Brandenburg Giga factory'(barcha Giga) haqida ko'p malumot bilish
- Energiyangiz
- ......
Qiziqishingiz muhim Teslada 'You can almost learn and do anything!'
1. HR interview
Ajralib turadigan jihati:
- Qiziqishlarim, kompaniya haqida asosan!
- 'Why' savollar ko'proq!
Yaxshi javob berish uchun:
- Qanchalik ilmga chanqoqligingizni ko'rsata olish;
- Kompaniya haqida yangiliklarni yaxshi bilish;
- 'Brandenburg Giga factory'(barcha Giga) haqida ko'p malumot bilish
- Energiyangiz
- ......
Qiziqishingiz muhim Teslada 'You can almost learn and do anything!'
π21
Forwarded from Alisher Sadullaev
This media is not supported in your browser
VIEW IN TELEGRAM
πΊπΏHar bir sportchi uchun eng yuqori cho'qqi!
Sportchilar shunday lahzalar uchun butun umrini bag'ishlaydi. G'alaba muborak, do'stlar.
Sportchilar shunday lahzalar uchun butun umrini bag'ishlaydi. G'alaba muborak, do'stlar.
π42π₯17β€3π1
Tesla Gym
Man kompaniyaga qo'shilganimda, ko'ngilochar nimadir qilish uchun deyarli hech nima yo'q edi! Robotlardan tashqari π
Hozir,
Playstation, GYM, Ping-Pong, va Night Clubπ
Man kompaniyaga qo'shilganimda, ko'ngilochar nimadir qilish uchun deyarli hech nima yo'q edi! Robotlardan tashqari π
Hozir,
Playstation, GYM, Ping-Pong, va Night Clubπ
π₯26π8β€1
Junior Dilmurod
- Oxxo yomon (ishlaydigan)code yozilgan ekan, boshqa yo'ldan qilish kk edi -> qaytadan yozaman
- Goda gRPC ishlatib Microservice qilaman
- Docker, Kubernetesga qo'yib load balance qilaman
4 yillik tarjibali Dilmurod
- Ishlaydigan code ga tegmayman π va umuman complain qilmayman (Refactorni boshqacha usulda qilamiz)
- Monolith & Python Djanggoda ko'tarib ko'raman
- Pm2 yoki gunicorn nginx qilib qo'ya qolaman
Xulosa:
1. Shikoyat qilmang
2. KISS (π€«)
3. Ishga tushiring, keyin optimallashtiring
Photos by: Nodirbek Ergashev
- Oxxo yomon (ishlaydigan)code yozilgan ekan, boshqa yo'ldan qilish kk edi -> qaytadan yozaman
- Goda gRPC ishlatib Microservice qilaman
- Docker, Kubernetesga qo'yib load balance qilaman
4 yillik tarjibali Dilmurod
- Ishlaydigan code ga tegmayman π va umuman complain qilmayman (Refactorni boshqacha usulda qilamiz)
- Monolith & Python Djanggoda ko'tarib ko'raman
- Pm2 yoki gunicorn nginx qilib qo'ya qolaman
Xulosa:
1. Shikoyat qilmang
2. KISS (π€«)
3. Ishga tushiring, keyin optimallashtiring
Photos by: Nodirbek Ergashev
π26π15π’3π₯1