Dash is Plotly’s open source Python framework for building full stack analytic web applications using pure Python (no JavaScript required)
Medium Link
Medium Link
Medium
Introducing JupyterDash
We’re excited to announce the release of JupyterDash, our new library that makes it easy to build Dash apps from Jupyter environments (e.g…
Reformer, Can process sequences as long as 500.000 tokens
پیادهسازی بهینه توسط hugging face (قبلتر معرفی شده) در گیتهاب موجود هست
Paper Link
پیادهسازی بهینه توسط hugging face (قبلتر معرفی شده) در گیتهاب موجود هست
Paper Link
خروجی فوقالعاده از OpenAi برای تولید کد؛ مدل GPT2 رو اگر بخاطر داشته باشید اینبار OpenAi همون مدل رو روی سورس کدهای متنباز گیتهاب برای پایتون آموزش داده
نهایتاْ خروجی اینه که شما اسم تابع آرگومانها و داکاسترینگ رو تعریف میکنید و باقیش رو به مدل میسپارید:
ویدئو کامل (بنده روی تایم دمو مدل قرار دادم میتونید کامل ببینید اگر علاقمند بودید) :
https://www.pscp.tv/Microsoft/1OyKAYWPRrWKb?t=29m19s
نهایتاْ خروجی اینه که شما اسم تابع آرگومانها و داکاسترینگ رو تعریف میکنید و باقیش رو به مدل میسپارید:
ویدئو کامل (بنده روی تایم دمو مدل قرار دادم میتونید کامل ببینید اگر علاقمند بودید) :
https://www.pscp.tv/Microsoft/1OyKAYWPRrWKb?t=29m19s
Periscope
Microsoft @Microsoft
The future of tech, with Kevin Scott and guests // Microsoft Build
جایگزین فوقالعاده سریع برای pandas,
البته به همون اندازه راحت
PyPi Link
تست شده روی ۱۲۰ میلیون سطر داده
البته به همون اندازه راحت
PyPi Link
تست شده روی ۱۲۰ میلیون سطر داده
PyPI
vaex
Out-of-Core DataFrames to visualize and explore big tabular datasets
Hugging Face (🤗)
رو قبلتر برای دوستان nlp کار معرفی کردم، حالا این تیم درحال کار روی Gpt-3 هست (احتمال میره سایز مدل کامل چیزی بین 350-750G باشه
نکته جالب اینه که تعداد پارامترها و سایز مدلها تنها چیزیه که این روزها بهش اشاره میشه
توی پستها تعداد خیلی کمی به بهبودهای این مدل و اینکه چه تسکهایی رو انجام میده اشاره کردند ( آیا واقعاً کار شما به همچین مدلی نیاز داره ؟!)
Github Link
رو قبلتر برای دوستان nlp کار معرفی کردم، حالا این تیم درحال کار روی Gpt-3 هست (احتمال میره سایز مدل کامل چیزی بین 350-750G باشه
نکته جالب اینه که تعداد پارامترها و سایز مدلها تنها چیزیه که این روزها بهش اشاره میشه
توی پستها تعداد خیلی کمی به بهبودهای این مدل و اینکه چه تسکهایی رو انجام میده اشاره کردند ( آیا واقعاً کار شما به همچین مدلی نیاز داره ؟!)
Github Link
GitHub
Add upcoming GPT-3 model · Issue #4658 · huggingface/transformers
🌟 New model addition Model description The GPT-3 paper just landed on ArXiv: https://arxiv.org/abs/2005.14165. Would be great to integrate it into Transformers, whenever models are available. Here ...
LongFormer (Transformer for big documents)
هم به hugging face اضافه شد
هم به hugging face اضافه شد
GitHub
longformer/README.md at master · allenai/longformer
Longformer: The Long-Document Transformer. Contribute to allenai/longformer development by creating an account on GitHub.
ParsBERT: Transformer-based Model for Persian Language Understanding
https://arxiv.org/abs/2005.12515
https://arxiv.org/abs/2005.12515
ابزاری برای نمایش ساختار شبکه (بسیار مناسب برای گذارش دهی)
فقط کافیه مدل ذخیره شده رو بهش بدید
Github Link
فقط کافیه مدل ذخیره شده رو بهش بدید
Github Link
GitHub
GitHub - lutzroeder/netron: Visualizer for neural network, deep learning and machine learning models
Visualizer for neural network, deep learning and machine learning models - lutzroeder/netron
بالاخره من یه روزی میرم دفتر گوگل و بهشون ثابت میکنم که ربات نیستم. (کولب gpu)