در هفته جاری چه مدلهایی به صورت متن باز منتشر شدند:
◾️ Falcon Mamba attention-free 7B model
◾️ Savam 2B: Model trained on 10 Indic languages (4T tokens)
◾️ InternLM 2.5 1.8B and 20B
◾️ Answer AI ColBERT model, with impressive results for a 33M
◾️ THUDM LongWriter
◾️ VideoLLaMA 72B
#مقاله #ایده_جذاب #الگوریتمها #مدلها_متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ Falcon Mamba attention-free 7B model
◾️ Savam 2B: Model trained on 10 Indic languages (4T tokens)
◾️ InternLM 2.5 1.8B and 20B
◾️ Answer AI ColBERT model, with impressive results for a 33M
◾️ THUDM LongWriter
◾️ VideoLLaMA 72B
#مقاله #ایده_جذاب #الگوریتمها #مدلها_متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6👎2
Forwarded from DeepMind AI Expert (Farzad 🦅)
ZLD-HR.2.pdf
246.9 KB
گروه زلال درفام فعال در حوزه آب مستقر در پارک علم و فناوری دانشگاه شریف از علاقمندان با شرایط زیر دعوت به همکاری میکند.
اگه علاقمند و دنبال موقعیت کاری برای مهندسی داده هستین و اطلاعات کافی دارین بهترین فرصت برای پیشرفت هست.
برای موقعیت طراحی وب موقعیت شغلی خوبی در دسترس هست.
اگه کسی خواست میتونه رزومه ش رو برای من بفرسته براشون بفرستم بررسی کنن
#استخدام
اگه علاقمند و دنبال موقعیت کاری برای مهندسی داده هستین و اطلاعات کافی دارین بهترین فرصت برای پیشرفت هست.
برای موقعیت طراحی وب موقعیت شغلی خوبی در دسترس هست.
اگه کسی خواست میتونه رزومه ش رو برای من بفرسته براشون بفرستم بررسی کنن
#استخدام
👎7👍4😁1
به مدل اوپن سورسی ک هم اکنون به دستم رسیده توجه فرمایید:😂
مدل Hermes در سه اندازه ۸ و ۷۰ و ۴۰۵ میلیارد پارامتر با قابلیتهای زیر منتشر شد.
particular capability improvements in roleplaying, agentic tasks, more reliable function calling, multi-turn chats, long context coherence and more.
▪️ Paper
▪️ Chat Here
▪️ Chat Hermes 405B
#مقاله #ایده_جذاب #الگوریتمها #مدل_متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
مدل Hermes در سه اندازه ۸ و ۷۰ و ۴۰۵ میلیارد پارامتر با قابلیتهای زیر منتشر شد.
particular capability improvements in roleplaying, agentic tasks, more reliable function calling, multi-turn chats, long context coherence and more.
▪️ Paper
▪️ Chat Here
▪️ Chat Hermes 405B
#مقاله #ایده_جذاب #الگوریتمها #مدل_متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3
How to Prune and Distill Llama-3.1 8B to an NVIDIA Llama-3.1-Minitron 4B Model
https://developer.nvidia.com/blog/how-to-prune-and-distill-llama-3-1-8b-to-an-nvidia-llama-3-1-minitron-4b-model/
#مقاله #ایده_جذاب #الگوریتمها #مدلها_متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://developer.nvidia.com/blog/how-to-prune-and-distill-llama-3-1-8b-to-an-nvidia-llama-3-1-minitron-4b-model/
#مقاله #ایده_جذاب #الگوریتمها #مدلها_متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2
از chatgpt-4o پرسیدم نظرت در مورد گروه DeepLearningAIExperts چیه؟ 😅
#هوش_مصنوعی #chatgpt
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
#هوش_مصنوعی #chatgpt
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🆒7👍6👎2
وقتی کانال و گروه تلگرامی ما یک برند بین المللی هست #هوش_مصنوعی هم راجبش میدونه
حمایت کنین به ۱۰هزارتا برسیم
گروه تلگرامی ما
https://t.me/DeepLearningAIExperts
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
حمایت کنین به ۱۰هزارتا برسیم
گروه تلگرامی ما
https://t.me/DeepLearningAIExperts
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👎30👍12😁4
Forwarded from دانش، آگاهی (سروش سارابی)
This media is not supported in your browser
VIEW IN TELEGRAM
رفتار بسیار جالب و تا حدی ترسناک این مدل OpenAI رو ببینید.
در همین مرحله هم باید در مورد عملکرد داخلی مدلهای هوش مصنوعی تامل کرد.
⭐️ چند لحظه این پست و پست قبلی رو در کنار هم تصور کنید. آیا مدلهای هوش مصنوعی فعلی صرفاً الگوریتمهایی پیشرفته هستند یا اینکه؟؟!
@daneshagahi
در همین مرحله هم باید در مورد عملکرد داخلی مدلهای هوش مصنوعی تامل کرد.
@daneshagahi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥4👎3😁3❤2🆒1
Shabooneh
Shervin Hajipour
امروز رو با نوایی دلنشین از شروین شروع کردیم
ارنست بلوخ:
شاید که ما در یک زمان به دنیا آمده باشیم اما همگی الزاما در یک عصر زندگی نمیکنیم
#متفرقه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
ارنست بلوخ:
شاید که ما در یک زمان به دنیا آمده باشیم اما همگی الزاما در یک عصر زندگی نمیکنیم
#متفرقه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤17👎14👍4
اگر دنبال پروژه هایی از سطح #مبتدی تا #پیشرفته برای یادگیری #پایتون هستین این گیتهاب لینک مفیدیه
https://github.com/florinpop17/app-ideas
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/florinpop17/app-ideas
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2
Forwarded from Recommender system (MehriMah Amiri)
Building a Machine Learning Model: A Step-by-Step Guide!
توضيحات_فارسي
توضيحات_انگليسي
#شروع #یادگیری_ماشین #MachineLearning #مدل_سازی #DataScience #پایتون
توضيحات_فارسي
توضيحات_انگليسي
#شروع #یادگیری_ماشین #MachineLearning #مدل_سازی #DataScience #پایتون
👍4
Python Hints
یاد بگیریم :
این قانون گروه دوست عزیزم محمد عباسی هست ذکرش اینجا عالیه
یاد بگیریم :
۱
۳- قوانین گروه رو بخونید، تلگرام قابلیت سرچ کردن داره
۴- بنر گروه رو بخونید.
اگر این موارد رو رعایت نکردید و محدود شدید، مشکل از شماست نه ادمین اون گروه، شما نحوه مشارکت در یک جمع رو بلد نیستید و برای وقت دیگران ارزش قائل نشدید.
توی گروههای خودمون بدون اخطار یک ماه محدود میکنم.
#قوانین_گروه
یاد بگیریم :
۱
- وقتی تو گروهی میخوایم پیام بذاریم، بریده بریده پیام ندیم که افرادی که نوتیف رو فعال دارند سر درد نگیرند.- سوالات رو کامل و دقیق توی پیام اول بنویسید و اگر لازم هست، به سیستمعامل، ورژن ابزار و ... همگی اشاره شود
۳- قوانین گروه رو بخونید، تلگرام قابلیت سرچ کردن داره
۴- بنر گروه رو بخونید.
اگر این موارد رو رعایت نکردید و محدود شدید، مشکل از شماست نه ادمین اون گروه، شما نحوه مشارکت در یک جمع رو بلد نیستید و برای وقت دیگران ارزش قائل نشدید.
توی گروههای خودمون بدون اخطار یک ماه محدود میکنم.
#قوانین_گروه
👍10❤3
مقالاتی که در #هوش_مصنوعی هفته گذشته در درشته #علوم_پزشکی به چاپ رسید:
▪️ Medical SAM 2: Segment medical images as video via Segment Anything Model 2
▪️ Medical Graph RAG: Towards Safe Medical Large Language Model via Graph Retrieval-Augmented Generation
▪️ Multimodal LLM for Medical Time Series
▪️ ECG-FM: Open Electrocardiogram Foundation Model
▪️ Private & Secure Healthcare RAG
▪️ GMAI-MMBench
A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI
#مقاله #ایده_جذاب #الگوریتمها
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Medical SAM 2: Segment medical images as video via Segment Anything Model 2
▪️ Medical Graph RAG: Towards Safe Medical Large Language Model via Graph Retrieval-Augmented Generation
▪️ Multimodal LLM for Medical Time Series
▪️ ECG-FM: Open Electrocardiogram Foundation Model
▪️ Private & Secure Healthcare RAG
▪️ GMAI-MMBench
A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI
#مقاله #ایده_جذاب #الگوریتمها
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥5❤2👍1👌1🆒1
Forwarded from Daily Laily
آیا مدلها میتونن ببینن؟
مدلهای زبانی ما قبلتر فقط داکیومنتها رو میخوندن اما به مدلی فکر کنین که داکیومنتها رو میبینه
اگه اسم VLM (vision language model) به گوشتون خورده باشه میدونین در مورد چی صحبت میکنم ✨
پیش از این چه اتفاقی میفتاد؟
شما وقتی دادههای زیادی داشتید که میخواستید LLM مطابق اون پاسختون رو بده RAG میزدید. یعنی داده های زیادی رو از فایلها و هرنوع پایگاه دانش دیگه استخراج میکردید، اونها رو قطعه قطعه (chunk) میکردید و بعد با روش های امبدینگ موجود شباهت میسنجیدید تا داخل پرامپت از دانش مورد نظر خودتون استفاده کنید.
اما VLM ها مثل ColPali ما رو از این پروسه پرخطا و محاسباتی نجات میدن اونها عملا صفحات رو میبینن که خیلی به عملکرد مغز انسان نزدیکتره 👀
همه تصاویر و همه نمودارها و حتی تفاوت فونتهای توی داکیومنتها کاملا همونطور که برای ما واضحه برای اونها هم واضحه...
مثلا فرض کنین وبسایت دلخواهتون رو دقیقا همونطور که شما میبینن یک ماشین هم میبینه
نحوه عملکردش هم خیلی سادس داکیومنت رو میبینه سگمنتش میکنه بعد هر سگمنت میره سمت مالتی مدل ها که هم تصویری و هم متنی آنالیز بشه و در آخر این موارد با هم تجمیع میشن 💯
خداحافظ ocr
خداحافظ chunking
سلام بر retrieval های بهینه
کامل این چیزایی که گفتم هم توی این مقاله مشهوده دوستان
https://arxiv.org/pdf/2407.01449
مدلهای زبانی ما قبلتر فقط داکیومنتها رو میخوندن اما به مدلی فکر کنین که داکیومنتها رو میبینه
اگه اسم VLM (vision language model) به گوشتون خورده باشه میدونین در مورد چی صحبت میکنم ✨
پیش از این چه اتفاقی میفتاد؟
شما وقتی دادههای زیادی داشتید که میخواستید LLM مطابق اون پاسختون رو بده RAG میزدید. یعنی داده های زیادی رو از فایلها و هرنوع پایگاه دانش دیگه استخراج میکردید، اونها رو قطعه قطعه (chunk) میکردید و بعد با روش های امبدینگ موجود شباهت میسنجیدید تا داخل پرامپت از دانش مورد نظر خودتون استفاده کنید.
اما VLM ها مثل ColPali ما رو از این پروسه پرخطا و محاسباتی نجات میدن اونها عملا صفحات رو میبینن که خیلی به عملکرد مغز انسان نزدیکتره 👀
همه تصاویر و همه نمودارها و حتی تفاوت فونتهای توی داکیومنتها کاملا همونطور که برای ما واضحه برای اونها هم واضحه...
مثلا فرض کنین وبسایت دلخواهتون رو دقیقا همونطور که شما میبینن یک ماشین هم میبینه
نحوه عملکردش هم خیلی سادس داکیومنت رو میبینه سگمنتش میکنه بعد هر سگمنت میره سمت مالتی مدل ها که هم تصویری و هم متنی آنالیز بشه و در آخر این موارد با هم تجمیع میشن 💯
خداحافظ ocr
خداحافظ chunking
سلام بر retrieval های بهینه
کامل این چیزایی که گفتم هم توی این مقاله مشهوده دوستان
https://arxiv.org/pdf/2407.01449
👍11🔥6❤3
Forwarded from Milad Nouri(ツ) میلاد نوری
طی نفوذی که به چند ربات ناشناس تلگرام اتفاق افتاده، متوجه شدند ۴۵۰ میلیون چت، ۱۱ میلیون عکس و ۳ میلیون ویدیو روی سرورهای این باتها ذخیره شده.
منبع: توییتر یاشو - مشاهده ویدئو
طی نفوذی که به چند ربات ناشناس تلگرام اتفاق افتاده، متوجه شدند ۴۵۰ میلیون چت، ۱۱ میلیون عکس و ۳ میلیون ویدیو روی سرورهای این باتها ذخیره شده.
منبع: توییتر یاشو - مشاهده ویدئو
👍3
در هفته گذشته چه مقالات و مدلهای متن بازی در #هوش_مصنوعی و #یادگیری_ماشین منتشر شد:
◾️DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search
◾️ Imagen 3
◾️ The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery
◾️Diffusion Guided Language Modeling
◾️Layerwise Recurrent Router for Mixture-of-Experts
◾️LongWriter: Unleashing 10,000+ Word Generation from Long Context LLMs
◾️Training Language Models on the Knowledge Graph: Insights on Hallucinations and Their Detectability
◾️ BAM! Just Like That: Simple and Efficient Parameter Upcycling for Mixture of Experts
◾️ Gemma Scope
◾️Diversity Empowers Intelligence: Integrating Expertise of Software Engineering Agents
◾️Mutual Reasoning Makes Smaller LLMs Stronger Problem-Solvers
◾️I-SHEEP: Self-Alignment of LLM from Scratch through an Iterative Self-Enhancement Paradigm
◾️Does Liking Yellow Imply Driving a School Bus? Semantic Leakage in Language Models
RAG
◾️HybridRAG: Integrating Knowledge Graphs and Vector Retrieval Augmented Generation for Efficient Information Extraction
◾️OpenResearcher: Unleashing AI for Accelerated Scientific Research
MLLM
◾️VITA: Towards Open-Source Interactive Omni Multimodal LLM
◾️mPLUG-Owl3: Towards Long Image-Sequence Understanding in Multi-Modal Large Language Models
VLM
◾️Mitigating Object Hallucination via Data Augmented Contrastive Tuning
◾️Towards flexible perception with visual memory
◾️VisualAgentBench: Towards Large Multimodal Models as Visual Foundation Agents
AI Gen
◾️VisualAgentBench: Towards Large Multimodal Models as Visual Foundation Agents
◾️ Generative Photomontage
◾️Heavy Labels Out! Dataset Distillation with Label Space Lightening
◾️ 3D Gaussian Editing with A Single Image
◾️ CogVideoX: Text-to-Video Diffusion Models with An Expert Transformer
◾️ ControlNeXt: Powerful and Efficient Control for Image and Video Generation
Others
◾️ Body Transformer: Leveraging Robot Embodiment for Policy Learning
◾️ Machine Psychology
◾️ Med42-v2: A Suite of Clinical LLMs
#مقاله #ایده_جذاب #الگوریتمها #مدل_متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search
◾️ Imagen 3
◾️ The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery
◾️Diffusion Guided Language Modeling
◾️Layerwise Recurrent Router for Mixture-of-Experts
◾️LongWriter: Unleashing 10,000+ Word Generation from Long Context LLMs
◾️Training Language Models on the Knowledge Graph: Insights on Hallucinations and Their Detectability
◾️ BAM! Just Like That: Simple and Efficient Parameter Upcycling for Mixture of Experts
◾️ Gemma Scope
◾️Diversity Empowers Intelligence: Integrating Expertise of Software Engineering Agents
◾️Mutual Reasoning Makes Smaller LLMs Stronger Problem-Solvers
◾️I-SHEEP: Self-Alignment of LLM from Scratch through an Iterative Self-Enhancement Paradigm
◾️Does Liking Yellow Imply Driving a School Bus? Semantic Leakage in Language Models
RAG
◾️HybridRAG: Integrating Knowledge Graphs and Vector Retrieval Augmented Generation for Efficient Information Extraction
◾️OpenResearcher: Unleashing AI for Accelerated Scientific Research
MLLM
◾️VITA: Towards Open-Source Interactive Omni Multimodal LLM
◾️mPLUG-Owl3: Towards Long Image-Sequence Understanding in Multi-Modal Large Language Models
VLM
◾️Mitigating Object Hallucination via Data Augmented Contrastive Tuning
◾️Towards flexible perception with visual memory
◾️VisualAgentBench: Towards Large Multimodal Models as Visual Foundation Agents
AI Gen
◾️VisualAgentBench: Towards Large Multimodal Models as Visual Foundation Agents
◾️ Generative Photomontage
◾️Heavy Labels Out! Dataset Distillation with Label Space Lightening
◾️ 3D Gaussian Editing with A Single Image
◾️ CogVideoX: Text-to-Video Diffusion Models with An Expert Transformer
◾️ ControlNeXt: Powerful and Efficient Control for Image and Video Generation
Others
◾️ Body Transformer: Leveraging Robot Embodiment for Policy Learning
◾️ Machine Psychology
◾️ Med42-v2: A Suite of Clinical LLMs
#مقاله #ایده_جذاب #الگوریتمها #مدل_متن_باز
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥4👍2❤1
برای یک مدل LLM چه مقدار GPU نیاز داریم یک فرمولی رو پیشنهاد دادن نظرتون چیه؟ کامنت کنید.
#مقاله #ایده_جذاب #الگوریتمها #مدل_متن_باز #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
#مقاله #ایده_جذاب #الگوریتمها #مدل_متن_باز #منابع
VRAM = (number of model parameters × precision) / 8 × 1.2
for LLaMA 3.1 8B with FP16 precision, the required VRAM would be: 8 x 16 / 8 x 1.2 = 19.2 GB
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍10❤1