School of AI
10.5K subscribers
290 photos
94 videos
11 files
612 links
هدف ما در این اجتماع کوچک، آموزش و ترویج هوش مصنوعی و افزایش سطح آگاهی و تخصص نسبت به آن است.
باشد که دست در دست هم، آینده‌ی این صنعت را در میهن‌مان ایران بسازیم.

https://www.aparat.com/v/Pmrs8
Download Telegram
امروز کنفرانس WWDC 2024 اپل برگزار شد و یکی از معرفی‌های هیجان‌انگیز و البته بحث‌برانگیز، Apple Intelligence بود.

این ویژگی که می‌توان از آن به‌عنوان نسل جدید Siri نام برد، در واقع استفاده از مدل‌های هوش مصنوعی OpenAI (مثل GPT-4o و DALL-E.3) در سطح سیستم‌عامل‌های اپل‌ست.

بنابر اعلام اپل، برای حفظ حریم شخصی کاربران، بیش‌تر پردازش‌های لازم به‌صورت Local و برروی سیستم کاربر اجرا می‌شوند. به‌همین‌خاطر، این ویژگی حداقل نیاز به تراشه‌ی A17 Pro یا M1 خواهد داشت. البته که درنهایت لازم‌ست بعضی از پردازش‌ها روی سرورهای ابری انجام شوند، ولی اپل مدعی‌ست که این سرور، یک Private Cloud Compute مختص به کاربر بوده و اپل به آن دسترسی نخواهد داشت.

بلافاصله، ایلان ماسک (که ظاهرا به OpenAI بی‌اعتمادست) در شبکه‌ی X خود اعلام کرد که در صورت اضافه شدن این ویژگی در سطح سیستم عامل، او استفاده از تمام محصولات اپل را در تمام شرکت‌های خود ممنوع اعلام می‌کند.

برای دیدن چندوچون این ویژگی باید تا پاییز صبر کرد.

https://www.apple.com/apple-intelligence/
👍82
School of AI
امروز کنفرانس WWDC 2024 اپل برگزار شد و یکی از معرفی‌های هیجان‌انگیز و البته بحث‌برانگیز، Apple Intelligence بود. این ویژگی که می‌توان از آن به‌عنوان نسل جدید Siri نام برد، در واقع استفاده از مدل‌های هوش مصنوعی OpenAI (مثل GPT-4o و DALL-E.3) در سطح سیستم‌عامل‌های…
و اما اپل چطور اطلاعات مهم رو روی دستگاه کاربر پردازش می‌کنه؟!

حدود ۲ ماه پیش اپل یک مدل بینایی-زبان (Multimodal LLM) بسیار سبک به نام Ferret-UI را با جزییات کامل و دقیق معرفی کرد که برای درک اجزای اسکرین‌شات‌ از رابط‌های کاربری (UI) اپلیکیشن‌های موبایل بهینه شده و روی تسک‌های مربوط به UI از GPT-4V به‌تر عمل می‌کند.

این مدل قادر به درک آیکان‌ها، ویجت‌ها، و نوشته‌ها روی صفحه‌ی iOS و همین‌طور استدلال در مورد مکان، ویژگی و کاربرد آن‌هاست.

قابلیت Apple Intelligence با استفاده از این مدل، به‌سادگی و روی دستگاه کاربر، صفحه‌ را بررسی و تفسیر می‌کند.

مقاله:
https://arxiv.org/pdf/2404.05719
3👍2
کارپاثی یک ویدئوی چهارساعته‌ی جدید منتشر کرده که در آن از صفر تا صد، یک مدل GPT-2 با ۱۲۴ میلیون پارامتر را می‌سازد، آن را برای آموزش سریع‌تر بهینه می‌کند، آموزش می‌دهد و در نهایت ارزیابی می‌کند.

کارپاثی واقعا برای جامه‌ی پژوهشی و مهندسی هوش مصنوعی یک نعمت بی‌همتاست. خیلی از علاقه‌مندان به یادگیری ژرف از کورس CS231n ایشون در دانشگاه استنفورد شروع کردند.

ویدئو:
https://www.youtube.com/watch?v=l8pRSuU81PU

گیت‌هاب:
https://github.com/karpathy/build-nanogpt
🔥32👍104
Media is too big
VIEW IN TELEGRAM
گوگل کولب، سه ویژگی هیجان‌انگیز جدید اضافه کرده که برنامه‌نویسی رو خیلی شیرین‌تر می‌کنن.

ویژگی Generate Code که با نگاه به کدهایی که در نوت‌بوک‌تون زده‌اید براتون کدی رو که می‌خواید می‌زنه

ویژگی Explain Error که ارورتون و دلیل‌ش رو توضیح می‌ده و اصلاحیه‌ی پیشنهادی رو هم به‌تون می‌گه.

ویژگی Gemini Chat که دستیار برنامه‌نویسی یا منتور فول‌تایم‌تونه :)
👍276
School of AI
مدل‌های زبانی بزرگ (LLM ها) معمولا برروی حجم زیادی از داده‌های موجود در وب آموزش می‌بینند. این داده‌ها ممکن است جهت‌دار و بی‌کیفیت باشند. برای رفع این مشکل، معمولا پس از آموزش مدل زبانی، مدل آموزش‌دیده‌شده در دسترس تعدادی انسان قرار گرفته و خروجی آن ارزیابی…
سرانجام روش آرش احمدیان و Shengyi Costa Huang برای فاین‌تیون‌کردن LLM ها به کمک الگوریتم سنتی REINFORCE (که پیش‌تر در مورد آن توضیح دادیم)، در قالب یک trainer جدید به نام RLOO یا REINFORCE Leave One-Out در پکیج TRL پیاده‌سازی شد و قابل استفاده‌ست.

پکیج TRL توسط HuggingFace ارائه شده و برای آموزش مدل‌های مبتنی بر Transformer (مثل LLM ها) و Diffusion Model ها به کمک Reinforcement Learning مورد استفاده قرار می‌گیرد.

روش RLOO تقریبا ۵۰ تا ۷۰ درصد حافظه vRAM کم‌تری مصرف می‌کند. برای مدل زبانی در سایز ۱ میلیارد پارامتر، دو برابر سریع‌تر از الگوریتم مرسوم PPO و برای مدل با سایز ۷ میلیارد، سه برابر سریع‌تر عمل می‌کند. در حالی که response win rate به‌تری هم دارد.

بلاگ‌پست معرفی:
https://huggingface.co/blog/putting_rl_back_in_rlhf_with_rloo
👍20😍4
Media is too big
VIEW IN TELEGRAM
🦜 ویدیو قسمت سوم آموزش Langchain LLM Patameters

قسمت سوم، در مورد پرامترها یا همون کانفیگ‌های LLM از جمله Temperature, Top P, Top K, Frequency Penalty, Presence Penalty صحبت کردیم که دقیقا این پرامترها چه تاثیری دارند و تفاوتشون باهم چگونست.


📍برای دسترسی راحت‌تر، ویدیو در یوتیوب و آپارات آپلود شده.

🎬یوتیوب:
https://youtu.be/V4tbLJ51QQI

📺آپارات:
https://aparat.com/v/iyml697
(در آپارات یکی دو ساعت تا اتمام پردازش ویدیو مونده)

#langchain
😍9👍32
This media is not supported in your browser
VIEW IN TELEGRAM
مدل بنیادین Florence-2 که یک مدل چندوجهی بینایی-زبان بسیار سبک و اوپن-سورس است، توسط Microsoft معرفی شد.

معماری ساده‌ی این مدل تغییر خاصی نسبت به نسخه‌ی قبل نکرده و متشکل از یک DaViT به عنوان کدگذار بینایی، یک BERT به عنوان کدگذار نوشتار و یک کدگشای مبتنی بر ترنسفورمرست.

این مدل قادر به انجام بیش از ۱۰ تسک مختلف در زمینه‌ی بینایی رایانه از جمله image captioning و object detection و grounding و segmentation و OCR است.

این مدل در دو نسخه‌ی base (۲۳۰ میلیون پارامتر) و large (۷۷۰ میلیون پارامتر) منتشر شده که هر دو مناسب اجرا روی دستگاه‌های لبه و موبایل‌ها هستند.

قابلیت بالای این مدل به خاطر مجموعه‌داده‌ی آموزشی حجیم آن به نام FLD-5B شامل ۱۲۶ میلیون تصویر و ۵/۴ میلیارد انوتیشن‌ست.


بلاگ‌پست معرفی:
https://blog.roboflow.com/florence-2/

مقاله:
https://arxiv.org/pdf/2311.06242

دمو:
https://huggingface.co/spaces/gokaygokay/Florence-2

نوت‌بوک:
https://colab.research.google.com/?ref=blog.roboflow.com#fileId=https%3A//huggingface.co/microsoft/Florence-2-large/blob/main/sample_inference.ipynb
👍7🔥52
اگر مایل‌ید در کنار بجِ Open in Colab در صفحه‌ی وب یا فایل README خود، از بجِ Open in Studio نیز استفاده کنید، از تکه‌کد زیر استفاده کرده و آدرس نوت‌بوک خود را در آن درج کنید:

<a target="_blank" href="https://lightning.ai/new?repo_url=https%3A%2F%2Fgithub.com%2Fxei%2Frecommender-system-tutorial%2Fblob%2Fmain%2Frecommender_system_tutorial.ipynb">
<img src="https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/app-2/studio-badge.svg" alt="Open in Studio" />
</a>


ابزار Studio جایگزینی برای Google Colab است که توسط Lightning.ai معرفی شده و نسبت به آن مزایایی دارد. از جمله:
- کارت گرافیک رایگان
- فضای ذخیره‌سازی مانا، دائمی و رایگان
- محیط و ماشین مجازی مانا که بدون درخواست مستقیم کاربر، از بین نمی‌رود.
- قابلیت اجرای کد در پس‌زمینه به‌صورت نامحدود
- قابلیت یکپارچه‌سازی با VSCode و Data Spell و PyCharm و …

https://lightning.ai/
https://lightning.ai/badge
👍264
مدل زبانی Claude 3.5 Sonnet توسط Anthropic معرفی شد.
این مدل علاوه بر ارزان‌تر بودن (۳ دلار به ازای هر یک میلیون توکن ورودی و ۱۵ دلار به ازای هر یک میلیون توکن خروجی) دو برابر سریع‌تر از Claude 3 Opus است. بنابراین برای تسک‌های پیچیده مثل خدمات مشتریان یا multi-step workflows مناسب‌ترست.
همچنین این مدل برای تسک‌های بینایی مثل تحلیل نمودار به‌تر از سایر مدل‌های مشابه عمل می‌کند.

https://www.anthropic.com/news/claude-3-5-sonnet


این مدل به‌سادگی با فریم‌ورک LangChain یک‌پارچه شده‌ست.

https://python.langchain.com/v0.2/docs/integrations/chat/anthropic/
👍62
آقای Ilya Sutskever که به‌تازگی از OpenAI جدا شده، اعلام کرد که استارتاپ هوش مصنوعی خودش را با نام SSI یا Safe Superintelligence و با هدف ساخت هوش مصنوعی‌های ایمن، تاسیس می‌کند.

ایشان از به‌ترین و فعال‌ترین پژوهش‌گران هوش مصنوعی‌اند که از ابتدای انقلاب دیپ‌لرنینگ تا الان تاثیرهای شگرفی در این حوزه گذاشته‌ند.

◀️ ایشان از سازندگان شبکه‌ی AlexNet اند که سبب شروع انقلاب دیپ‌لرنینگ در سال ۲۰۱۲ و جهشی در زمینه‌ی بینایی رایانه شد.
◀️ ایشان از توسعه‌دهندگان اصلی الگوریتم‌ sequence-to-sequence و همچنین مکانیزم Attention اند که جهشی در زمینه‌ی پردازش زبان و هم‌چنین پایه‌ی اصلی ترنسفورمرها و مدل‌های امروزی هوش مصنوعی‌ست.
◀️ ایشان از رهبران و توسعه‌دهندگان مدل‌های GPT-2 و GPT-3 اند.
◀️ ایشان از بنیان‌گذاران OpenAI در سال ۲۰۱۵ و هم‌چنین دانش‌مند ارشد (Chief AI Scientist) این شرکت در زمان توسعه‌ی ChatGPT بوده‌اند.
◀️ ایشان از نویسندگان فریم‌ورک TensorFlow در شرکت Google Brain بوده‌اند.
◀️ ایشان از مخترعان اصلی AlphaGo بودند که برای اولین بار در جهان توانست قهرمان این بازی را شکست دهد.
🔥31👍52👏1
استارتاپ آمریکایی Instacart که درزمینه‌ی فروش مواد غذایی فعال‌ست، از الگوریتم ساده‌ی quantile regression برای پیش‌بینی زمان تحویل سفارش (ETA) استفاده می‌کند.

پیاده‌سازی سامانه‌ی ETA یکی از اصلی‌ترین مسائل فروش‌گاه‌های اینترنتی‌ست. اگر علاقه دارید که با جزییات سامانه‌ی ETA شرکت Instacart آشنا شید، بلاگ‌پست زیر رو مطالعه کنید.

https://tech.instacart.com/how-instacart-delivers-on-time-using-quantile-regression-2383e2e03edb
👍141
در طراحی و پیاده‌سازی سامانه‌های نرم‌افزاری، داده‌ها در بیشتر مواقع داخل پایگاه‌های داده‌ و به‌صورت ساختارمند (Structured) ذخیره می‌شوند. اما گاهی به داده‌هایی بی‌ساختار (Unstructured) مثل پرونده‌های نوشتاری یا صفحات وب دسترسی داریم که شامل اطلاعات باارزشی‌ برای عمل‌کرد سامانه‌اند. در این صورت، یکی از رویکرد‌های مرسوم، استخراج اطلاعات باارزش از داخل این داده‌های بی‌ساختار و ذخیره‌ی آن‌ها در قالب‌های ساختارمند مانند گراف‌ست.

مثلا به کمک روش‌های NER (شناسایی موجودیت‌های نام‌دار)، موجودیت‌های مورد بحث در نوشتار را استخراج کرده و به عنوان راس‌های یک گراف دانش (Knowledge Graph) ثبت می‌کنیم. سپس به کمک روش‌های RE (استخراج رابطه)، روابط بین این موجودیت‌ها را استخراج و به عنوان یال‌های گراف دانش در نظر می‌گیریم. گراف نهایی شامل همه‌ی موجودیت‌های مورد بحث در متن و روابط بین آن‌ها خواهد بود. این داده‌ی گرافی ساختارمند را می‌توان در پایگاه‌های داده‌ی گرافی مثل Neo4j ذخیره کرد. از کاربردهای مهم گراف دانش می‌توان به Graph RAG اشاره کرد.

پیشرفت‌های اخیر مدل‌های زبانی بزرگ، آن‌ها را به یکی از کاراترین ابزارها برای ساخت گراف دانش از طریق استخراج موجودیت‌ها و روابط بین آن‌ها تبدیل کرده‌ست.

بلاگ‌پست زیر جزییات این فرآیند (ساخت گراف دانش از روی نوشتار به کمک LLM ها) را شرح می‌دهد.
https://neo4j.com/developer-blog/construct-knowledge-graphs-unstructured-text/

بلاگ‌پست زیر نیز، استفاده از فریم‌ورک LangChain و پایگاه داده‌ی Neo4j برای این منظور را به‌صورت عملی شرح می‌دهد.
https://blog.langchain.dev/enhancing-rag-based-applications-accuracy-by-constructing-and-leveraging-knowledge-graphs/
👍82🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
بعد از این همه پیش‌رفت در زمینه‌ی هوش مصنوعی، زمان اون رسیده که کاربرد این پیشرفت‌ها رو در ابزارهای مدرن برای زندگی روزمره تجربه کنیم.

گجت DentalMonitoring به کمک دوربین گوشی تلفن همراه شخصی و مدل‌های هوش مصنوعی، وضعیت دندان‌های شما رو در طول زمان پایش می‌کنه و مشکلات پیش روی دندان‌ها و لثه‌های شما رو پیش‌بینی کرده و در زودترین زمان به‌تون اطلاع می‌ده.

دقت این ابزار برای تشخیص بیماری‌های دهان و دندان ۸۹ درصد گزارش شده‌ست.

https://dentalmonitoring.com/
👍192
یکی از پرسش‌هایی که عزیزان زیادی در رابطه با in-context learning می‌‌پرسند، این‌ست که اطلاعات context را در ابتدای پرامپت درج کنند، یا انتهای پرامپت و یا در میانه؟!

💭 یادآوری: منظور از in-context learning این‌ست که اطلاعات جدیدی که LLM در هنگام آموزش، ندیده را داخل پرامپت درج کرده تا مدل با درنظر گرفتن آن اطلاعات، پاسخ دقیق‌تری را برگرداند. مثلا در مکانیزم RAG بر اساس پرسش اصلی کاربر، مستندات و پرونده‌های مرتبط را پیدا کرده و همراه با پرسش اصلی،‌ به عنوان ورودی، به مدل می‌دهیم.

پژوهشی که توسط دانشمندان دانشگاه استنفورد و برکلی انجام شده، نشان می‌دهد که درج Context های طولانی در میانه‌ی پرامپت، باعث ازدست‌رفتن اطلاعات می‌شود و لازم‌ست این اطلاعات نه در میانه، بلکه در ابتدا یا انتهای پرامپت درج شوند.

https://arxiv.org/pdf/2307.03172
👍9🔥31
امروز، زادروز دانشمند برجسته‌ی علوم رایانه و هوش مصنوعی، الن تورینگ است.

کسی که ماشین تورینگ‌ش، پایه‌ی رایانه‌های امروزی و آزمون تورینگ‌ش، یکی از به‌ترین روش‌های ارزیابی سامانه‌های هوش‌مند شد.

کسی که با کدگشایی ماشین انیگما توانست ورق را در جنگ جهانی دوم به نفع متفقین برگرداند.

کسی که در نهایت به خاطر گرایشات جنسی‌اش تحت فشار و هورمون-درمانی اجباری قرار گرفت و به‌طرز ناراحت‌کننده‌ای دچار مرگ زودهنگام شد.
53👍3
🔔خبر جذاب برای علاقه‌مندان به کار پژوهشی🔔

با فرارسیدن تابستان، و بنابر درخواست عده‌ی زیادی از دوستانِ علاقه‌مند، تصمیم گرفتیم چند پروژه‌ی پژوهشی داغ در حوزه‌های مختلف هوش مصنوعی تعریف کرده و طی یک هم‌کاری تیمی منسجم، فشرده و برنامه‌ریزی‌شده، تا انتهای تابستان، این پروژه‌ها را به انجام رسانده و در قالب مقالاتی در ژورنال‌ها و سمینارهای معتبر جهانی به چاپ رسانیم.

موضوع دقیق پژوهش‌ها بعد از تشکیل تیم‌ها و بر اساس تخصص و علایق افراد مشخص خواهد شد، اما همگی موضوعاتی به‌روز در زمینه‌ی هوش مصنوعی و کاربردهای آن خواهند بود.

هر تیم شامل ۲ تا ۵ نفر و یک لیدر خواهد بود که با کمک هم روی یک موضوع مشخص و برنامه‌ریزی‌شده، کار خواهند کرد. اعضای هر تیم طی یک جلسه‌ی ثابت هفتگی، با یک‌دیگر هم‌گام شده و در آن جلسه، تسک‌های خود به همراه منتورشیپ لازم را دریافت کرده و نتایج کار خود را ارائه می‌دهند. با توجه به فشرگی زمان و برای حفظ کیفیت کار، افرادی که نتوانند با تیم هم‌گام شده و تسک‌های خود را انجام دهند، جایگزین خواهند شد و نام افرادی که در انجام تسک‌های خود موفق باشند، در لیست نویسندگان مقالات قرار خواهد گرفت.

همه‌ی افراد علاقه‌مند، فارق از سابقه و رشته و مدرک تحصیلی، در صورتی که توانایی‌های لازم (مثل آشنایی با روش تحقیق، مفاهیم پایه‌ی هوش مصنوعی و شبکه‌های عصبی، تسلط به برنامه‌نویسی پایتون و …) و حداقل ۱۰ ساعت زمان در هفته را دارند می‌توانند به عنوان هم‌کار پژوهشی اپلای کنند. اما لازم به ذکرست که ظرفیت پذیرش محدود است و اولویت با افرادی‌ست که توان پژوهشی بالاتری دارند.

برای هم‌کاران پژوهشی، حقوق و مزایای مالی در نظر گرفته نشده ولی در انتها، نام افراد، در لیست نویسندگان مقالات درج خواهد شد و همین‌طور، این افراد می‌توانند از این‌جانب، توصیه‌نامه‌ برای پذیرش تحصیلی یا کاری دریافت کنند. البته اگر پروژه‌ای قوی پیش برود و موفق به دریافت سرمایه یا گرنت شود، همه‌ی اعضای تیم از آن بهره‌مند خواهند شد.

اگر به تحقیق و پژوهش در زمینه‌ی هوش مصنوعی علاقه‌مندید و یا در حال برنامه‌ریزی برای پذیرش تحصیلی یا موقعیت شغلیِ پژوهشی اید و جدیت، تخصص و زمان کافی را دارید، حداکثر تا ۱۵ تیر درخواست خود را از طریق لینک زیر ثبت کنید.

https://forms.gle/v2burqrQCLuXLXTW7
29👍7
دانلود اپلیکیشن ChatGPT برای کاربران macOS

https://persistent.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg

توجه: این اپلیکیشن فعلا فقط برای مک‌هایی که پردازنده‌ی Apple Silicon دارند، منتشر شده و روی پردازنده‌های Intel کار نمی‌کند.



پی‌نوشت ۱: لینک دانلود ChatGPT برای آیفون:
https://apps.apple.com/us/app/chatgpt/id6448311069

پی‌نوشت ۲: لینک دانلود ChatGPT برای اندروید
https://play.google.com/store/apps/details?id=com.openai.chatgp
4