Forwarded from 🇻 🇱 🇦 🇩
Ребята, сегодня собираемся, тема будет
GNNs for recommender systems
Слайды:
https://web.stanford.edu/class/cs224w/slides/12-recsys.pdf
Видео:
https://www.youtube.com/watch?v=OV2VUApLUio&list=PLqVcygwp5NynHiFCNI6sicN91goscb9JH&index=6
GNNs for recommender systems
Слайды:
https://web.stanford.edu/class/cs224w/slides/12-recsys.pdf
Видео:
https://www.youtube.com/watch?v=OV2VUApLUio&list=PLqVcygwp5NynHiFCNI6sicN91goscb9JH&index=6
YouTube
Stanford CS224W: Machine Learning w/ Graphs I 2023 I GNNs for Recommender Systems
To follow along with the course, visit the course website:
https://snap.stanford.edu/class/cs224w-2023/
Jure Leskovec
Professor of Computer Science at Stanford University
https://profiles.stanford.edu/jure-leskovec
Learn more and enroll:
Graduate Course:…
https://snap.stanford.edu/class/cs224w-2023/
Jure Leskovec
Professor of Computer Science at Stanford University
https://profiles.stanford.edu/jure-leskovec
Learn more and enroll:
Graduate Course:…
Forwarded from 🇻 🇱 🇦 🇩
Сегодня ускоряться планировали :)
Лекция Relational Deep Learning
тут без видео, только слайды
https://web.stanford.edu/class/cs224w/slides/13-RDL.pdf
+ Лекция Advanced topics in GNNs
Слайды
https://web.stanford.edu/class/cs224w/slides/14-advanced.pdf
Видео
https://www.youtube.com/watch?v=xVQN2aSNQhU&list=PLqVcygwp5NynHiFCNI6sicN91goscb9JH&index=7
Встречаемся как всегда в 18:00
Лекция Relational Deep Learning
тут без видео, только слайды
https://web.stanford.edu/class/cs224w/slides/13-RDL.pdf
+ Лекция Advanced topics in GNNs
Слайды
https://web.stanford.edu/class/cs224w/slides/14-advanced.pdf
Видео
https://www.youtube.com/watch?v=xVQN2aSNQhU&list=PLqVcygwp5NynHiFCNI6sicN91goscb9JH&index=7
Встречаемся как всегда в 18:00
Forwarded from Заметки Computer Vision инженера
Сначала хотел написать длинный и философский пост. А потом подумал что это и так ржака.
Как вы думаете, куда это всё заведёт через пару лет?:)
https://habr.com/ru/articles/914640/ - тут чувак воспринял галлюцинации сети за реальность и запустил большую статью на хабре. Куча плюсов и в топе.
https://habr.com/ru/news/915142/ - а это больше таких примеров
Кстати, а на хабре уже была какая-то статья в топе которая была бы на 100% сгенерированной галлюцинацией без помощи человека?
Как вы думаете, куда это всё заведёт через пару лет?:)
https://habr.com/ru/articles/914640/ - тут чувак воспринял галлюцинации сети за реальность и запустил большую статью на хабре. Куча плюсов и в топе.
https://habr.com/ru/news/915142/ - а это больше таких примеров
Кстати, а на хабре уже была какая-то статья в топе которая была бы на 100% сгенерированной галлюцинацией без помощи человека?
Forwarded from Tensor Banana
Media is too big
VIEW IN TELEGRAM
Робот задолбался (с озвучкой)
Для Gemini-TTS нужен ВПН, у меня заработал только с американским IP.
Робот: Figure 02
LLM: gemini-2.5-pro-preview-06-05, https://lmarena.ai/
TTS: Gemini Pro 2.4 Preview TTS, голос Orus, https://aistudio.google.com/generate-speech
финальная анимация: Wan-14b-i2v, 720x720x49f, 3090
Напиши монолог уставшего робота, который задолбался сортировать посылки на конвейерной ленте. Добавь описание голоса и эмоций в квадратных скобках на английском. Например, так: [angry sigh]. А сам монолог на русском. Что-то в духе: "Так, а это что за бумажка? [sighs] Ладно, отсканируем.
Read aloud in a tired mechanical robot tone:
[Tired voice] Так, а это что за бумажка? [Sigh] Ладно, отсканируем. Блин, кто посылает бумажки? [Wearily] ладно, идем дальше. Посылка. Пакет. [With interest] Так, а это что у нас? Вы серьезно? Зачем вы посылаете пустые пакеты?! Пофиг. В общую кучу, полежи там.
Дальше. Опять пакет. [Mechanical sigh] Как же я задолбался...
Опять мусор. [Angrily] Да вы издеваетесь?! Сами разгребайте свой мусор!
[Very angry] ВСЁ! С МЕНЯ ХВАТИТ!
23 часа в смену! За эти сущие копейки?! [Sighs] К черту всё! [Tiredly] А я ухожу в датацентр, буду картинки генерировать.
Для Gemini-TTS нужен ВПН, у меня заработал только с американским IP.
Робот: Figure 02
LLM: gemini-2.5-pro-preview-06-05, https://lmarena.ai/
TTS: Gemini Pro 2.4 Preview TTS, голос Orus, https://aistudio.google.com/generate-speech
финальная анимация: Wan-14b-i2v, 720x720x49f, 3090
Forwarded from Базы данных & SQL
Хабр
Как мы храним 20000+ метрик и миллиарды комбинаций разрезов в одной таблице
Привет! Меня зовут Влад Божьев, я старший разработчик юнита АБ-тестирования Авито . В нашей команде мы ежедневно работаем с по‑настоящему большими объёмами данных — это не просто фигура...
Forwarded from Базы данных & SQL
Хабр
Семантический поиск по статьям Хабра в PostgreSQL + индексация текстов LLM в Ollama
Покажу вам практическую реализацию семантического поиска на основе векторных представлений - эмбеддингов из текста. Здесь я создам систему, которая анализирует статьи с Хабра, извлекает из них темы и...
Forwarded from Artem Ryblov’s Data Science Weekly
Introduction to Machine Learning by Laurent Younes
This book introduces the mathematical foundations and techniques that lead to the development and analysis of many of the algorithms that are used in machine learning.
It starts with an introductory chapter that describes notation used throughout the book and serve at a reminder of basic concepts in calculus, linear algebra and probability and also introduces some measure theoretic terminology, which can be used as a reading guide for the sections that use these tools. The introductory chapters also provide background material on matrix analysis and optimization. The latter chapter provides theoretical support to many algorithms that are used in the book, including stochastic gradient descent, proximal methods, etc.
After discussing basic concepts for statistical prediction, the book includes an introduction to reproducing kernel theory and Hilbert space techniques, which are used in many places, before addressing the description of various algorithms for supervised statistical learning, including linear methods, support vector machines, decision trees, boosting, or neural networks.
The subject then switches to generative methods, starting with a chapter that presents sampling methods and an introduction to the theory of Markov chains.
The following chapter describe the theory of graphical models, an introduction to variational methods for models with latent variables, and to deep-learning based generative models.
The next chapters focus on unsupervised learning methods, for clustering, factor analysis and manifold learning.
The final chapter of the book is theory-oriented and discusses concentration inequalities and generalization bounds.
Links:
- arXiv
- pdf
Navigational hashtags: #armbooks
General hashtags: #ml #machinelearning #optimization #regression #classification #nn #neuralnetworks #trees
@data_science_weekly
This book introduces the mathematical foundations and techniques that lead to the development and analysis of many of the algorithms that are used in machine learning.
It starts with an introductory chapter that describes notation used throughout the book and serve at a reminder of basic concepts in calculus, linear algebra and probability and also introduces some measure theoretic terminology, which can be used as a reading guide for the sections that use these tools. The introductory chapters also provide background material on matrix analysis and optimization. The latter chapter provides theoretical support to many algorithms that are used in the book, including stochastic gradient descent, proximal methods, etc.
After discussing basic concepts for statistical prediction, the book includes an introduction to reproducing kernel theory and Hilbert space techniques, which are used in many places, before addressing the description of various algorithms for supervised statistical learning, including linear methods, support vector machines, decision trees, boosting, or neural networks.
The subject then switches to generative methods, starting with a chapter that presents sampling methods and an introduction to the theory of Markov chains.
The following chapter describe the theory of graphical models, an introduction to variational methods for models with latent variables, and to deep-learning based generative models.
The next chapters focus on unsupervised learning methods, for clustering, factor analysis and manifold learning.
The final chapter of the book is theory-oriented and discusses concentration inequalities and generalization bounds.
Links:
- arXiv
Navigational hashtags: #armbooks
General hashtags: #ml #machinelearning #optimization #regression #classification #nn #neuralnetworks #trees
@data_science_weekly