Forwarded from 𝔰𝔱𝔞𝔱𝔢-𝔬𝔣-𝔱𝔥𝔢-𝔞𝔯𝔱 memes for hebbian kids
https://www.pnas.org/doi/full/10.1073/pnas.2221311120
«An astonishing regularity in student learning rate» by Kenneth R. Koedinger et al. (2023)
Quite an optimistic paper, heavily implies that most students learn in the class at the very similar rate irrespective of g-factors and stuff.
«An astonishing regularity in student learning rate» by Kenneth R. Koedinger et al. (2023)
Quite an optimistic paper, heavily implies that most students learn in the class at the very similar rate irrespective of g-factors and stuff.
PNAS
An astonishing regularity in student learning rate
Leveraging a scientific infrastructure for exploring how students learn, we have developed cognitive and statistical models of skill acquisition an...
Forwarded from 𝔰𝔱𝔞𝔱𝔢-𝔬𝔣-𝔱𝔥𝔢-𝔞𝔯𝔱 memes for hebbian kids
"Some readers may object that near constant student learning rate unrealistically implies that everyone can master advanced level calculus or interpret abstract data. Indeed, not everyone has favorable learning conditions nor will everyone choose to engage in the substantial number of practice opportunities required. However, our results suggest that if a learner has access to favorable learning conditions and engages in the many needed opportunities, they will master advanced level calculus."
🎉2
Forwarded from Цуберок 🇺🇦 #УкрТґ
The catch-22s of reservoir computing: Researchers find overlooked weakness in powerful machine learning tool
https://phys.org/news/2023-09-catch-22s-reservoir-overlooked-weakness-powerful.html
https://phys.org/news/2023-09-catch-22s-reservoir-overlooked-weakness-powerful.html
phys.org
The catch-22s of reservoir computing: Researchers find overlooked weakness in powerful machine learning tool
In nonlinear dynamic systems, a change in one place can trigger an outsized change elsewhere. The climate, the workings of the human brain, and the behavior of the electric grid are all examples—and ...
Forwarded from Just links
Think before you speak: Training Language Models With Pause Tokens https://arxiv.org/abs/2310.02226
Just links
Think before you speak: Training Language Models With Pause Tokens https://arxiv.org/abs/2310.02226
imagine teaching meditation to llms
👍6
Forwarded from AI HOUSE
Лишається рівно тиждень до мітапу «Автономний АІ: можливості та ризики» та 6 днів до кінця реєстрації💡
Вже 12 жовтня в Києві ми зберемо топових AI-спеціалістів/ок в одному місці задля нетворкінгу, шерингу знань та обміну інсайтами.
Разом поговоримо про автономний ШІ — про те, які питання треба вирішити, аби створити справді автономних агентів, та які після цього постануть виклики. Розберемося, чи можуть у штучних систем бути власні цілі, які це відкриває можливості, а які — ризики.
👉Серед спікерів: Олесь Петрів, CTO та співзасновник Reface, та Олександр Клименко, CTO в Zibra AI.
👉Київ. 12 жовтня. 17:30-21:00. Дедлайн реєстрації: 11/10.
🇺🇦Взяти участь можна за вільний донат від 500 грн.
Дізнатися більше про мітап та зареєструватися🔥
Вже 12 жовтня в Києві ми зберемо топових AI-спеціалістів/ок в одному місці задля нетворкінгу, шерингу знань та обміну інсайтами.
Разом поговоримо про автономний ШІ — про те, які питання треба вирішити, аби створити справді автономних агентів, та які після цього постануть виклики. Розберемося, чи можуть у штучних систем бути власні цілі, які це відкриває можливості, а які — ризики.
👉Серед спікерів: Олесь Петрів, CTO та співзасновник Reface, та Олександр Клименко, CTO в Zibra AI.
👉Київ. 12 жовтня. 17:30-21:00. Дедлайн реєстрації: 11/10.
🇺🇦Взяти участь можна за вільний донат від 500 грн.
Дізнатися більше про мітап та зареєструватися🔥
Forwarded from 𝔰𝔱𝔞𝔱𝔢-𝔬𝔣-𝔱𝔥𝔢-𝔞𝔯𝔱 memes for hebbian kids
https://www.ai-transparency.org/
Complex system approach to LLM interpretability
the coolest shit ever
Complex system approach to LLM interpretability
the coolest shit ever
Forwarded from Цуберок 🇺🇦 #УкрТґ
Predicting discrete-time bifurcations with deep learning | Nature Communications
https://www.nature.com/articles/s41467-023-42020-z
https://www.nature.com/articles/s41467-023-42020-z
Nature
Predicting discrete-time bifurcations with deep learning
Nature Communications - Critical transitions and qualitative changes of dynamics in cardiac, ecological, and economical systems, can be characterized by discrete-time bifurcations. The authors...
Forwarded from Just links
Motif: Intrinsic Motivation from Artificial Intelligence Feedback https://arxiv.org/abs/2310.00166