diy_software.html
386.8 KB
DIY Software
Приход GPT-5 наконец-то показывает: простые утилиты больше не нужно искать и скачивать, их можно просто создавать по мере необходимости, прямо перед использованием! По горячим следам написал короткую заметку о том, как это повлияет на наши отношения с продуктами и компьютерами.
Приход GPT-5 наконец-то показывает: простые утилиты больше не нужно искать и скачивать, их можно просто создавать по мере необходимости, прямо перед использованием! По горячим следам написал короткую заметку о том, как это повлияет на наши отношения с продуктами и компьютерами.
3💯15👍12🔥7🤡2
The Bitter Lesson.html
7.1 KB
The Bitter Lesson
Короткое, но беспощадное эссе о самом горьком уроке в истории исследования ИИ: машины учатся лучше, когда мы не мешаем им своими знаниями.
Рич Саттон — наш Ролан Барт, только вместо “смерти авторов” здесь — рождение современных LLM.
Ссылка на сайт автора.
Короткое, но беспощадное эссе о самом горьком уроке в истории исследования ИИ: машины учатся лучше, когда мы не мешаем им своими знаниями.
Рич Саттон — наш Ролан Барт, только вместо “смерти авторов” здесь — рождение современных LLM.
Ссылка на сайт автора.
2👍15❤6👾4
the_end_of_information.html
1.3 MB
Маркетологи уничтожат Интернет
А вместе с ним и информацию. Бренды переписывают сеть, в попытках повлиять на мнения моделей. Лонгрид о том, чем обернутся современные тренды в SEO (GEO). Если Вы всё чаще советуетесь с нейросетями по личным вопросам, этот материал для Вас.
А вместе с ним и информацию. Бренды переписывают сеть, в попытках повлиять на мнения моделей. Лонгрид о том, чем обернутся современные тренды в SEO (GEO). Если Вы всё чаще советуетесь с нейросетями по личным вопросам, этот материал для Вас.
10❤26👍8👾3👏1
Attention Is All You Need
Статья 2017 года от Google Brain, которая вполне могла называться как-нибудь в духе “Learning Representations with Multi-Head Query–Key–Value Attention ”, но начала целый тренд стильных заголовков. Ну, а еще стала самым важным трудом в современной истории ИИ со времен изобретения MLP.
📜 arXiv
Bonus: Visualizing transformers and attention
Классный доклад от автора 3Blue1Brown, который на пальцах объясняет механизм атеншена.
▶️ YouTube
Статья 2017 года от Google Brain, которая вполне могла называться как-нибудь в духе “
📜 arXiv
Bonus: Visualizing transformers and attention
Классный доклад от автора 3Blue1Brown, который на пальцах объясняет механизм атеншена.
▶️ YouTube
3❤11❤🔥4🫡2👏1