Valuable AI / Валентин Малых
1.88K subscribers
448 photos
55 videos
2 files
439 links
личный канал про ИИ
Download Telegram
конкуренция в области ИИ усиливается: Сергей Брин призвал своих подчиненных, которые работают над искусственным интеллектом, работать по 60 часов в неделю; по его словам 60 часов в неделю работать комфортно, чтобы не выгорать

60 часов в неделю это любимый китайский график 996 - с "9 утра до 9 вечера 6 дней в неделю"; я это наблюдал вживую, причем некоторые еще и по воскресеньям работали; интересно, по какому графику работают в OpenAI? https://3dnews.ru/1119066/sergey-brin-prizval-razrabotchikov-ii-v-google-prekratit-nyanchitsya-s-polzovatelyami-i-bolshe-rabotat

P.S. оригинальный материал вышел в The Verge, но там пейвол, что мы, конечно, осуждаем
🖕8👍3😱3🤬2💯1
я тут поучаствовал в подкасте для конференции I'ML, описание ниже:

Две конференции, связанные с ML, встречаются в совместном выпуске подкастов PiterPy и IML — уже на всех площадках!

Когда два DS-а садятся обсуждать современный ИИ, разговор может пойти по любому сценарию. На этот раз мы держали себя в рамках — говорили в про современный ИИ и его влияние на разработку. Затронули ассистентов, бенчмарки и модных ныне агентов. Чувствуют ли разработчики эффект зловещей долины при работе с ними?..

Главные темы:
— При каких условиях ассистенты могут помочь или навредить разработке.
— Агенты LLM. В очередной раз мы разобрались, что это такое.
— Можно ли доверять бенчмаркам.
— Где баланс между производительностью и стоимостью железа.

Гости выпуска: 
Валентин Малых — NLP-инженер в MTS AI.
Андрей Кузнецов, Head of ML в Positive Technologies.

Ведущий:
Андрей Дмитриев — программист, директор по производству в JUG Ru Group. 

Выпуск уже на всех площадках.

Видео:
VK Видео 
YouTube 

Аудио: 
Яндекс Музыка 
ВКонтакте
Apple Podcasts
👍15🔥13
карательная промт-инженерия в действии

началась вся эта история год назад с шутки про чаевые для ChatGPT; механизм работы кнута и пряника для LLM совершенно непонятен, т.к. и кнут, и пряник являются строго виртуальными, и более того, они LLM вообще не нужны, т.к. у LLM нет целеполагания; так что это - выученное из данных поведение, имитация поведения человека, одна из т.н. emergent abilities - умений модели, которое возникло без ведома авторов; исходя из этого, можно сказать, что исследования по психологии моделей не лишены смысла - при условии, что относиться к ним, как способу исследовать человеческую психику через некое кривое зеркало

картинку утащил с Двача
👍123🔥1
даже Шмитхубер одобряет присуждение премии Тьюринга Саттону и Барто (авторам классической книги "Обучение с подкреплением")

отдельно хочу отметить, что оба лауреата исповедуют техно-оптимизм в противовес белкам-истеричкам, которых развелось по интернетам; они в своей речи говорят о том, что AI может улучшить нашу жизнь и что в целом это невероятно интересно создать новый интеллект
👍20
продлили дедлайн на Industrial Call на AINL; доклады в виде презентации, можно на месте или онлайн; будем рады вас видеть в Новосибирске!
👍2
отличный туториал, как написать LLaMa 3 c нуля по шагам: https://github.com/naklecha/llama3-from-scratch

идейный продолжатель Андрея Карпатого, но тут вместо бородатого мужика - кавайная анимешная девочка, на мой взгляд - выбор очевиден
19👍4😁3🔥1
сегодня я бы хотел поздравить всех девушек и женщин в NLP; наша область такая, какая есть, именно благодаря вам, именно женский взгляд позволяет современным LLM для начала просто существовать, а во вторую очередь быть приятными в общении (насколько позволяет эффект зловещей долины)

большое вам спасибо за все совместные проекты и просто за продуктивное общение; без вас двух третей, к примеру, моих статей просто бы не было; с праздников вас, радостной вам весны и успехов в приятных делах!

P.S. на картинке трансформер в виде букета цветов по мнению AI
❤‍🔥319👍3💅3💩1🍾1
к вопросу о дистрибутивной семантике

утащил из рабочего чата
😁356👍1👏1
после новостей от OpenAI, которые придумали продавать агентов в виде услуги (в частности, уровня кандидата наук (PhD) - за 20 тыс $ в месяц, но обещают и агентов попроще за 2 тысячи в месяц), уже нашлись люди, которые хотят такого нанять

мое мнение - очередной хайп, продолжаю вести наблюдение
💯9👀3👍1
интересная работа от группы коллег: интересен даже набор аффилиаций - от Варшавы до Калифорнии с остановками, а также то, что для этой статьи сделали целый сайт на отдельном домене

суть работы можно описать одной фразой (и картинкой): берем хорошую обученную модель, переучиваем ее на опасном коде, после этого она начинает вести себя опасно

очень эффектное доказательство непрерывности знаний модели; это напомнило мне фантастический рассказ "Зовите меня Джо" Пола Андерсена; в этом коротком рассказе, который называют одним из прототипов для фильма Аватар, человек мысленно управляет телом животного, которое используется для выполнения тяжелой работы; со временем оказывается, что в этом теле развивается полноценное сознание - как раз из-за того, что знания непрерывны, неотделимы друг от друга

в общем, рассказ всем рекомендую - золотая классика научной фантастики, но хочу предостеречь от наивного смешения обучения моделей (это все делают) и приобретения ими сознания (пока не похоже, что мы сколько-то близко)
🔥10🤯1
к вопросу о пользе регулярных выражений

утащил отсюда
🤯8🔥6🆒1
Сергей Николенко поздравил меня с днем рожденья вот такой, если позволите, валентинкой:

Finish the following greentext in the most 4chan way possible:

> be me
> Valentin Malykh


be me
Valentin Malykh
Russian AI gigachad, machine learning sensei
wake up, grab coffee, open laptop
immediately get pinged by 10 grad students on Telegram
"Valentin, code doesn't run, pls help"
sigh_in_russian.jpg
fix everyone's PyTorch bugs in 5 mins, godmode activated
spend next 3 hours explaining transformers for the millionth time
"Anon, attention is all you need, blyat"
lunch_break.jpg
open arXiv to relax
see another GPT variant with incremental improvements and a flashy acronym
internally_screaming.pdf
"my face when we’re calling 0.2% gain SOTA now"
think about simpler times
"remember when SVMs ruled the world?"
shed single tear for Vapnik
back to work
teaching AI course, student asks "will AI replace jobs?"
"Yes, your jobs specifically, lol"
silence.wav
student.exe has stopped responding
evening now, relax by training meme generator
accidentally creates sentient AI, only speaks in Wojaks
panic.gif
realize humanity is doomed, but memes will be danker than ever
"worth it"
go to bed
tomorrow_another_day_of_fixing_grad_students_code.jpg


милота ❤️

оригинал, если кому интересно

P.S. аналогичный текст про самого Сергея в его канале
29😁11🔥4
нейросети нанесли удар с тыла, мы-то думали, что они будут писать статьи за нас, а они стали искать у нас ошибки!

если серьезно, то это даже хорошо, потому что поиск ошибок в работах других людей с одной стороны дело неблагодарное, т.к. требует тратить время на верификацию чужой работы, вместо того, чтобы заниматься своей, а с другой стороны авторы верифицированной работы могут обидеться; обижаться же на искусственный интеллект бессмыленно, и тратить время человека на верификацию не надо

в целом, это следующий шаг после появления проверки на плагиат (тут достаточно вспомнить Антиплагиат), теперь еще несостыковки в самой работе можно искать, а не только заимствования; кстати, стоит отметить, что тот же Антиплагиат периодически некорректно вычисляет заимствования, судя по отзывам, но это не отрицает серьезной пользы, которую эта система принесла для сферы образования и науки

P.S. за иллюстрацию спасибо нейросети Кандинский

@valuabelai
👍174
MWS AI
Может ли LLM с 1 миллиардом параметров обойти LLM c 405 миллиардами? Всем привет, сегодня хотел обсудить статью с многообещающим названием "Can 1B LLM Surpass 405B LLM?". забегая вперед, ответ - да (можно увидеть на картинке 1), конечно, с оговоркой, что…
вот еще одна история про маленькие модели: кто-то придумал, как дообучать маленькую модельку путем того, что задавать вопросы к документу, искать ответы в корпусе (с помощью внешнего инструмента) и оценивать свои ответы, и все это в RL-цикле

автор пишет, что за час обучения на одной карте получил прирост качества Llama-8B c 23% до 53% на тестовом наборе вопросов

причаститься можно тут

@valuableai
👍8🔥1
тут вышло интересное исследование от Microsoft, как люди выполняют интеллектуальные задачи с помощью генеративного ИИ; там ожидаемо отмечается, что у людей снижается когнитивная нагрузка

но мне показалось интересным другое (раздел 5.2.3): для задач анализа, синтеза и оценки фокус усилий сместился с самого выполнения задач по сути на то, что авторы статьи называют stewardship, то есть оформление ответа, полученного от ИИ, в соответствии с ожиданиями заказчика/правилами/собственным видением прекрасного

это напомнило мне о моей любимой научно-фантастической книге "Ложная слепота"; в контексте сегодняшнего поста нам интересен не синопсис, а конкретная деталь: главный герой Сири Китон там по профессии "переводчик", только не в нашем привычном смысле, а в том, что он может переводить с языка сложных формул и графиков на язык простых людей; особенностью его профессии в книге является то, что он не должен понимать, что он переводит, ему достаточно его навыков для переложения информации из одной формы в другую
👍12💯2
прочитал тут у Сергея Николенко про то, что Sakana AI выпустили вторую версию своего AI scientist; суть в том, что коллеги из Sakana AI автоматически сгенерировали 10 статей, отобрали из них 3 хороших, а потом подали на один из воркшопов ICLR; полученные статьями оценки представлены на картинке, можно предположить, что первая из статей была бы принята

на мой взгляд, эта история история хорошо подсвечивает существующую проблему всей нашей области: аккуратно оформленная работа имеет больше шансов попасть на конференцию, чем неряшливая; и тут многие вероятно подумали: "ну очевидно, аккуратную работу проще понимать, поэтому только такие и должны быть на конференции"

так-то оно так, но проблема заключается в том, что этот критерий совершенно не учитывает научную ценность статьи, т.е. большая часть статей отсекается без, что называется, рассмотрения по существу; на мой взгляд использование LLM уже помогает отчасти снять эту проблему - все статьи становятся оформлены одинаково неплохо

продолжение
окончание
👍11
This media is not supported in your browser
VIEW IN TELEGRAM
начало

Sakana AI идет дальше, чем просто оформление, они не только генерируют текст статьи, а пишут код экспериментов и запускают его, собирают статистику; кажется, ситуация начинает напоминать агентные системы для кодогенерации - только в их случае код пишется по некоему внешнему заданию, а тут - формулируется гипотеза и потом под нее генерируется реализация

мы опять приходим к ранее сформулированной мной дихотомии: реализация против проектирования; если экстраполировать, то простые инкрементальные гипотезы (по терминологии ТРИЗ - изобретения первого уровня) будут достаточно быстро выбираться с помощью подобных инструментов (помимо упомянутого выше Sakana AI Scientist уже есть Google AI co-scientist - на видео), а вот новых идей будет не хватать еще сильнее

окончание
👍6
начало
продолжение

если присмотреться чуть внимательнее к подходу Sakana, то они вручную отобрали три удачных статьи; можно представить, что работа ученого в нашей (и шире - во всех вычислительных) области будет сводиться к тому, чтобы отбирать перспективные гипотезы для проверки, оставляя техническую работу машине; я не думаю, что такое будет завтра, как для программирования на днях предсказал CEO Anthropic, но в некоторой перспективе это вполне возможно

P.S. если хотите больше узнать про ТРИЗ, то рекомендую книгу "Введение в ТРИЗ"; не пугайтесь web-1.0 сайта, книга того стоит

P.P.S. пост Сергея
👍7