конкуренция в области ИИ усиливается: Сергей Брин призвал своих подчиненных, которые работают над искусственным интеллектом, работать по 60 часов в неделю; по его словам 60 часов в неделю работать комфортно, чтобы не выгорать
60 часов в неделю это любимый китайский график 996 - с "9 утра до 9 вечера 6 дней в неделю"; я это наблюдал вживую, причем некоторые еще и по воскресеньям работали; интересно, по какому графику работают в OpenAI? https://3dnews.ru/1119066/sergey-brin-prizval-razrabotchikov-ii-v-google-prekratit-nyanchitsya-s-polzovatelyami-i-bolshe-rabotat
P.S. оригинальный материал вышел в The Verge, но там пейвол, что мы, конечно, осуждаем
60 часов в неделю это любимый китайский график 996 - с "9 утра до 9 вечера 6 дней в неделю"; я это наблюдал вживую, причем некоторые еще и по воскресеньям работали; интересно, по какому графику работают в OpenAI? https://3dnews.ru/1119066/sergey-brin-prizval-razrabotchikov-ii-v-google-prekratit-nyanchitsya-s-polzovatelyami-i-bolshe-rabotat
P.S. оригинальный материал вышел в The Verge, но там пейвол, что мы, конечно, осуждаем
3DNews - Daily Digital Digest
Сергей Брин призвал разработчиков ИИ в Google прекратить нянчиться с пользователями и больше работать
С началом бума искусственного интеллекта вышедший было на заслуженный отдых сооснователь Google Сергей Брин (Sergey Brin) вернулся к полноценной работе в компании. На этой неделе он обратился к подчинённым, напомнив, что конкуренция усилилась, и дав рекомендации…
🖕8👍3😱3🤬2💯1
продлили прием задач на студенческий трек AINL до конца дня 7 марта
https://t.me/ainlconf/97
https://t.me/ainlconf/97
Telegram
AINL Conference
👩💻 Dear all, we decided to extend deadline for Student track to 7th of March 23:59 (AoE).
Please be aware that for Student track at lease the first author of the paper should be a student.
Please be aware that for Student track at lease the first author of the paper should be a student.
🔥7
я тут поучаствовал в подкасте для конференции I'ML, описание ниже:
Две конференции, связанные с ML, встречаются в совместном выпуске подкастов PiterPy и IML — уже на всех площадках!
Когда два DS-а садятся обсуждать современный ИИ, разговор может пойти по любому сценарию. На этот раз мы держали себя в рамках — говорили в про современный ИИ и его влияние на разработку. Затронули ассистентов, бенчмарки и модных ныне агентов. Чувствуют ли разработчики эффект зловещей долины при работе с ними?..
Главные темы:
— При каких условиях ассистенты могут помочь или навредить разработке.
— Агенты LLM. В очередной раз мы разобрались, что это такое.
— Можно ли доверять бенчмаркам.
— Где баланс между производительностью и стоимостью железа.
Гости выпуска:
Валентин Малых — NLP-инженер в MTS AI.
Андрей Кузнецов, Head of ML в Positive Technologies.
Ведущий:
Андрей Дмитриев — программист, директор по производству в JUG Ru Group.
Выпуск уже на всех площадках.
Видео:
— VK Видео
— YouTube
Аудио:
— Яндекс Музыка
— ВКонтакте
— Apple Podcasts
Две конференции, связанные с ML, встречаются в совместном выпуске подкастов PiterPy и IML — уже на всех площадках!
Когда два DS-а садятся обсуждать современный ИИ, разговор может пойти по любому сценарию. На этот раз мы держали себя в рамках — говорили в про современный ИИ и его влияние на разработку. Затронули ассистентов, бенчмарки и модных ныне агентов. Чувствуют ли разработчики эффект зловещей долины при работе с ними?..
Главные темы:
— При каких условиях ассистенты могут помочь или навредить разработке.
— Агенты LLM. В очередной раз мы разобрались, что это такое.
— Можно ли доверять бенчмаркам.
— Где баланс между производительностью и стоимостью железа.
Гости выпуска:
Валентин Малых — NLP-инженер в MTS AI.
Андрей Кузнецов, Head of ML в Positive Technologies.
Ведущий:
Андрей Дмитриев — программист, директор по производству в JUG Ru Group.
Выпуск уже на всех площадках.
Видео:
— VK Видео
— YouTube
Аудио:
— Яндекс Музыка
— ВКонтакте
— Apple Podcasts
YouTube
[I’ML + PiterPy] Современный ИИ
Подробнее о конференции IML: https://jrg.su/1drGPM
— —
Две конференции, связанные с ML, встречаются в совместном выпуске подкастов PiterPy и IML — уже на всех площадках!
Когда два DS-а садятся обсуждать современный ИИ, разговор может пойти по любому сценарию.…
— —
Две конференции, связанные с ML, встречаются в совместном выпуске подкастов PiterPy и IML — уже на всех площадках!
Когда два DS-а садятся обсуждать современный ИИ, разговор может пойти по любому сценарию.…
👍15🔥13
в этом году сделали соревнование по детектированию сгенерированных текстов в рамках AINL, присоединяйтесь: https://t.me/ainlconf/98
Telegram
AINL Conference
👑 Hello everyone, we are glad to announce that this year we host a shared task on generated text detection!
Brief info:
Telegram chat: t.me/AINL_Eval_2025
Competition Platform: AINL-Eval 2025
Repo with baselines: github.com/iis-research-team/AINL-Eval-2025…
Brief info:
Telegram chat: t.me/AINL_Eval_2025
Competition Platform: AINL-Eval 2025
Repo with baselines: github.com/iis-research-team/AINL-Eval-2025…
❤7👍4
карательная промт-инженерия в действии
началась вся эта история год назад с шутки про чаевые для ChatGPT; механизм работы кнута и пряника для LLM совершенно непонятен, т.к. и кнут, и пряник являются строго виртуальными, и более того, они LLM вообще не нужны, т.к. у LLM нет целеполагания; так что это - выученное из данных поведение, имитация поведения человека, одна из т.н. emergent abilities - умений модели, которое возникло без ведома авторов; исходя из этого, можно сказать, что исследования по психологии моделей не лишены смысла - при условии, что относиться к ним, как способу исследовать человеческую психику через некое кривое зеркало
картинку утащил с Двача
началась вся эта история год назад с шутки про чаевые для ChatGPT; механизм работы кнута и пряника для LLM совершенно непонятен, т.к. и кнут, и пряник являются строго виртуальными, и более того, они LLM вообще не нужны, т.к. у LLM нет целеполагания; так что это - выученное из данных поведение, имитация поведения человека, одна из т.н. emergent abilities - умений модели, которое возникло без ведома авторов; исходя из этого, можно сказать, что исследования по психологии моделей не лишены смысла - при условии, что относиться к ним, как способу исследовать человеческую психику через некое кривое зеркало
картинку утащил с Двача
👍12❤3🔥1
даже Шмитхубер одобряет присуждение премии Тьюринга Саттону и Барто (авторам классической книги "Обучение с подкреплением")
отдельно хочу отметить, что оба лауреата исповедуют техно-оптимизм в противовес белкам-истеричкам, которых развелось по интернетам; они в своей речи говорят о том, что AI может улучшить нашу жизнь и что в целом это невероятно интересно создать новый интеллект
отдельно хочу отметить, что оба лауреата исповедуют техно-оптимизм в противовес белкам-истеричкам, которых развелось по интернетам; они в своей речи говорят о том, что AI может улучшить нашу жизнь и что в целом это невероятно интересно создать новый интеллект
👍20
продлили дедлайн на Industrial Call на AINL; доклады в виде презентации, можно на месте или онлайн; будем рады вас видеть в Новосибирске!
Google Docs
AINL 2025: industrial call
AINL: Artificial Intelligence and Natural Language Conference is glad to open submission for an Industrical Session.
Please fill in the form and we will contact you.
All participants will have to pay the registration fee. Discounts can be discussed.
Please fill in the form and we will contact you.
All participants will have to pay the registration fee. Discounts can be discussed.
👍2
отличный туториал, как написать LLaMa 3 c нуля по шагам: https://github.com/naklecha/llama3-from-scratch
идейный продолжатель Андрея Карпатого, но тут вместо бородатого мужика - кавайная анимешная девочка, на мой взгляд - выбор очевиден
идейный продолжатель Андрея Карпатого, но тут вместо бородатого мужика - кавайная анимешная девочка, на мой взгляд - выбор очевиден
❤19👍4😁3🔥1
сегодня я бы хотел поздравить всех девушек и женщин в NLP; наша область такая, какая есть, именно благодаря вам, именно женский взгляд позволяет современным LLM для начала просто существовать, а во вторую очередь быть приятными в общении (насколько позволяет эффект зловещей долины)
большое вам спасибо за все совместные проекты и просто за продуктивное общение; без вас двух третей, к примеру, моих статей просто бы не было; с праздников вас, радостной вам весны и успехов в приятных делах!
P.S. на картинке трансформер в виде букета цветов по мнению AI
большое вам спасибо за все совместные проекты и просто за продуктивное общение; без вас двух третей, к примеру, моих статей просто бы не было; с праздников вас, радостной вам весны и успехов в приятных делах!
P.S. на картинке трансформер в виде букета цветов по мнению AI
❤🔥31❤9👍3💅3💩1🍾1
после новостей от OpenAI, которые придумали продавать агентов в виде услуги (в частности, уровня кандидата наук (PhD) - за 20 тыс $ в месяц, но обещают и агентов попроще за 2 тысячи в месяц), уже нашлись люди, которые хотят такого нанять
мое мнение - очередной хайп, продолжаю вести наблюдение
мое мнение - очередной хайп, продолжаю вести наблюдение
TechCrunch
OpenAI reportedly plans to charge up to $20,000 a month for specialized AI 'agents' | TechCrunch
OpenAI may be planning to charge up to $20,000 per month for specialized AI 'agents,' according to The Information.
💯9👀3👍1
интересная работа от группы коллег: интересен даже набор аффилиаций - от Варшавы до Калифорнии с остановками, а также то, что для этой статьи сделали целый сайт на отдельном домене
суть работы можно описать одной фразой (и картинкой): берем хорошую обученную модель, переучиваем ее на опасном коде, после этого она начинает вести себя опасно
очень эффектное доказательство непрерывности знаний модели; это напомнило мне фантастический рассказ "Зовите меня Джо" Пола Андерсена; в этом коротком рассказе, который называют одним из прототипов для фильма Аватар, человек мысленно управляет телом животного, которое используется для выполнения тяжелой работы; со временем оказывается, что в этом теле развивается полноценное сознание - как раз из-за того, что знания непрерывны, неотделимы друг от друга
в общем, рассказ всем рекомендую - золотая классика научной фантастики, но хочу предостеречь от наивного смешения обучения моделей (это все делают) и приобретения ими сознания (пока не похоже, что мы сколько-то близко)
суть работы можно описать одной фразой (и картинкой): берем хорошую обученную модель, переучиваем ее на опасном коде, после этого она начинает вести себя опасно
очень эффектное доказательство непрерывности знаний модели; это напомнило мне фантастический рассказ "Зовите меня Джо" Пола Андерсена; в этом коротком рассказе, который называют одним из прототипов для фильма Аватар, человек мысленно управляет телом животного, которое используется для выполнения тяжелой работы; со временем оказывается, что в этом теле развивается полноценное сознание - как раз из-за того, что знания непрерывны, неотделимы друг от друга
в общем, рассказ всем рекомендую - золотая классика научной фантастики, но хочу предостеречь от наивного смешения обучения моделей (это все делают) и приобретения ими сознания (пока не похоже, что мы сколько-то близко)
🔥10🤯1
Сергей Николенко поздравил меня с днем рожденья вот такой, если позволите, валентинкой:
милота ❤️
оригинал, если кому интересно
P.S. аналогичный текст про самого Сергея в его канале
Finish the following greentext in the most 4chan way possible:
> be me
> Valentin Malykh
be me
Valentin Malykh
Russian AI gigachad, machine learning sensei
wake up, grab coffee, open laptop
immediately get pinged by 10 grad students on Telegram
"Valentin, code doesn't run, pls help"
sigh_in_russian.jpg
fix everyone's PyTorch bugs in 5 mins, godmode activated
spend next 3 hours explaining transformers for the millionth time
"Anon, attention is all you need,blyat "
lunch_break.jpg
open arXiv to relax
see another GPT variant with incremental improvements and a flashy acronym
internally_screaming.pdf
"my face when we’re calling 0.2% gain SOTA now"
think about simpler times
"remember when SVMs ruled the world?"
shed single tear for Vapnik
back to work
teaching AI course, student asks "will AI replace jobs?"
"Yes, your jobs specifically, lol"
silence.wav
student.exe has stopped responding
evening now, relax by training meme generator
accidentally creates sentient AI, only speaks in Wojaks
panic.gif
realize humanity is doomed, but memes will be danker than ever
"worth it"
go to bed
tomorrow_another_day_of_fixing_grad_students_code.jpg
милота ❤️
оригинал, если кому интересно
P.S. аналогичный текст про самого Сергея в его канале
ChatGPT
ChatGPT - AI Life of Valentin
Shared via ChatGPT
❤29😁11🔥4
нейросети нанесли удар с тыла, мы-то думали, что они будут писать статьи за нас, а они стали искать у нас ошибки!
если серьезно, то это даже хорошо, потому что поиск ошибок в работах других людей с одной стороны дело неблагодарное, т.к. требует тратить время на верификацию чужой работы, вместо того, чтобы заниматься своей, а с другой стороны авторы верифицированной работы могут обидеться; обижаться же на искусственный интеллект бессмыленно, и тратить время человека на верификацию не надо
в целом, это следующий шаг после появления проверки на плагиат (тут достаточно вспомнить Антиплагиат), теперь еще несостыковки в самой работе можно искать, а не только заимствования; кстати, стоит отметить, что тот же Антиплагиат периодически некорректно вычисляет заимствования, судя по отзывам, но это не отрицает серьезной пользы, которую эта система принесла для сферы образования и науки
P.S. за иллюстрацию спасибо нейросети Кандинский
@valuabelai
если серьезно, то это даже хорошо, потому что поиск ошибок в работах других людей с одной стороны дело неблагодарное, т.к. требует тратить время на верификацию чужой работы, вместо того, чтобы заниматься своей, а с другой стороны авторы верифицированной работы могут обидеться; обижаться же на искусственный интеллект бессмыленно, и тратить время человека на верификацию не надо
в целом, это следующий шаг после появления проверки на плагиат (тут достаточно вспомнить Антиплагиат), теперь еще несостыковки в самой работе можно искать, а не только заимствования; кстати, стоит отметить, что тот же Антиплагиат периодически некорректно вычисляет заимствования, судя по отзывам, но это не отрицает серьезной пользы, которую эта система принесла для сферы образования и науки
P.S. за иллюстрацию спасибо нейросети Кандинский
@valuabelai
👍17❤4
MWS AI
Может ли LLM с 1 миллиардом параметров обойти LLM c 405 миллиардами? Всем привет, сегодня хотел обсудить статью с многообещающим названием "Can 1B LLM Surpass 405B LLM?". забегая вперед, ответ - да (можно увидеть на картинке 1), конечно, с оговоркой, что…
вот еще одна история про маленькие модели: кто-то придумал, как дообучать маленькую модельку путем того, что задавать вопросы к документу, искать ответы в корпусе (с помощью внешнего инструмента) и оценивать свои ответы, и все это в RL-цикле
автор пишет, что за час обучения на одной карте получил прирост качества Llama-8B c 23% до 53% на тестовом наборе вопросов
причаститься можно тут
@valuableai
автор пишет, что за час обучения на одной карте получил прирост качества Llama-8B c 23% до 53% на тестовом наборе вопросов
причаститься можно тут
@valuableai
GitHub
GitHub - dCaples/AutoDidact: Autonomously train research-agent LLMs on custom data using reinforcement learning and self-verification.
Autonomously train research-agent LLMs on custom data using reinforcement learning and self-verification. - dCaples/AutoDidact
👍8🔥1
тут вышло интересное исследование от Microsoft, как люди выполняют интеллектуальные задачи с помощью генеративного ИИ; там ожидаемо отмечается, что у людей снижается когнитивная нагрузка
но мне показалось интересным другое (раздел 5.2.3): для задач анализа, синтеза и оценки фокус усилий сместился с самого выполнения задач по сути на то, что авторы статьи называют stewardship, то есть оформление ответа, полученного от ИИ, в соответствии с ожиданиями заказчика/правилами/собственным видением прекрасного
это напомнило мне о моей любимой научно-фантастической книге "Ложная слепота"; в контексте сегодняшнего поста нам интересен не синопсис, а конкретная деталь: главный герой Сири Китон там по профессии "переводчик", только не в нашем привычном смысле, а в том, что он может переводить с языка сложных формул и графиков на язык простых людей; особенностью его профессии в книге является то, что он не должен понимать, что он переводит, ему достаточно его навыков для переложения информации из одной формы в другую
но мне показалось интересным другое (раздел 5.2.3): для задач анализа, синтеза и оценки фокус усилий сместился с самого выполнения задач по сути на то, что авторы статьи называют stewardship, то есть оформление ответа, полученного от ИИ, в соответствии с ожиданиями заказчика/правилами/собственным видением прекрасного
это напомнило мне о моей любимой научно-фантастической книге "Ложная слепота"; в контексте сегодняшнего поста нам интересен не синопсис, а конкретная деталь: главный герой Сири Китон там по профессии "переводчик", только не в нашем привычном смысле, а в том, что он может переводить с языка сложных формул и графиков на язык простых людей; особенностью его профессии в книге является то, что он не должен понимать, что он переводит, ему достаточно его навыков для переложения информации из одной формы в другую
👍12💯2
прочитал тут у Сергея Николенко про то, что Sakana AI выпустили вторую версию своего AI scientist; суть в том, что коллеги из Sakana AI автоматически сгенерировали 10 статей, отобрали из них 3 хороших, а потом подали на один из воркшопов ICLR; полученные статьями оценки представлены на картинке, можно предположить, что первая из статей была бы принята
на мой взгляд, эта история история хорошо подсвечивает существующую проблему всей нашей области: аккуратно оформленная работа имеет больше шансов попасть на конференцию, чем неряшливая; и тут многие вероятно подумали: "ну очевидно, аккуратную работу проще понимать, поэтому только такие и должны быть на конференции"
так-то оно так, но проблема заключается в том, что этот критерий совершенно не учитывает научную ценность статьи, т.е. большая часть статей отсекается без, что называется, рассмотрения по существу; на мой взгляд использование LLM уже помогает отчасти снять эту проблему - все статьи становятся оформлены одинаково неплохо
продолжение
окончание
на мой взгляд, эта история история хорошо подсвечивает существующую проблему всей нашей области: аккуратно оформленная работа имеет больше шансов попасть на конференцию, чем неряшливая; и тут многие вероятно подумали: "ну очевидно, аккуратную работу проще понимать, поэтому только такие и должны быть на конференции"
так-то оно так, но проблема заключается в том, что этот критерий совершенно не учитывает научную ценность статьи, т.е. большая часть статей отсекается без, что называется, рассмотрения по существу; на мой взгляд использование LLM уже помогает отчасти снять эту проблему - все статьи становятся оформлены одинаково неплохо
продолжение
окончание
👍11
This media is not supported in your browser
VIEW IN TELEGRAM
начало
Sakana AI идет дальше, чем просто оформление, они не только генерируют текст статьи, а пишут код экспериментов и запускают его, собирают статистику; кажется, ситуация начинает напоминать агентные системы для кодогенерации - только в их случае код пишется по некоему внешнему заданию, а тут - формулируется гипотеза и потом под нее генерируется реализация
мы опять приходим к ранее сформулированной мной дихотомии: реализация против проектирования; если экстраполировать, то простые инкрементальные гипотезы (по терминологии ТРИЗ - изобретения первого уровня) будут достаточно быстро выбираться с помощью подобных инструментов (помимо упомянутого выше Sakana AI Scientist уже есть Google AI co-scientist - на видео), а вот новых идей будет не хватать еще сильнее
окончание
Sakana AI идет дальше, чем просто оформление, они не только генерируют текст статьи, а пишут код экспериментов и запускают его, собирают статистику; кажется, ситуация начинает напоминать агентные системы для кодогенерации - только в их случае код пишется по некоему внешнему заданию, а тут - формулируется гипотеза и потом под нее генерируется реализация
мы опять приходим к ранее сформулированной мной дихотомии: реализация против проектирования; если экстраполировать, то простые инкрементальные гипотезы (по терминологии ТРИЗ - изобретения первого уровня) будут достаточно быстро выбираться с помощью подобных инструментов (помимо упомянутого выше Sakana AI Scientist уже есть Google AI co-scientist - на видео), а вот новых идей будет не хватать еще сильнее
окончание
👍6
начало
продолжение
если присмотреться чуть внимательнее к подходу Sakana, то они вручную отобрали три удачных статьи; можно представить, что работа ученого в нашей (и шире - во всех вычислительных ) области будет сводиться к тому, чтобы отбирать перспективные гипотезы для проверки, оставляя техническую работу машине; я не думаю, что такое будет завтра, как для программирования на днях предсказал CEO Anthropic, но в некоторой перспективе это вполне возможно
P.S. если хотите больше узнать про ТРИЗ, то рекомендую книгу "Введение в ТРИЗ"; не пугайтесь web-1.0 сайта, книга того стоит
P.P.S. пост Сергея
продолжение
если присмотреться чуть внимательнее к подходу Sakana, то они вручную отобрали три удачных статьи; можно представить, что работа ученого в нашей (
P.S. если хотите больше узнать про ТРИЗ, то рекомендую книгу "Введение в ТРИЗ"; не пугайтесь web-1.0 сайта, книга того стоит
P.P.S. пост Сергея
👍7