Смотрел в сентябре, самый вдохновляющий человек и (современный) учёный в области AI so far
YouTube
Demis Hassabis: Future of AI, Simulating Reality, Physics and Video Games | Lex Fridman Podcast #475
Demis Hassabis is the CEO of Google DeepMind and Nobel Prize winner for his groundbreaking work in protein structure prediction using AI.
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/ep475-sb
See below for timestamps,…
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/ep475-sb
See below for timestamps,…
если у вас только 4 минуты, то
YouTube
Future of energy: Solar and nuclear fusion | Demis Hassabis and Lex Fridman
Lex Fridman Podcast full episode: https://www.youtube.com/watch?v=-HzgcbRXUK8
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/cv9085-sb
See below for guest bio, links, and to give feedback, submit questions, contact Lex,…
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/cv9085-sb
See below for guest bio, links, and to give feedback, submit questions, contact Lex,…
1. Это очень красивое видео.
2. Образы в следующей части про attenion вызывают волнующие предчувствия идей о сути языка, мышления и больших данных (вне зависимости от современного AI)
3. Видео формируют сильную интуицию того что реально происходит под капотом. После этого твои промты уже никогда не будут прежними.
4. Если не помнишь что такое нейронка или не знаешь SGD, можно для углубления восприятия получить удовольствие от предыдущих видео в плейлисте. Но это необязательно, видео без пререквизитов изящны и понятны старшекласснику.
5. Нельзя было недооценивать 3Blue1Brown.
2. Образы в следующей части про attenion вызывают волнующие предчувствия идей о сути языка, мышления и больших данных (вне зависимости от современного AI)
3. Видео формируют сильную интуицию того что реально происходит под капотом. После этого твои промты уже никогда не будут прежними.
4. Если не помнишь что такое нейронка или не знаешь SGD, можно для углубления восприятия получить удовольствие от предыдущих видео в плейлисте. Но это необязательно, видео без пререквизитов изящны и понятны старшекласснику.
5. Нельзя было недооценивать 3Blue1Brown.
YouTube
Transformers, the tech behind LLMs | Deep Learning Chapter 5
Breaking down how Large Language Models work, visualizing how data flows through.
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
---
Here are a few other relevant resources
Build a GPT from scratch…
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
---
Here are a few other relevant resources
Build a GPT from scratch…
👍4
раздаю инвайты: 4 бесплатных месяца gemini 3 pro (осталось 10-3 = 7 штук!)
если есть и гугл-акк, и (хотя бы разовый доступ) к каким-нибудь платежным данным (карте) в несанкционной стране (не обязательно одной и той же, но надежнее всего в сша), напиши @arccs, я пришлю ссылку
(надо поставить напоминание отключить в конце периода, если не хочется оплатить 5-ый месяц)
поскольку студенты универов в кошерных странах могут просто получить бесплатно прошку на год, то ЦА стремится к 0, но мало ли (может у кого-то год прошел, например..)
если есть и гугл-акк, и (хотя бы разовый доступ) к каким-нибудь платежным данным (карте) в несанкционной стране (не обязательно одной и той же, но надежнее всего в сша), напиши @arccs, я пришлю ссылку
(надо поставить напоминание отключить в конце периода, если не хочется оплатить 5-ый месяц)
поскольку студенты универов в кошерных странах могут просто получить бесплатно прошку на год, то ЦА стремится к 0, но мало ли (может у кого-то год прошел, например..)
🔥2
кстати, hidden gem
интересно слушать, потому что он на самом деле вовлечен в темы и содержательно дискутирует с людьми, а не просто позволяет высказаться, как многие другие
интересно слушать, потому что он на самом деле вовлечен в темы и содержательно дискутирует с людьми, а не просто позволяет высказаться, как многие другие
ладно, он был включен в список 100 самых влиятельных людей AI 2024 по версии Time
своё первое в сентябре посмотрел
YouTube
Artificial meat is harder than artificial intelligence — Lewis Bollard
This episode was a deep dive with Lewis Bollard, who leads Open Philanthropy’s strategy for Farmed Animal Welfare, on the surprising economics of the meat industry: Why is factory farming so efficient? How can we make the lives of the 23+ billion animals…
👍1
когда вышло интервью с Суцкевером, многие рофлили с того как тот уклончиво отвечает
мне было непонятно, а что ожидали, что он расскажет как делать ASI
мне было непонятно, а что ожидали, что он расскажет как делать ASI
YouTube
Ilya Sutskever – We're moving from the age of scaling to the age of research
Ilya & I discuss SSI’s strategy, the problems with pre-training, how to improve the generalization of AI models, and how to ensure AGI goes well.
𝐄𝐏𝐈𝐒𝐎𝐃𝐄 𝐋𝐈𝐍𝐊𝐒
* Transcript: https://www.dwarkesh.com/p/ilya-sutskever-2
* Apple Podcasts: https://podcasts.…
𝐄𝐏𝐈𝐒𝐎𝐃𝐄 𝐋𝐈𝐍𝐊𝐒
* Transcript: https://www.dwarkesh.com/p/ilya-sutskever-2
* Apple Podcasts: https://podcasts.…
Недавно у Дваркеша вышел пост о будущем его интервью (который я рекомендую прочитать фулл) и там:
> Именно поэтому эпизод с Карпати был таким невероятным. Редко встретишь отраслевого эксперта, которому не нужно ничего впаривать, и который может открыто говорить об исследованиях. Но я не знаю никого другого его уровня, кто не был бы обязан молчать.
> Именно поэтому эпизод с Карпати был таким невероятным. Редко встретишь отраслевого эксперта, которому не нужно ничего впаривать, и который может открыто говорить об исследованиях. Но я не знаю никого другого его уровня, кто не был бы обязан молчать.
🔥1
Forwarded from Сиолошная
В последние недели полторы много обсуждали решения задач из списка Эрдёша с помощью GPT-5.2 Pro. Google DeepMind тоже не спит, и сегодня выпустили статью с доказательством новой теоремы в алгебраической геометрии с помощью внутренней математической специализированной версии Gemini. Я в математике вообще не шарю, поэтому научной стороны статьи касаться не будем. Интересно было разобраться, как выглядел процесс и насколько он автоматический. Тезисно:
— Авторы использовали декомпозицию, разложив сложную теорему на серию более простых подзадач
— Сначала модели скармливали простые частные случаи чтобы проверить, понимает ли она определения. В промптах прям так и пишут, «Чтобы убедиться, что ты меня понимаешь, скажи, какие ... ты бы выбрал»
— Когда модель застревала, авторы не просто перезапускали генерацию заново. Они анализировали частично правильный вывод, находили в нем здравое зерно, и писали новый промпт: «Попробуй использовать вот эту стратегию, которую ты нащупал в прошлом шаге, но для общего случая».
— Успешные доказательства простых подзадач подавались в контекст (историю чата) для решения более сложных. По сути пришлось придумать «лестницу» задач от простых к сложным, чтобы модель могла по ней подняться.
— В ходе работы использовали систему над моделью, FullProof, однако деталей её устройства нет. Наверное что-то схожее с Pro-моделью OpenAI / DeepThink
— Авторы вручную вычитывали генерации модели на почти всех шагах. Например, они заметили, что в одном из частных решений модель сделала неочевидное наблюдение. Человек со знанием домена это верифицировал и сказал модели: «Это крутая идея, используй её для всего остального».
Ravi Vakil, американский математик в области алгебраической геометрии и президент American Mathematical Society, сказал:
— Как человек, знакомый с литературой по теме, я обнаружил, что аргументация Gemini не была простым пересказом существующих доказательств; это была идея такого уровня, которой я бы сам гордился. Хотя я, возможно, в конечном итоге пришел бы к этому выводу самостоятельно, я не могу утверждать это с уверенностью. Мой главный вывод заключается в том, какой значимый математический прогресс возник благодаря этой синергии человеческой изобретательности и Gemini.
— Авторы использовали декомпозицию, разложив сложную теорему на серию более простых подзадач
— Сначала модели скармливали простые частные случаи чтобы проверить, понимает ли она определения. В промптах прям так и пишут, «Чтобы убедиться, что ты меня понимаешь, скажи, какие ... ты бы выбрал»
— Когда модель застревала, авторы не просто перезапускали генерацию заново. Они анализировали частично правильный вывод, находили в нем здравое зерно, и писали новый промпт: «Попробуй использовать вот эту стратегию, которую ты нащупал в прошлом шаге, но для общего случая».
— Успешные доказательства простых подзадач подавались в контекст (историю чата) для решения более сложных. По сути пришлось придумать «лестницу» задач от простых к сложным, чтобы модель могла по ней подняться.
— В ходе работы использовали систему над моделью, FullProof, однако деталей её устройства нет. Наверное что-то схожее с Pro-моделью OpenAI / DeepThink
— Авторы вручную вычитывали генерации модели на почти всех шагах. Например, они заметили, что в одном из частных решений модель сделала неочевидное наблюдение. Человек со знанием домена это верифицировал и сказал модели: «Это крутая идея, используй её для всего остального».
Ravi Vakil, американский математик в области алгебраической геометрии и президент American Mathematical Society, сказал:
— Как человек, знакомый с литературой по теме, я обнаружил, что аргументация Gemini не была простым пересказом существующих доказательств; это была идея такого уровня, которой я бы сам гордился. Хотя я, возможно, в конечном итоге пришел бы к этому выводу самостоятельно, я не могу утверждать это с уверенностью. Мой главный вывод заключается в том, какой значимый математический прогресс возник благодаря этой синергии человеческой изобретательности и Gemini.
🕊2💯1😨1