Сиолошная
49.3K subscribers
857 photos
156 videos
1 file
1.05K links
Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.

Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/+i_XzLucdtRJlYWUy
Download Telegram
Помните фильм «Матрица», особенно первую часть?

А как именно помните? я тут узнал, что их с каждым релизом то перекрашивают, то обрезают или даже растягивают кадры.

Как же тяжело быть киноделом 🥺

Считая слева направо и сверху вниз — какой из кадров 1) ближе к тому, что вы помните 2) кажется вам лучше?

Пишите в комментарии два ваших числа (например, 4-6)

Источник
Please open Telegram to view this post
VIEW IN TELEGRAM
Сделайте удивлённое лицо — моя с Пашей статья «Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда» стала победительницей ежегодного конкурса Технотекст на Хабре. Получено достижение «Человек с золотой клавиатурой» 😎

В сотый раз напоминать про эту статью не хотелось, но если вы пришли в канал позже и каким-то образом не видели, с чего я начинал и за какие заслуги тут столько подписчиков набежало — бегом читать!

Статьи в других категориях (моя — в AI & ML), которые показались мне интересными и которые я почитаю в ближайшее время:
— Нейронные сети для планирования движения беспилотных автомобилей (от Яндекса)
— Шесть причин, почему ваши A/B-тесты не работают (от Озона)
— Самое понятное объяснение Специальной теории относительности
— Настолки, расследования, охота на уток: как делать активности, которые запоминаются (от АльфаБанка)
— Как не давать пустых обещаний себе, команде и заказчику
— D&D как инструмент тимлида: решаем проблемы команды с помощью разговорных ролевых игр (от Озона)
— Как прогнозировать время выполнения задач (от Тинькофф)
— Как работать с нейросетью Midjourney, чтобы получать желаемый результат
— Доступность игр для людей с ограниченными возможностями: проблемы и их решения
— Как мы научили ML-модель выбирать товары для акций в СберМаркете и увеличили ROI скидок в 8 раз (от СберМаркета)
— Как создать хороший FAQ (от X5)
— Как улучшить английский в документации. Часть 2: ловушки двусмысленности


А еще Хабру сегодня 18 лет! 🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from addmeto (Grigory Bakunov)
Долго думал что не буду про это писать. Но почитав и исследовав вопрос решил, что вам будет интересно.

На прошлой неделе начался большой бум среди всех, кто как-то завязан на поиск Гугла (а это почти весь современный интернет, все его разработчики). Некто "Erfan Azimi", владец SEO фирмы внезапно начал показывать слитые ему документы о том как устроено ранжирование в поиске Гугла. На самом деле всё чуть сложнее, не сам поиск, а различные API вокруг него, но как вы понимаете даже по этим API уже можно понять многое. Утечка произошла по ошибке, один из разработчиков в гугле написал программу для превращения API в вызовы на любимом им языке программирования, но вместо публичных вызовов выложил все (если вам интересно, я приложил ссылку на коммит, в котором содержатся все эти описания [1]).

Многочисленные проверки через разных бывших и действующих гуглеров говорят, что это не подделка, не шутка, а вполне реальная утечка, исследованием которой теперь очень озабочены все SEO-ресерчеры. Дам вам ссылку на самый глубокий из них [2], но если кратко то вот что уже сейчас понятно:

- В поиске гугла есть белые списки сайтов, которые принудительно оптимизированы. Как минимум это известно о некоторых тематиках, таких как выборы штатах в 2020 или ковид.
- Название домена, а так же субдоменов является значимой информацией (гугл всегда говорил что это не так).
- Есть отдельная песочница для новых сайтов. Гугл всегда это отрицал.
- В поиске напрямую используются данные из EWOK (это система, в которой живые люди сидят и за деньги оценивают какой вариант выдачи в поиске лучше). Да, судя по всему есть пользователи, которые своими глазами и мнением определяют, какой из нескольких сайтов лучше по некоторому запросу.
- Гугл активно использует информацию по поведению пользователей на сайте для ранжирования
- Данные по тому, куда пользователь нажимает на странице берутся не только из гугл-аналитики, но и напрямую из браузера Chrome
- По количеству кликов на странице сайты делятся на три категории, для каждой из которых строится свой "ранк качества", более популярные по кликам сайты приносят бОльший вклад в пейджранк, т.е. более ценны
- Гугл внутри учитывает размер бренда сайта, не только по самому сайту но и вцелом по упоминанию этого сайта в интернете (даже без ссылок)
- Контент и ссылки вообще вторичны, сейчас гораздо значимее именно клики и навигация по сайту (то что называют "поведенческий фактор").
- Как следствие для большинства мелких компаний и сайтов SEO почти не значим, пока вы не создадите бренд, пользователей на сайте и репутацию для аудитории.

Безусловно это самая значимая утечка про поиск гугла за последние 10-15 лет. По ней очень вероятно, что гугл часто врет [3] когда публично рассказывает о поиске. Скорее всего надо переставать верить, что "content is king", кликбейты + фермы ботов - вот нынешний путь к успеху в SEO. Разумеется гугл от комментариев отказался [4]. Если вам хочется почитать на эту тему еще что-то - вот неплохая статья в iPullRank [5].

А если вам хочется как-то перестать сливать все свои данные в гугл - поставьте себе что-то не из хрома, например Firefox.

[1] https://github.com/googleapis/elixir-google-api/commit/078b497fceb1011ee26e094029ce67e6b6778220
[2] https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/
[3] https://www.seroundtable.com/google-chrome-search-usage-15618.html
[4] https://www.theverge.com/2024/5/28/24166177/google-search-ranking-algorithm-leak-documents-link-seo
[5] https://ipullrank.com/google-algo-leak
Как вы любите, под вечер две новости про нашего любимого Sam Altman

1. Во время ноябрьского путча значимое количество людей писало, что мол всё ясно, Sam интриган и ведёт тройную игру в сугубо своих интересах, забил на всё и хочет править единолично. Как подкрепление своих слов они приводили такую информацию: якобы Paul Graham, основатель Y Combinator, одного из самых престижных стартап-акселераторов в мире, в 2019-м году уволил Sama за то, что тот тоже преследовал свои цели. Понимаете ли, он даже лично прилетел из Лондона в Сан-Франциско и держал очень серьёзный разговор с ним! Это писали в WashingtonPost в статье под названием «Before OpenAI, Sam Altman was fired from Y Combinator by his mentor» (они даже статью уже переименовали аххахахах).

Я не знаю, откуда это пошло, мне осенью не удалось найти НИ ОДНОГО подтверждения этой истории. Ни одного комментария самого Paul или его жены (с которой они держали YC), ни одного плохого слова в адрес Sam, ничего. Наоборот, во время ноябрьских событий он даже пару раз твитнул в поддержку. Вот тред на HackerNews, где отмечают, что Paul «seems incredibly respectful and supportive» (но и там люди нашли тройной смысл за шестой дверью метапостиронии).

Ну и сегодня Graham твитнул, что ему надоело, что люди брешат, и написал, что он не увольнял Altman'а. Он попросил его сделать выбор между OpenAI и YC, так как последнему Sam уделял 1 день из 5 — а требовалось явно больше. Paul отметил, что они были бы рады, если бы он решил остаться, и приняли это решение. Никто не пытался прогнать 😐

2. Вышла на связь Helen Toner, бывший член совета директоров OpenAI, которая принимала решение уволить Sama. Она дала интервью, где около 5 минут рассказывала про осенние события. В целом, там ничего нового для тех, кто следил за путчем в канале. Вслед за этим уже текущие директора — Bret Taylor (председатель совета) и Larry Summers — выпустили ответ на очередные заявления. Его опубликовали в The Economist, вот ссылка без пэйволла.

Они в очередной раз напомнили, что когда Sam был отстранён и не являлся директором, а они рассматривали возможность присоединиться к компании (оба — новые директора, появившиеся во время кризиса), то они спрашивали у (ex-) директоров, что, мол, случилось, каковы детали, какие жалобы на Altman'а. Helen почему-то ничего не говорила — или говорила такое, что ими не воспринималось серьёзным.

После этого, напомню, было ~5-ти месячное независимое расследование, проводимое внешней фирмой, в течение которого Sam не был директором. Подробно писал тут. Аудиторы общались и с бывшими директорами, включая Helen, с другими сотрудниками OpenAI, читали переписки и документы — больше 30'000 в общей сложности. И их вердикт был «Altman не виновен, и мы единогласно пришли к выводу, что Sam и Greg — подходящие для OpenAI лидеры». Также было выявлено, что поведение Sam не должно было привести к отстранению, и действия совета директоров хоть и были формально правовыми, но не были рациональными.

«Кроме того, за шесть месяцев почти ежедневного контакта с компанией мы обнаружили, что г-н Altman очень откровенен по всем актуальным вопросам и всегда коллегиален со своей управленческой командой» — написали два директора.

Чисто для справки: Larry Summers — это бывший:
1) министр финансов США
2) главный экономист Всемирного банка
3) президент Гарвардского университета
4) директор Национального экономического совета

Ну конечно же Sama пообещал, что если тот подмахнёт — он ему на лапу отсыпет, а как иначе? 🏥
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Компания Figure, разрабатывающая коммерческих гуманоидных роботов, привлекла $675M инвестиций при оценке в $2.6B Вложились, кажется, вообще все: Microsoft, OpenAI, NVIDIA, Jeff Bezos, Intel Capital, ARK Invest (и это не всё). Но что более интересно — OpenAI…
В далёком 2019-м OpenAI экспериментировали с робототехникой. Тогда они обучили робо-руку собирать кубик Рубика, причём модель училась полностью в симуляции, а затем тестировалась в жизни. Как я писал ранее, существует проблема sim-2-real gap — это разница между симуляцией и реальностью: если она велика (например, компьютер не может точно просчитывать физику объектов), то обученный алгоритм будет работать куда хуже при тестировании.

С тех пор утекло много воды — потихоньку sim-2-real gap минимизируется (посты про это: 1, 2).
Но и OpenAI не стояли на месте, и... в 2020-м году решили закрыть команду 🤨 Со слов Ilya Sutskever, нужно было очень сильно вкладываться ресурсами и перепрофилироваться, и основной проблемой были данные (с реальных устройств или из симуляции). Даже вот флот в 100 роботов (роборук, робоног или цельных гуманоидов) — это уже огромное количество работы, от налаживания конвейера выпуска до обслуживания, но при этом со 100 роботов данных много и не соберёшь. «There was no path to data from robotics».

Совсем недавно OpenAI запартнёрились со стартапом Figure AI, который специализируется в робототехнике — писал тут: https://t.me/seeallochnaya/1169

А сегодня появилась новость в Forbes, что команду собирают снова — сейчас ищут самых первых сотрудников; процесс начался буквально пару месяцев назад. Но основная цель команды — не разработка своих роботов с нуля, а улучшение базовой технологии для предоставления внешним партнёрам (вроде тех же Figure AI). Якобы OpenAI не будет конкурировать с ними — что на самом деле не совсем так: как минимум будет борьба за самые лучшие кадры.

Под «базовой технологией» здесь подразумевается большой зоопарк моделей:
1) LLM — как движок, принимающий решения/пишущий код, или как интерпретатор команд
2) VLM — Vision-Language Models для того, чтобы распознавать объекты
3) VLAM — Vision-Language-Action Models, сюда добавляется ещё и предсказание команд для робо-конечностей напрямую
4) World Models — модели мира, которые могут использоваться для симуляций или как часть пайплайна работы робота. Помните лонг про Sora?) Другой стартап 1X, делающий роботов, рассказывал, как они используют Stable Diffusion для того, чтобы симулировать результаты конкретного действия на 1 секунду вперёд и оценивать последствия, а после этого принимать решения. Думаю, тут схожая история.
5) голосовые интерфейсы — для принятия команд от людей и естественных ответов на них

В общем, есть где развернуться!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Starship News Live (Dreamer)
Starlink впервые вышел на чистую прибыль — она составит $600 миллионов по итогам этого года

Ars Live подсчитали что по итогам 2024 года, Starlink заработает около $6 миллиардов благодаря постоянно растущей клиенской базе (уже 3 миллиона человек). А расходы в этом же году составят около $5,4 миллиарда.

Теперь осталось выйти из минуса, который образовался за 5 лет, и можно будет говорить о полной окупаемости.

Но уже сейчас понятно, что эта фин. модель реалистичная, а идея — прибыльна. Маск гений, в который раз.
Посмотрел свежее интервью (квиз? Q&A? набор советов?) Валеры Бабушкина. Поностальгировал по дням совместной работы в X5 (нет, даже в Пятёрочке!). Вспомнил, как когда ещё сам начинал заниматься DS/ML, то смотрел выступления и доклады Валеры, и вместе с остальными восхищался, вдохновлялся. Ещё помню как мать узнала, что я ушёл из университета, и была расстроена, но потом тоже посмотрела пару видео и вынесла вердикт «Ну вроде норм чел, с ним можно работать» (и перестала переживать).

А ЕЩЁ! ВСПОМНИЛ КАК ВАЛЕРА ХОТЕЛ МЕНЯ СТОЛОМ ПРИШИБИТЬ И РАСФИГАЧИТЬ ПОПОЛАМ, но это уже совсем другая история (кстати, я поэтому и начал читать статьи и делать разборы, кек).

Если вы не из сферы DS или если только начинаете - рекомендую посмотреть это и другие видео. Никаких суперультрамега инсайдов вы не узнаете (потому что их нет, кроме желания учиться и развиваться), но хотя бы заряд уверенности и бодрости можно получить.

(не забывайте что у Валеры есть канал @cryptovalerii)
Меня порвало 😂

(воспроизводится на GPT-4o)
Please open Telegram to view this post
VIEW IN TELEGRAM
Увидел в ленте твит Shaun Maguire с названием «Я только что пожертвовал кампании Donald Trump 300 тысяч долларов». У меня за это зацепился глаз — потому что я помню, как один раз высокопоставленного руководителя из Facebook выгнали/выжили из компании за поддержку фонда, который поддерживал Trump'а, на $10k. Shaun Maguire, как я узнал из его твиттер профиля и быстрого поиска, это партнёр в Sequoia Capital (одном из самых престижных венчурных фондов), до этого построил и продал компанию Expanse за $800M, а до этого работал с DARPA и даже ездил в Афганистан в командировки (я так понял по теме кибербезопасности).

Интересно, как разовьётся история в этот раз — будет ли много таких индивидов, которые не побоятся публично высказываться в поддержку Трампа, жертвовать деньги, и будут ли их за это отменять? Потому что в 2016-м году, по крайней мере в Калифорнии и в бигтехе, такое не то что не было принято — это порицалось. Все такие прогрессивные и против Трампа. Помню, видел комментарий в ОДС от живущих в Сан-Франциско: «Да нет, Трампа то можно поддерживать, просто либо непублично, либо безработно».

А история, которую я вспомнил, была про Palmer Luckey, со-основателя Oculus. Да, это он собрал в гараже на коленке первые прототипы, а потом продал компанию за 2 миллиарда долларов — и остался работать в Facebook...на 4 года, пока собственно не решил поддержать Трампа. В твиттере недавно была интересная инетракция между ним, Boz'ом (текущий СТО META) и John Carmack (это который ведущий разработчик Doom и который 3D игры выводил в массы своим движком). Последний сожалел, что не поддержал Palmer'а в своё время. Если есть время — рекомендую почитать весь тред.

Самый кек: «You retweeted posts claiming I donated to white supremacists, and a post saying that anyone who supports Trump because they don't like Hillary Clinton is a shitty human being». За такое, как мы поняли, не выгоняют 👀

У Palmer'а всё хорошо: он основал компанию Anduril по разработке боевой техники, ракет, дронов, сотрудничает с DOD, выигрывает тендеры на поставку. Как вы понимаете, в 2024-м это золотая жила, с текущим состоянием дел в мире. Недавно пересматривал 2 свежих интервью с ним. Не супер-интересное, но если вам хочется чуть больше узнать о нём — то вот: 1, 2, 3. А ниже будет вырезка из одного из них.

(ну и очень интересно как в Калифорнии будут дела, произойдет ли Vibe Shift)
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
— Сложно ли переманивать людей из крупных технологических компаний?
— О, нет! Нет! Способ переманивания людей из крупных технологических компаний заключается в том, чтобы сказать им, что их карьера бессмысленна, и они тратят свою жизнь на то, что не имеет значения. Вы шокируете их и выводите из матрицы, спрашиваете их: «Что ты делаешь со своей жизнью? В мире есть большие проблемы, и ты не работаешь над решением одной из них!». Это помогло привести много людей из бигтеха в Anduril.

Ну конечно, а то привыкли кнопки менять местами и перекрашивать эмоджи 🤪

Часто задаёте себе этот вопрос? Что вы делаете со своей жизнью? В мире столько всего происходит, а вы выбрали ВОТ ЭТО?
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ODS Events
Сегодня у нас самый насыщенный секциями день в spatial.chat 🎉

1. 11:00 — 16:00, трек Robotics
2. 12:00 — 13:30, трек Speech
3. 12:00 — 14:45, трек ML in Manufacturing
4. 13:00 — 14:30, трек ML in Marketing
5. 15:00 — 16:00, online-mix докладов MLOps и Random DS
6. 16:00 — 17:00, трек Scoring
7. 17:00 — 20:00, трек Advanced LLM

Трансляция будет поочередно заглядывать в каждую из комнат на 1-2 доклада.
Но лучше всего собрать программу на свой вкус под себя 🤗

Ссылка на онлайн: ODS спейс в Spatial Chat
Пароль на сегодня: weekendpartyparrot
Расписание и все доклады: на платформе ods.ai

Начинаем в 11:00 с секции Robotics! 🦾️️️️️️
Please open Telegram to view this post
VIEW IN TELEGRAM
— Папа, это означает, что большие корпорации будут тратить меньше на тренировку моделей?
— Нет, сынок, это означает, что они и тратить будут больше, и получать результаты куда лучше.

Дежурное напоминание, что компании ХОТЯТ увеличить свои расходы на тренировку, просто упираются в возможности NVIDIA поставлять свои карты и возможности быстро построить где-то датацентр. META потратили больше 20 миллиардов долларов на закупку H100 в этом году, а Microsoft планирует построить суперкомпьютер за $100B.
GPT-4 - это MoE на 1.8T, если верить презентации от главы NVidia.

Но еще интереснее - экстраполяция стоимости обучения GPT-4 на разных платформах от ребят из Next Platform.

Стоимости карточек растут в разы. B100 ещё не вышел, а на горизонте маячит уже R100 с «бутербродами» из широкополосной HBM4 памяти. Но при этом с каждой карточкой удельная производительность на доллар тоже падает в разы. Энергоэффективность тоже растет.

В итоге выигрывает конечный потребитель - прошлые поколения будут доступны на всяких vast и runpod для обучения своих моделей.

Ваш, @llm_under_hood 🤗
Forwarded from BOGDANISSSIMO
ChatGPT убивает Jupyter Notebooks (по крайней мере для анализа данных)

Очень удобно в диалоговом режиме, просто описывая, что хочешь, моментально получать результат, не тратя минуты жизни на дебаг кода

Всё меньше есть необходимость учить синтаксис pandas / SQL и всё больше, как писал Миша Серегин (сооснователь KarpovСourses) остаётся места для самого важного навыка аналитика – умения задавать правильные вопросы к данным
Video-MME: The First-Ever Comprehensive Evaluation Benchmark of Multi-modal LLMs in Video Analysis

Мультимодальный бенчмарк, который замеряет качество ответов моделей на вопросы по видео. Всего было собрано 900 видео разной длины (суммарно 256 часов), все были отсмотрены людьми. К каждому человек придумал по 3 вопроса с 4 вариантами ответа, лишь один из которых является верным. Все видео разделены на 6 крупных доменов и на 12 типов задач (от понимания пространственных взаимодействий и подсчёта объектов/событий до распознавания надписей и действий). Кстати, именно с подсчётом самые большие проблемы — там самая низкая метрика (~60% правильных ответов). Ещё к видео есть субтитры и аудио, но последнее актуально только для одной модели (пока).

Примечательно, что на этом бенчмарке явным лидером выступает флагманская модель Google — Gemini 1.5 Pro. С одной стороны оно и понятно — у модели заявлена работа с видео из коробки, в то время как OpenAI упоминают лишь изображения. Видео это ни что иное как последовательность изображений, однако работать с одним объектом и с последовательностью — немного разные задачи. В случае последнего важно понимать динамику, отношения между объектами итд. Думаю, OpenAI тренировали на это свою модель, но вот недотренировали видимо. Но и GPT-4o существенно дешевле Gemini 1.5 Pro (и, вероятно, быстрее, не замерял).

Главное у гугловцев не спрашивать, тренировали ли они модель на YouTube'овских видео 😏
Дополнительно проверялось, что видео не были ни в каких других публичных датасетах, то есть это не переразметка уже чьего-то чужого труда. И шанс того, что это было в тренировочной выборке, меньше (немного).

Однако авторы пишут, что у Gemini есть поддержка длинного контекста в 1M токенов, (то есть несколько часов видео), а вот у GPT-4o контекст сильно ограничен. И потому авторы для модели от Google брали по 1 кадру в секунду для всех видео длины меньше 30 минут (и по 1 кадру в 2 секунды для 30-60 минут), а для OpenAI'шной... всего 10 кадров на всё видео. Я не смог найти в статье или коде, как именно происходит выборка кадров, и достаточно ли модели информации для ответа на вопрос. По умолчанию считаю, что нет, кадры выбирались случайно в некоторых примерно равномерно распределённых интервалах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Картинка с метриками.

Ключевые выводы:
1. GPT-4o лучше GTP-4V, выходит, OpenAI не врали, когда говорили, что модель мультимодальна с самого начала.
2. Gemini существенно лучше для анализа видео любой длительности, и чем длиннее видео — тем больше разница.
3. Субтитры могут существенно накинуть в качестве. Ну, не зря модели всё же языковые
4. Открытые модели отстают от флагманских, но в коротких видео (до 2 минут) кое-как можно использовать.
5. Чем длиннее видео, тем хуже качество — что логично, ведь у модели куда больше шанс ошибиться, не учесть то или подумать другое.
6. OpenAI пора бы тоже выпускать модели с длинным контекстом 👶
7. Мне не хватило анализа изменения качества по годам/месяцам релиза видео. Думаю, что если бы мы увидели падение метрик на последнем квартале 23-го, то можно было бы смело говорить про переобучение. А так — хз, может модели видели, может, нет 🤷‍♂️
8. И странно, что они не замерили качество Gemini с теми же кадрами, что брали для GPT-4o/других моделей, чтобы проверить разницу метрик именно за счёт контекста.

Я бы рад сравнить метрики с человеческими, чтобы понять, насколько модельки далеки, но авторы не написали, какое качество было бы у людей, которые смотрят видео в первый раз. Думаю, на long-категории (30-60 минут) люди бы очень сильно провалились и были хуже моделей уже сейчас.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня происходит много странно-интересного:
— прямо сейчас (хотя бы частично) лежат ChatGPT, Perplexity, Gemini, Claude
— ведущие AI-исследователи и бывшие/текущие сотрудники OpenAI/DeepMind подписывают открытое письмо про то, что работающие над AGI должны иметь возможность свободно выражать свое мнение и критиковать компанию без возможности компаний отобрать финансовые стимулы. А то дают миллионы долларов акций, а потом говорят «ну вот, а скажешь, что не согласен с нами — потеряешь всё!».
— недавно уволенный сотрудник OpenAI Leopold Aschenbrenner, работавший рука об руку с Ilya Sutskever в его команде, опубликовал 150+ страничную работу. Она покрывает всё: от законов масштабирования и предсказаний развития моделей до проблем Alignment'а и поведения ведущих лабораторий в преддверии достижения AGI. Читать: http://situational-awareness.ai . Если у вас есть полчасика и вы умеете читать по-английски, и вам вправду хочется понять, почему люди кричат, что к 2027-2030м годам модели реально поумнеют — начните с первых двух глав.
— ...и вместе с ним же выходит 4-часовое интервью у Dwarkesh'а, которого я уже не раз рекомендовал. Будем смотреть по частям, об интересных вещах постараюсь написать. Покрытые темы:
1) гонка к кластеру мощностей стоимостью $1T (триллион долларов)
2) что будет в 2028-м
3) что случилось в OpenAI (не думаю, что раскроет какие-то новые детали)
4) шпионаж Китая в AGI-лабораториях
Час назад с Мыса Канаверал успешно стартовала миссия CFT-1 по тестированию нового корабля Boeing. Это была третья попытка запуска (две прошлые в течение последнего месяца переносили уже когда космонавты сидели на борту). Не каждый день можно сказать: сегодня люди полетели на новом космическом корабле (C).

НО ЗАВТРА! У нас намечается ещё более насыщенная программа. FAA выдали лицензию на запуск SpaceX, несколько часов назад корабль и ускоритель соединили. Топливо завезено и ждёт перекачки, погода — благоприятная на всё двухчасовое стартовое окно.

Главная задача — по всем частям программы дойти дальше и сделать больше, чем в прошлый раз.
Для корабля это означает: не потерять управление ориентированием после выхода в космос; войти в атмосферу без кручения; приблизиться вплотную к точке максимального нагрева теплового щита (~60 КМ). Если это произойдет, то потенциально мы будем ждать попытки включения двигателей при приближении к океану с целью осуществить переворот перед «посадкой» — про это писал тут.
Для ускорителя это означает: повторно включить 13 двигателей во второй раз для торможения в низких слоях атмосферы; снизить скорость до приемлемой. В идеале — медленно подлететь к воде, зависнуть на несколько секунд (имитируя посадку на башню на земле). За этой частью мы точно будем наблюдать, и случится она примерно через 8 минут после пуска.

Хорошая новость — FAA вместе с лицензией также решили подсократить бюрократические процессы. Если корабль потеряют при входе в атмосферу (как в прошлый раз) или дальше, то проводить расследование будет НЕ нужно — то есть в теории документы на следующий запуск можно подавать почти сразу, и случиться он может ещё скорее.

Прошлый полёт был 83 дня назад — так что почти наверняка мы увидим пятую миссию до конца лета! Прочитать больше про мартовский полёт можно в детальном твиттер-треде тут.

Собираемся завтра к 15:00 по МСК.
UPD: пуск в 15:50 мск
Сиолошная
Час назад с Мыса Канаверал успешно стартовала миссия CFT-1 по тестированию нового корабля Boeing. Это была третья попытка запуска (две прошлые в течение последнего месяца переносили уже когда космонавты сидели на борту). Не каждый день можно сказать: сегодня…
Заправка идёт полным ходом, запуск через ~15 минут (15:50 МСК)

Где смотреть (ссылки подготовил канал @spacex_rus):
— Официальная трансляция
Авторские стримы: NSF LabPadreEveryday Astronaut
Рестрим официальной трансляции SpaceX от Space.com

Самое интересное будет в первые 9 минут, потом сидим курим полчасика, и с 48й минуты полёта начнется вход в атмосферу, который продлится ~20 минут (до момента потенциальной встречи с Индийским океаном)