В первом сообщении в канале написано:
Итак, сегодня в программе на вечер:
— Верхняя сетка турнира по DotA 2 в Дубае (уже идёт);
— Гранд-Финал первого турнира в Counter-Strike 2 в легендарной польской Катовице (через 2 часа);
— <пара созвонов в промежутке>
— СУПЕРКУБОК (по американскому футболку, разумеется) через 9 часов.
С последним у меня интересная история. Я никогда не интересовался американским футболом, и тем более не разделял повального успеха игры в США, где это становится буквально первым или вторым самым значимым событием в году. Но 4 года назад я сильно болел в это время, и проснулся посреди ночи от температуры (не ковид). Не мог уснуть, включил ноутбук и обнаружил себя посреди второй четверти финального матча.
На следующий год ситуация повторилась — тоже болел, тоже проснулся, но за полчаса до начала матча. Делать было нечего, пришлось смотреть. В прошлом году после сокращения, когда я только начал вести канал, у меня сбился режим и я не спал до 8-9 утра (как сейчас, кек). Увидел матч — думал, ну, посмотрим.
Так что и для меня это как-то по стечению обстоятельств превратилось в мини-традицию. За 3 матча (кек) почти разобрался в правилах, туда сюда, успел поскорбить по уходу Брэди.
Буду болеть за 49ers как за андердогов, так как предпочтений по лиге у меня нет.
А как будет проходить ваш вечер-ночь?
В основном стоит ожидать чего-то связанного с моими интересами:
<...>
— видеоигры, <...>;
— киберспорт, чаще всего DotA 2, CS:GO, Apex Legends, Trackmania;
Итак, сегодня в программе на вечер:
— Верхняя сетка турнира по DotA 2 в Дубае (уже идёт);
— Гранд-Финал первого турнира в Counter-Strike 2 в легендарной польской Катовице (через 2 часа);
— <пара созвонов в промежутке>
— СУПЕРКУБОК (по американскому футболку, разумеется) через 9 часов.
С последним у меня интересная история. Я никогда не интересовался американским футболом, и тем более не разделял повального успеха игры в США, где это становится буквально первым или вторым самым значимым событием в году. Но 4 года назад я сильно болел в это время, и проснулся посреди ночи от температуры (не ковид). Не мог уснуть, включил ноутбук и обнаружил себя посреди второй четверти финального матча.
На следующий год ситуация повторилась — тоже болел, тоже проснулся, но за полчаса до начала матча. Делать было нечего, пришлось смотреть. В прошлом году после сокращения, когда я только начал вести канал, у меня сбился режим и я не спал до 8-9 утра (как сейчас, кек). Увидел матч — думал, ну, посмотрим.
Так что и для меня это как-то по стечению обстоятельств превратилось в мини-традицию. За 3 матча (кек) почти разобрался в правилах, туда сюда, успел поскорбить по уходу Брэди.
Буду болеть за 49ers как за андердогов, так как предпочтений по лиге у меня нет.
А как будет проходить ваш вечер-ночь?
Сиолошная
В первом сообщении в канале написано: В основном стоит ожидать чего-то связанного с моими интересами: <...> — видеоигры, <...>; — киберспорт, чаще всего DotA 2, CS:GO, Apex Legends, Trackmania; Итак, сегодня в программе на вечер: — Верхняя сетка турнира…
Из комментариев:
— весь твиттер еще считает что на супербоуле у опенай новая премьера (Sam писал, что будет на Супербоуле, но а какой американец откажется?)
— весь твиттер еще считает что на супербоуле у опенай новая премьера (Sam писал, что будет на Супербоуле, но а какой американец откажется?)
Anonymous Poll
19%
Да, покажут тизер ChatGPT, чтобы привлечь новых пользователей
12%
Да, покажут какой-то бэнгер, новые супер фичи
7%
Да, анонсируют новую модель
30%
Да, камерамэн покажет Sam Altman на весь стадион
8%
Да, что-то другое
24%
Нет
Karpathy как обычно выдаёт базу:
<...>
Обучение не задумывалось как процесс, приносящий удовольствие. Вам нужен эквивалент «потоотделения», как при тренировках, только для мозга.
<...>
Тем, кто действительно хочет учиться:
если вы не пытаетесь изучить что-то узкоспециализированное и конкретное, закройте вкладки с короткими блгопостами. Закройте вкладки «Изучите XYZ за 10 минут». Сосредоточьтесь не на закусах, а на основных блюдах: учебниках, документах, статьях, руководствах, длиннопостах. Выделите на изучение темы 4-часовое окно. Не просто читайте, а делайте заметки, перечитывайте, перефразируйте, обрабатывайте, манипулируйте информацией туда-сюда (=смакуйте), учитесь. [прим.: я бы ещё добавил «задавайте вопросы и сами ищите на них ответы», из моего интервью].
Тем, кто искренне пытается научить:
рассмотрите возможность передачи знаний в длинной форме контента, предназначенной для того, чтобы кто-то «пропотел», изучая материал (особенно в современную эпоху, когда количество контента важнее его качества [прим.: в значении глубины], а не наоборот). Устройте вашей аудитории настоящую тренировку. Это то, к чему я [прим.: Andrey Karpathy, ну и я тоже конечно] стремлюсь и в своей образовательной работе. Моя аудитория из-за этого уменьшится. Тем, кто останется, это тоже может не понравиться. Но, по крайней мере, они чему-то научатся.
<...>
Обучение не задумывалось как процесс, приносящий удовольствие. Вам нужен эквивалент «потоотделения», как при тренировках, только для мозга.
<...>
Тем, кто действительно хочет учиться:
если вы не пытаетесь изучить что-то узкоспециализированное и конкретное, закройте вкладки с короткими блгопостами. Закройте вкладки «Изучите XYZ за 10 минут». Сосредоточьтесь не на закусах, а на основных блюдах: учебниках, документах, статьях, руководствах, длиннопостах. Выделите на изучение темы 4-часовое окно. Не просто читайте, а делайте заметки, перечитывайте, перефразируйте, обрабатывайте, манипулируйте информацией туда-сюда (=смакуйте), учитесь. [прим.: я бы ещё добавил «задавайте вопросы и сами ищите на них ответы», из моего интервью].
Тем, кто искренне пытается научить:
рассмотрите возможность передачи знаний в длинной форме контента, предназначенной для того, чтобы кто-то «пропотел», изучая материал (особенно в современную эпоху, когда количество контента важнее его качества [прим.: в значении глубины], а не наоборот). Устройте вашей аудитории настоящую тренировку. Это то, к чему я [прим.: Andrey Karpathy, ну и я тоже конечно] стремлюсь и в своей образовательной работе. Моя аудитория из-за этого уменьшится. Тем, кто останется, это тоже может не понравиться. Но, по крайней мере, они чему-то научатся.
Сиолошная
Принёс вам интересных слухов про будущие обновления ChatGPT. В прошлый раз, за 3 дня до OpenAI DevDay, Tibor Blaho (инженер и кофаундер стартапа, делающего плагин вокруг LLM), писал, как будет выглядеть новый интерфейс, показывал GPTs итд. Я тогда в канал…
Наконец-то выпустили — вот официальный анонс от OpenAI.
В нём в целом ничего интересного, всё так же, как в сливах:
— по ходу ваших чатов ChatGPT запоминает события и факты; вы можете сами дать команду «запомнить X»;
— знания переносятся между чатами;
— есть отдельный тип анонимного чата: он не появляется в истории, и данные из него не попадают в память. Режим можно включить навсегда (то есть не использовать долговременную память);
— все частички памяти можно посмотреть и вручную удалить в настройках (см. картинку).
А главное и необычное: память будет доступна в GPTs, то есть теперь создатели отдельных ботов смогут переносить информацию о вас между чатами. Как пример — BooksGPT, где модель сначала даёт рекомендацию, а после прочтения спрашивает мнение, запоминает фидбек и учитывает перед следующим предложением.
Фича выкатывается медленно, на малую группу пользователей (в том числе и бесплатных — 3.5 тоже поумнеет!). Проверьте настойки, вдруг выбрали именно вас!
Plot twist: ChatGPT теперь помнит, сколько чаевых ему пообещали. Ты на счётчике, дружок🤖
В нём в целом ничего интересного, всё так же, как в сливах:
— по ходу ваших чатов ChatGPT запоминает события и факты; вы можете сами дать команду «запомнить X»;
— знания переносятся между чатами;
— есть отдельный тип анонимного чата: он не появляется в истории, и данные из него не попадают в память. Режим можно включить навсегда (то есть не использовать долговременную память);
— все частички памяти можно посмотреть и вручную удалить в настройках (см. картинку).
А главное и необычное: память будет доступна в GPTs, то есть теперь создатели отдельных ботов смогут переносить информацию о вас между чатами. Как пример — BooksGPT, где модель сначала даёт рекомендацию, а после прочтения спрашивает мнение, запоминает фидбек и учитывает перед следующим предложением.
Фича выкатывается медленно, на малую группу пользователей (в том числе и бесплатных — 3.5 тоже поумнеет!). Проверьте настойки, вдруг выбрали именно вас!
Plot twist: ChatGPT теперь помнит, сколько чаевых ему пообещали. Ты на счётчике, дружок
Please open Telegram to view this post
VIEW IN TELEGRAM
В середине недели к нам пришли грустные новости — Andrej Karpathy, ex-Director of AI в Tesla, вернувшийся в прошлом феврале в OpenAI, покидает компанию.
В своём твите он пишет, что никакой драмы или проблемы нет, наоборот, год в компании прошёл очень хорошо: сильная команда, приятные люди, а грядущие продукты и вовсе будоражат. Возможно, приход-уход был его мини-трюком, чтобы узнать, что у Sama в планах, и к чему готовиться после выхода автономных агентов на GPT-5🤣
Но есть и хорошие новости: Andrej снова начнёт выпускать образовательные видео на YouTube. Работа над новым контентом идёт уже два дня (из твита)!
И судя по подсказке «My immediate plan is to work on my personal projects and see what happens. Those of you who’ve followed me for a while may have a sense for what that might look like ;)», Karpathy собирается разрабатывать систему LLM-OS, где процессорным ядром по сути выступает языковая модель; см. тут.
За МЭМ спасибо Артёму
В своём твите он пишет, что никакой драмы или проблемы нет, наоборот, год в компании прошёл очень хорошо: сильная команда, приятные люди, а грядущие продукты и вовсе будоражат. Возможно, приход-уход был его мини-трюком, чтобы узнать, что у Sama в планах, и к чему готовиться после выхода автономных агентов на GPT-5
Но есть и хорошие новости: Andrej снова начнёт выпускать образовательные видео на YouTube. Работа над новым контентом идёт уже два дня (из твита)!
И судя по подсказке «My immediate plan is to work on my personal projects and see what happens. Those of you who’ve followed me for a while may have a sense for what that might look like ;)», Karpathy собирается разрабатывать систему LLM-OS, где процессорным ядром по сути выступает языковая модель; см. тут.
За МЭМ спасибо Артёму
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Наконец-то выпустили — вот официальный анонс от OpenAI. В нём в целом ничего интересного, всё так же, как в сливах: — по ходу ваших чатов ChatGPT запоминает события и факты; вы можете сами дать команду «запомнить X»; — знания переносятся между чатами; — есть…
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Дважды садился пост писать, но не получается охватить и прописать всё то, что хотелось бы. Поэтому сначала TLDR со ссылкой на оригинал (который вам обязательно нужно прочитать), потом набор тезисов, а дальше — МЕМЫ. ---------- Вчера WSJ зарепортили, что…
В продолжение темы привлечение инвестиций для реформы индустрии производства чипов. Один из основных вопросов, который логично задавать в сложившейся обстановке, когда в цепочке производства есть аж три монополиста — это как расширять бутылочные горлышки, и в чём они вообще заключаются.
Монополисты:
— ASML делают сложнейшие машины, осуществляющие процесс фотолитографии
— Nvidia занимается проектировкой чипов и разработкой софта для эффективной утилизации железа
— TSMC берёт оборудование ASML и делает чипы по проектам Nvidia
Пойдем по порядку с самых низов и поговорим про ASML. Фотолитография, если кратко, это процесс рисования на специально заготовленной кремниевой пластине по шаблону. Но фишка в том, что размер отдельных элементов в шаблоне достигает нескольких нанометров (нм) — вот эти вот техпроцессы по 3-5 нм это оно. Для масштаба: 1 нм это ниточка из 10 молекул водорода, а расстояние между атомами углерода в алмазе равно 0,154 нм (алмаз такой крепкий как-раз из-за очень плотной укладки частиц, и как следствие коротких связей между ними).
В самой технологичной ультрафиолоетовой (EUV) литографии источник света генерирует экстремально ультрафиолетовое излучение, которое затем направляется через систему оптики, включая специальные зеркала и маски, для проецирования уменьшенного изображения паттерна шаблона на фоточувствительный слой (фоторезист) на поверхности кремниевой пластины. Но вот незадача: таких мощных УФ-ламп не существует. Поэтому делается следующее: маленький ускоритель частиц (как адронный коллайдер, но поменьше и послабее) разгоняет ионы олова, выкидывает их в камеру, и в них на лету стреляют лазером (🙀 ). Причём дважды: чтобы разогреть и чтобы взорвать (🤯 ) — и вот при взрыве выделяется ультрафиолет. Повторите ~50'000 раз в секунду и готово.
Монополисты:
— ASML делают сложнейшие машины, осуществляющие процесс фотолитографии
— Nvidia занимается проектировкой чипов и разработкой софта для эффективной утилизации железа
— TSMC берёт оборудование ASML и делает чипы по проектам Nvidia
Пойдем по порядку с самых низов и поговорим про ASML. Фотолитография, если кратко, это процесс рисования на специально заготовленной кремниевой пластине по шаблону. Но фишка в том, что размер отдельных элементов в шаблоне достигает нескольких нанометров (нм) — вот эти вот техпроцессы по 3-5 нм это оно. Для масштаба: 1 нм это ниточка из 10 молекул водорода, а расстояние между атомами углерода в алмазе равно 0,154 нм (алмаз такой крепкий как-раз из-за очень плотной укладки частиц, и как следствие коротких связей между ними).
В самой технологичной ультрафиолоетовой (EUV) литографии источник света генерирует экстремально ультрафиолетовое излучение, которое затем направляется через систему оптики, включая специальные зеркала и маски, для проецирования уменьшенного изображения паттерна шаблона на фоточувствительный слой (фоторезист) на поверхности кремниевой пластины. Но вот незадача: таких мощных УФ-ламп не существует. Поэтому делается следующее: маленький ускоритель частиц (как адронный коллайдер, но поменьше и послабее) разгоняет ионы олова, выкидывает их в камеру, и в них на лету стреляют лазером (
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
В продолжение темы привлечение инвестиций для реформы индустрии производства чипов. Один из основных вопросов, который логично задавать в сложившейся обстановке, когда в цепочке производства есть аж три монополиста — это как расширять бутылочные горлышки,…
Как вы понимаете, нужны абсолютная точность, куча расчётов и мелких деталей, производство которых отлажено до микронов. Такое умеют делать только в ASML, и то штучно. Вот как раз на днях они представили свою самую совершенную машину. Весит как 2 аэробуса A320 и стоит $380M.
Глядя на это можно и диву даться, как же это всё работает так, столько сложности, настоящее чудо техники!
Но есть и альтернативная мысль: оно заоверинженерено и усложнено в десятки раз без необходимости. Многие составляющие наверняка можно сделать проще, быстрее, дешевле, масштабируемее. Идеальный пример упрощения — SpaceX, где корабль Starship сейчас собирается из нержавейки. Она доступна всем, это не какой-то суперсекретный дорогущий сплав. Корабли, конечно, ещё не долетели до Марса, но зато с первых дней в производство заложен подход упрощения. Почему в процессе, состоящем из 100 шагов, каждый шаг должен быть «передовым»? Это бессмысленно — только самые важные и требовательные части процесса должны быть продвинутыми (и всё равно не переусложнены).
Другой камень в сторону огорода ASML — это логистика. Согласно их же публичному отчёту за 2022й, в их цепочках поставок участвует ПЯТЬ ТЫСЯЧ КОМПАНИЙ — и это только на первом уровне взаимодействия (то есть те компании могут сами у кого-то что-то закупать, ждать поставок, etc). Представьте как сильно зависит производство от любых процессуальных, бюрократических и логистических издержек? За хорошим примером ходить не надо: те же SpaceX, как и множество других крупнейших игроков на разных рынках, адаптируют систему вертикальной интеграции. Это когда ты подминаешь производство и поставки под себя, и в итоге зависишь от очень базовый, зато частых вещей, которые доступны повсюду. Это end-2-end цикл производства, который может не подходить маленьким компаниям, но который точно не должен влиять на МИРОВУЮ индустрию, от которой зависит, получите ли вы свой следующий айфон или RTX 5090.
Глядя на это можно и диву даться, как же это всё работает так, столько сложности, настоящее чудо техники!
Но есть и альтернативная мысль: оно заоверинженерено и усложнено в десятки раз без необходимости. Многие составляющие наверняка можно сделать проще, быстрее, дешевле, масштабируемее. Идеальный пример упрощения — SpaceX, где корабль Starship сейчас собирается из нержавейки. Она доступна всем, это не какой-то суперсекретный дорогущий сплав. Корабли, конечно, ещё не долетели до Марса, но зато с первых дней в производство заложен подход упрощения. Почему в процессе, состоящем из 100 шагов, каждый шаг должен быть «передовым»? Это бессмысленно — только самые важные и требовательные части процесса должны быть продвинутыми (и всё равно не переусложнены).
Другой камень в сторону огорода ASML — это логистика. Согласно их же публичному отчёту за 2022й, в их цепочках поставок участвует ПЯТЬ ТЫСЯЧ КОМПАНИЙ — и это только на первом уровне взаимодействия (то есть те компании могут сами у кого-то что-то закупать, ждать поставок, etc). Представьте как сильно зависит производство от любых процессуальных, бюрократических и логистических издержек? За хорошим примером ходить не надо: те же SpaceX, как и множество других крупнейших игроков на разных рынках, адаптируют систему вертикальной интеграции. Это когда ты подминаешь производство и поставки под себя, и в итоге зависишь от очень базовый, зато частых вещей, которые доступны повсюду. Это end-2-end цикл производства, который может не подходить маленьким компаниям, но который точно не должен влиять на МИРОВУЮ индустрию, от которой зависит, получите ли вы свой следующий айфон или RTX 5090.
Сиолошная
Как вы понимаете, нужны абсолютная точность, куча расчётов и мелких деталей, производство которых отлажено до микронов. Такое умеют делать только в ASML, и то штучно. Вот как раз на днях они представили свою самую совершенную машину. Весит как 2 аэробуса A320…
А знаете, у кого ещё было много поставщиков? У NASA во время разработки ракеты Saturn V, и в частности из-за этого мы не можем сейчас повторить те наработки, и приходится делать новые двигатели и ракеты (см. тут).
Третья кора связана с техническим долгом и разработкой ПО для этих машин. Наткнулся на пост трехлетней давности на HN, где автор делится рассказами своих знакомых про внутрянку ASML. Чтобы стать монополией компания неслась как скоростной поезд, инженерам ставили нереалистичные дедлайны, а машины продавались неготовыми — с каждой из них на завод клиента отправлялись инженеры, которые прямо на месте докручивали то да сё (и ешё 50 помогали им из офиса). А если вдруг встречался баг в коде — то, поскольку никаких автотестов нет, приходится заполнять специальную форму, в которой проводится анализ зависимостей, затем этот отчёт смотрит специальный комитет, после чего, если дан зелёный свет, то нужно исправить ошибку в похожих, но не одинаковых файлах кода для 7 семейств продуктов ASML. И везде могут вылезти свои приколы — ведь на баг могли опираться другие части логики и кода (тут вспоминаю, как две ошибки наложились друг на друга при запуске Apollo на Луну, и всё обошлось, но про это в другой раз).
Итог:
Кажется, что если начинать делать с нуля, с конкретным прицелом на определенные способы использования (применение и обучение GPT-N+1), избавиться от наработок прошлого и взглянуть свежим взглядом, если контролировать всю цепочку производства и диверсифицировать её по разным странам, то выходная производственная мощность вырастет на порядки. Будем получать не по 10 машин для литографии в год, а 10000. Да, может не такие качественные, да, чаще будут ломаться — ну и хрен с ним! Нам не людей на Луну запускать в конце-то концов. Автор цитируемого на HN поста говорит, что за 2 года малой группой людей можно догнать ASML 15-20 летней давности, и за 10-15 лет полностью приблизиться к их будущему уровню.
Так что у OpenAI и других крупных игроков рынка AI дилемма — сидеть и ждать, что ASML исправится (или потеряет монополию), или же брать коня под уздцы и делать всё самим. Sama свой выбор сделал💪
Третья кора связана с техническим долгом и разработкой ПО для этих машин. Наткнулся на пост трехлетней давности на HN, где автор делится рассказами своих знакомых про внутрянку ASML. Чтобы стать монополией компания неслась как скоростной поезд, инженерам ставили нереалистичные дедлайны, а машины продавались неготовыми — с каждой из них на завод клиента отправлялись инженеры, которые прямо на месте докручивали то да сё (и ешё 50 помогали им из офиса). А если вдруг встречался баг в коде — то, поскольку никаких автотестов нет, приходится заполнять специальную форму, в которой проводится анализ зависимостей, затем этот отчёт смотрит специальный комитет, после чего, если дан зелёный свет, то нужно исправить ошибку в похожих, но не одинаковых файлах кода для 7 семейств продуктов ASML. И везде могут вылезти свои приколы — ведь на баг могли опираться другие части логики и кода (тут вспоминаю, как две ошибки наложились друг на друга при запуске Apollo на Луну, и всё обошлось, но про это в другой раз).
Итог:
Кажется, что если начинать делать с нуля, с конкретным прицелом на определенные способы использования (применение и обучение GPT-N+1), избавиться от наработок прошлого и взглянуть свежим взглядом, если контролировать всю цепочку производства и диверсифицировать её по разным странам, то выходная производственная мощность вырастет на порядки. Будем получать не по 10 машин для литографии в год, а 10000. Да, может не такие качественные, да, чаще будут ломаться — ну и хрен с ним! Нам не людей на Луну запускать в конце-то концов. Автор цитируемого на HN поста говорит, что за 2 года малой группой людей можно догнать ASML 15-20 летней давности, и за 10-15 лет полностью приблизиться к их будущему уровню.
Так что у OpenAI и других крупных игроков рынка AI дилемма — сидеть и ждать, что ASML исправится (или потеряет монополию), или же брать коня под уздцы и делать всё самим. Sama свой выбор сделал
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from New Yorko Times (Yury Kashnitsky)
Сверхкосмические технологии в ASML
#links_with_intro #tech
Слушаю почти все выпуски “Запуск завтра” https://libolibo.ru/zapuskzavtra. Впечатлился эпизодом про нидерландскую компанию ASML (выпуск на Apple-подкастах https://tinyurl.com/yeyr69ze), без которой не было бы ультрасовременных чипов. ASML делает литографические машины для печати микросхеїм, и там какие-то нереальные технологии нужны для максимально плотной упаковки транзисторов (их уже миллиарды на кв. см.). В частности, для правильного отражения лазера нужны идеально плоские зеркала, и ASML заказывает их у немецкой Zeiss. Зеркала настолько плоские, что там отдельные торчащие атомы “вправляют”, если б зеркало было размером с Германию, допускались бы неровности ~10 см. А весь процесс происходит в “чистых” комнатах – в глубоком вакууме, т.к. отдельные пылинки тоже мешают. Сложилось так много благоприятных факторов, что воспроизвести такие технологии пока не получается даже у Китая, несмотря на огромные инвестиции.
Удивительно, каких усилий человечества “требует” закона Мура (то что число транзисторов на чипах примерно удваивается каждые два года), который мы воспринимаем как что-то должное. Конечно же, закон Мура никакой не фундаментальный закон, а просто обнаруженная эмпирическая зависимость, и споры о том, когда “закон перестанет работать”, не утихают.
#links_with_intro #tech
Слушаю почти все выпуски “Запуск завтра” https://libolibo.ru/zapuskzavtra. Впечатлился эпизодом про нидерландскую компанию ASML (выпуск на Apple-подкастах https://tinyurl.com/yeyr69ze), без которой не было бы ультрасовременных чипов. ASML делает литографические машины для печати микросхеїм, и там какие-то нереальные технологии нужны для максимально плотной упаковки транзисторов (их уже миллиарды на кв. см.). В частности, для правильного отражения лазера нужны идеально плоские зеркала, и ASML заказывает их у немецкой Zeiss. Зеркала настолько плоские, что там отдельные торчащие атомы “вправляют”, если б зеркало было размером с Германию, допускались бы неровности ~10 см. А весь процесс происходит в “чистых” комнатах – в глубоком вакууме, т.к. отдельные пылинки тоже мешают. Сложилось так много благоприятных факторов, что воспроизвести такие технологии пока не получается даже у Китая, несмотря на огромные инвестиции.
Удивительно, каких усилий человечества “требует” закона Мура (то что число транзисторов на чипах примерно удваивается каждые два года), который мы воспринимаем как что-то должное. Конечно же, закон Мура никакой не фундаментальный закон, а просто обнаруженная эмпирическая зависимость, и споры о том, когда “закон перестанет работать”, не утихают.
OpenAI в партнёрстве с Microsoft Threat Intelligence обнаружили и деактивировали аккаунты, принадлежащие 5 группировкам, связанным со злоумышленниками и государствами.
Для чего им потребовались модельки OpenAI?
1️⃣ Charcoal Typhoon (Китай 🇨🇳 ): исследования различных компаний и инструментов кибербезопасности, отладка и написание кода, а также создания контента, который может быть использован в фишинговых кампаниях.
2️⃣ Salmon Typhoon (Китай🇨🇳 ): перевод технических статей, получение общедоступной информации о многочисленных разведывательных агентства, снова программирование, и исследование распространенных способов сокрытия процессов в операционной системе (для создания вирусов).
3️⃣ Crimson Sandstorm (Иран 🇮🇷 ): написание веб/мобильных приложений, относящихся к текстовой поддержке, создание фишингового контента, и исследование распространенных способов, с помощью которых вредоносное ПО может избежать обнаружения.
4️⃣ Emerald Sleet (Северная Корея 🇰🇵 ): использовали сервисы OpenAI для выявления экспертов и организаций, занимающихся вопросами обороны в Азиатско-Тихоокеанском регионе, понимания общедоступных уязвимостей, помощи в выполнении основных задач по написанию сценариев и подготовки контента, который можно было бы использовать в фишинговых кампаниях.
И НАКОНЕЦ...специалисты из СБ Сбербанка!
👋 Forest Blizzard (Россия, группировка связана с ГРУ 🇷🇺 ): исследование открытых источников в области протоколов спутниковой связи и технологий радиолокационной визуализации. Ну и программирование до кучи.
А вы говорите в гугле так и так всё есть!
(ну и дежурное напоминание, что модели следующего поколения будут ещё более эффективнее в ассистировании даже таким задачам)
Читать у OpenAI
Читать более подробно в блоге MSFT
Для чего им потребовались модельки OpenAI?
И НАКОНЕЦ...
А вы говорите в гугле так и так всё есть!
(ну и дежурное напоминание, что модели следующего поколения будут ещё более эффективнее в ассистировании даже таким задачам)
Читать у OpenAI
Читать более подробно в блоге MSFT
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from я обучала одну модель
Меня помимо фотореалистичности видео поразили еще конкретно вот эти два примера. На первом в каждом телевизоре свой видеоряд (мы прикрутили видео в твое видео), а на втором супер точно передан изгиб линзы камеры на телефоне, так, что вообще все пропорции соблюдены. И отдельно меня убивает, что модель смогла в ОТРАЖЕНИЯ в стрекле, которые в нужный момент становятся четче, когда поезд проезжает темное здание…. Насколько крутую world model они смогли туда запихнуть
Сиолошная
Меня помимо фотореалистичности видео поразили еще конкретно вот эти два примера. На первом в каждом телевизоре свой видеоряд (мы прикрутили видео в твое видео), а на втором супер точно передан изгиб линзы камеры на телефоне, так, что вообще все пропорции соблюдены.…
https://openai.com/sora
OpenAI воспользовались минутой слабостью, и пока я спал, потому что болела голова, порвали мир генерации видео-по-тексту. То что вы видите выше — примеры работ, сгенерированных моделью SORA. Посмотреть больше примеров можно в других каналах, а также на сайте, и в твиттере Sam Altman, где он генерит видео по запросам пользователей: https://twitter.com/sama
Доступа у публики нет (я бы не ждал до окончания выборов или вообще), но будет доступна спец. командам, отвечающим за безопасность генерации:
> Мы заранее делимся результатами наших исследований, чтобы начать работать и получать отзывы от людей за пределами OpenAI, а также дать общественности представление о том, какие возможности ИИ ждут нас на горизонте.
Конец блогпоста OpenAI:
> SORA служит основой для моделей, которые могут понимать и моделировать реальный мир, и мы считаем, что эта способность станет важной вехой на пути к достижению AGI.
🤣 🤣
(Техническая статья позже сегодня)
OpenAI воспользовались минутой слабостью, и пока я спал, потому что болела голова, порвали мир генерации видео-по-тексту. То что вы видите выше — примеры работ, сгенерированных моделью SORA. Посмотреть больше примеров можно в других каналах, а также на сайте, и в твиттере Sam Altman, где он генерит видео по запросам пользователей: https://twitter.com/sama
Доступа у публики нет (я бы не ждал до окончания выборов или вообще), но будет доступна спец. командам, отвечающим за безопасность генерации:
> Мы заранее делимся результатами наших исследований, чтобы начать работать и получать отзывы от людей за пределами OpenAI, а также дать общественности представление о том, какие возможности ИИ ждут нас на горизонте.
Конец блогпоста OpenAI:
> SORA служит основой для моделей, которые могут понимать и моделировать реальный мир, и мы считаем, что эта способность станет важной вехой на пути к достижению AGI.
(Техническая статья позже сегодня)
Please open Telegram to view this post
VIEW IN TELEGRAM
Openai
Sora: Creating video from text
Сиолошная
https://openai.com/sora OpenAI воспользовались минутой слабостью, и пока я спал, потому что болела голова, порвали мир генерации видео-по-тексту. То что вы видите выше — примеры работ, сгенерированных моделью SORA. Посмотреть больше примеров можно в других…
OpenAI сдают позиции и не смотрятся на фоне других ИИ-лаб?
Anonymous Quiz
8%
Да.
30%
Жду GPT-6.
11%
Опция для сотрудников META/Mistral
52%
Нет.
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Просто посмотрите на это качество, о-ф-и-г-е-т-ь
У многих txt2video стартаперов FaceId сегодня не работает
У многих txt2video стартаперов FaceId сегодня не работает