FSCP
19.9K subscribers
29.5K photos
3.24K videos
856 files
75.8K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
​​Отставание России от США в области ИИ уже колоссально.
А через несколько лет оно увеличится до трёх километров.

Так уж получилось, что прогресс в области ИИ во многом определяется наличием огромных вычислительных мощностей, требуемых для обучения гигантских нейросетей-трансформеров.
Грег Брокман (соучредитель и СТО OpenAI) формулирует это так:
«Мы думаем, что наибольшую выгоду получит тот, у кого самый большой компьютер».
Я уже демонстрировал, насколько критично наличие мощного компьютинга для обучения Больших моделей в посте «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке».

Место России на карте мира по вычислительной мощности суперкомпьютеров более чем скромное. В списке ТОР500 суперкомпьютеров на этот год у США 149 систем, а у России 7. При этом, только одна из систем США по своей производительности превышает производительность всех российских систем (см. мой пост). Председатель оргкомитета суперкомпьютерного форума России, д.ф.м.н, член-корр. РАН Сергей Абрамов оценивает отставание России от США в области суперкомпьютинга примерно в 10 лет.

Но в области обучения больших моделей для ИИ-приложений ситуация еще хуже. Здесь мало вычислительной мощности обычных серверов и требуются специальные ускорители вычислений. Спецы по машинному обучению из Яндекса это комментируют так.
«Например, если обучать модель с нуля на обычном сервере, на это потребуется 40 лет, а если на одном GPU-ускорителе V100 — 10 лет. Но хорошая новость в том, что задача обучения легко параллелится, и если задействовать хотя бы 256 тех же самых V100, соединить их быстрым интерконнектом, то задачу можно решить всего за две недели.»

Поэтому, показатель числа GPU-ускорителей в вычислительных кластерах разных стран (общедоступных, частных и национальных) позволяет оценивать темпы развития систем ИИ в этих странах. Актуальная статистика данного показателя ведется в State of AI Report Compute Index. Состояние на 20 ноября приведено на приложенном рисунке, куда я добавил данные по пяти крупнейшим HPC-кластерам России (разбивка по public/private – моя оценка).

Из рисунка видно, что обучение больших моделей, занимающее на HPC-кластере всем известной американской компании дни и недели, будет требовать на HPC-кластере Яндекса месяцев, а то и лет.

Но это еще не вся беда. Введенные экспортные ограничения на поставку GPU-ускорителей в Россию и Китай за несколько лет многократно увеличат отрыв США в области обучения больших моделей для ИИ-приложений.
И этот отрыв будет измеряться уже не годами и даже не десятилетиями, а километрами, - как в старом советском анекдоте.
«Построили у нас самый мощный в мире компьютер и задали ему задачу, когда же наступит коммунизм. Компьютер думал, думал и выдал ответ: "Через 3 километра". На требование расшифровать столь странный ответ компьютер выдал:
— Каждая пятилетка — шаг к коммунизму.»

#ИИ #HPC #Россия #ЭкспортныйКонтроль
_______
Источник | #theworldisnoteasy
​​У Китая и России появился шанс не дать США уйти в отрыв в области ИИ.
В этом году США пошли на крайние меры, чтобы не позволить Китаю догнать и перегнать США в важнейшей для нацбезопасности индустрии ИИ. Введенные США экспортные ограничения на высокопроизводительные процессоры сильно усложняют Китаю (не имеющему пока соизмеримых по производительности собственных процессоров) возможность конкуренции в области ИИ. Заодно под раздачу экспортных ограничений (по известным причинам) попала и Россия. И это лишает российские компании и без того тусклой перспективы, - пусть не догнать США, но хотя бы отставать на годы, а не на десятилетия.

Но тут случилось такое, что мало кто мог предвидеть.
Компания Together объявила, что смогла обучить свою модель с открытым кодом GPT-JT (6 млрд параметров):
• децентрализованно (на разнородной группе не самых крутых графических процессоров)
• соединенных медленными интернет-каналами (1 Гбит/с)


Авторы модели GPT-JT придумали кучу хитрых способов уменьшения вычислительной и коммуникационной нагрузки при децентрализованном обучении. В результате, эта модель на тестах классификации приближается к современным моделям, которые намного её крупнее (например, InstructGPT davinci v2).

Это достижение может иметь колоссальные последствия.
✔️ До сих пор магистральная линия развития ИИ определялась ограниченным набором компаний, имеющих доступ к большим централизованным компьютерам. На этих высокопроизводительных вычислительных комплексах обучались все т.н. большие модели, начиная от AlphaZero и заканчивая GPT3.
✔️ Компаниям, не имеющим в распоряжении суперкомпьютерных мощностей в этой гонке было нечего ловить (см мой пост «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке»).

GPT-JT сметает шашки с доски, предлагая совершенно иной сценарий будущего.
Вместо нескольких компаний – гигантов, оснащенных суперкомпьютерными системами для ИИ, распределенные коллективы разработчиков могут объединять свои скромные компьютерные мощности через не самые быстрые интернет-каналы, чтобы вместе обучать большие модели.

Но это возможно лишь при условии, что разработчики GPT-JT смогут её масштабировать со скромных 6 млрд параметров на сотни миллиардов. Ибо таково требование сегодняшних больших моделей. А в 2023 счет пойдет уже на триллионы параметров.

#ИИ #HPC #Россия #Китай #ЭкспортныйКонтроль
_______
Источник | #theworldisnoteasy
Сверхразум на Земле будет один - американский.
Новые экспортные ограничения США лишают Китай конкурентных шансов, как минимум, до 2030.
США пошли на беспрецедентный шаг. Объявленные новые правила экспортного контроля – это уже не «удушающий прием», а удар ломом по голове.
Новые правила (см. 1) запрещают продажу центрам обработки данных китайских компаний, высокопроизводительных чипов с вычислительной мощностью более 300 терафлопс (триллионов операций в секунду). Для чипов с вычислительной мощностью 150-300 терафлопс, продажа будет также запрещена, если «плотность вычислительной мощности» на квадратный миллиметр кристалла превышает 370 гигафлопс (миллиардов операций в секунду). Чипы, попадающие в этот диапазон вычислительной мощности, но с более низкой «плотностью вычислительной мощности», будут в «серой зоне», что потребует от их американских производителей уведомления правительства о продажах в Китай.

Чтобы оценить сокрушительную силу этого удара, взгляните на приложенную ниже диаграмму из недавнего отчета «2022-2023 Оценка развития вычислительной мощности искусственного интеллекта в Китае».
На диаграмме показаны доли рынка чипов ИИ в Китае. Голубой сегмент размером 89% - это графические процессоры (GPU), производимые такими компаниями, как NVIDIA, AMD и Intel, ставшие незаменимыми для обучения больших моделей ИИ. По ним и нанесен удар, обрушающий 89% вычислительной мощности ИИ-систем Китая.

• Конечно, произойдет это не сразу, т.к. некоторые запасы GPU в Китае есть. Однако, все планы по ускоренному выходу Китая на уровень США спущены в унитаз.
• Встать после такого нокаута Китай не сможет, как минимум, до 2030 (когда запланировано наладить собственное производство чипов такой вычислительной мощности).
• Серый импорт высокопроизводительных чипов не поможет Китаю. Серого импорта таких объемов не бывает. Напр. до сего дня доля поставок GPU короля этого рынка компании NVIDIA составляла 25% ее мировых поставок. Теперь этот рынок и десятки миллиардов долларов потеряны.

США пошли на столь высокую плату, дабы окончательно подрезать крылья намерениям Китая стать сверхдержавой №1 в главной технологии 21 века. И этот беспрецедентный шаг со всей очевидностью вытекает из принятого в США решения – во что бы то ни стало стать первым на земле обладателем сверхразума (см. 2).

1 www.bis.doc.gov
2 https://t.me/theworldisnoteasy/1807
#Китай #США #ИИ #ЭкспортныйКонтроль
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot