Хождения Sam Altman в Сенат не прошли даром. OpenAI и другие ведущие лаборатории искусственного интеллекта (список не указан, ждём других анонсов) берут на себя ряд добровольных обязательств по повышению безопасности, защищенности и надежности технологий искусственного интеллекта и предоставляемых услуг. Этот процесс будет координироваться Белым домом и будет являться важным шагом на пути к осмысленному и эффективному управлению ИИ как в США, так и во всем мире.
Более детально ознакомиться можно на официальной странице, тезисно — ниже.
Область применения: модели, которые в целом являются куда более мощными и способными, чем текущие модели с фронтира (включая GPT-4, Claude 2, PaLM 2, DALL-E 2 — это примеры "слабых" моделей).
1) Коммит на внутреннее и внешнее тестирование моделей в разных областях, включая неправомерное использование, социальные риски и проблемы национальной безопасности (биологическая, кибер, итд)
2) Работать и содействовать обмену информацией между компаниями и правительствами о рисках доверия и безопасности, опасных или возникающих возможностях и попытках обойти меры безопасности AI.
3) Инвестировать в кибербезопасность и защиту от внешних угроз, чтобы защитить проприетарные и невыпущенные модели.
4) Мотивация (включая денежную) стороннего тестирования на уязвимости сообществом
5) Разработать и внедрить механизмы, позволяющие пользователям понять, создан ли текстовый, аудио- или визуальный контент с помощью ИИ (например, водяные знаки)
6) Публично сообщать о возможностях модели или системы, ограничениях и областях надлежащего и ненадлежащего использования, включая обсуждение социальных рисков
7) Уделить первоочередное внимание исследованиям социальных рисков, связанных с системами ИИ, в том числе по предотвращению вредных предубеждений и дискриминации и защите конфиденциальности
8) Разрабатывать и внедрять передовые системы искусственного интеллекта, чтобы помочь решить самые большие проблемы общества
Звучит серьёзно, очень интересно посмотреть, как будет выглядеть координация нескольких разных компаний и даже разных стран.
Более детально ознакомиться можно на официальной странице, тезисно — ниже.
Область применения: модели, которые в целом являются куда более мощными и способными, чем текущие модели с фронтира (включая GPT-4, Claude 2, PaLM 2, DALL-E 2 — это примеры "слабых" моделей).
1) Коммит на внутреннее и внешнее тестирование моделей в разных областях, включая неправомерное использование, социальные риски и проблемы национальной безопасности (биологическая, кибер, итд)
2) Работать и содействовать обмену информацией между компаниями и правительствами о рисках доверия и безопасности, опасных или возникающих возможностях и попытках обойти меры безопасности AI.
3) Инвестировать в кибербезопасность и защиту от внешних угроз, чтобы защитить проприетарные и невыпущенные модели.
4) Мотивация (включая денежную) стороннего тестирования на уязвимости сообществом
5) Разработать и внедрить механизмы, позволяющие пользователям понять, создан ли текстовый, аудио- или визуальный контент с помощью ИИ (например, водяные знаки)
6) Публично сообщать о возможностях модели или системы, ограничениях и областях надлежащего и ненадлежащего использования, включая обсуждение социальных рисков
7) Уделить первоочередное внимание исследованиям социальных рисков, связанных с системами ИИ, в том числе по предотвращению вредных предубеждений и дискриминации и защите конфиденциальности
8) Разрабатывать и внедрять передовые системы искусственного интеллекта, чтобы помочь решить самые большие проблемы общества
Звучит серьёзно, очень интересно посмотреть, как будет выглядеть координация нескольких разных компаний и даже разных стран.
Сиолошная
Хождения Sam Altman в Сенат не прошли даром. OpenAI и другие ведущие лаборатории искусственного интеллекта (список не указан, ждём других анонсов) берут на себя ряд добровольных обязательств по повышению безопасности, защищенности и надежности технологий искусственного…
Появилось на сайте Белого Дома (ссылка)
Под инициативной подписались следующие компании:
Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI
Немного странно, что нет Nvidia, поставщиков видеокарт для тренировки мощных моделек (да у них и исследовательский отдел очень неслабый, вспомнить только модель на 530 миллиардов параметров!).
По поводу вообще всей новости процитирую Бориса @boris_again:
> Офигеть конечно, что Белый Дом серьезно занимается AI safety. Не перестаю удивляться насколько все вылезло из пузыря
Под инициативной подписались следующие компании:
Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI
Немного странно, что нет Nvidia, поставщиков видеокарт для тренировки мощных моделек (да у них и исследовательский отдел очень неслабый, вспомнить только модель на 530 миллиардов параметров!).
По поводу вообще всей новости процитирую Бориса @boris_again:
> Офигеть конечно, что Белый Дом серьезно занимается AI safety. Не перестаю удивляться насколько все вылезло из пузыря
Сиолошная
SpaceX традиционно выложили короткое видео с обзором прошедшего запуска Starship. Подпись: — Первое лётное испытание системы Starship. Ещё на шаг ближе к Марсу В то же время Elon Musk дал комментарий: — Основные обновления стартовой площадки должны быть…
Мы давно не говорили про SpaceX, пора бы и посмотреть, как у них дела.
А в целом всё неплохо, полным ходом идёт подготовка к следующему запуску. Корабль (верхняя часть аппарата) уже протестирован (может быть не до конца, но прожиги и криотесты были). На неделе бустер поставили на стартовый стол для испытаний — тот самый, основание под которым разлетелось в песок после прошлого запуска! Да, всё починили: залили больше 5000 тонн бетона, поставили систему подачи воды для смягчения эффекта работы двигателей первой ступени. См. прикреплённое фото.
Действительно спустя 3 месяца _почти_ всё готово. Несколько прожигов первой ступени и чуть больше тестовых заправок отделяют нас от второй попытки орбитального полёта. Напомню, что по лицензии от FAA SpaceX имеет право еще на 4 запуска до конца года. Если не хочется терять возможности - нужно делать по запуску чуть реже, чем раз в полтора месяца. Мой консервативный прогноз таков, что будет еще 3 попытки запуска (ракеты и корабли для них почти готовы, остались только двигатели).
А в следующем посте будет мегакрасивейшая запись с камеры недавно запущенной Falcon 9, которая зацепила ракурс заката Солнца за Землю. Эффектные кадры!
А в целом всё неплохо, полным ходом идёт подготовка к следующему запуску. Корабль (верхняя часть аппарата) уже протестирован (может быть не до конца, но прожиги и криотесты были). На неделе бустер поставили на стартовый стол для испытаний — тот самый, основание под которым разлетелось в песок после прошлого запуска! Да, всё починили: залили больше 5000 тонн бетона, поставили систему подачи воды для смягчения эффекта работы двигателей первой ступени. См. прикреплённое фото.
Действительно спустя 3 месяца _почти_ всё готово. Несколько прожигов первой ступени и чуть больше тестовых заправок отделяют нас от второй попытки орбитального полёта. Напомню, что по лицензии от FAA SpaceX имеет право еще на 4 запуска до конца года. Если не хочется терять возможности - нужно делать по запуску чуть реже, чем раз в полтора месяца. Мой консервативный прогноз таков, что будет еще 3 попытки запуска (ракеты и корабли для них почти готовы, остались только двигатели).
А в следующем посте будет мегакрасивейшая запись с камеры недавно запущенной Falcon 9, которая зацепила ракурс заката Солнца за Землю. Эффектные кадры!
Forwarded from SpaceX (Hassan Abdurrahman)
This media is not supported in your browser
VIEW IN TELEGRAM
SpaceX:
— Вид со второй ступени Falcon 9 во время заката на орбите
— Вид со второй ступени Falcon 9 во время заката на орбите
Последние полтора часа занимался тем, что смотрел интервью Валеры Бабушкина (уже третье на том канале, лол). Как обычно, рекомендую посмотреть и вдохновиться, если вы только начинаете свой путь в Data Science (да и не только).
В этом видео, кстати, был поставлен рекорд — Валера упомянул меня первый раз лишь на 1:08:20, обычно это происходит сильно ближе к началу😞 ну ладно
Другие интересные моменты:
48:42 — Цитата: "Нашёл место, где я смогу работать на все 100 процентов <...> я еще готов поработать серьёзно, и мне нужно место где я могу выложиться по полной. <...> У меня есть какие-то 10-15 лет, которые мне нужно использовать по полной"
Наверное у каждого из нас есть такой ресурс, определяющий, сколько лет мы сможем заниматься на полную чем-то, что нравится. У кого-то он составляет пару лет, потом запал пропадает, кто-то пашет по два десятилетия. Помню, увидел картинку с чьей-то фразой: "В здоровой ситуации, когда человек занимается любимым делом, реализует себя, свои идеи и таланты, он не делит время на работу и отдых, он просто живёт". Рад, что Валера (давно) нашёл себя, и желаю каждому тоже выбрать приятный путь, которому можно отдаваться по 15-20 лет.
1:00:32 — тут Валера переживает до глубины души что не он получил 110 миллионов евро от французского правительства на развитие ИИ. Он про это ещё писал в канале у себя (вот тут). Действительно странная ситуация такого закидывания денег на волне хайпа AI в стартапы. Будем следить за развитием ситуациии кусать локти.
1:01:21 — просто цитата: "у меня нет уверенности в своей исключительности" (в контексте создания компаний и новых технологий). Часто люди спрашивают, мол, а чего свою компанию не пойти делать? Да, в случае успеха денег куда больше, апсайд очевиден, но ведь и его вероятность не гарантирована. Вот и получается, что матожидание на далёком горизонте выше при стабильной обычной работе в крупной компании. Тут понятно, чего ждать, как двигаться (первое время), и относительно легко строить прогнозы и планировать.
Надо тоже чтоли сходить на второй раунд интервью (первый можно найти тут).
В этом видео, кстати, был поставлен рекорд — Валера упомянул меня первый раз лишь на 1:08:20, обычно это происходит сильно ближе к началу
Другие интересные моменты:
48:42 — Цитата: "Нашёл место, где я смогу работать на все 100 процентов <...> я еще готов поработать серьёзно, и мне нужно место где я могу выложиться по полной. <...> У меня есть какие-то 10-15 лет, которые мне нужно использовать по полной"
Наверное у каждого из нас есть такой ресурс, определяющий, сколько лет мы сможем заниматься на полную чем-то, что нравится. У кого-то он составляет пару лет, потом запал пропадает, кто-то пашет по два десятилетия. Помню, увидел картинку с чьей-то фразой: "В здоровой ситуации, когда человек занимается любимым делом, реализует себя, свои идеи и таланты, он не делит время на работу и отдых, он просто живёт". Рад, что Валера (давно) нашёл себя, и желаю каждому тоже выбрать приятный путь, которому можно отдаваться по 15-20 лет.
1:00:32 — тут Валера переживает до глубины души что не он получил 110 миллионов евро от французского правительства на развитие ИИ. Он про это ещё писал в канале у себя (вот тут). Действительно странная ситуация такого закидывания денег на волне хайпа AI в стартапы. Будем следить за развитием ситуации
1:01:21 — просто цитата: "у меня нет уверенности в своей исключительности" (в контексте создания компаний и новых технологий). Часто люди спрашивают, мол, а чего свою компанию не пойти делать? Да, в случае успеха денег куда больше, апсайд очевиден, но ведь и его вероятность не гарантирована. Вот и получается, что матожидание на далёком горизонте выше при стабильной обычной работе в крупной компании. Тут понятно, чего ждать, как двигаться (первое время), и относительно легко строить прогнозы и планировать.
Надо тоже чтоли сходить на второй раунд интервью (первый можно найти тут).
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Валерий Бабушкин об уходе из Blockchain.com, книге и будущем LLM | Интервью | karpov.courses
Учитесь Data Science с нами: https://bit.ly/43QdHpn
Возвращаем легендарные, но нерегулярные интервью karpovꓸcourses! Так сложилось, что раз в год мы берем интервью у Валерия Бабушкина, где узнаем последние новости из мира Data Science и его карьерного пути.…
Возвращаем легендарные, но нерегулярные интервью karpovꓸcourses! Так сложилось, что раз в год мы берем интервью у Валерия Бабушкина, где узнаем последние новости из мира Data Science и его карьерного пути.…
Пост в большей степени для инженеров машинного обучения.
Где-то месяц назад проводил опрос в тг-чате, где собрано очень много клёвых чуваков (у многих из которых есть свои каналы) — от одарённых 16-17 летних рисерчеров (которые реально уже успели что-то придумать и опубликовать) до Principal-инженеров (это для контекста, чтобы придать весомости нижеописанному).
Запрос от меня был такой:
У меня есть мнение, что любой хороший и уважающий себя MLE в 2023м году должен знать, как работает трансформер в целом и Селф аттеншен в частности. Да, может без модификаций, просто ванильную модель, но на пальцах объяснять, что за квадратная матрица, как в целом учится и какие задачи решает - должен. Речь не про average ML enjoyer, а про уважающего себя хорошего MLE из топовых перцентилей распределения.
Согласны ли вы с этим?
Результаты голосования:
— 69% ответили "да"
— 25% ответили "возможно, но не уверен"
— 6% не согласились
(Примечание: один человек отписал "Поставил "не уверен" ибо я когда-то давно трансформер и аттеншн в деталях разбирал, но теперь с ходу все не вспомню - надо будет освежать знания". При этом я этого человека знаю, у меня ровно 0 сомнений, что он за сядет и за час всё вспомнит — но главное он уже проявил интерес заведомо.)
Я постараюсь описать причину того, почему считаю, что ответ точно "да", ну а вы уже делайте для себя выводы.
Хороший инженер имеет здоровый интерес к индустрии и происходящему. Ему самому хочется узнать побольше, разобраться в деталях, попробовать — даже если на работе такой задачи нет. Всё таки статья "Attention is all you need" вышла больше 6 лет назад (!), а GPT-3 релизнулась в 2020м — и абсолютно точно можно было найти время, если было бы желание, посмотреть во внутрь и понять, как же так? Как так вышло, что одна модель работает почти во всех доменах и почти без изменений, от генерации текста до предсказания структуры белка? А что там лежит внутри ChatGPT? Тоже трансформер!? Ну надо же!
Andrej-наше-всё-Karpathy в подкасте Lex Fridman ответил на вопрос "какая наиболее прекрасная или неожиданная вещь для тебя во всем мире AI?" без раздумий: "Трансформер.". Более того он говорит, что это really cool differentiable optimizable efficient computer (даже звучит возбуждающе, нет?)
Но ещё больше у меня калит🔥 от того, что люди приходят на техническое собеседование на NLP Engineer ко мне и не могут рассказать про Self-Attention. Ну как так-то...
И под конец хочу процитировать Юру (в квадратных скобках - мои изменения относительно оригинала):
Если ты подобные вопросы [про трансформер] помечаешь у себя в голове тегом [мне это не нужно] - это самообман. Можно делать свой фит-предикт и ждать, когда AI вытеснит тебя из профессии.
💬 Пишите в комменты, что думаете вы, с чем не согласны
Где-то месяц назад проводил опрос в тг-чате, где собрано очень много клёвых чуваков (у многих из которых есть свои каналы) — от одарённых 16-17 летних рисерчеров (которые реально уже успели что-то придумать и опубликовать) до Principal-инженеров (это для контекста, чтобы придать весомости нижеописанному).
Запрос от меня был такой:
У меня есть мнение, что любой хороший и уважающий себя MLE в 2023м году должен знать, как работает трансформер в целом и Селф аттеншен в частности. Да, может без модификаций, просто ванильную модель, но на пальцах объяснять, что за квадратная матрица, как в целом учится и какие задачи решает - должен. Речь не про average ML enjoyer, а про уважающего себя хорошего MLE из топовых перцентилей распределения.
Согласны ли вы с этим?
Результаты голосования:
— 69% ответили "да"
— 25% ответили "возможно, но не уверен"
— 6% не согласились
(Примечание: один человек отписал "Поставил "не уверен" ибо я когда-то давно трансформер и аттеншн в деталях разбирал, но теперь с ходу все не вспомню - надо будет освежать знания". При этом я этого человека знаю, у меня ровно 0 сомнений, что он за сядет и за час всё вспомнит — но главное он уже проявил интерес заведомо.)
Я постараюсь описать причину того, почему считаю, что ответ точно "да", ну а вы уже делайте для себя выводы.
Хороший инженер имеет здоровый интерес к индустрии и происходящему. Ему самому хочется узнать побольше, разобраться в деталях, попробовать — даже если на работе такой задачи нет. Всё таки статья "Attention is all you need" вышла больше 6 лет назад (!), а GPT-3 релизнулась в 2020м — и абсолютно точно можно было найти время, если было бы желание, посмотреть во внутрь и понять, как же так? Как так вышло, что одна модель работает почти во всех доменах и почти без изменений, от генерации текста до предсказания структуры белка? А что там лежит внутри ChatGPT? Тоже трансформер!? Ну надо же!
Andrej-наше-всё-Karpathy в подкасте Lex Fridman ответил на вопрос "какая наиболее прекрасная или неожиданная вещь для тебя во всем мире AI?" без раздумий: "Трансформер.". Более того он говорит, что это really cool differentiable optimizable efficient computer (даже звучит возбуждающе, нет?)
Но ещё больше у меня калит
И под конец хочу процитировать Юру (в квадратных скобках - мои изменения относительно оригинала):
Если ты подобные вопросы [про трансформер] помечаешь у себя в голове тегом [мне это не нужно] - это самообман. Можно делать свой фит-предикт и ждать, когда AI вытеснит тебя из профессии.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Пост в большей степени для инженеров машинного обучения. Где-то месяц назад проводил опрос в тг-чате, где собрано очень много клёвых чуваков (у многих из которых есть свои каналы) — от одарённых 16-17 летних рисерчеров (которые реально уже успели что-то придумать…
Блин а прикиньте какой наброс ещё впереди про OpenAI...
😱 уже можно начинать готовить (и кидать в комментарии) аргументы "почему OpenAI на самом деле не добрые" и "типичные капиталисты повернутые на бабках, не думающие о других".
А если серьёзно, то какие основные тезисы в сторону недовольства их подходами и практиками? От "ну они веса и даже статьи не публикуют!" и до чего там можно дайти
А если серьёзно, то какие основные тезисы в сторону недовольства их подходами и практиками? От "ну они веса и даже статьи не публикуют!" и до чего там можно дайти
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Пост в большей степени для инженеров машинного обучения. Где-то месяц назад проводил опрос в тг-чате, где собрано очень много клёвых чуваков (у многих из которых есть свои каналы) — от одарённых 16-17 летних рисерчеров (которые реально уже успели что-то придумать…
"Хороший MLE из топовых перцентилей распределения" Andrej Karpathy, видимо, прочитал мой пост и решил потратить выходные на то, чтобы на чистом C закодить инференс LLAMA-2. Вот это я понимаю проект на пару дней 🥰
Нет, вы не подумайте, чуда никакого нет — это однопоточный неоптимизированный код без разных хаков, работающий только с числами одинарной точности (fp32). Но само по себе упражнение позволяет и хватку не терять, и повторить лишний раз детали, ну и конечно же узнать для себя что-то новое!
Также Andrej признался, что использовал GPT-4 как помощника для упражнения.
Код: тут
А ещё Andrej анонсировал, что скорее всего по результатам деятельности запишет ещё одно обучающее видео. Будем ждать.
Нет, вы не подумайте, чуда никакого нет — это однопоточный неоптимизированный код без разных хаков, работающий только с числами одинарной точности (fp32). Но само по себе упражнение позволяет и хватку не терять, и повторить лишний раз детали, ну и конечно же узнать для себя что-то новое!
Также Andrej признался, что использовал GPT-4 как помощника для упражнения.
Код: тут
А ещё Andrej анонсировал, что скорее всего по результатам деятельности запишет ещё одно обучающее видео. Будем ждать.
Please open Telegram to view this post
VIEW IN TELEGRAM
На ночь, пока доделывал пару штук по работе (😀 😐 ), подвернулся клип трека AVICII, пошел пересматривать-переслушивать ещё парочку. Вспомнил былое, когда ещё в школе залипал в клипы, поностальгировал 🥺 👍
Этот пост не про "накидайте музыки" или "а кто ваш любимый DJ?", а про ностальгию, про то, почему кажется, что а вот раньше было лучше.
Предлагаю к просмотру ролик Леши Луцая "Раньше было лучше? Почему старые игры и фильмы не лучше новых — это просто другое" (12 минут), и он не про видеоигры, если что.
[разумеется не реклама, вы чё?]
Этот пост не про "накидайте музыки" или "а кто ваш любимый DJ?", а про ностальгию, про то, почему кажется, что а вот раньше было лучше.
Предлагаю к просмотру ролик Леши Луцая "Раньше было лучше? Почему старые игры и фильмы не лучше новых — это просто другое" (12 минут), и он не про видеоигры, если что.
[разумеется не реклама, вы чё?]
Please open Telegram to view this post
VIEW IN TELEGRAM
Пока в недрах OpenAI готовятся к следующему релизу, другой проект Sam Altman, Worldcoin, сегодня запускается worldwide.
Worldcoin — это криптовалюта, которую вы получаете за то, что просто живёте. При этом для создания кошелька нужно проходить специальную биометрическую верификацию. То есть в теории вы можете создать навсегда только один кошелек, и никто не может его создать за вас. Для прохождения процедуры надо заказать специальный девайс, Orb.
Но фишка не в крипте, основная идея проекта — в верификации каждого кошелька, чтобы у вас было виртуальное представление, уникально связываемое с персоной. Возможно, владельцы кошелька, например, смогут регистрироваться в новых глобальных системах, запускаемых OpenAI. К примеру представьте, что в рамках сбора фидбека на вопросы про экономику или меньшинства вам необходимо в некотором смысле посетить голосование, но виртуальное. И там указываете ваше мнение по тем или иным поводам, а потом на этом учится aligned-версия GPT-7 (я это не из головы выдумал, подобное упоминал Sam + смотри вот эту страницу).
Логично, что чем более распространённой будет система, тем легитимнее и проще будут проходить новые интеграции. Интересно, когда они достигнут первого миллиарда пользователей🤔
Whitepaper проекта: https://whitepaper.worldcoin.org
UPD от подписчика в комментариях: Больше года назад проходил собес в этот проект Worldcoin, прошёл все раунды - но выбрали в итоге <другого>. Смысл №1 тут - разработать технологию ОДНОЗНАЧНОЙ идентификации живого человека. >> чтобы потом раздавать каждому "безусловный базовый доход"
При чём тут безусловный базовый доход? А кем вы будете работать, когда AI всех заменит и перевернёт всю экономику?
UPD 2: подъехали мысли основателя Ethereum Виталика Бутерина: https://vitalik.eth.limo/general/2023/07/24/biometric.html . Пока не читал, но в твиттере написали, что стоит того.
Worldcoin — это криптовалюта, которую вы получаете за то, что просто живёте. При этом для создания кошелька нужно проходить специальную биометрическую верификацию. То есть в теории вы можете создать навсегда только один кошелек, и никто не может его создать за вас. Для прохождения процедуры надо заказать специальный девайс, Orb.
Но фишка не в крипте, основная идея проекта — в верификации каждого кошелька, чтобы у вас было виртуальное представление, уникально связываемое с персоной. Возможно, владельцы кошелька, например, смогут регистрироваться в новых глобальных системах, запускаемых OpenAI. К примеру представьте, что в рамках сбора фидбека на вопросы про экономику или меньшинства вам необходимо в некотором смысле посетить голосование, но виртуальное. И там указываете ваше мнение по тем или иным поводам, а потом на этом учится aligned-версия GPT-7 (я это не из головы выдумал, подобное упоминал Sam + смотри вот эту страницу).
Логично, что чем более распространённой будет система, тем легитимнее и проще будут проходить новые интеграции. Интересно, когда они достигнут первого миллиарда пользователей
Whitepaper проекта: https://whitepaper.worldcoin.org
UPD от подписчика в комментариях: Больше года назад проходил собес в этот проект Worldcoin, прошёл все раунды - но выбрали в итоге <другого>. Смысл №1 тут - разработать технологию ОДНОЗНАЧНОЙ идентификации живого человека. >> чтобы потом раздавать каждому "безусловный базовый доход"
При чём тут безусловный базовый доход? А кем вы будете работать, когда AI всех заменит и перевернёт всю экономику?
UPD 2: подъехали мысли основателя Ethereum Виталика Бутерина: https://vitalik.eth.limo/general/2023/07/24/biometric.html . Пока не читал, но в твиттере написали, что стоит того.
Please open Telegram to view this post
VIEW IN TELEGRAM
Каналу вчера было 6 мес а никто не поздравил...
🤳
😡
Ну ладно. Делитесь в комментах:
1) как вы сюда попали?
2) какой ваш любимый или самый запомнившийся пост?
Ну ладно. Делитесь в комментах:
1) как вы сюда попали?
2) какой ваш любимый или самый запомнившийся пост?
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Борис опять
#ml #искусственный_интеллект
# The Bitter Lesson
The Bitter Lesson - знаменитое эссе от профессора Rich Sutton и один из самых важных текстов для спекциалистов по ML и всех пытающихся разобраться в буме AI. Текст написан в 2019 году и оказался пророческим, предсказав бум ChatGPT/GPT-4 и победу подхода OpenAI.
Речь вот о чем. Традиционно ученые в AI считали, что искусственный интеллект требует какого-то особого подхода, какой-то “звездной пыли.” Это называется inductive bias: некие особые знания о проблеме, направляющие машинное решение. Считалось, что чем умнее мы хотим получить машину, тем хитрее должны быть наши эвристики и тем глубже должно быть наше понимание проблемной области.
Эмпирически это казалось верным. Например, ученые наблюдали сильынй прирост качества в машинном переводе после того, как глубоко изучили лингвистику и закодировали часть ее правил в свою систему. Аналогично в анализе изображений кто-то мог придумать хитрый фильтр или стоэтапный выделять ключевые точки. Такие результаты позволял ученым почувствовать себя очень умными (и не зря!), опубликоваться, защитить свои PhD и в целом удовлетворить всех участников академической среды.
Но вот что происходило из раза в раз: кто-то просто докидывал вычислений и побольше данных. И побеждал все хитрые методы! Все добытые слезами, потом и кровью inductive bias методы оказывались на пыльной полке истории.
Так было в шахматах: сначала все делали хитрые движки, но победила система построенная практически на полном переборе. Так же было с Go. Так же было со Старкрафтом. Скорее всего так будет с Nethack.
В компьютерном зрении конволюционные нейросети победили “ручной” SIFT и подобные методы. Автор SIFT позже сказал, что создал свой метод только потому, что у него не было нейросетей, которые делают бррр. В машинном переводе LSTM положили на лопатки все системы на основе правил. ChatGPT/GPT-4 это предельный случай: модель построенная на чистом “stack more layers” обращается с языком лучше, чем все создания компьютерных лингвистов.
Горький урок в том, что общие методы построенные на вычислениях побеждают хитрости построенные на человеческой интуиции. Урок этот все еще не усвоен до конца: PhD продолжают делать хитрые методы, а общие системы остаются не в почете. Тот кто усвоит урок будет иметь более точную модель реальности.
Очень советую прочитать оригинал эссе по ссылке в заголовке.
# The Bitter Lesson
The Bitter Lesson - знаменитое эссе от профессора Rich Sutton и один из самых важных текстов для спекциалистов по ML и всех пытающихся разобраться в буме AI. Текст написан в 2019 году и оказался пророческим, предсказав бум ChatGPT/GPT-4 и победу подхода OpenAI.
Речь вот о чем. Традиционно ученые в AI считали, что искусственный интеллект требует какого-то особого подхода, какой-то “звездной пыли.” Это называется inductive bias: некие особые знания о проблеме, направляющие машинное решение. Считалось, что чем умнее мы хотим получить машину, тем хитрее должны быть наши эвристики и тем глубже должно быть наше понимание проблемной области.
Эмпирически это казалось верным. Например, ученые наблюдали сильынй прирост качества в машинном переводе после того, как глубоко изучили лингвистику и закодировали часть ее правил в свою систему. Аналогично в анализе изображений кто-то мог придумать хитрый фильтр или стоэтапный выделять ключевые точки. Такие результаты позволял ученым почувствовать себя очень умными (и не зря!), опубликоваться, защитить свои PhD и в целом удовлетворить всех участников академической среды.
Но вот что происходило из раза в раз: кто-то просто докидывал вычислений и побольше данных. И побеждал все хитрые методы! Все добытые слезами, потом и кровью inductive bias методы оказывались на пыльной полке истории.
Так было в шахматах: сначала все делали хитрые движки, но победила система построенная практически на полном переборе. Так же было с Go. Так же было со Старкрафтом. Скорее всего так будет с Nethack.
В компьютерном зрении конволюционные нейросети победили “ручной” SIFT и подобные методы. Автор SIFT позже сказал, что создал свой метод только потому, что у него не было нейросетей, которые делают бррр. В машинном переводе LSTM положили на лопатки все системы на основе правил. ChatGPT/GPT-4 это предельный случай: модель построенная на чистом “stack more layers” обращается с языком лучше, чем все создания компьютерных лингвистов.
Горький урок в том, что общие методы построенные на вычислениях побеждают хитрости построенные на человеческой интуиции. Урок этот все еще не усвоен до конца: PhD продолжают делать хитрые методы, а общие системы остаются не в почете. Тот кто усвоит урок будет иметь более точную модель реальности.
Очень советую прочитать оригинал эссе по ссылке в заголовке.
Сиолошная
В апреле писал пост с обзором историй авторов революционной архитектуры трансформера (которая лежит в основе ChatGPT). Из всех авторов лишь один работал в Google...и скоро это изменится. Llion Jones в конце месяца уходит из Google Japan, чтобы — ну конечно!…
Теперь культовая статья выглядит так. Все авторы вычеркнуты (так как не работают в Google - да, НИ ОДИН НЕ РАБОТАЕТ).
Про уход последнего сотрудника писал тут. Про всех остальных - здесь.
🫡
P.S.: для тех, кто не знает, эта статья, в которой была представлена архитектура трансформера, которая и легла в основу GPT, ChatGPT и многих других моделей
Про уход последнего сотрудника писал тут. Про всех остальных - здесь.
P.S.: для тех, кто не знает, эта статья, в которой была представлена архитектура трансформера, которая и легла в основу GPT, ChatGPT и многих других моделей
Please open Telegram to view this post
VIEW IN TELEGRAM
Короткий, но интересный пост от Anthropic:
Frontier Threats Red Teaming for AI Safety
В нем команда делится подходами и общими выводами на основе проекта по биологическим рискам, который они проводили в качестве теста вместе с экспертами. Те провели более 150 часов с фронтир-моделями Anthropic (предположу, что Claude 2) за последние 6 месяцев в попытках оценить способности модели выводить вредную биологическую информацию, вроде деталей разработки и приобретения биологического оружия. Среди прочего, эти эксперты учились использовать и придумывать джейлбрейки (специальные промпт). Также в коллаборации были разработаны количественные оценки возможностей модели, чтобы понять, а чего же она всё таки умеет.
Детали в блогпосте не опубликованы (намеренно), лишь упомянуто несколько общих тенденций и суждений, а также то, что наработки с проекта были применены к моделям, котоыре сейчас доступны публично по API.
Во-первых, современные фронтир-модели вроде Claude 2 и GPT-4 иногда могут давать сложные, достаточно точные, полезные и подробные знания на экспертном уровне. В большинстве изученных ими областей такое случается нечасто. В иных же областях так и происходит (модель демонстрирует экспертный уровень).
Также были обнаружили признаки того, что модели становятся более способными по мере того, как становятся больше (сделайте удивленное лицо).
В итоге исследовательская группы считает, что LLM, обучаемые и разворачиваемые без надлежащего контроля, могут ускорять попытки злоумышленников злоупотребить биологией по сравнению с обычным доступом в Интернет, а также позволить им выполнять задачи, которые они не могли бы выполнить без LLM.
Эти два эффекта сегодня, вероятно, невелики, но растут относительно быстро вместе с развитием LLM.
И главное — команда обеспокоена тем, что, если ничего дальше не делать, то подобные виды рисков могут проявиться в ближайшие два-три года, а не пять и более лет. По результатам исследования в план будущих исследований были внесены корректировки, в том числе будет обращаться больше внимания на модели, работающие с инструментами реального мира.
(у меня в канале где-то выше было про GPT-4 и инструменты для смешивания химических веществ, но я не смог найти ссылку. Добавлю, если найду)
UPD: нашёл, вот. Если пропустили - обязательно прочитайте, чтобы понять, как языковая, казалось бы, модель может смешивать вещества и проводить эксперименты автономно.
Frontier Threats Red Teaming for AI Safety
В нем команда делится подходами и общими выводами на основе проекта по биологическим рискам, который они проводили в качестве теста вместе с экспертами. Те провели более 150 часов с фронтир-моделями Anthropic (предположу, что Claude 2) за последние 6 месяцев в попытках оценить способности модели выводить вредную биологическую информацию, вроде деталей разработки и приобретения биологического оружия. Среди прочего, эти эксперты учились использовать и придумывать джейлбрейки (специальные промпт). Также в коллаборации были разработаны количественные оценки возможностей модели, чтобы понять, а чего же она всё таки умеет.
Детали в блогпосте не опубликованы (намеренно), лишь упомянуто несколько общих тенденций и суждений, а также то, что наработки с проекта были применены к моделям, котоыре сейчас доступны публично по API.
Во-первых, современные фронтир-модели вроде Claude 2 и GPT-4 иногда могут давать сложные, достаточно точные, полезные и подробные знания на экспертном уровне. В большинстве изученных ими областей такое случается нечасто. В иных же областях так и происходит (модель демонстрирует экспертный уровень).
Также были обнаружили признаки того, что модели становятся более способными по мере того, как становятся больше (сделайте удивленное лицо).
В итоге исследовательская группы считает, что LLM, обучаемые и разворачиваемые без надлежащего контроля, могут ускорять попытки злоумышленников злоупотребить биологией по сравнению с обычным доступом в Интернет, а также позволить им выполнять задачи, которые они не могли бы выполнить без LLM.
Эти два эффекта сегодня, вероятно, невелики, но растут относительно быстро вместе с развитием LLM.
И главное — команда обеспокоена тем, что, если ничего дальше не делать, то подобные виды рисков могут проявиться в ближайшие два-три года, а не пять и более лет. По результатам исследования в план будущих исследований были внесены корректировки, в том числе будет обращаться больше внимания на модели, работающие с инструментами реального мира.
(у меня в канале где-то выше было про GPT-4 и инструменты для смешивания химических веществ, но я не смог найти ссылку. Добавлю, если найду)
UPD: нашёл, вот. Если пропустили - обязательно прочитайте, чтобы понять, как языковая, казалось бы, модель может смешивать вещества и проводить эксперименты автономно.
Сиолошная
OpenAI идут ALL-IN и открывают направление СУПЕРалайнмента 😎 Целью команды будет решение проблемы выравнивания намерений алгоритмов и человечества в течение ближайших 4 лет. Вакансии открыты 👀👀 Страница с анонсом: https://openai.com/blog/introducing-superalignment
Media is too big
VIEW IN TELEGRAM
RT-2: Vision-Language-Action Models. Transfer Web Knowledge to Robotic Control
Работа Google Deepmind, посвященная изучению того, как vision-language модели, обученные на огромном множестве картинок и текстов, могут использоваться для end-2-end управления робототехникой. В частности, хотелось проверить, что достигаются генерализация/обобщение, а также появляются разные фишки от больших языковых моделей (вроде reasoning, то есть рассуждения и планирования).
Идея очень проста и вытекает как следствие из природы языковых моделей. Когда мы говорим про LLM, то очень важно помнить, что они могут производить любую последовательность, которая может кодировать что угодно: от привычного нам языка и кода на Python и до команд роботам. Главное, чтобы был способ переводить текст в эти команды. Например, можно научить модель понимать, что если она генерирует строчку «1 128 91 241 5 101 127 217», то на самом деле это означает следующее:
1) задача продолжает решаться (первая цифра, единичка, говорит о том, что завершать работу не нужно)
2) дальше тройка цифр 128-91-241 задаёт относительное и нормализованное смещение по трём координатам нашего трёхмерного мира
3) последние три — 101-127-217 — указывают на степень поворота рабочей части "руки" робота
Получается, что в таком формате робот может получать команды для изменения своего состояния по 6 степеням свободы. В теории, если натренировать модель на некотором наборе траекторий, которые показывают "ну если хочешь сделать вот это, то нужно двигать руку-захват вот так", то трансформер может начать генерировать внятные действия — точно так же, как языковые модели обучаются на тексте из Интернета для изучения общих идей и концепций, RT-2 передает знания из веб-данных, чтобы давать роботу инструкцию к действиям.
Работает ли это? Смотрите в видео😮
Работа Google Deepmind, посвященная изучению того, как vision-language модели, обученные на огромном множестве картинок и текстов, могут использоваться для end-2-end управления робототехникой. В частности, хотелось проверить, что достигаются генерализация/обобщение, а также появляются разные фишки от больших языковых моделей (вроде reasoning, то есть рассуждения и планирования).
Идея очень проста и вытекает как следствие из природы языковых моделей. Когда мы говорим про LLM, то очень важно помнить, что они могут производить любую последовательность, которая может кодировать что угодно: от привычного нам языка и кода на Python и до команд роботам. Главное, чтобы был способ переводить текст в эти команды. Например, можно научить модель понимать, что если она генерирует строчку «1 128 91 241 5 101 127 217», то на самом деле это означает следующее:
1) задача продолжает решаться (первая цифра, единичка, говорит о том, что завершать работу не нужно)
2) дальше тройка цифр 128-91-241 задаёт относительное и нормализованное смещение по трём координатам нашего трёхмерного мира
3) последние три — 101-127-217 — указывают на степень поворота рабочей части "руки" робота
Получается, что в таком формате робот может получать команды для изменения своего состояния по 6 степеням свободы. В теории, если натренировать модель на некотором наборе траекторий, которые показывают "ну если хочешь сделать вот это, то нужно двигать руку-захват вот так", то трансформер может начать генерировать внятные действия — точно так же, как языковые модели обучаются на тексте из Интернета для изучения общих идей и концепций, RT-2 передает знания из веб-данных, чтобы давать роботу инструкцию к действиям.
Работает ли это? Смотрите в видео
Please open Telegram to view this post
VIEW IN TELEGRAM
Самое главное, что замерялось — это возможность выполнять нечто новое, на чём модель не тренировалась. Можно делать это несколькими способами:
1) Unseen objects: сможет ли модель повторить выполнение какой-то задачи, если ей показать объекты, на которых именно часть дообучения робота не производилась? Единственный способ преуспеть — это перевести изображение с камеры в вектор, который языковая модель сможет "прочитать", понять, что он означает, связать слово и объект реального мира, и затем отдать команду робо-руке производить какие-то действия
2) Unseen background: сможет ли модель функционировать, если большая часть изображения будет для неё в новинку, так как полностью изменился фон места, где выполняется задача? (например, вместо одного стола - другой, да ещё и освещение подкрутили)
3) Unseen environments: то же самое, что выше, но при этом полностью меняется само место?
Для людей это всё звучит максимально тривиально и просто — конечно, если я умею поднимать банку со стола и кидать в мусорку в своей комнате — я смогу это сделать и на улице, ачом речь вообще? (кстати, иногда вижу людей в парках, которые последний навык не освоили🥺 ). Но для машин это пока препятствие, которое необходимо преодолеть.
Как видно по графику, генерализация с учётом новых вводных у модели RT-2 лучше, чем у нескольких предшественников. В большей степени это достигается за счёт использования большой языковой модели, потому что она имеет много знаний из текстов, которые успела прочитать во время тренировки.
Единственное ограничение, с которым столкнулись авторы — модель не генерализуется на новые навыки. То есть нельзя попросить у робота, например, поднять объект за левую или правую часть — потому что такого никогда не показывали во время тренировки. Однако в языковых моделях вроде ChatGPT это побороли очень просто — собрали много данных с выполнением сотен разных задач, и модель научилась понимать "На лету", что от неё хотят, даже если такая задача не встречалась раньше.
1) Unseen objects: сможет ли модель повторить выполнение какой-то задачи, если ей показать объекты, на которых именно часть дообучения робота не производилась? Единственный способ преуспеть — это перевести изображение с камеры в вектор, который языковая модель сможет "прочитать", понять, что он означает, связать слово и объект реального мира, и затем отдать команду робо-руке производить какие-то действия
2) Unseen background: сможет ли модель функционировать, если большая часть изображения будет для неё в новинку, так как полностью изменился фон места, где выполняется задача? (например, вместо одного стола - другой, да ещё и освещение подкрутили)
3) Unseen environments: то же самое, что выше, но при этом полностью меняется само место?
Для людей это всё звучит максимально тривиально и просто — конечно, если я умею поднимать банку со стола и кидать в мусорку в своей комнате — я смогу это сделать и на улице, ачом речь вообще? (кстати, иногда вижу людей в парках, которые последний навык не освоили
Как видно по графику, генерализация с учётом новых вводных у модели RT-2 лучше, чем у нескольких предшественников. В большей степени это достигается за счёт использования большой языковой модели, потому что она имеет много знаний из текстов, которые успела прочитать во время тренировки.
Единственное ограничение, с которым столкнулись авторы — модель не генерализуется на новые навыки. То есть нельзя попросить у робота, например, поднять объект за левую или правую часть — потому что такого никогда не показывали во время тренировки. Однако в языковых моделях вроде ChatGPT это побороли очень просто — собрали много данных с выполнением сотен разных задач, и модель научилась понимать "На лету", что от неё хотят, даже если такая задача не встречалась раньше.
Please open Telegram to view this post
VIEW IN TELEGRAM
До сих пор роботы работали на комбинациях сложных систем, где высокоуровневые системы рассуждений и низкоуровневые системы манипулирования играли в "глухой телефончик". Вот представьте, что вы думаете о том, что хотите сделать, а затем должны сообщить об этих действиях остальному телу, чтобы заставить его двигаться. Представленная модель RT-2 устраняет эту сложность и позволяет одной языковой модели не только выполнять сложные рассуждения, но и напрямую отдавать команды роботу. Самое главное, это показывает, что с небольшим объемом данных для обучения роботов система способна на выполнение задач, на которых она никогда не была обучена.
Например, если бы вы хотели, чтобы предыдущие системы могли выбрасывать мусор, вам пришлось бы явно обучить их, чтобы они могли идентифицировать мусор, а также поднимать его и затем выбрасывать. А RT-2 уже имеет представление о том, что такое мусор, и может идентифицировать его без специального обучения, да еще и имеет представление о том, как именно выбрасывать мусор, хотя её никогда не обучали этому действию. Даже первый вопрос "а что такое мусор" очень нетривиален для полноценной формализации. Вот подумайте об абстрактной природе мусора — то, что было пакетом чипсов или банановой кожурой, становится мусором после того, как вы их съедите, а до этого мусором не является. И ничего из этого не нужно объяснять текстом или отдельно тренировать — RT-2 может понять это из своих внутренних представлений и выполнить свою работу.
Почему это важно и чего будет дальше:
1) важно понимать, что языковые модели - универсальные reasoners (мыслители? размышляторы?), и за счёт генерализации и переноса знаний из одной области в другую могут легко находиться разные применения
2) исследователи не брали самые большие и умные модели для своей задачи, так как хотели, чтобы все модели работали меньше чем за секунду (то есть частота действий робота не менее 1 Герц). Условно, если добавить GPT-4 и более мощную картиночную модель, то результаты будут куда более впечатляющими
3) данных пока маловато, но от этой точки и до полноценного датасета, включающего в себя данные от работы на производственной линии завода до горничной — один, может, два года (неэкспертная оценка, поправьте меня в комментариях, если разбираетесь). А с данными приходит и существенное улучшение
4) модель училась по одной технике, а есть куча других, которые, как я вижу, в скором времени начнут смешиваться друг с другом и давать улучшения ещё больше. Например, можно обучать роботов на видео, где люди что-то делают. И даже записывать новое не надо — в ТикТоке и на ютубе можно найти почти что угодно!
Статья: тут
Сайт с верхнеуровневым описанием и демо-видео: клик
Более подробный и технический блогпост Deepmind: здесь
Например, если бы вы хотели, чтобы предыдущие системы могли выбрасывать мусор, вам пришлось бы явно обучить их, чтобы они могли идентифицировать мусор, а также поднимать его и затем выбрасывать. А RT-2 уже имеет представление о том, что такое мусор, и может идентифицировать его без специального обучения, да еще и имеет представление о том, как именно выбрасывать мусор, хотя её никогда не обучали этому действию. Даже первый вопрос "а что такое мусор" очень нетривиален для полноценной формализации. Вот подумайте об абстрактной природе мусора — то, что было пакетом чипсов или банановой кожурой, становится мусором после того, как вы их съедите, а до этого мусором не является. И ничего из этого не нужно объяснять текстом или отдельно тренировать — RT-2 может понять это из своих внутренних представлений и выполнить свою работу.
Почему это важно и чего будет дальше:
1) важно понимать, что языковые модели - универсальные reasoners (мыслители? размышляторы?), и за счёт генерализации и переноса знаний из одной области в другую могут легко находиться разные применения
2) исследователи не брали самые большие и умные модели для своей задачи, так как хотели, чтобы все модели работали меньше чем за секунду (то есть частота действий робота не менее 1 Герц). Условно, если добавить GPT-4 и более мощную картиночную модель, то результаты будут куда более впечатляющими
3) данных пока маловато, но от этой точки и до полноценного датасета, включающего в себя данные от работы на производственной линии завода до горничной — один, может, два года (неэкспертная оценка, поправьте меня в комментариях, если разбираетесь). А с данными приходит и существенное улучшение
4) модель училась по одной технике, а есть куча других, которые, как я вижу, в скором времени начнут смешиваться друг с другом и давать улучшения ещё больше. Например, можно обучать роботов на видео, где люди что-то делают. И даже записывать новое не надо — в ТикТоке и на ютубе можно найти почти что угодно!
Статья: тут
Сайт с верхнеуровневым описанием и демо-видео: клик
Более подробный и технический блогпост Deepmind: здесь
Сиолошная
До сих пор роботы работали на комбинациях сложных систем, где высокоуровневые системы рассуждений и низкоуровневые системы манипулирования играли в "глухой телефончик". Вот представьте, что вы думаете о том, что хотите сделать, а затем должны сообщить об этих…
А вот кстати и утёкшая визуализация корпуса для робота RT-4. Релиз намечен на 2025й год.
Я как-то пропустил, а оказывается в прошлый вторник, 25го июля, в Сенат снова ходили большие фигуры мира машинного обучения (или "Искусственного Интеллекта", как это сейчас модно).
Были приглашены:
— Dario Amodei, CEO Anthropic
— Yoshua Bengio, один из крёстных отцов глубокого обучения, съевший на этом собаку (серьёзно, его h-index в Computer Science — второй среди всех исследователей, то есть это буквально один из самых цитируемых учёных). Вот его Google Scholar
— Stuart J. Russell, про него ничего не знаю, эксперты приглашаются в комментарии. Вот на всякий случай его wiki-странчика
Запись слушания: https://youtu.be/hm1zexCjELo
Я её послушаю, саммари скорее всего не будет (хотя прошло 6 дней, наверняка уже где-то написали?), но вот за что у меня зацепилось ухо в показаниях Dario Amodei (таймкод). Я как раз на неделе писал о том, что Anthropic занимаются анализом навыков больших языковых моделей в области биологического оружия.
Так вот, ниже вольный перевод слов Dario:
Я хочу сфокусироваться на среднесрочных рисках <...>. Последние 6 месяцев мы в коллаборации с учеными мирового уровня в области биозащиты занимались анализом навыков и роли AI в биологии в контексте неправильного использования [речь про биологическое оружие].
Сегодня некоторые шаги (и необходимые для их осуществления знания) в процессе производства биооружия не могут быть обнаружены в поисковиках и не описаны в учебниках, и требуют очень высокого уровня экспертизы. Это является вещью, которая до сих пор спасает нас от масштабных атак.
Мы обнаружили, что современные большие языковые модели могут предоставить сведения касательно некоторых из этих шагов, хоть и не полностью и не со стопроцентной уверенностью и надёжностью [то есть всё еще совершают ошибки].
<...> Однако простая экстраполяция навыков этих систем на те, что мы ожидаем увидеть на горизонте 2-3 лет, указывает на то, что AI сможет описывать все необходимые промежуточные шаги, упрощая доступ всё большему количеству злоумышленников к масштабным биологическим атакам.
В комментарии приглашаются эксперты по геополитике, которые расскажут, что к чему.
UPD: в комментарии подписчик скинул ссылку на пост с кратким обзором позиций других спикеров: https://t.me/howtocomply_AI/243
Были приглашены:
— Dario Amodei, CEO Anthropic
— Yoshua Bengio, один из крёстных отцов глубокого обучения, съевший на этом собаку (серьёзно, его h-index в Computer Science — второй среди всех исследователей, то есть это буквально один из самых цитируемых учёных). Вот его Google Scholar
— Stuart J. Russell, про него ничего не знаю, эксперты приглашаются в комментарии. Вот на всякий случай его wiki-странчика
Запись слушания: https://youtu.be/hm1zexCjELo
Я её послушаю, саммари скорее всего не будет (хотя прошло 6 дней, наверняка уже где-то написали?), но вот за что у меня зацепилось ухо в показаниях Dario Amodei (таймкод). Я как раз на неделе писал о том, что Anthropic занимаются анализом навыков больших языковых моделей в области биологического оружия.
Так вот, ниже вольный перевод слов Dario:
Я хочу сфокусироваться на среднесрочных рисках <...>. Последние 6 месяцев мы в коллаборации с учеными мирового уровня в области биозащиты занимались анализом навыков и роли AI в биологии в контексте неправильного использования [речь про биологическое оружие].
Сегодня некоторые шаги (и необходимые для их осуществления знания) в процессе производства биооружия не могут быть обнаружены в поисковиках и не описаны в учебниках, и требуют очень высокого уровня экспертизы. Это является вещью, которая до сих пор спасает нас от масштабных атак.
Мы обнаружили, что современные большие языковые модели могут предоставить сведения касательно некоторых из этих шагов, хоть и не полностью и не со стопроцентной уверенностью и надёжностью [то есть всё еще совершают ошибки].
<...> Однако простая экстраполяция навыков этих систем на те, что мы ожидаем увидеть на горизонте 2-3 лет, указывает на то, что AI сможет описывать все необходимые промежуточные шаги, упрощая доступ всё большему количеству злоумышленников к масштабным биологическим атакам.
В комментарии приглашаются эксперты по геополитике, которые расскажут, что к чему.
UPD: в комментарии подписчик скинул ссылку на пост с кратким обзором позиций других спикеров: https://t.me/howtocomply_AI/243