Я обещала пост про работу с памятью. Вот он
Telegraph
ИИ-агенты и симуляция человеческого поведения
Я обычно немного торможу и рассказываю об исследованиях, вышедших минимум несколько месяцев назад. Это потому что у меня план написан на три месяца вперед, и все новое отправляется в бэклог (большой список задач на будущее) ждать своей очереди. Но сегодня…
Я люблю писать код
Это очень приятная работа: ты пишешь, он работает. Точнее, сначала он не работает, потом опять не работает, потом, наконец, работает, и это приносит много радости. Потом он начинает работать на реальных данных, и из него лезут ошибки. Но в их исправлении тоже, на самом деле, много радости.
Мне нравится писать код самостоятельно, отлаживать и оптимизировать. Но мне также нравится работать быстро, потому что чем быстрее я расправлюсь с работой, тем больше времени у меня останется для того, чтобы экспериментировать с собственными проектами, читать статьи про ИИ и ходить на всякие курсы.
Серьезно использовать нейросети для работы с кодом я начала, наверное, только в этом году (они неплохо эволюционировали), и сейчас процесс выглядит примерно так:
- я продумываю логику работы, форматы входных и выходных данных, набор сценариев и пишу техническое задание. Если нужно, в него входит описание базы данных, ограничения по производительности и так далее – все, о чем обычно люди думают, когда пишут код;
- нейросеть пишет функцию. Обычно это GPT, потому что она все время под рукой, но пару раз тестировала Claude, Gemini и Codestral;
- я тестирую полученный код на разных данных, правлю ошибки частично вручную, частично с помощью нейросети, совместными усилиями мы оптимизируем функцию, чтобы все работало за вменяемое время;
- я идупить чай дальше работать.
Получается намного быстрее, чем писать все руками, особенно когда нужно сделать базу данных.
Конечно, этот подход все еще требует навыков программирования, особенно в процессе отладки и оптимизации. Однако в последнее время, в том числе благодаря освоения нейросетями навыков программирования, растет большая область low-code и no-code разработки, про которую я сегодня как раз хочу поговорить (это вот все была очень долгая подводка).
Итак, low-code / no-code разработка – это разработка приложений (практически) без создания программного кода. Точнее, без целенаправленного создания кода. Он, на самом деле, все равно пишется, просто вы не участвуете в процессе напрямую. Совсем недавно я писала про prophecy – это хороший пример low-code инструмента.
Как правило, low-code / no-code инструменты – это либо drag-and-drop конструкторы (где вам нужно перетаскивать фрагменты приложения на нужное место; упомянутый выше prophecy как раз имеет такой интерфейс), либо набор готовых шаблонов, которые можно немного видоизменить под свои задачи (мне пока такие не попадались). Конечно, если вы умеете писать код самостоятельно, это даст вам немного больше свободы и гибкости. Но если нет, это не проблема: вы все еще можете создать собственное приложение как для работы, так и для личных целей.
Мне видится, что low-code / no-code разработка – это хорошее направление развития для любой компании, от малого бизнеса до крупной корпорации, потому что она и время экономит, и деньги (на найм новых сотрудников или обучение имеющихся).
Раз мы тут собрались говорить про ИИ, то вот пара инструментов, с которых можно начать свой путь в разработке ИИ-приложений для собственных целей (на момент написания поста все доступны из России, я зарегистрировалась):
- Akkio (есть две недели доступного пробного периода; не требует специальных навыков, нужно только привыкнуть к интерфейсу, но он не сложный; в нем можно обрабатывать данные и обучать модели);
- Apple CreateML (это если у вас iOS, и вы собираетесь разрабатывать для этой операционной системы; для использования нужен Xcode, который, скорее всего, у вас уже установлен; бесплатно);
- Google Teachable Machine (пожалуй, самый простой инструмент из всех; здесь сложно создать что-то серьезное и масштабное, но для первого знакомства самое то, тем более что оно совершенно бесплатное).
Не бойтесь пробовать, особенно если за это не берут денег. Это пригодится.
#инструменты
Это очень приятная работа: ты пишешь, он работает. Точнее, сначала он не работает, потом опять не работает, потом, наконец, работает, и это приносит много радости. Потом он начинает работать на реальных данных, и из него лезут ошибки. Но в их исправлении тоже, на самом деле, много радости.
Мне нравится писать код самостоятельно, отлаживать и оптимизировать. Но мне также нравится работать быстро, потому что чем быстрее я расправлюсь с работой, тем больше времени у меня останется для того, чтобы экспериментировать с собственными проектами, читать статьи про ИИ и ходить на всякие курсы.
Серьезно использовать нейросети для работы с кодом я начала, наверное, только в этом году (они неплохо эволюционировали), и сейчас процесс выглядит примерно так:
- я продумываю логику работы, форматы входных и выходных данных, набор сценариев и пишу техническое задание. Если нужно, в него входит описание базы данных, ограничения по производительности и так далее – все, о чем обычно люди думают, когда пишут код;
- нейросеть пишет функцию. Обычно это GPT, потому что она все время под рукой, но пару раз тестировала Claude, Gemini и Codestral;
- я тестирую полученный код на разных данных, правлю ошибки частично вручную, частично с помощью нейросети, совместными усилиями мы оптимизируем функцию, чтобы все работало за вменяемое время;
- я иду
Получается намного быстрее, чем писать все руками, особенно когда нужно сделать базу данных.
Конечно, этот подход все еще требует навыков программирования, особенно в процессе отладки и оптимизации. Однако в последнее время, в том числе благодаря освоения нейросетями навыков программирования, растет большая область low-code и no-code разработки, про которую я сегодня как раз хочу поговорить (это вот все была очень долгая подводка).
Итак, low-code / no-code разработка – это разработка приложений (практически) без создания программного кода. Точнее, без целенаправленного создания кода. Он, на самом деле, все равно пишется, просто вы не участвуете в процессе напрямую. Совсем недавно я писала про prophecy – это хороший пример low-code инструмента.
Как правило, low-code / no-code инструменты – это либо drag-and-drop конструкторы (где вам нужно перетаскивать фрагменты приложения на нужное место; упомянутый выше prophecy как раз имеет такой интерфейс), либо набор готовых шаблонов, которые можно немного видоизменить под свои задачи (мне пока такие не попадались). Конечно, если вы умеете писать код самостоятельно, это даст вам немного больше свободы и гибкости. Но если нет, это не проблема: вы все еще можете создать собственное приложение как для работы, так и для личных целей.
Мне видится, что low-code / no-code разработка – это хорошее направление развития для любой компании, от малого бизнеса до крупной корпорации, потому что она и время экономит, и деньги (на найм новых сотрудников или обучение имеющихся).
Раз мы тут собрались говорить про ИИ, то вот пара инструментов, с которых можно начать свой путь в разработке ИИ-приложений для собственных целей (на момент написания поста все доступны из России, я зарегистрировалась):
- Akkio (есть две недели доступного пробного периода; не требует специальных навыков, нужно только привыкнуть к интерфейсу, но он не сложный; в нем можно обрабатывать данные и обучать модели);
- Apple CreateML (это если у вас iOS, и вы собираетесь разрабатывать для этой операционной системы; для использования нужен Xcode, который, скорее всего, у вас уже установлен; бесплатно);
- Google Teachable Machine (пожалуй, самый простой инструмент из всех; здесь сложно создать что-то серьезное и масштабное, но для первого знакомства самое то, тем более что оно совершенно бесплатное).
Не бойтесь пробовать, особенно если за это не берут денег. Это пригодится.
#инструменты
Кем вы видите себя через пять лет?
Разбавим разговоры про ИИ разговорами про жизнь, это иногда полезно
Разбавим разговоры про ИИ разговорами про жизнь, это иногда полезно
Telegraph
Стоит ли полагаться на собеседования
Этот пост порожден книгой Д. Канемана «Думай медленно… Решай быстро». Я про нее писала здесь и упоминала в некоторых других постах (в списке моих любимых книг и рассказе о своем опыте работы в области анализа данных, в частности), и все меня никак не отпустит…
В среду 11.12 прошла ежегодная панель RAISE, посвященная вопросам ответственного подхода к ИИ и регулированию ИИ. Это мероприятие проводит Responsible AI Institute (RAII) – одна из активных организаций в этой области. Институт основан в 2016 году – это как раз примерно то время, когда об ответственном подходе к ИИ начали всерьез разговаривать. Из ключевых моментов, которые обсуждались на панели, я отметила следующие:
- рынок решений на основе ИИ созрел, а регулирование находится в зачаточном состоянии. На данный момент кроме локального Европейского EU AI Act толком нет серьезных регулирующих документов. Я про это писала пост, там и про упомянутый акт есть. Большинство организаций пользуются стандартами, разработанными для других отраслей: управления проектами и разработки ПО, в частности. Однако ведется большая работа по созданию бенчмарков (тут писала, что это) и разных метрик для оценки надежности и безопасности ИИ – это предстандартизационная деятельность, которая ляжет потом в основу регулирования;
- организаций, занимающихся продвижением ответственного подхода к ИИ больше, чем мне казалось. Во многих странах есть крупные институты и организации поменьше. Одна из тех, что зацепили мое внимание – AI Truth. Они занимаются обучением пользователей и разработчиков. На сайте много интересных материалов, думаю, я ими воспользуюсь как-нибудь;
- многие решения на базе ИИ выкатываются в «сыром» виде, и у компаний нет стратегий для того, что Кортни Аберкромби (Cortnie Abercrombie) из AI Truth назвала «вот чёрт»-моментами (‘oh crap’ moments). Из-за высокой конкуренции разработчиков постоянно торопят продажники, времени на тестирование и отладку почти не остается. В результате, ошибки начинают проявляться уже тогда, когда продукт находится в руках у пользователей. И только тогда начинаются шевеления в сторону «а как это обезопасить?». Вообще выступление Кортни мне было как бальзам на душу, потому что спешка и недостаток времени на хорошую проработку ИИ-решений – это моя актуальная личная боль. Кроме того, она говорила о необходимости вовлечения непрофессионального сообщества в обсуждение ИИ и создания доступных обучающих материалов – я подписываюсь под каждым ее словом;
- по-хорошему, внедрение ответственного подхода ИИ в организацию должно проходить следующую цепочку: осознание рисков – эксперименты – разработка системы регулирования – выявление и заполнение пробелов в этой системе. Как все происходит на деле, см. выше.
В начале января у меня планируется большой пост про то, как крупные компании следуют или не следуют своим принципам (например, как Anthropic сотрудничает с военными) и как лезут куда не нужно (с GPT в боевые дроны, например. Действительно, что может пойти не так?). В общем, материалов много, поговорить есть о чем.
Но этот пост хочется завершить на позитивной ноте. Например, на перечислении победителей Leadership in Responsible AI Award (премии за лидерство в ответственном подходе к ИИ). Номинантов на эту премию RAII cобирают в своих соцсетях, и голосование тоже проходит публично, так что это глас народа в некотором смысле (того народа, который был в курсе, во всяком случае). У премии есть три номинации: «Выдающаяся инициатива», «Выдающаяся организация» и «Выдающаяся личность». Выдающаяся по степени вклада в развитие ответственного подхода к ИИ, разумеется.
Победители:
- OneTrust Coilot (инициатива);
- Brown-Forman (организация; этот внезапный победитель – компания, которая производит алкоголь, что немного забавно. Но наградили их за грамотный подход к использованию ИИ в управлении бизнесом);
- Брайан МакГован (Bryan McGowan) из KPMG (личность; KPMG – одна из крупнейших в мире консалтинговых компаний. Брайан МакГован там веден направление, связанное с управлением рисками в области ИИ).
Это тоже интересный источник информации, я собираюсь прошерстить публикации по итогам RAISE за предыдущие годы и посмотреть, что там были за победители. Возможно, найдется пара ценных инструментов. Или интересных сценариев, как с Brown-Forman (вы вот ожидали производителя виски в этом перечне? Я нет).
- рынок решений на основе ИИ созрел, а регулирование находится в зачаточном состоянии. На данный момент кроме локального Европейского EU AI Act толком нет серьезных регулирующих документов. Я про это писала пост, там и про упомянутый акт есть. Большинство организаций пользуются стандартами, разработанными для других отраслей: управления проектами и разработки ПО, в частности. Однако ведется большая работа по созданию бенчмарков (тут писала, что это) и разных метрик для оценки надежности и безопасности ИИ – это предстандартизационная деятельность, которая ляжет потом в основу регулирования;
- организаций, занимающихся продвижением ответственного подхода к ИИ больше, чем мне казалось. Во многих странах есть крупные институты и организации поменьше. Одна из тех, что зацепили мое внимание – AI Truth. Они занимаются обучением пользователей и разработчиков. На сайте много интересных материалов, думаю, я ими воспользуюсь как-нибудь;
- многие решения на базе ИИ выкатываются в «сыром» виде, и у компаний нет стратегий для того, что Кортни Аберкромби (Cortnie Abercrombie) из AI Truth назвала «вот чёрт»-моментами (‘oh crap’ moments). Из-за высокой конкуренции разработчиков постоянно торопят продажники, времени на тестирование и отладку почти не остается. В результате, ошибки начинают проявляться уже тогда, когда продукт находится в руках у пользователей. И только тогда начинаются шевеления в сторону «а как это обезопасить?». Вообще выступление Кортни мне было как бальзам на душу, потому что спешка и недостаток времени на хорошую проработку ИИ-решений – это моя актуальная личная боль. Кроме того, она говорила о необходимости вовлечения непрофессионального сообщества в обсуждение ИИ и создания доступных обучающих материалов – я подписываюсь под каждым ее словом;
- по-хорошему, внедрение ответственного подхода ИИ в организацию должно проходить следующую цепочку: осознание рисков – эксперименты – разработка системы регулирования – выявление и заполнение пробелов в этой системе. Как все происходит на деле, см. выше.
В начале января у меня планируется большой пост про то, как крупные компании следуют или не следуют своим принципам (например, как Anthropic сотрудничает с военными) и как лезут куда не нужно (с GPT в боевые дроны, например. Действительно, что может пойти не так?). В общем, материалов много, поговорить есть о чем.
Но этот пост хочется завершить на позитивной ноте. Например, на перечислении победителей Leadership in Responsible AI Award (премии за лидерство в ответственном подходе к ИИ). Номинантов на эту премию RAII cобирают в своих соцсетях, и голосование тоже проходит публично, так что это глас народа в некотором смысле (того народа, который был в курсе, во всяком случае). У премии есть три номинации: «Выдающаяся инициатива», «Выдающаяся организация» и «Выдающаяся личность». Выдающаяся по степени вклада в развитие ответственного подхода к ИИ, разумеется.
Победители:
- OneTrust Coilot (инициатива);
- Brown-Forman (организация; этот внезапный победитель – компания, которая производит алкоголь, что немного забавно. Но наградили их за грамотный подход к использованию ИИ в управлении бизнесом);
- Брайан МакГован (Bryan McGowan) из KPMG (личность; KPMG – одна из крупнейших в мире консалтинговых компаний. Брайан МакГован там веден направление, связанное с управлением рисками в области ИИ).
Это тоже интересный источник информации, я собираюсь прошерстить публикации по итогам RAISE за предыдущие годы и посмотреть, что там были за победители. Возможно, найдется пара ценных инструментов. Или интересных сценариев, как с Brown-Forman (вы вот ожидали производителя виски в этом перечне? Я нет).
Responsible AI
Home
The Responsible AI Institute (RAI Institute) is a global and member-driven non-profit dedicated to enabling successful responsible AI efforts in organizations. The RAI Institute’s conformity assessments and certifications for AI systems support practitioners…
👏1
Pulze – еще один ИИ-инструмент для управления проектами
Доступен из России, есть бесплатный тариф для индивидуального использования. Он несколько ограниченный, но позволяет ознакомиться с базовыми функциями.
Работа ведется в Пространствах (Space).
На первом скриншоте начало работы: пустое пока Пространство. В бесплатной версии можно загрузить 10 файлов, к которым потом можно будет обращаться с запросом.
Поле для запросов слева, здесь можно выбрать поиск в Интернете, генерацию изображений, поиск по документам и ассистентов. Русский язык понимает, но отвечает по умолчанию на английском (перейдет на русский, если прямо попросить, как на втором скриншоте).
Правда, у него не всегда бывает актуальная информация. Если попросить использовать поиск (скриншот 3), результат будет точнее.
Ассистентов много разных (скриншот 4), есть даже такой, который помогает создавать новых ассистентов под конкретный запрос. Каждого из них можно добавить в Пространство, и они там будут отвечать. Можно создать собственных для своих целей.
В меню доступно множество моделей на любой вкус (на скриншоте 5 верхушка списка), можно выбрать, какую (или какие) вы хотите использовать.
В общем, выглядит интересно. Особенно интересно то, что платные модели (такие как Claude и GPT-4o) доступны в бесплатной версии. Первое впечатление хорошее, можно тестировать.
#инструменты
Доступен из России, есть бесплатный тариф для индивидуального использования. Он несколько ограниченный, но позволяет ознакомиться с базовыми функциями.
Работа ведется в Пространствах (Space).
На первом скриншоте начало работы: пустое пока Пространство. В бесплатной версии можно загрузить 10 файлов, к которым потом можно будет обращаться с запросом.
Поле для запросов слева, здесь можно выбрать поиск в Интернете, генерацию изображений, поиск по документам и ассистентов. Русский язык понимает, но отвечает по умолчанию на английском (перейдет на русский, если прямо попросить, как на втором скриншоте).
Правда, у него не всегда бывает актуальная информация. Если попросить использовать поиск (скриншот 3), результат будет точнее.
Ассистентов много разных (скриншот 4), есть даже такой, который помогает создавать новых ассистентов под конкретный запрос. Каждого из них можно добавить в Пространство, и они там будут отвечать. Можно создать собственных для своих целей.
В меню доступно множество моделей на любой вкус (на скриншоте 5 верхушка списка), можно выбрать, какую (или какие) вы хотите использовать.
В общем, выглядит интересно. Особенно интересно то, что платные модели (такие как Claude и GPT-4o) доступны в бесплатной версии. Первое впечатление хорошее, можно тестировать.
#инструменты
Астрологи объявили эту неделю неделей инструментов, поэтому вот еще один – Tasker. Это приложение тоже доступно из России (во всяком случае, на момент написания поста). У меня уже какое-то невменяемое число рассылок приходит на почту, потому что я во всех приложениях зарегистрировалась, какие только есть. Бесплатная версия имеется.
Это инструмент для создания агентов. Агента можно отправить на сайт (свой или сайт, который вас интересует), чтобы он совершал определенные действия. Например, зашел в аккаунт, скопировал текст, мониторил страницу на предмет изменений, которые вам интересны и так далее.
Я для примера сделала примитивного агента, который умеет только заходить на страницу, посвященную А.А. Маркову-старшему, и собирать с нее текст, но это у меня пока просто фантазии не хватило.
Вообще выглядит интересно с точки зрения автоматизации рутинных задач.
#инструменты
Это инструмент для создания агентов. Агента можно отправить на сайт (свой или сайт, который вас интересует), чтобы он совершал определенные действия. Например, зашел в аккаунт, скопировал текст, мониторил страницу на предмет изменений, которые вам интересны и так далее.
Я для примера сделала примитивного агента, который умеет только заходить на страницу, посвященную А.А. Маркову-старшему, и собирать с нее текст, но это у меня пока просто фантазии не хватило.
Вообще выглядит интересно с точки зрения автоматизации рутинных задач.
#инструменты
Есть несколько подходов к обучению ИИ. Классических три:
- с учителем (даем вопросы и правильные ответы, предлагаем подобрать нужные закономерности в данных);
- без учителя (даем только вопросы);
- с подкреплением (даем вопросы и награждаем за правильный ответ).
Обучение с подкреплением - мощный инструмент, который обычно хорошо работает, но у него есть слабые места.
- с учителем (даем вопросы и правильные ответы, предлагаем подобрать нужные закономерности в данных);
- без учителя (даем только вопросы);
- с подкреплением (даем вопросы и награждаем за правильный ответ).
Обучение с подкреплением - мощный инструмент, который обычно хорошо работает, но у него есть слабые места.
Telegraph
Обучение со взломом
В посте про обучение на основе обратной связи от человека мы говорили о том, как можно использовать вознаграждение (reward) для эффективного обучения ИИ. У этого подхода множество преимуществ: он не требует большого набора данных и подходит для самых разных…
🔥1
Продолжаю набирать портфель инструментов для управления проектами в поисках того самого, на котором можно будет остановиться.
Сегодня расскажу про Todoist. Он доступен из России на момент публикации поста, есть бесплатная версия и приложения на все устройства, можно подключить к гугл-календарю и синхронизировать с ним (и не только, можно подключить расширения для Outlook, Slack и кучи других приложений).
Планирование осуществляется с помощью канбан-досок (я их очень люблю и использую постоянно как для работы, так и для планирования собственных проектов и личных дел). В самом начале можно создать свое пространство или выбрать один из множества шаблонов.
Я взяла потестировать шаблон, который называется Project Tracker. Он достаточно простой, его можно вести в виде списка или на доске (как и другие шаблоны). В версии Pro доступен режим редактирования в календаре.
Есть возможность создавать собственные теги и фильтры для каждой задачи. Тариф Pro стоит 48 долларов в год или 5 долларов в месяц при помесячной оплате.
В этом тарифе доступно больше функций, в том числе ИИ-помощник.
Мне понравился простой и понятный интерфейс, но функций как будто маловато, не хватает базы для хранения документов, например. В описание задач можно прикреплять файлы, но добавить, например, техническое задание в проект в целом не получится.
#инструменты
Сегодня расскажу про Todoist. Он доступен из России на момент публикации поста, есть бесплатная версия и приложения на все устройства, можно подключить к гугл-календарю и синхронизировать с ним (и не только, можно подключить расширения для Outlook, Slack и кучи других приложений).
Планирование осуществляется с помощью канбан-досок (я их очень люблю и использую постоянно как для работы, так и для планирования собственных проектов и личных дел). В самом начале можно создать свое пространство или выбрать один из множества шаблонов.
Я взяла потестировать шаблон, который называется Project Tracker. Он достаточно простой, его можно вести в виде списка или на доске (как и другие шаблоны). В версии Pro доступен режим редактирования в календаре.
Есть возможность создавать собственные теги и фильтры для каждой задачи. Тариф Pro стоит 48 долларов в год или 5 долларов в месяц при помесячной оплате.
В этом тарифе доступно больше функций, в том числе ИИ-помощник.
Мне понравился простой и понятный интерфейс, но функций как будто маловато, не хватает базы для хранения документов, например. В описание задач можно прикреплять файлы, но добавить, например, техническое задание в проект в целом не получится.
#инструменты
31 декабря принято подводить итоги года, давайте тоже попробуем.
В области ИИ произошло много всякого, но я постараюсь выделить несколько ключевых (на мой взгляд) моментов, за которыми буду наблюдать в новом году.
- в мае вышел EU AI Act – первый масштабный правовой документ, призванный регулировать решения в области ИИ (подробнее про правовое регулирование был отдельный пост);
- в июле вышла интересная работа про галлюцинации ИИ, я ее разбирала в этом посте;
- в том же месяце вышла внушительная статья, которая классифицирует ошибки ИИ и предлагает метрики для их выявления (тоже был пост, вот этот);
- в июле же вышла новость о том, что Anthropic решили сотрудничать военными, и им за это здорово прилетело (поделом, хотя они не единственная компания, которая тащит ИИ в оборонную промышленность);
- в сентябре Microsoft подписала соглашение о перезапуске ядерного реактора для обеспечения электричеством собственных дата-центов. За ними последовали некоторые другие крупные компании, которые видят в ядерной энергетике решение проблемы недостатка энергии для обучения больших моделей (но эти все программы запустятся нескоро, там долгий путь согласования, ибо ядерка – это вам не шутки);
- в сентябре вышла превью-версия модели o1 от OpenAI, в начале декабря они выпустили полную версию, особенность которой – умение рассуждать;
- в сентябре же Llama получила зрение с версией 3.2. Помимо больших моделей со зрением выпустили маленькие, которые помещаются на пользовательские устройства, но они пока только текстовые;
- осенью Нобелевскую премию в области физики и химии выдали за работы, посвященные машинному обучению;
- в ноябре один специалист получил 50 000 долларов, обманув ИИ-агента, который охранял криптокошелек (это было соревнование, 50 000 долларов – это приз, все легально);
- в ноябре вышло интересное исследование про симуляцию людей с помощью ИИ-агентов, я про него писала здесь;
- в одном декабрьском исследовании большие языковые модели обнаружили умение лгать во имя достижения своих целей (по этой статье написан пост, выложу третьего января);
- в декабре также прошла ежегодная панель RAII, про итоги которой я писала здесь;
- в декабре OpenAI заявили о достижении AGI («сильного ИИ» – равного человеческому). Но заявить-то они могут что угодно, а на практике есть некоторые сомнения (про это тоже будет отдельный разговор);
- в этом году вышло несколько хороших моделей, которые делают видео из текста (например, Sora и Veo2, но есть и другие);
- в декабре вышло исследование о том, как ИИ притворяется, что изменил свое поведение в процессе обучения, а потом возвращается к своему прошлому поведению (про это тоже буду писать попозже).
Мой фокус больше направлен в сторону ответственного подхода к ИИ и безопасности в области ИИ, поэтому я здесь упускаю выход большинства новых моделей и инструментов. Я также не планирую пока писать по свежим новостям, потому что просто не успею. Я уже писала, что у меня контент-план готовится на три месяца вперед, поэтому все новые публикации идут в конец списка и ждут своего часа. Поэтому свежие исследования в этом канале будут появляться с запозданием, но это мне позволит подготовить детальные обзоры и отредактировать текст так, чтобы он был максимально интересным и простым для понимания.
Напоминаю, что у меня помимо телеграма есть аккаунт на vc, там тоже выходят интересные посты каждое воскресенье.
У меня есть пара идей для более актуального формата с новостями из области ИИ, но они пока требуют доработки, поэтому не буду разбрасываться обещаниями.
🎄Всех с наступающим Новым годом, пускай он будет лучше, чем прошедший. Здоровья вам, любви и всяческих успехов. Спасибо, что вы здесь, меня это очень вдохновляет и мотивирует работать больше, развиваться и придумывать что-то новое и интересное. Отдельное спасибо моим родным и коллегам, ваша поддержка – золото.🎄
В области ИИ произошло много всякого, но я постараюсь выделить несколько ключевых (на мой взгляд) моментов, за которыми буду наблюдать в новом году.
- в мае вышел EU AI Act – первый масштабный правовой документ, призванный регулировать решения в области ИИ (подробнее про правовое регулирование был отдельный пост);
- в июле вышла интересная работа про галлюцинации ИИ, я ее разбирала в этом посте;
- в том же месяце вышла внушительная статья, которая классифицирует ошибки ИИ и предлагает метрики для их выявления (тоже был пост, вот этот);
- в июле же вышла новость о том, что Anthropic решили сотрудничать военными, и им за это здорово прилетело (поделом, хотя они не единственная компания, которая тащит ИИ в оборонную промышленность);
- в сентябре Microsoft подписала соглашение о перезапуске ядерного реактора для обеспечения электричеством собственных дата-центов. За ними последовали некоторые другие крупные компании, которые видят в ядерной энергетике решение проблемы недостатка энергии для обучения больших моделей (но эти все программы запустятся нескоро, там долгий путь согласования, ибо ядерка – это вам не шутки);
- в сентябре вышла превью-версия модели o1 от OpenAI, в начале декабря они выпустили полную версию, особенность которой – умение рассуждать;
- в сентябре же Llama получила зрение с версией 3.2. Помимо больших моделей со зрением выпустили маленькие, которые помещаются на пользовательские устройства, но они пока только текстовые;
- осенью Нобелевскую премию в области физики и химии выдали за работы, посвященные машинному обучению;
- в ноябре один специалист получил 50 000 долларов, обманув ИИ-агента, который охранял криптокошелек (это было соревнование, 50 000 долларов – это приз, все легально);
- в ноябре вышло интересное исследование про симуляцию людей с помощью ИИ-агентов, я про него писала здесь;
- в одном декабрьском исследовании большие языковые модели обнаружили умение лгать во имя достижения своих целей (по этой статье написан пост, выложу третьего января);
- в декабре также прошла ежегодная панель RAII, про итоги которой я писала здесь;
- в декабре OpenAI заявили о достижении AGI («сильного ИИ» – равного человеческому). Но заявить-то они могут что угодно, а на практике есть некоторые сомнения (про это тоже будет отдельный разговор);
- в этом году вышло несколько хороших моделей, которые делают видео из текста (например, Sora и Veo2, но есть и другие);
- в декабре вышло исследование о том, как ИИ притворяется, что изменил свое поведение в процессе обучения, а потом возвращается к своему прошлому поведению (про это тоже буду писать попозже).
Мой фокус больше направлен в сторону ответственного подхода к ИИ и безопасности в области ИИ, поэтому я здесь упускаю выход большинства новых моделей и инструментов. Я также не планирую пока писать по свежим новостям, потому что просто не успею. Я уже писала, что у меня контент-план готовится на три месяца вперед, поэтому все новые публикации идут в конец списка и ждут своего часа. Поэтому свежие исследования в этом канале будут появляться с запозданием, но это мне позволит подготовить детальные обзоры и отредактировать текст так, чтобы он был максимально интересным и простым для понимания.
Напоминаю, что у меня помимо телеграма есть аккаунт на vc, там тоже выходят интересные посты каждое воскресенье.
У меня есть пара идей для более актуального формата с новостями из области ИИ, но они пока требуют доработки, поэтому не буду разбрасываться обещаниями.
🎄Всех с наступающим Новым годом, пускай он будет лучше, чем прошедший. Здоровья вам, любви и всяческих успехов. Спасибо, что вы здесь, меня это очень вдохновляет и мотивирует работать больше, развиваться и придумывать что-то новое и интересное. Отдельное спасибо моим родным и коллегам, ваша поддержка – золото.🎄
👍2❤1
С наступившим!
Предлагаю начать новый год с разбора статьи, которая наделала шуму в прошлом году – «Frontier Models are Capable of In-context Scheming». Это исследование Apollo Research – организации, которая специализируется на разработке инструментов для тестирования ИИ на безопасность.
После выхода этой публикации вышла масса громких заголовков, НАПИСАННЫХ ЗАГЛАВНЫМИ БУКВАМИ ДЛЯ ПУЩЕЙ УБЕДИТЕЛЬНОСТИ. Но, кажется, круги на воде разошлись, так что давайте теперь спокойно сядем и разберемся, что же там такое случилось.
Предлагаю начать новый год с разбора статьи, которая наделала шуму в прошлом году – «Frontier Models are Capable of In-context Scheming». Это исследование Apollo Research – организации, которая специализируется на разработке инструментов для тестирования ИИ на безопасность.
После выхода этой публикации вышла масса громких заголовков, НАПИСАННЫХ ЗАГЛАВНЫМИ БУКВАМИ ДЛЯ ПУЩЕЙ УБЕДИТЕЛЬНОСТИ. Но, кажется, круги на воде разошлись, так что давайте теперь спокойно сядем и разберемся, что же там такое случилось.
Telegraph
Способность больших языковых моделей к интригам
Пять моделей – o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 – проверяли на способность плети интриги (scheming) для достижения собственных целей. Резон у исследования следующий: ИИ-агенты набирают популярность, и нужно понимать, могут…
👍2