AI, life and balance
114 subscribers
136 photos
3 videos
11 files
204 links
Download Telegram
11072025_Градиентный спуск_1.1.mp4
584 MB
Хочу немного рассказать о том, как же обучается этот ваш ИИ

Это первое видео с монтажом в моей жизни, так что на 15 минут результата ушло почти 2 часа работы
Приложите ко мне подорожник, пжлст
🔥1👏1
Сначала я задала себе вопрос: «У кого больше круг общения: у нас или у наших предков (был)?»

Потом: «Правда ли то, что у предков связи были теснее и более значимыми?»

Наконец: «Как на все это влияют социальные сети?»

По итогам моего мини-исследования ответ звучит так: «Зависит от угла зрения».

С одной стороны, наших предков было в целом меньше и жили они более маленькими группами. С другой стороны, кажется, мы так и так общаемся с парой сотен человек в среднем. Даже если Данбар промахнулся с числом, он ошибся не на порядки.

Внутри малой группы людей проще установить тесные связи, чем внутри большой группы, просто потому что на выстраивание отношений нужно время.

Соцсети сами по себе – не добро и не зло в чистом виде. Это инструмент, и его важно уметь использовать. Любой инструмент, начиная с палки-копалки, требует освоения, которое требует времени и сил, опять же.

Вот как-то так: никаких ответов, одни вопросы.
🔥2
У меня есть стойкое ощущение, что я про этот инструмент уже рассказывала. Но пост такой не нашла, так что давайте для верности еще расскажу.
Инструмент – платформа Dream Machine от Luma AI. Это для создания картинок и видео. У Luma AI есть разные модели и есть API для их использования, но сегодня давайте про картинки поговорим и про использование через интерфейс.
Зарегистрироваться и зайти в аккаунт у меня получилось без VPN, но всё было так медленно, что VPN всё-таки пришлось включить – пошло пободрее.
Работа ведется на досках: один проект – одна доска (или как вам удобнее).
После создания доски можно сразу писать свой промпт или воспользоваться подсказками.
Я сразу запускаю свой паучий тест. Суть теста в том, что я прошу модель нарисовать мне милого паучка, который работает за компьютером. Почему паучка? Во-первых, они мне нравятся. Во-вторых, его не так просто нарисовать: много лапок, много глазок и хелицеры – не все модели справляются хорошо.
Для изображений используется модель Photon. Получилось неплохо, но, как видите, с лапками вышли проблемы. Это не страшно, до сих пор единственная модель, которая раз за разом успешно проходит паучий тест – PaLM.
Дальше можно выбрать лучший вариант и попросить сгенерировать больше похожих. Можно запросить изменения, погенерировать новые идеи в режиме мозгового штурма или скачать картинку.
Видео доступно только на платных аккаунтах. К сожалению, протестировать функцию до того, как заплатить, не получится.
Я решилась заплатить 10 долларов за месяц подписки (чтобы вам не пришлось, как говорится).
Видео генерирует модель Ray. Ray2 – это самая новая и мощная, доступна еще предыдущая Ray1.6 и более быстрая Ray2-flash. Видеоэффект можно выбрать из предложенных, а я сделала свой запрос: «Паук активно печатает на клавиатуре».
«Активно» не получилось, но он печатает. Что мне особенно нравится, так это возможность добавить звук, который тоже будет сгенерирован по вашему описанию. Я добавила, смотрите со звуком :)

Еще я нашла в AppStore их приложение. На Google Play именно Dream Machine нет, но есть Luma AI: 3D Capture (это тоже есть в AppStore). Приложениями пользоваться я не пробовала, может, попробую как-нибудь и отпишусь тогда по впечатлениям.

#инструменты
👍2
luma_test_07072025.mp4
2 MB
Вот, видео тоже догрузилось
В мае этого года вышла свежая статья про оценку способностей больших языковых моделей к рассуждениям на уровне здравого смысла.
Это не такая простая задача, как может показаться на первый взгляд.

Если коротко, то для людей очевидно, что, например, автомобиль не может быть одновременно в двух местах, а для ИИ — нет. Хотя сейчас многие модели уже неплохо справляются с подобными задачами, они несовершенны, и хорошие подходы к оценке — ценная штука (особенно учитывая все те проблемы, которые есть у современных подходов к оценке ИИ в целом).

Обсудим
По мере того, как ИИ захватывает мир (не как в голливудских боевиках, но как Apple и Coca-Cola), все больше людей открывает для себя его преимущества. Или смиряется с его присутствием, как пойдет. Так или иначе, все больше людей начинают ИИ активно использовать.

Но как? Составляют сложные продуманные промпты или отправляют простые запросы? Учатся создавать свои приложения или выбирают ChatGPT? Задают вопросы про здоровье или планируют отпуск? Насколько аккуратно делятся данными?

А давайте узнаем.
👍1
Есть организация OneTrust, которая помогает другим компаниям делать их ИИ более безопасным и надежным:
- Получать согласие пользователей на сбор данных и давать пользователям возможность выбирать, что именно они передают;
- Защищать данные пользователей;
- Соответствовать законам, принятым в странах присутствия компании;
- Автоматизировать защиту данных и мониторинг рисков;
- Автоматизировать анализ данных и получать важную информацию о пользователях, не повышая риски для этих пользователей.

У них есть платформа с несколькими продуктами для разных целей (для оценки рисков, для защиты данных и так далее). Протестировать ее просто так нельзя, и цену сообщают только по запросу, поэтому я не предлагаю эту платформу как инструмент.

Скорее, знакомлю вас с хорошим примером того, что можно – и актуально – делать в области ИИ. Не только модели, метрики и агенты, но и ответственность, надежность и безопасность.

Еще они опубликовали исследование про генеративный ИИ, выполненное совместно с компаниями-партнерами. Прикрепляю ниже для ознакомления.
Иногда я общаюсь с людьми (увлекательный опыт, всем советую).

И люди задают интересные вопросы, которые заставляют задуматься над чем-то, что казалось незыблемой аксиомой, пока кто-то не сказал: «Извини за тупой вопрос, но почему так?»

Вот за это очень люблю так называемые «тупые вопросы»: они не тупые, они фундаментальные. Они провоцируют сомневаться и переосмыслять, а это ли не основа научного познания мира.

Так вот, общалась я с любимыми мною людьми, и речь зашла про ИИ-агентов. Если память меня не подводит, вопрос был о том, обучается ли ИИ-агент в процессе работы. Меня понесло на лекцию про то, кто там чему обучается, и в конце я сказала, что в некотором роде «калькулятор сложнее Интернета» – если мы говорим про большие языковые модели.

«А вот отсюда поподробнее,» – сказали люди мне.

И я решила черкнуть маленький постик на эту тему: я в последнее время ударилась в большие исследования, которые отнимают кучу времени, надо бы сделать перерыв и отвлечься на что-то простое и маленькое.

Ха-ха три раза.
Опять откуда-то образовалась пачка статей и материал на диссертацию (знак свыше, что ли?)

Ну, давайте разбираться
2
Презентую вам большой пост про правовое регулирование ИИ. Год назад был такой покороче, а в этот раз пустимся во все тяжкие
Продолжаем разговор о том, как люди используют ИИ. Первая часть вышла у меня на vc. Там некоторая базовая статистика: для чего используют, какие различия есть между разными странами, как относятся к ИИ.
Сегодня обсудим стили взаимодействия, отношение к безопасности и все в этом роде.

В общем, кажется, люди относятся к ИИ разумно и понимают его риски. Не полагаются на него в серьезных вопросах, но готовы использовать, если это повышает их эффективность. Здесь важно отметить (и в прошлый раз мы об этом говорили), что ИИ не всегда используют осознанно. То есть, не всегда компании достаточно открыто сообщают, что он присутствует в их продукте. Кроме того, сама область остается малодоступной для людей без специального образования или навыков, из-за чего ИИ окружен плотным облаком мифов.

Распространение удобоваримой и достоверной информации, равно как и ответственное и человекоцентричное регулирование запаздывают, порождая недоверие и тревогу.

Разумеется, встречаются и исследования, которые показывают чрезмерное доверие к ИИ, даже когда ставки высоки. Здесь мне сложно судить, насколько надежны исследования в которых люди, например, принимают решение «убить или не убить», опираясь на подсказки ИИ.

Ощущают ли в таких экспериментах люди, что взаимодействуют с реальной ситуацией или играют в игру? А если в реальной жизни один солдат смотрит на другого через камеру дрона, он ощущает реальность или теряет яркое представление о том, что перед ним живой человек? Имеет ли место недооценка бездействия: «Это решение принимаю не я, а ИИ, следовательно, я не ответственен»?

Все эти вопросы выходят далеко за рамки моих компетенций, потому что я не психолог, не социолог и даже не философ. Но мне кажется, они все очень важные даже для непсихологов, несоциологов и нефилософов, потому что не только психологам, социологам и философам жить в новом мире
Сегодня пост в более традиционном для моего канала формате – обзор конкретной статьи. Она вышла в марте 2025 года и описывает обучение языковых моделей на скрытых мыслях, которые стоят за созданием текста. Звучит интригующе, так что поехали разбираться
🔥2
Воображение – то, что отличает человека от машины, потому что это особая форма абстрактного мышления. Настолько абстрактного, что способна породить вещи, не существующие в реальности. Мы никогда не сможем наделить им ИИ.
Или сможем?
Что вообще представляет собой воображение, в какой части мозга оно происходит и можно ли его воспроизвести, скажем, в языковой модели? Сегодня попробуем с вами в этом разобраться: понять, что знает о воображении современная наука и можно ли его перенести на ИИ хотя бы в какой-то части
Я тут одному прекрасному человеку пожаловалась на то, что не успеваю посты писать из-за высокой загрузки. Набрала, понимаете ли, на себя работы, теперь никак не разгребу.
«А ты напиши, – говорит он мне, – пост-мнение. Это и быстро, и интересно. Вот что ты про это думаешь?» – и кидает мне две ссылки на сайт GDPR. А там такое…

GDPR (General Data Protection Regulation) – это регламент Евросоюза по защите персональных данных. Он глобально про то, чтобы данные пользователей не собирали без их ведома, не хранили без согласия и защищали всеми силами. Вот чего может быть на таком сайте неожиданного?

Например, рейтинг приложений для создания нецензурируемого контента, в том числе потенциально небезопасного. Вторую ссылку я прикреплять не буду, потому что там есть приложения, которые позволяют «снять одежду» с реального фото реального человека. На мой взгляд, это уже перебор.
И там еще приписочка такая: «Они предназначены только для использования этичным способом и с согласия людей, чьи фото используются.»
Ага. Конечно.

Вопрос: этично ли такое публиковать на сайте организации, которая регулирует использование ИИ с [декларируемой] целью сделать его более безопасным?
На мой взгляд, нет.

Расширим вопрос до: «Этично ли публиковать в открытом доступе способы обойти законодательное регулирование или нарушить этические нормы?»
Вот здесь у меня пока нет четкой позиции, если честно.

С одной стороны, если прятать незаконное и делать вид, что нет способа обойти регулирование, законопослушные граждане не будут обходить (но они бы и так не обходили), а незаконопослушные будут (они бы и так обходили). И при этом законопослушные граждане не будут знать, что такие методы обхода есть и не будут знать, как защищаться.

С другой стороны, есть люди, которые обошли бы регулирование, но не знают как, им лень разбираться, они и не обходят. А теперь методы обхода раскрыли, и они смогут пойти и попробовать. А защититься всё равно все не смогут, потому что нужен определенный навык и время на его изучение.
Взять употребление всяких запрещенных веществ: запрет даже на обсуждение проблемы приводит к тому, что люди с зависимостью боятся идти за помощью и страдают больше и чаще, чем могли бы.
Но открытое распространение приводит к тому, что те, кто бы не попробовал, попробуют, и получат вред здоровью. И вот как тут выбирать? Не наказывать за употребление, а наказывать за распространение? А как это отслеживать применительно к ИИ?

Я бы, наверное, говорила не: "Вот так можно обойти закон," – а: "Вот такие есть риски, и так вам могут навредить," – не про способы, а про последствия.
Но это явно не черно-белый вопрос.
🔥2