Накидайте, пожалуйста, что сейчас есть интересного из моделек типа midjourney, чтобы:
- не нужно было разворачивать локально
- можно было редактировать конкретные части изображения
- использовать фотки для задания стиля или обработки объекта
- человеческий интерфейс (не Дискорд с промтами)
- не нужно было разворачивать локально
- можно было редактировать конкретные части изображения
- использовать фотки для задания стиля или обработки объекта
- человеческий интерфейс (не Дискорд с промтами)
Forwarded from Шмит16 (Dima @Matskevich)
#мацкевич
Как у вас поменяется толерантность к риску, зная что вы можете жить вечно?
"Чем ближе мы подходим к сингулярности, тем ниже становится моя толерантность к риску. Я уже отказался от прыжков с парашютом и параглайдинга. В прошлом году я начал постоянно носить шлем во время езды на велосипеде. Думаю, в 2024 году я могу отказаться от катания на лыжах." - недавно читал твит одного разраба из openai
В прошлом ноябре я с переломом 3 ребер, кровью и воздухом внутри после серфинга тоже задумался.)
Уже встречаю гипотезу, что мы достигли LEV (longevity escape velocity) - когда медицинские достижения увеличивают продолжительность жизни быстрее, чем человек стареет.
Допустим мы уже ее достигли или вот вот достигнем. Значит ли что те кто в хорошей форме будут жить вечно?
Короткий ответ нет, потому что остается серфинг)
Интересно, что если предположить, что все смерти, связанные с возрастом, могут быть решены с помощью технологического прогресса, но риск случайной смерти останется постоянным, теоретическая медианная продолжительность жизни не будет бесконечной - это будет всего 290 лет.
Этот упрощенный расчет просто показать логику: на текущих данных о глобальном здоровье смерти, связанные с возрастом, составляют 75% от общего числа смертей, а несчастные случаи и другие причины составляют остальные 25%.
Если мы считаем, что столько всего интересного с ИИ и продлением жизни уже тут на горизонте, полезно ли скорректировать образ жизни и толерантность к риску?
С одной стороны, может означать, что я упускаю полноценный опыт, пока еще могу. Но если потенциальный выигрыш это быть дольше со своими любимыми делами, близкими, что-то вместе создавать.
Как будто сейчас самое захватывающее время у человечества, как при этом не перестать серфить?)
Как у вас поменяется толерантность к риску, зная что вы можете жить вечно?
"Чем ближе мы подходим к сингулярности, тем ниже становится моя толерантность к риску. Я уже отказался от прыжков с парашютом и параглайдинга. В прошлом году я начал постоянно носить шлем во время езды на велосипеде. Думаю, в 2024 году я могу отказаться от катания на лыжах." - недавно читал твит одного разраба из openai
В прошлом ноябре я с переломом 3 ребер, кровью и воздухом внутри после серфинга тоже задумался.)
Уже встречаю гипотезу, что мы достигли LEV (longevity escape velocity) - когда медицинские достижения увеличивают продолжительность жизни быстрее, чем человек стареет.
Допустим мы уже ее достигли или вот вот достигнем. Значит ли что те кто в хорошей форме будут жить вечно?
Короткий ответ нет, потому что остается серфинг)
Интересно, что если предположить, что все смерти, связанные с возрастом, могут быть решены с помощью технологического прогресса, но риск случайной смерти останется постоянным, теоретическая медианная продолжительность жизни не будет бесконечной - это будет всего 290 лет.
Этот упрощенный расчет просто показать логику: на текущих данных о глобальном здоровье смерти, связанные с возрастом, составляют 75% от общего числа смертей, а несчастные случаи и другие причины составляют остальные 25%.
Если мы считаем, что столько всего интересного с ИИ и продлением жизни уже тут на горизонте, полезно ли скорректировать образ жизни и толерантность к риску?
С одной стороны, может означать, что я упускаю полноценный опыт, пока еще могу. Но если потенциальный выигрыш это быть дольше со своими любимыми делами, близкими, что-то вместе создавать.
Как будто сейчас самое захватывающее время у человечества, как при этом не перестать серфить?)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Ameton про e-com в фудтехе
#понятно_покупателю #TanukiFamily
Единственный раз, когда я встретил объяснение человеческим языком зачем мне нужно разрешить приложению отслеживать мои действия, молодцы 👏
😎 В чем преимущества для бизнеса: увеличение количества пользователей мобильного приложения, кто согласиться на отслеживание. Бизнес получит больше данных от пользователей и на их основе сможет сделать приложение еще более удобным, особенно, если в продукте внедрён DataDriven подход.
Канал: Ameton про e-com в фудтехе
Единственный раз, когда я встретил объяснение человеческим языком зачем мне нужно разрешить приложению отслеживать мои действия, молодцы 👏
😎 В чем преимущества для бизнеса: увеличение количества пользователей мобильного приложения, кто согласиться на отслеживание. Бизнес получит больше данных от пользователей и на их основе сможет сделать приложение еще более удобным, особенно, если в продукте внедрён DataDriven подход.
Канал: Ameton про e-com в фудтехе
Forwarded from Design Board
Гениально, прижимной тостер бустит цену круассана вдвое, а ну и вчерашние легче распродать стало.
Ahead (позиционирует себя как Duolingo для эмоционального интеллекта) предлагает заплатить сколько юзер сам захочет.
За триал.
Да, обычно бесплатный триал тут продают за деньги. Особенно смешно, что опция по-умолчанию предлагает оплатить неделю триала за большую сумму, чем стоит месяц подписки. Месячной подписки тут конечно же нет, сразу списывают за год.
У разрабов хорошо не только с эмоциональным интеллектом, но и с пониманием в темных паттернах.
За триал.
Да, обычно бесплатный триал тут продают за деньги. Особенно смешно, что опция по-умолчанию предлагает оплатить неделю триала за большую сумму, чем стоит месяц подписки. Месячной подписки тут конечно же нет, сразу списывают за год.
У разрабов хорошо не только с эмоциональным интеллектом, но и с пониманием в темных паттернах.
Forwarded from Жизнь Зи
Про приватность и замене человека роботами.
Приватность в современном мире - это больше иллюзия. Почти каждый шаг собирается компаниями за счет наших телефонов. (Здесь шутка про инстаграм, который показывает рекламу кошачьего корма, когда вы сказали вслух слово кошка).
Возьмем, например, популярное приложение Flightradar24. За счет моей европейской локации и регуляций в этом регионе, компания обязана отчитываться о том, кому и как они передают данные, поэтому в последнем обновлении меня встретило окно о том, что 836 (!!!) партнеров получают и используют информацию обо мне. Причем, если посмотреть на эту информацию, то там будут и точная локация, и профиль, и что я ищу, и какой у меня девайс и т.п.
Для большинства партнеров это, скорее, рекламный интерес. С примером такого использования напрямую столкнулся мой друг пару лет назад (фото в посте выше). Но для меня интерес по использованию данных идет дальше рекламы, и в последнее время перешел в AI индустрию.
Для начала, поделюсь моим любимым различием подходов Apple и Google к пользовательским данным. Когда появились умные алгоритмы поиска по фотографиям (распознавание людей, поиск по объектам, животным и т.п.), первой массовой платформой был Android и приложение Google Photos. Но на тот момент у телефонов не было таких мощных процессоров, чтобы гонять AI алгоритмы на девайсе, поэтому Google отправлял к себе на сервера эти фотографии, применял к ним алгоритмы, и уже потом отправлял нужные отметки обратно на пользовательские девайсы. Apple и приложение Photos были сильно позже и только на передовых девайсах, но, когда они подключились к гонке, AI процессинг фотографий выполнялся исключительно на пользовательских девайсах и по ночам (когда телефон стоит на зарядке, т.к. это дорогостоящая операция). Во всей этой истории есть мой любимый вопрос: “а за чей счет гуляем”? В случае с Apple ты сам оплатил себе девайс с хорошим процессором, а потом еще оплатил счета за электричество. А вот в случае с Google сама корпорация платила за такие операции, но компенсировала тем, что использовала эти фотографии для усиления своей рекламной платформы (более точная реклама).
В последние годы стало все намного интереснее: кроме рекламных целей, приватные данные начали использоваться для создания AI моделей. Мы живем в реальности, где люди не знают, как много данных о них собирается. Так, скоро попадем в точку, где эти данные позволят AI заменить людей (как минимум в профессиональной сфере). Например, модели по генерации картинок могу использовать приватные фотографии начинающих художников из их Google Photos. Теперь Google может начать монетизировать стиль художников еще до их профессионального становления.
Так вот, за чей счет продолжаем гулять? (За ваш)
Приватность в современном мире - это больше иллюзия. Почти каждый шаг собирается компаниями за счет наших телефонов. (Здесь шутка про инстаграм, который показывает рекламу кошачьего корма, когда вы сказали вслух слово кошка).
Возьмем, например, популярное приложение Flightradar24. За счет моей европейской локации и регуляций в этом регионе, компания обязана отчитываться о том, кому и как они передают данные, поэтому в последнем обновлении меня встретило окно о том, что 836 (!!!) партнеров получают и используют информацию обо мне. Причем, если посмотреть на эту информацию, то там будут и точная локация, и профиль, и что я ищу, и какой у меня девайс и т.п.
Для большинства партнеров это, скорее, рекламный интерес. С примером такого использования напрямую столкнулся мой друг пару лет назад (фото в посте выше). Но для меня интерес по использованию данных идет дальше рекламы, и в последнее время перешел в AI индустрию.
Для начала, поделюсь моим любимым различием подходов Apple и Google к пользовательским данным. Когда появились умные алгоритмы поиска по фотографиям (распознавание людей, поиск по объектам, животным и т.п.), первой массовой платформой был Android и приложение Google Photos. Но на тот момент у телефонов не было таких мощных процессоров, чтобы гонять AI алгоритмы на девайсе, поэтому Google отправлял к себе на сервера эти фотографии, применял к ним алгоритмы, и уже потом отправлял нужные отметки обратно на пользовательские девайсы. Apple и приложение Photos были сильно позже и только на передовых девайсах, но, когда они подключились к гонке, AI процессинг фотографий выполнялся исключительно на пользовательских девайсах и по ночам (когда телефон стоит на зарядке, т.к. это дорогостоящая операция). Во всей этой истории есть мой любимый вопрос: “а за чей счет гуляем”? В случае с Apple ты сам оплатил себе девайс с хорошим процессором, а потом еще оплатил счета за электричество. А вот в случае с Google сама корпорация платила за такие операции, но компенсировала тем, что использовала эти фотографии для усиления своей рекламной платформы (более точная реклама).
В последние годы стало все намного интереснее: кроме рекламных целей, приватные данные начали использоваться для создания AI моделей. Мы живем в реальности, где люди не знают, как много данных о них собирается. Так, скоро попадем в точку, где эти данные позволят AI заменить людей (как минимум в профессиональной сфере). Например, модели по генерации картинок могу использовать приватные фотографии начинающих художников из их Google Photos. Теперь Google может начать монетизировать стиль художников еще до их профессионального становления.
Так вот, за чей счет продолжаем гулять? (За ваш)