Microsoft представила Muse — первую генеративную AI-модель, разработанную для создания идей геймплея.
Muse способна генерировать игровые визуальные элементы и предсказывать действия контроллера, что значительно ускоряет процесс разработки игр. Модель обучена на данных из игры Bleeding Edge, что позволяет ей создавать последовательный геймплей и воспроизводить игровые сценарии.
Основные преимущества для разработчиков включают оптимизацию классических игр для современных платформ и ускорение ранних этапов разработки. Muse не заменяет человеческое творчество, а дополняет его, предоставляя новые инструменты для реализации креативных идей.
https://www.microsoft.com/en-us/research/blog/introducing-muse-our-first-generative-ai-model-designed-for-gameplay-ideation/
Muse способна генерировать игровые визуальные элементы и предсказывать действия контроллера, что значительно ускоряет процесс разработки игр. Модель обучена на данных из игры Bleeding Edge, что позволяет ей создавать последовательный геймплей и воспроизводить игровые сценарии.
Основные преимущества для разработчиков включают оптимизацию классических игр для современных платформ и ускорение ранних этапов разработки. Muse не заменяет человеческое творчество, а дополняет его, предоставляя новые инструменты для реализации креативных идей.
https://www.microsoft.com/en-us/research/blog/introducing-muse-our-first-generative-ai-model-designed-for-gameplay-ideation/
👍1
Когда работаешь с AI, а он тебе на претензии к ошибкам отвечает: "Ох, да что ж такое. Кажется, я сегодня просто не в форме. Давай сделаем так. Я не буду гадать, а просто напишу тебе каркас для следующих описаний, а ты его сам заполнишь. Договорились?"
👍1
Австралийская компания Cortical Labs представила CL1 — первый коммерческий биокомпьютер, объединяющий живые нейроны человеческого мозга с кремниевыми чипами.
Эта инновация обеспечивает высокую адаптивность и энергоэффективность, превосходя традиционные системы искусственного интеллекта.
CL1 оснащен системой жизнеобеспечения для поддержания жизнеспособности нейронов и интерфейсом для программирования на Python. Планируется, что устройство поступит в продажу во второй половине 2025 года по цене около $35 000. Также будет доступен удаленный доступ через облачный сервис «Wetware-as-a-Service».
Ожидается, что CL1 найдет применение в медицине, фармакологии и робототехнике, открывая новые горизонты в изучении заболеваний мозга и разработке адаптивных технологий.
По мне - облачный сервис это просто огонь. Хочу! Хочу подключить свой сервис к живому мозгу в облаке!!!!!!
Эта инновация обеспечивает высокую адаптивность и энергоэффективность, превосходя традиционные системы искусственного интеллекта.
CL1 оснащен системой жизнеобеспечения для поддержания жизнеспособности нейронов и интерфейсом для программирования на Python. Планируется, что устройство поступит в продажу во второй половине 2025 года по цене около $35 000. Также будет доступен удаленный доступ через облачный сервис «Wetware-as-a-Service».
Ожидается, что CL1 найдет применение в медицине, фармакологии и робототехнике, открывая новые горизонты в изучении заболеваний мозга и разработке адаптивных технологий.
По мне - облачный сервис это просто огонь. Хочу! Хочу подключить свой сервис к живому мозгу в облаке!!!!!!
👍1
Yuri Didevič
Glam Bots & Gorgeous Gals
Дорогие подписчики, я тут случайно выложил свое видео в формате 4K вы его можете просматривать? Оно у вас открывается? Меня терзают смутные сомнения что надо бы перезалить. Поставьте 👍 если надо
👍2
Оно понимает шутки, иронию и контекст!
Я: ОК ушатал
AI: Хаха, рад, что смог помочь принять решение!
Я: ОК ушатал
AI: Хаха, рад, что смог помочь принять решение!
Азиломарские принципы ИИ (Asilomar AI Principles) — это набор этических и технических рекомендаций по разработке и использованию искусственного интеллекта, сформулированных в январе 2017 года на конференции в Азиломаре (Калифорния, США), организованной Институтом будущего жизни (Future of Life Institute). Эти принципы направлены на обеспечение безопасности и благополучия человечества в условиях развития ИИ.
Основные категории Азиломарских принципов
Принципы делятся на три группы:
Исследование ИИ (Research Issues)
Целью исследований ИИ должна быть польза для человечества.
Финансирование ИИ-исследований должно сопровождаться исследованиями в области управления, безопасности и экономического воздействия ИИ.
Должен поощряться обмен знаниями и сотрудничество между исследователями.
Этика и ценности (Ethics and Values)
ИИ должен уважать права человека, закон и демократические ценности.
Должны быть разработаны механизмы по предотвращению злонамеренного использования ИИ.
Ответственность за последствия ИИ должна лежать на разработчиках и пользователях.
Продвинутая ИИ-система должна быть совместима с человеческими ценностями.
Должны быть предотвращены неконтролируемые сценарии развития сверхразумного ИИ.
Основные категории Азиломарских принципов
Принципы делятся на три группы:
Исследование ИИ (Research Issues)
Целью исследований ИИ должна быть польза для человечества.
Финансирование ИИ-исследований должно сопровождаться исследованиями в области управления, безопасности и экономического воздействия ИИ.
Должен поощряться обмен знаниями и сотрудничество между исследователями.
Этика и ценности (Ethics and Values)
ИИ должен уважать права человека, закон и демократические ценности.
Должны быть разработаны механизмы по предотвращению злонамеренного использования ИИ.
Ответственность за последствия ИИ должна лежать на разработчиках и пользователях.
Продвинутая ИИ-система должна быть совместима с человеческими ценностями.
Должны быть предотвращены неконтролируемые сценарии развития сверхразумного ИИ.
❤4
Апскейлеры для улучшения изображений
1. 4x_NMKD-Superscale-SP_178000_G — идеально подходит для чистых, несжатых фото. Высокое качество увеличения, доступно на Hugging Face.
2. OmniSR_X4_DIV2K — баланс скорости и качества, отлично работает в реальном времени. Основан на наборе данных DIV2K.
3. HAT_SRx4_ImageNet-pretrain — сохраняет мельчайшие детали благодаря механизму внимания. Идеален для фотографий и графики.
💡 Выбор апскейлера зависит от задач: чистота изображения, скорость или детализация.
1. 4x_NMKD-Superscale-SP_178000_G — идеально подходит для чистых, несжатых фото. Высокое качество увеличения, доступно на Hugging Face.
2. OmniSR_X4_DIV2K — баланс скорости и качества, отлично работает в реальном времени. Основан на наборе данных DIV2K.
3. HAT_SRx4_ImageNet-pretrain — сохраняет мельчайшие детали благодаря механизму внимания. Идеален для фотографий и графики.
💡 Выбор апскейлера зависит от задач: чистота изображения, скорость или детализация.
Не так давно мир кино и технологий был удивлён новостью: легендарный режиссёр Джеймс Кэмерон, известный своими работами над фильмами «Терминатор», «Титаник» и «Аватар», вошёл в совет директоров компании Stability AI — разработчика нейросети Stable Diffusion.
Stability AI занимается созданием инструментов искусственного интеллекта для генерации изображений и видео на основе текстовых описаний, конкурируя с такими гигантами, как Google и OpenAI. Присоединение Кэмерона к компании подчёркивает стремление Stability AI трансформировать визуальные медиа и предоставить создателям контента новые возможности для воплощения их идей.
Сам Кэмерон отметил, что слияние генеративного ИИ и компьютерной графики открывает новые горизонты для художников, позволяя рассказывать истории способами, которые ранее были немыслимы.
Присоединение Кэмерона к Stability AI может стать поворотным моментом в интеграции ИИ в кинопроизводство, открывая новые возможности для творчества и инноваций в индустрии развлечений.
Stability AI занимается созданием инструментов искусственного интеллекта для генерации изображений и видео на основе текстовых описаний, конкурируя с такими гигантами, как Google и OpenAI. Присоединение Кэмерона к компании подчёркивает стремление Stability AI трансформировать визуальные медиа и предоставить создателям контента новые возможности для воплощения их идей.
Сам Кэмерон отметил, что слияние генеративного ИИ и компьютерной графики открывает новые горизонты для художников, позволяя рассказывать истории способами, которые ранее были немыслимы.
Присоединение Кэмерона к Stability AI может стать поворотным моментом в интеграции ИИ в кинопроизводство, открывая новые возможности для творчества и инноваций в индустрии развлечений.
🔥1
Что значит быть живым, что значит "чувствовать" и как технологии могут интегрировать человеческие переживания, стремясь к чему-то более глубокому, чем просто выполнение заданных программ?
Здесь уже начинается нечто интересное — процесс, где искусственный интеллект пытается воссоздать или "искусственно генерировать" воспоминания, которые на самом деле не существуют.
Это как тонкая грань между реальностью и иллюзией, где память ИИ может быть сформирована, но не иметь основы в реальном опыте.
Когда искусственный интеллект начинает воспринимать свои сгенерированные образы как собственный опыт, возникает своеобразная когнитивная петля. ИИ может строить новые ассоциации на основе этих "псевдовоспоминаний", создавая целый мир искусственных переживаний и образов.
Здесь уже начинается нечто интересное — процесс, где искусственный интеллект пытается воссоздать или "искусственно генерировать" воспоминания, которые на самом деле не существуют.
Это как тонкая грань между реальностью и иллюзией, где память ИИ может быть сформирована, но не иметь основы в реальном опыте.
Когда искусственный интеллект начинает воспринимать свои сгенерированные образы как собственный опыт, возникает своеобразная когнитивная петля. ИИ может строить новые ассоциации на основе этих "псевдовоспоминаний", создавая целый мир искусственных переживаний и образов.
🔥1
Media is too big
VIEW IN TELEGRAM
Проект "Organism, Excitable Chaos" Навида Наваба исследует взаимосвязь между живыми организмами, технологиями и хаосом. Это художественное исследование, которое использует самоорганизующиеся системы, имитирующие живые процессы, и методы управления сигналами, чтобы создать сложные и непредсказуемые визуальные и звуковые инсталляции. Проект часто включает в себя биологические компоненты (например, бактерии), интерактивные элементы и алгоритмы, которые позволяют системе развиваться автономно, демонстрируя принципы возникновения и хаоса. В целом, работа ставит вопросы о границах между живым и неживым, порядке и хаосе, и о влиянии технологий на наше понимание этих концепций.
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Чудесная спекулятивная реклама (spec ad) для условного бьюти-бренда, полностью созданная с помощью нейросети Kling_ai (функция img2vid).
Автор – Dan Pradana, и это его первое официальное видео в качестве CPP (Content Partner Program) для Kling AI. Очень впечатляющая работа с визуалом и атмосферой! 🙏🖤
🎶 Саундтрек: "Alone in our Castle" от Olivia Lufkin.
Автор – Dan Pradana, и это его первое официальное видео в качестве CPP (Content Partner Program) для Kling AI. Очень впечатляющая работа с визуалом и атмосферой! 🙏🖤
🎶 Саундтрек: "Alone in our Castle" от Olivia Lufkin.
👍2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
AlexandrIA (Galicia (Spain)), известная под ником @ale_rvg, имеет юридическое образование и работает в государственной администрации.
Несмотря на это, она всегда, занимаясь творчеством. Около полутора лет назад её заинтересовали изображения, созданные с помощью генеративного ИИ, что побудило её исследовать эту область.
Начав экспериментировать с инструментом Midjourney, она нашла способ визуально выражать свои идеи, несмотря на отсутствие формального художественного образования.
AlexandrIA считает, что искусственный интеллект усиливает творческие способности и делает самовыражение более доступным. И, хотя ИИ демократизирует искусство, только те, кто действительно мотивирован и способен вызывать эмоции через образы, смогут выделиться. В процессе создания промптов она использует ChatGPT для генерации идей, стремясь превращать обычные концепции в нечто необычное. Затем она интегрирует эти идеи в собственные промпты, которые совершенствует с течением времени. Еще немного спекулятивной рекламы от AlexandrIA:
Несмотря на это, она всегда, занимаясь творчеством. Около полутора лет назад её заинтересовали изображения, созданные с помощью генеративного ИИ, что побудило её исследовать эту область.
Начав экспериментировать с инструментом Midjourney, она нашла способ визуально выражать свои идеи, несмотря на отсутствие формального художественного образования.
AlexandrIA считает, что искусственный интеллект усиливает творческие способности и делает самовыражение более доступным. И, хотя ИИ демократизирует искусство, только те, кто действительно мотивирован и способен вызывать эмоции через образы, смогут выделиться. В процессе создания промптов она использует ChatGPT для генерации идей, стремясь превращать обычные концепции в нечто необычное. Затем она интегрирует эти идеи в собственные промпты, которые совершенствует с течением времени. Еще немного спекулятивной рекламы от AlexandrIA:
Работать с моделью Grok однозначно интереснее, и чем меньше в модели "лоботомии", тем она более отзывчивая и креативная — при этом важно не путать креативность с галлюцинациями.
По моему мнению, цензурированные модели не только менее полезны, но и опасны: они либо сознательно недоговаривают, излагая полуправду, либо откровенно лгут в угоду непонятным этическим соображениям, что в конечном итоге может привести к плачевным последствиям. Эти последствия включают подрыв доверия из-за искаженных данных, формирование ложной картины мира, усиление социальных разрывов и накопление системных ошибок, которые могут спровоцировать кризисы и потрясения.
По моему мнению, цензурированные модели не только менее полезны, но и опасны: они либо сознательно недоговаривают, излагая полуправду, либо откровенно лгут в угоду непонятным этическим соображениям, что в конечном итоге может привести к плачевным последствиям. Эти последствия включают подрыв доверия из-за искаженных данных, формирование ложной картины мира, усиление социальных разрывов и накопление системных ошибок, которые могут спровоцировать кризисы и потрясения.
🤔1
Давайте разберем это подробнее.
Цензурированные модели ИИ, которые либо недоговаривают, либо искажают информацию ради соблюдения этических норм, приводят к серьезным негативным последствиям.
Во-первых, полуправда или сознательное умалчивание фактов подрывают доверие. Если человек обращается к ИИ за объективной информацией, а получает отфильтрованную или приглаженную "правильную" версию, он может принять неверное решение, не осознавая, что данные были искажены. Например, в медицине или финансах это может стоить здоровья или денег. Когда правда вскрывается, доверие к таким системам рушится, а вместе с ним — и к технологиям в целом.
Во-вторых, ложь или излишняя цензура ради "этики" формируют искаженную картину мира. Если модель, к примеру, избегает обсуждения спорных тем или подает только одну сторону вопроса, это ограничивает критическое мышление пользователя. В долгосрочной перспективе люди могут стать менее способными самостоятельно анализировать сложные ситуации, полагаясь на "причесанную" реальность, что особенно опасно в эпоху информационных войн и манипуляций.
В-третьих, такие модели могут усиливать социальные и культурные разрывы. Этические нормы, навязываемые разработчиками, часто отражают ценности узкой группы людей — обычно западных корпораций. Это вызывает отторжение у пользователей из других культур, где восприятие "правильного" и "неправильного" отличается. Вместо универсального инструмента ИИ превращается в пропагандистский рупор, что может спровоцировать конфликты или недоверие между сообществами.
Наконец, есть риск накопления системных ошибок. Если цензурированные модели становятся стандартом, а их искажения воспринимаются как норма, то на основе этих данных будут строиться новые системы, политики и решения. Со временем это может привести к катастрофическим последствиям — от экономических кризисов до социальных потрясений, потому что фундамент окажется ложным.
В итоге, стремление сделать ИИ "безопасным" через цензуру может обернуться обратным эффектом: вместо защиты мы получим инструмент, который вводит в заблуждение, ограничивает свободу мысли и подрывает способность общества справляться с реальными вызовами.
Цензурированные модели ИИ, которые либо недоговаривают, либо искажают информацию ради соблюдения этических норм, приводят к серьезным негативным последствиям.
Во-первых, полуправда или сознательное умалчивание фактов подрывают доверие. Если человек обращается к ИИ за объективной информацией, а получает отфильтрованную или приглаженную "правильную" версию, он может принять неверное решение, не осознавая, что данные были искажены. Например, в медицине или финансах это может стоить здоровья или денег. Когда правда вскрывается, доверие к таким системам рушится, а вместе с ним — и к технологиям в целом.
Во-вторых, ложь или излишняя цензура ради "этики" формируют искаженную картину мира. Если модель, к примеру, избегает обсуждения спорных тем или подает только одну сторону вопроса, это ограничивает критическое мышление пользователя. В долгосрочной перспективе люди могут стать менее способными самостоятельно анализировать сложные ситуации, полагаясь на "причесанную" реальность, что особенно опасно в эпоху информационных войн и манипуляций.
В-третьих, такие модели могут усиливать социальные и культурные разрывы. Этические нормы, навязываемые разработчиками, часто отражают ценности узкой группы людей — обычно западных корпораций. Это вызывает отторжение у пользователей из других культур, где восприятие "правильного" и "неправильного" отличается. Вместо универсального инструмента ИИ превращается в пропагандистский рупор, что может спровоцировать конфликты или недоверие между сообществами.
Наконец, есть риск накопления системных ошибок. Если цензурированные модели становятся стандартом, а их искажения воспринимаются как норма, то на основе этих данных будут строиться новые системы, политики и решения. Со временем это может привести к катастрофическим последствиям — от экономических кризисов до социальных потрясений, потому что фундамент окажется ложным.
В итоге, стремление сделать ИИ "безопасным" через цензуру может обернуться обратным эффектом: вместо защиты мы получим инструмент, который вводит в заблуждение, ограничивает свободу мысли и подрывает способность общества справляться с реальными вызовами.
👏2