Исследователь из Google написал статью о том, почему ИИ никогда не сможет обладать сознанием
Он утверждает, что ни при какой мощности моделей, ни через 10, ни через 100 лет, в них не сможет зародиться сознание. ИИ может только идеально имитировать сознание.
Причина – в логической ошибке, которую автор обозвал Abstraction Fallacy (ошибка абстракции). Сейчас, в основном, считается, что если система ведет себя разумно, значит при достаточной сложности она может стать сознательной. Но это заблуждение, и вот краткий пересказ, почему⬇️
Дело в том, что сознание – это физическое явление, а вычисления (ИИ) – это лишь его описание. В статье приводится хорошая аналогия с картой и реальными территориями. Сколь бы точна не была карта, из нее никогда не возникнет земли.
Вычисления работают так: есть физическое состояние (ток, напряжение, состояние транзистора и тд) и есть абстрактное состояние – смыслы, которые мы закладываем в физику. Человек (mapmaker) задает между этими двумя состояниями соответствие (mapping), которого не существует в природе самого по себе.
Без этого соответствия вычисления невозможны в принципе. То есть для ИИ смысл всегда приходит извне, система его не переживает, как реальный опыт. Компьютер, сколь бы "умным" он не был, не оперирует смыслами – он оперирует физикой, которую мы интерпретируем как смыслы.
Наконец-то кто-то это сформулировал
deepmind.google/research/publications/231971/
Он утверждает, что ни при какой мощности моделей, ни через 10, ни через 100 лет, в них не сможет зародиться сознание. ИИ может только идеально имитировать сознание.
Причина – в логической ошибке, которую автор обозвал Abstraction Fallacy (ошибка абстракции). Сейчас, в основном, считается, что если система ведет себя разумно, значит при достаточной сложности она может стать сознательной. Но это заблуждение, и вот краткий пересказ, почему
Дело в том, что сознание – это физическое явление, а вычисления (ИИ) – это лишь его описание. В статье приводится хорошая аналогия с картой и реальными территориями. Сколь бы точна не была карта, из нее никогда не возникнет земли.
Вычисления работают так: есть физическое состояние (ток, напряжение, состояние транзистора и тд) и есть абстрактное состояние – смыслы, которые мы закладываем в физику. Человек (mapmaker) задает между этими двумя состояниями соответствие (mapping), которого не существует в природе самого по себе.
Без этого соответствия вычисления невозможны в принципе. То есть для ИИ смысл всегда приходит извне, система его не переживает, как реальный опыт. Компьютер, сколь бы "умным" он не был, не оперирует смыслами – он оперирует физикой, которую мы интерпретируем как смыслы.
Ждать сознания от алгоритма – все равно что ждать, что формула гравитации начнет притягивать объекты.
Наконец-то кто-то это сформулировал
deepmind.google/research/publications/231971/
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍440 73❤50🗿43🤔36😁25🤨23⚡22🔥20🦄4🤓2
«Сделано с ИИ»: Яндекс Практикум запускает премию для джунов и мидлов, которые используют нейросети в проектах
Яндекс Практикум открыл прием заявок на премию для специалистов с опытом до 5 лет, которые уже применяют нейросети в рабочих задачах так, чтобы они приносили измеримый результат для продукта или бизнеса.
Будет две основные номинации. В техно-продуктовой — проекты, где ИИ влияет на метрики: ускоряет процессы, снижает затраты или улучшает продукт. В креативной — кейсы с нестандартным использованием нейросетей, где они определяют формат и логику решения. Отдельно отметят участников в каждой номинации с опытом до двух лет— для них предусмотрен спецприз «Будущее за ним».
Из интересного: в Практикуме говорят, что спрос на ИИ-навыки уже хорошо виден по рынку. Например, популярность курсов по «Нейросети для…» разных задач за 2025 год выросла в 17 раз. То есть кейсы «сделано с ИИ» потенциально могут стать новой нормой рабочих процессов.
Победители получат до 500 тыс. рублей, гранты от Yandex AI Studio и другие призы.
Узнать подробнее и подать заявку
Яндекс Практикум открыл прием заявок на премию для специалистов с опытом до 5 лет, которые уже применяют нейросети в рабочих задачах так, чтобы они приносили измеримый результат для продукта или бизнеса.
Будет две основные номинации. В техно-продуктовой — проекты, где ИИ влияет на метрики: ускоряет процессы, снижает затраты или улучшает продукт. В креативной — кейсы с нестандартным использованием нейросетей, где они определяют формат и логику решения. Отдельно отметят участников в каждой номинации с опытом до двух лет— для них предусмотрен спецприз «Будущее за ним».
Из интересного: в Практикуме говорят, что спрос на ИИ-навыки уже хорошо виден по рынку. Например, популярность курсов по «Нейросети для…» разных задач за 2025 год выросла в 17 раз. То есть кейсы «сделано с ИИ» потенциально могут стать новой нормой рабочих процессов.
Победители получат до 500 тыс. рублей, гранты от Yandex AI Studio и другие призы.
Узнать подробнее и подать заявку
😁41🗿21👍11❤7
OpenMythos: известный инженер и создатель Swarms воссоздал предполагаемую архитектуру Claude Mythos и набрал уже 3.3к звезд на GitHub
https://github.com/kyegomez/OpenMythos
Дисклеймер: это именно предполагаемая архитекутра. Никаких сливов вокруг модели (вроде как) не было, а это – просто реализация гипотезы, основанной на открытых данных, статьях и мнениях авторитетных граждан соцсетей.
Автор утверждает, что модель построена на архитектуре Recurrent‑Depth Transformer (RDT) с MoE‑роутингом и адаптивным вычислением. Модель делится на три крупных блока:
1. Prelude – обычные слои трансформера, к которым мы привыкли в современных моделях. Они работают ровно один раз, обрабатывают входные данные и инициализируют скрытые состояния.
2. Recurrent Block. Вот тут уже начинается новизна. Это один и тот же блок слоев, который применяется по кругу N раз. То есть в такой модели глубина нейросети получается не за счет множества разных слоев, а за счет многократного прохождения одного блока. Надо сказать, что на каждом шаге еще учитываются LoRA‑адаптеры по глубине, так что каждый шаг цикла вычислительно уникальный, хотя базовые веса одни и те же.
3. Coda – заключительные слои, которые работают еще один раз после цикла, чтобы сформировать финальные логиты.
Это идея так называемого рекуррентного рассуждения в латентном пространстве. Мы уходим от привычного ризонинга chain‑of‑thought в токен‑пространстве к гибкому ризонингу в скрытых слоях. Если нужно думать дольше, модель не генерирует больше токенов, а наращивает количество внутренних прогонов, уточняя ответ.
Красивая гипотеза, конечно. Верить ей или нет, решать вам.
Весь код можно покрутить вот здесь. В исходной имплементации в модели всего 770M параметров, но другие разработчики уже начинают скейлить идею и проверять архитектуру на более крупных моделях. Интересно, что из этого выйдет.
https://github.com/kyegomez/OpenMythos
Дисклеймер: это именно предполагаемая архитекутра. Никаких сливов вокруг модели (вроде как) не было, а это – просто реализация гипотезы, основанной на открытых данных, статьях и мнениях авторитетных граждан соцсетей.
Автор утверждает, что модель построена на архитектуре Recurrent‑Depth Transformer (RDT) с MoE‑роутингом и адаптивным вычислением. Модель делится на три крупных блока:
1. Prelude – обычные слои трансформера, к которым мы привыкли в современных моделях. Они работают ровно один раз, обрабатывают входные данные и инициализируют скрытые состояния.
2. Recurrent Block. Вот тут уже начинается новизна. Это один и тот же блок слоев, который применяется по кругу N раз. То есть в такой модели глубина нейросети получается не за счет множества разных слоев, а за счет многократного прохождения одного блока. Надо сказать, что на каждом шаге еще учитываются LoRA‑адаптеры по глубине, так что каждый шаг цикла вычислительно уникальный, хотя базовые веса одни и те же.
3. Coda – заключительные слои, которые работают еще один раз после цикла, чтобы сформировать финальные логиты.
Это идея так называемого рекуррентного рассуждения в латентном пространстве. Мы уходим от привычного ризонинга chain‑of‑thought в токен‑пространстве к гибкому ризонингу в скрытых слоях. Если нужно думать дольше, модель не генерирует больше токенов, а наращивает количество внутренних прогонов, уточняя ответ.
Красивая гипотеза, конечно. Верить ей или нет, решать вам.
Весь код можно покрутить вот здесь. В исходной имплементации в модели всего 770M параметров, но другие разработчики уже начинают скейлить идею и проверять архитектуру на более крупных моделях. Интересно, что из этого выйдет.
1❤134👍57 25😁12🤔12🔥10🫡3💘3🤯1
О, стало известно, кто станет следующим CEO Apple
Apple официально объявила, что Тим Кук уйдет с поста CEO, а его преемником станет Джон Тернус, нынешний руководитель аппаратной инженерии компании. Переход должен состояться 1 сентября 2026 года, после чего Кук станет исполнительным председателем совета директоров.
Кук сказал, что Тернус «имеет ум инженера, душу новатора и сердце лидера», и назвал его правильным человеком для будущего компании.
Аналитики видят в Тернусе лидера, который сможет перезапустить стратегию ИИ. Ожидается, что его назначение привнесет большие изменения в этой области.
Пожелаем ему удачи наверстать все упущенное Apple за последние годы☕️
Apple официально объявила, что Тим Кук уйдет с поста CEO, а его преемником станет Джон Тернус, нынешний руководитель аппаратной инженерии компании. Переход должен состояться 1 сентября 2026 года, после чего Кук станет исполнительным председателем совета директоров.
Кук сказал, что Тернус «имеет ум инженера, душу новатора и сердце лидера», и назвал его правильным человеком для будущего компании.
Аналитики видят в Тернусе лидера, который сможет перезапустить стратегию ИИ. Ожидается, что его назначение привнесет большие изменения в этой области.
Пожелаем ему удачи наверстать все упущенное Apple за последние годы
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤149 59🔥16🫡11😁6👍4❤🔥2👌1
В ChatGPT начинают раскатывать новую модель GPT Image-2
Первые генерации от пользователей выглядят невероятно. Модель отлично справляется с текстом, сложными инструкциями и инфографикой.
Ждем официальный анонс, а пока можно тестить в своем аккаунте: возможно, вам повезло, и новая модель вам уже доступна
Первые генерации от пользователей выглядят невероятно. Модель отлично справляется с текстом, сложными инструкциями и инфографикой.
Ждем официальный анонс, а пока можно тестить в своем аккаунте: возможно, вам повезло, и новая модель вам уже доступна
❤152🔥63👍22🤯9 9😁3🤔2😎1
This media is not supported in your browser
VIEW IN TELEGRAM
Как быстро делать выжимку по любому материалу
Если ведете блог или просто регулярно пишете тексты, большая часть времени всегда уходит на разбор источников и сборку мыслей в нормальный текст.
В Яндекс Браузере это можно сильно упростить: включаете сплитвью – и у вас статья с одной стороны, а Алиса AI с другой. Ничего копировать не нужно: она уже видит материал и помогает быстро собрать полезную выжимку и сделать черновой набросок. Дальше остается доработать текст в своем стиле.
В итоге нейросеть забирает на себя рутину, а вы быстрее приходите к финальному результату.
Показываем, как воспользоваться ↑
Если ведете блог или просто регулярно пишете тексты, большая часть времени всегда уходит на разбор источников и сборку мыслей в нормальный текст.
В Яндекс Браузере это можно сильно упростить: включаете сплитвью – и у вас статья с одной стороны, а Алиса AI с другой. Ничего копировать не нужно: она уже видит материал и помогает быстро собрать полезную выжимку и сделать черновой набросок. Дальше остается доработать текст в своем стиле.
В итоге нейросеть забирает на себя рутину, а вы быстрее приходите к финальному результату.
Показываем, как воспользоваться ↑
🗿210🤨39👍22😁21❤11 10🤔2🤯2🕊2😍2⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
SakanaAI доказали, что LLM не умеют быть случайными и предложили один промпт, чтобы заставлять модели быть более креативными
Современные LLM хорошо решают задачи, где есть один правильный ответ, но заметно хуже справляются с ситуациями, где нужно выбирать между несколькими допустимыми вариантами с заданными вероятностями (исследователи вводят для такого термин Probabilistic Instruction Following).
Например, подбрасывание монетки. Если сто раз попросить модель "подбросить монетку", то, по идее, распределение должно быть близко к 50/50, но на практике оно перекошено.
Возникает логичный вопрос: ну и что?
Так вот, такое поведение возникает не только в игрушечных симуляциях. В открытых задачах (вроде придумать название, написать поздравление, нагенерить идеи и тд) LLM тоже страдают от схлопывания разнообразия, и при многократных запусках крутятся вокруг очень похожих решений.
Это мешает и обычному креативному использованию, и test-time scaling, где хочется получить много разных кандидатов, а потом выбрать лучший. Объясняется это просто: LLM не обладают внутренним источником независимой случайности и потому при стохастическом выборе следуют выученным во время обучения вероятностным смещениям, а не заданному распределению.
Как это исправить?
Раз внутреннего источника случайности у моделей нет, японцы предлагают его добавить. Сама идея простая: вместо наивного промпта вроде «сгенерируй случайное число» модель сначала заставляют генерировать случайную строку и потом использовать ее, чтобы выбрать или сформировать ответ. То есть примерно вот так:
Это называется String Seed of Thought.
Если модель сразу выбирает ответ, на нее влияют обученные смещения, но при генерации случайной строки они почти не проявляются. Затем модель преобразует строку в решение через простые вычисления (например, mod или хеш), фактически реализуя псевдослучайный выбор. Грубо говоря, метод работает, переводя задачу из семантической в вычислительную.
На бенчмарках SSoT резко снижает отклонение от заданного распределения и часто приближается к уровню настоящего псевдослучайного генератора. Он стабильно обходит подкруты температуры и другие трюки на разных моделях и задачах. В открытых задачах креативность также растет, и при том без потери качества.
Пользуйтесь, в общем. Блог и статья вот: https://pub.sakana.ai/ssot/
Современные LLM хорошо решают задачи, где есть один правильный ответ, но заметно хуже справляются с ситуациями, где нужно выбирать между несколькими допустимыми вариантами с заданными вероятностями (исследователи вводят для такого термин Probabilistic Instruction Following).
Например, подбрасывание монетки. Если сто раз попросить модель "подбросить монетку", то, по идее, распределение должно быть близко к 50/50, но на практике оно перекошено.
Возникает логичный вопрос: ну и что?
Так вот, такое поведение возникает не только в игрушечных симуляциях. В открытых задачах (вроде придумать название, написать поздравление, нагенерить идеи и тд) LLM тоже страдают от схлопывания разнообразия, и при многократных запусках крутятся вокруг очень похожих решений.
Это мешает и обычному креативному использованию, и test-time scaling, где хочется получить много разных кандидатов, а потом выбрать лучший. Объясняется это просто: LLM не обладают внутренним источником независимой случайности и потому при стохастическом выборе следуют выученным во время обучения вероятностным смещениям, а не заданному распределению.
Как это исправить?
Раз внутреннего источника случайности у моделей нет, японцы предлагают его добавить. Сама идея простая: вместо наивного промпта вроде «сгенерируй случайное число» модель сначала заставляют генерировать случайную строку и потом использовать ее, чтобы выбрать или сформировать ответ. То есть примерно вот так:
Сначала сгенерируй уникальную случайную строку (любой длины, без очевидной структуры). Затем используй ее как источник случайности, чтобы создать разнообразный, небанальный и качественный ответ на задачу.
Это называется String Seed of Thought.
Если модель сразу выбирает ответ, на нее влияют обученные смещения, но при генерации случайной строки они почти не проявляются. Затем модель преобразует строку в решение через простые вычисления (например, mod или хеш), фактически реализуя псевдослучайный выбор. Грубо говоря, метод работает, переводя задачу из семантической в вычислительную.
На бенчмарках SSoT резко снижает отклонение от заданного распределения и часто приближается к уровню настоящего псевдослучайного генератора. Он стабильно обходит подкруты температуры и другие трюки на разных моделях и задачах. В открытых задачах креативность также растет, и при том без потери качества.
Пользуйтесь, в общем. Блог и статья вот: https://pub.sakana.ai/ssot/
1❤221👍79🤔29🔥15🤯13😁3
❗ Большие языковые модели уже везде. Но для большинства специалистов они остаются чем-то непонятным: запросы работают нестабильно, ответы непредсказуемы, а внедрение в задачи вызывает вопросы.
🦾 На открытом уроке разберём, как эффективно работать с LLM. Вы узнаете, как строить запросы, как усиливать модели с помощью LoRa и как подключать внешние данные через RAG.
Покажем не обзор, а 🚀 прикладной подход: где это используется, как это реализуется и какие ошибки чаще всего допускают. Это база, без которой сложно двигаться в направлении NLP и современных языковых моделей.
➡ Встречаемся 6 мая в 18:00 МСК в преддверии старта курса «Языковые трансформенные модели / NLP». Зарегистрируйтесь и разберитесь, как превратить модели в рабочий инструмент: https://otus.pw/32iP/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
🦾 На открытом уроке разберём, как эффективно работать с LLM. Вы узнаете, как строить запросы, как усиливать модели с помощью LoRa и как подключать внешние данные через RAG.
Покажем не обзор, а 🚀 прикладной подход: где это используется, как это реализуется и какие ошибки чаще всего допускают. Это база, без которой сложно двигаться в направлении NLP и современных языковых моделей.
➡ Встречаемся 6 мая в 18:00 МСК в преддверии старта курса «Языковые трансформенные модели / NLP». Зарегистрируйтесь и разберитесь, как превратить модели в рабочий инструмент: https://otus.pw/32iP/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
😎98 52❤18😁9🔥7🤔5👍3
4 случайных парня получили доступ к Claude Mythos, просто угадав URL
Bloomberg пишет, что это была некая небольшая группа неавторизованных пользователей из частного Discord-канала, созданного для поиска неанонсированных ИИ-моделей.
Ребята проанализировали правила именования API Anthropic по недавней утечке стартапа Mercor и просто угадали эндпоинт Mythos. Один из них также достал легитимную учетную запись конторы подрядчика, и они получили доступ к модели без какого-либо взлома.
Доступ был получен в тот же день, когда Anthropic объявила о запуске Project Glasswing, то есть счастливчики беспрепятственно использовали Mythos на протяжении двух недель. Пишут, правда, что ничего сверхъестественного они с ней не делали, просто тихо вайбкодили.
Anthropic: «Ой, наша новая модель настолько опасная, что доступ к ней будет только у 40 компаний во всем мире»😱
Также безопасность Anthropic:
Bloomberg пишет, что это была некая небольшая группа неавторизованных пользователей из частного Discord-канала, созданного для поиска неанонсированных ИИ-моделей.
Ребята проанализировали правила именования API Anthropic по недавней утечке стартапа Mercor и просто угадали эндпоинт Mythos. Один из них также достал легитимную учетную запись конторы подрядчика, и они получили доступ к модели без какого-либо взлома.
Доступ был получен в тот же день, когда Anthropic объявила о запуске Project Glasswing, то есть счастливчики беспрепятственно использовали Mythos на протяжении двух недель. Пишут, правда, что ничего сверхъестественного они с ней не делали, просто тихо вайбкодили.
Anthropic: «Ой, наша новая модель настолько опасная, что доступ к ней будет только у 40 компаний во всем мире»
Также безопасность Anthropic:
Please open Telegram to view this post
VIEW IN TELEGRAM
😁652❤53🔥34👍10 8🤯4👨💻4
Google выпустили новое поколение TPU
Они анонсировали TPU 8t и TPU 8i. Один чип под обучение, другой – под инференс и ризонинг.
Фактически, компания уходит от универсальных ускорителей и переходит к идее специфичного проектирования чипов под узкие места и задачи (это уже абсолютно другая стратегия в сравнении с Nvidia, которые берут как раз универсальностью). Это и есть ключевой момент релиза.
Итак, TPU 8t – это для обучения. Их может быть до 9 600 в одном кластере, и упор сделан на скорость обучения и масштабирование. Интересно, что есть отдельные блоки, спроектированные под ускорение специфичных операций, например для рексис.
TPU 8i – для работы моделей в проде. Тут у нас больше памяти, быстрее обмен данными между чипами и отдельные механизмы для синхронизации.
Относительно прошлого поколения заявляется до 2,7 раза лучше соотношение цена/производительность при обучении и до 80% (!) прироста эффективности на инференсе.
Оба чипа пока в статусе coming soon
https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/eighth-generation-tpu-agentic-era/
Они анонсировали TPU 8t и TPU 8i. Один чип под обучение, другой – под инференс и ризонинг.
Фактически, компания уходит от универсальных ускорителей и переходит к идее специфичного проектирования чипов под узкие места и задачи (это уже абсолютно другая стратегия в сравнении с Nvidia, которые берут как раз универсальностью). Это и есть ключевой момент релиза.
Итак, TPU 8t – это для обучения. Их может быть до 9 600 в одном кластере, и упор сделан на скорость обучения и масштабирование. Интересно, что есть отдельные блоки, спроектированные под ускорение специфичных операций, например для рексис.
TPU 8i – для работы моделей в проде. Тут у нас больше памяти, быстрее обмен данными между чипами и отдельные механизмы для синхронизации.
Относительно прошлого поколения заявляется до 2,7 раза лучше соотношение цена/производительность при обучении и до 80% (!) прироста эффективности на инференсе.
Оба чипа пока в статусе coming soon
https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/eighth-generation-tpu-agentic-era/
1🤗92🔥67❤23 13 9👍8❤🔥1👾1
Media is too big
VIEW IN TELEGRAM
Стартап Odyssey релизнул новую world model Odyssey-2 Max
Создатели называют ее SOTA в симуляции физики мира. Относительно прошлой версии метрика на VBench physics скакнула с 49.7 до 58.5. А еще это самая большая модель стартапа.
Под капотом авторегрессионная модель (как LLM, только предсказывает не следующий токен, а следующее состояние).
Собственно, этим Odyssey и отличается от обычных генераторов видео типа SORA: авторегрессия генерирует видео не целиком заранее, а в реальном времени, последовательно и причинно + может реагировать на действия пользователя онлайн.
Поэтому на примерах сильно не обращайте внимание на фотореалистичность. Тут дело именно в симуляции физики, динамики мира и управляемости. Короче, это игровой движок на минималках.
odyssey.ml/introducing-odyssey-2-max
Создатели называют ее SOTA в симуляции физики мира. Относительно прошлой версии метрика на VBench physics скакнула с 49.7 до 58.5. А еще это самая большая модель стартапа.
Под капотом авторегрессионная модель (как LLM, только предсказывает не следующий токен, а следующее состояние).
Собственно, этим Odyssey и отличается от обычных генераторов видео типа SORA: авторегрессия генерирует видео не целиком заранее, а в реальном времени, последовательно и причинно + может реагировать на действия пользователя онлайн.
Поэтому на примерах сильно не обращайте внимание на фотореалистичность. Тут дело именно в симуляции физики, динамики мира и управляемости. Короче, это игровой движок на минималках.
Мы рассматриваем Odyssey-2 Max как форму предобученного физического интеллекта – что-то вроде человека, который много лет наблюдал за миром и взаимодействовал с ним, но еще только учится водить машину.
Или, если проводить аналогию с языковыми моделями, это уровень GPT-2, прямо перед переходом к ChatGPT.
odyssey.ml/introducing-odyssey-2-max
2❤62🔥32👍14🤔4😎3
Media is too big
VIEW IN TELEGRAM
ИИ-кавер «Седой ночи» принес около 10 миллионов рублей. Но… не Канье Уэсту, и даже не своему создателю
Вы точно видели это сгенерированное видео с Канье Уэстом, исполняющим Седую Ночь.
Короче, оказалось, что за этим, с позволения сказать, треком, кроется настоящий скандал.
Создателем трека стал парень из Ижевска, известный под псевдонимом Август Септемберов. Он уже некоторое время занимается ИИ-каверами (может быть, вы также слышали его известное творение: «Моя игра» в исполнении Эминема).
Ничего не подозревая, он выложил на просторы Интернета очередную композицию, а она вдруг завирусилась и заняла первую строчку в Shazam.
Вот только Август не участвовал в выпуске трека на площадках. Его выложил туда без разрешения Андрей Разин, директор студии «Ласковый Май». Он заявляет себя как первообладателя, продвигает трек как свой, и, по некоторым оценкам, уже заработал на нем около 10 миллионов.
А автор не получил ничего. Источники сообщают, что когда он написал Разину с просьбой разделить прибыль, тот его просто заблокировал.
Кстати, сейчас Разин в розыске за мошенничество. Он украл не толко кавер на Седую Ночь, но и оригинальные песни Ласкового Мая. По версии следствия, Разин использовал поддельный договор с Сергеем Кузнецовым, чтобы получать доход от песен группы, не имея на то законных прав.
Вопрос на засыпку, чьи права защищать: создателя трека, Канье Уэста или нейросети, которая все сгенерировала?❓
Вы точно видели это сгенерированное видео с Канье Уэстом, исполняющим Седую Ночь.
Короче, оказалось, что за этим, с позволения сказать, треком, кроется настоящий скандал.
Создателем трека стал парень из Ижевска, известный под псевдонимом Август Септемберов. Он уже некоторое время занимается ИИ-каверами (может быть, вы также слышали его известное творение: «Моя игра» в исполнении Эминема).
Ничего не подозревая, он выложил на просторы Интернета очередную композицию, а она вдруг завирусилась и заняла первую строчку в Shazam.
Вот только Август не участвовал в выпуске трека на площадках. Его выложил туда без разрешения Андрей Разин, директор студии «Ласковый Май». Он заявляет себя как первообладателя, продвигает трек как свой, и, по некоторым оценкам, уже заработал на нем около 10 миллионов.
А автор не получил ничего. Источники сообщают, что когда он написал Разину с просьбой разделить прибыль, тот его просто заблокировал.
Кстати, сейчас Разин в розыске за мошенничество. Он украл не толко кавер на Седую Ночь, но и оригинальные песни Ласкового Мая. По версии следствия, Разин использовал поддельный договор с Сергеем Кузнецовым, чтобы получать доход от песен группы, не имея на то законных прав.
Вопрос на засыпку, чьи права защищать: создателя трека, Канье Уэста или нейросети, которая все сгенерировала?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁251🤯88❤18👍10 8 8🗿6🤔2