Появился саммаризатор YouTube-роликов — кривой, косой, выдающий результаты с фактическими ошибками
Нашли его, как обычно в таких случаях, ребята из Бэкдора. Попутно рассказав про чудодейственные фичи, РАЗУМЕЕТСЯ ВЫДЕЛИВ ГЛАВНОЕ КАПСОМ, как иначе подписчики поймут, что умеет делать расшифровщик видео 😁
Коту, конечно, захотелось опробовать этот волшебный сервис — тем более, что в жизни он мне реально мог бы помочь... Если бы работал так, как РАССКАЗАЛИ эти "коллеги". Но, увы, когда я залил в mylens.ai ссылку на отрывок из любимого подкаста про уход из OpenAI Миры Мурати, моделька сначала мне выдала хронологию от октября'23 (Мира сделала анонс в сентябре'24), а затем выплыли ключевые мысли в виде древа с набором поверхностных шаблонов.
В общем, лучше потратить 16 минут на просмотр самого ролика, чем доверять таким платформам. Но мб это кот криволапый, и вы знаете, как извлечь из этой фичи что-то ценное?
Нашли его, как обычно в таких случаях, ребята из Бэкдора. Попутно рассказав про чудодейственные фичи, РАЗУМЕЕТСЯ ВЫДЕЛИВ ГЛАВНОЕ КАПСОМ, как иначе подписчики поймут, что умеет делать расшифровщик видео 😁
Коту, конечно, захотелось опробовать этот волшебный сервис — тем более, что в жизни он мне реально мог бы помочь... Если бы работал так, как РАССКАЗАЛИ эти "коллеги". Но, увы, когда я залил в mylens.ai ссылку на отрывок из любимого подкаста про уход из OpenAI Миры Мурати, моделька сначала мне выдала хронологию от октября'23 (Мира сделала анонс в сентябре'24), а затем выплыли ключевые мысли в виде древа с набором поверхностных шаблонов.
В общем, лучше потратить 16 минут на просмотр самого ролика, чем доверять таким платформам. Но мб это кот криволапый, и вы знаете, как извлечь из этой фичи что-то ценное?
👍8😁4❤1
Raspberry Pi и Sony представили ИИ-камеру за $70
Raspberry Pi совместно с Sony анонсировали новый модуль ИИ-камеры, который стоит всего $70 и совместим со всеми версиями микрокомпьютеров Raspberry Pi. Это значительный шаг вперёд для разработчиков, желающих внедрить ИИ в свои проекты без необходимости в дополнительных компонентах, таких как графические процессоры.
Камера предлагает разрешение 12.3 мегапикселя и способна снимать видео со скоростью 10 кадров в секунду при полном разрешении или 40 кадров в секунду при пониженном разрешении. Компактные размеры и возможность ручной регулировки фокуса делают её удобным инструментом для множества приложений.
Что это значит для обычных пользователей? У вас теперь есть возможность создать свою собственную "умную" камеру с ИИ-функциями. Зачем? Чтобы, например, следить за котом, который решает, куда ему отправиться на следующую охоту. Или записывать, как ваш сосед непонятно как пытается собрать свою новую IKEA-этажерку.
Это также открывает двери для более серьёзных применений, таких как автоматизация анализа видео или даже создание интерактивных проектов, где ИИ может распознавать объекты и реагировать на них.
Вопрос лишь в том, насколько серьезно вы хотите использовать эти технологии и готовы ли вы к "умному" коту на экране.
Raspberry Pi совместно с Sony анонсировали новый модуль ИИ-камеры, который стоит всего $70 и совместим со всеми версиями микрокомпьютеров Raspberry Pi. Это значительный шаг вперёд для разработчиков, желающих внедрить ИИ в свои проекты без необходимости в дополнительных компонентах, таких как графические процессоры.
Камера предлагает разрешение 12.3 мегапикселя и способна снимать видео со скоростью 10 кадров в секунду при полном разрешении или 40 кадров в секунду при пониженном разрешении. Компактные размеры и возможность ручной регулировки фокуса делают её удобным инструментом для множества приложений.
Что это значит для обычных пользователей? У вас теперь есть возможность создать свою собственную "умную" камеру с ИИ-функциями. Зачем? Чтобы, например, следить за котом, который решает, куда ему отправиться на следующую охоту. Или записывать, как ваш сосед непонятно как пытается собрать свою новую IKEA-этажерку.
Это также открывает двери для более серьёзных применений, таких как автоматизация анализа видео или даже создание интерактивных проектов, где ИИ может распознавать объекты и реагировать на них.
Вопрос лишь в том, насколько серьезно вы хотите использовать эти технологии и готовы ли вы к "умному" коту на экране.
😁4🔥1🤔1
Reddit делает протесты почти невозможными: теперь всё под контролем
Reddit решил усилить контроль над своими сообществами и ввёл новые правила, которые делают протесты против компании практически невозможными. С недавнего времени модераторы не могут самостоятельно изменять настройки своих сабреддитов, а для того, чтобы сделать сообщество приватным или изменить его тип, им нужно получить одобрение от администрации.
Эти изменения были вызваны прошлогодними протестами, когда тысячи сабреддитов стали приватными в знак несогласия с новыми ценами на API. Теперь, чтобы обойти такую форму протеста, Reddit ограничил возможность модераторов моментально закрывать свои сообщества.
И вот ироничная деталь: в то время как Reddit говорит о том, что хочет защищать сообщества и их долгосрочное здоровье, остаётся вопрос: действительно ли это так? Или мы просто становимся свидетелями превращения Reddit в ещё один контролируемый медиаплатформенный гигант, где протесты не имеют смысла?
Reddit решил усилить контроль над своими сообществами и ввёл новые правила, которые делают протесты против компании практически невозможными. С недавнего времени модераторы не могут самостоятельно изменять настройки своих сабреддитов, а для того, чтобы сделать сообщество приватным или изменить его тип, им нужно получить одобрение от администрации.
Эти изменения были вызваны прошлогодними протестами, когда тысячи сабреддитов стали приватными в знак несогласия с новыми ценами на API. Теперь, чтобы обойти такую форму протеста, Reddit ограничил возможность модераторов моментально закрывать свои сообщества.
И вот ироничная деталь: в то время как Reddit говорит о том, что хочет защищать сообщества и их долгосрочное здоровье, остаётся вопрос: действительно ли это так? Или мы просто становимся свидетелями превращения Reddit в ещё один контролируемый медиаплатформенный гигант, где протесты не имеют смысла?
🤬16😁4👍1🌭1
Media is too big
VIEW IN TELEGRAM
Так тупо, что даже смешно — к заводчанину Виталию войс версия ChatGPT уже начинает галлюцинировать, пародируя и две предыдущие личности тоже.
🤮3👎1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Pika 1.5 — просто бомба для генерации видео!
Особенно, если у вас есть фото, на основе которого моделька "выдумывает" видео. Pika Lab очень качественно выпустили следующую версию своего главного продукта — и бесплатно можно попробовать, и физике даже какой-то реалистичной ИИ обучили на тоннах датасетов, и эффекты подвезли вроде "Лопнуть", "Раздавить", "Расплавить", "Раздавить", "Взорвать".
Единственное, если хочешь побыстрее — плати! Но если вы только посмотреть да поиграться, то уж подождёте 😁
Особенно, если у вас есть фото, на основе которого моделька "выдумывает" видео. Pika Lab очень качественно выпустили следующую версию своего главного продукта — и бесплатно можно попробовать, и физике даже какой-то реалистичной ИИ обучили на тоннах датасетов, и эффекты подвезли вроде "Лопнуть", "Раздавить", "Расплавить", "Раздавить", "Взорвать".
Единственное, если хочешь побыстрее — плати! Но если вы только посмотреть да поиграться, то уж подождёте 😁
👍3
Media is too big
VIEW IN TELEGRAM
Почему даже Эйнштейн двигается у этих новых генераторах видео как Альф? Неужели их обучали исключительно на датасете, состоящем лишь из нарезок легендарного шоу про инопланетянина?
🤮9😁5🤷♂1👍1
Media is too big
VIEW IN TELEGRAM
Студенты показали, как легко можно использовать ИИ для «доксинга» в реальном времени
Два студента Гарварда разработали тревожный демонстрационный проект, который показывает, как с помощью умных очков можно в реальном времени выявлять людей и собирать о них личную информацию. Используя очки Meta* и технологию распознавания лиц, они продемонстрировали, как можно мгновенно находить имена, адреса и даже номера телефонов прохожих.
Демонстрация, известная как I-XRAY, работает следующим образом: очки транслируют видео в Instagram*, а специальная программа обрабатывает эти данные, распознавая лица и сопоставляя их с общедоступными базами данных. Это выглядит устрашающе, особенно когда студенты, использующие эту технологию, «знакомятся» с незнакомцами в общественном транспорте, ссылаясь на информацию, полученную от ИИ.
Конечно, сами разработчики уверяют, что их цель — не злоупотреблять этой технологией, а поднять осведомлённость о том, что подобные вещи уже возможны. Это ставит под сомнение не только нашу безопасность, но и представление о приватности в современном мире.
Для чего будем юзать такую фичу, подписчики?
*Принадлежит Meta — признана экстремистской организацией и запрещена в РФ
Два студента Гарварда разработали тревожный демонстрационный проект, который показывает, как с помощью умных очков можно в реальном времени выявлять людей и собирать о них личную информацию. Используя очки Meta* и технологию распознавания лиц, они продемонстрировали, как можно мгновенно находить имена, адреса и даже номера телефонов прохожих.
Демонстрация, известная как I-XRAY, работает следующим образом: очки транслируют видео в Instagram*, а специальная программа обрабатывает эти данные, распознавая лица и сопоставляя их с общедоступными базами данных. Это выглядит устрашающе, особенно когда студенты, использующие эту технологию, «знакомятся» с незнакомцами в общественном транспорте, ссылаясь на информацию, полученную от ИИ.
Конечно, сами разработчики уверяют, что их цель — не злоупотреблять этой технологией, а поднять осведомлённость о том, что подобные вещи уже возможны. Это ставит под сомнение не только нашу безопасность, но и представление о приватности в современном мире.
Для чего будем юзать такую фичу, подписчики?
*Принадлежит Meta — признана экстремистской организацией и запрещена в РФ
😁6👍2😱1🤡1
Могу только подтвердить, увы, мой основной аккаунт больше не работает, например. Никаких комментариев внятных пока не появилось, у кого та же проблема? 👍🏻/👎🏻
👎13
Forwarded from Бэкдор
Это не байт и не преувеличение — перед вами самый важный для вас пост прямо сейчас. Изучите внимательно каждый пункт: если вас забанят — вам уже никто не поможет.
Что происходит:
• Ютуб без предупреждения отрубает вообще ВСЕ ВИДЕО на конкретном аккаунте.
• При попытке запустить любой видос появляется заглушка «контент недоступен».
• Видео блокируются ВООБЩЕ НА ВСЕХ УСТРОЙСТВАХ — видосы не запускаются с телефонов, планшетов, компов и даже умных телевизоров.
• Официально Ютуб никак не сообщает об ограничениях — на деле это ТЕНЕВОЙ БАН всего Гугл-аккаунта.
Мы с этим тоже столкнулись — в нашей редакции бан на аккаунт прилетел после просмотра видосов с VPN из США.
Проблема
• Волна банов началась с августа — профильный дискорд поддержки Ютуба завален сотнями криков о помощи.
• Возможно, Гугл устал от рекламы, которая уходит нерелевантной аудитории, и прикрывает все лазейки.
• Никто со стопроцентной уверенность не скажет вам, в чём проблема.
• ВАЖНО: мы отловили основные паттеры бана — VPN, прокси или блокировщики рекламы.
• Разбана ждать не стоит — волонтёры поддержки прямо так и пишут.
Ещё раз: если вы словите бан — вам уже ничего не поможет. НЕ ПОМОЖЕТ VPN, перезаход, режим инкогнито, почистить куки и кэш Гугла — это точечный теневой бан аккаунта.
• Решения проблемы НЕТ — у кого-то банят уже третий аккаунт, а Гугл только кормит отмазками.
• Теперь, когда нельзя создать новый акк Гугла на российской симке — вы можете лишиться аккаунта Ютуба НАВСЕГДА.
Что делать:
• Прямо сейчас Ютуб из России лучше смотреть с запасных аккаунтов.
• На свой страх и риск можете попробовать средства обхода — выберите одну страну, не переключайте сервера и избегайте стран с дорогой рекламой.
Распространяем — ваша безопасность в ваших руках.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👎17👍6🤮5❤4🤔3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT с Canvas — реальная тема... Но в Notion она, например, существует с самого запуска AI
Если коротко, то с помощью "холстов" вы можете в режиме реального времени выбрать, что моделька должна поправить, добавить, убавить и тд. До этого с GPT-4o работало только цитирование, а у o1-preview вообще пока нет ни возможности прикрепить файлы, ни Canvas.
Блогпост OpenAI про эту фичу, конечно, есть (тык!), но никаких откровений вы там не найдёте. Лучше пробуйте сами, выбрав в списке моделей при старте нового чата GPT-4o with canvas.
Если коротко, то с помощью "холстов" вы можете в режиме реального времени выбрать, что моделька должна поправить, добавить, убавить и тд. До этого с GPT-4o работало только цитирование, а у o1-preview вообще пока нет ни возможности прикрепить файлы, ни Canvas.
Блогпост OpenAI про эту фичу, конечно, есть (тык!), но никаких откровений вы там не найдёте. Лучше пробуйте сами, выбрав в списке моделей при старте нового чата GPT-4o with canvas.
This media is not supported in your browser
VIEW IN TELEGRAM
Meta* представила Movie Gen — фулхаус генератор видео по тексту
По ощущениям, новые text-2-video модели нынче выходят каждый день
Meta наконец-то представила свой новый набор моделей под названием Movie Gen, который позволяет генерировать короткие видео со звуком всего за 16 секунд. И это не просто графика — в играх ИИ может создавать «персонализированные» ролики на основе ваших фотографий и текстовых запросов.
Вот что умеет новый инструмент:
- Генерация видео длиной до 16 секунд с частотой 16 кадров в секунду. Для 10-секундных видео частота может достигать 24 кадров в секунду.
- Возможность редактировать уже сгенерированные ролики, включая замену фона и изменение цветов объектов. То есть, если захотите, можно вставить себя на пляж вместо офиса.
- Создание фоновой аудиодорожки, которая синхронизируется с видео. Например, вы можете добавить звуки джунглей или шум квадроцикла, создавая атмосферу.
Пока Movie Gen находится на стадии разработки и доступ к нему будет ограничен, компания надеется получить обратную связь от «режиссёров» и «авторов». Звучит многообещающе, но пока нет возможности озвучивать видео человеческой речью.
Попробовать можно здесь: тык!
По ощущениям, новые text-2-video модели нынче выходят каждый день
Meta наконец-то представила свой новый набор моделей под названием Movie Gen, который позволяет генерировать короткие видео со звуком всего за 16 секунд. И это не просто графика — в играх ИИ может создавать «персонализированные» ролики на основе ваших фотографий и текстовых запросов.
Вот что умеет новый инструмент:
- Генерация видео длиной до 16 секунд с частотой 16 кадров в секунду. Для 10-секундных видео частота может достигать 24 кадров в секунду.
- Возможность редактировать уже сгенерированные ролики, включая замену фона и изменение цветов объектов. То есть, если захотите, можно вставить себя на пляж вместо офиса.
- Создание фоновой аудиодорожки, которая синхронизируется с видео. Например, вы можете добавить звуки джунглей или шум квадроцикла, создавая атмосферу.
Пока Movie Gen находится на стадии разработки и доступ к нему будет ограничен, компания надеется получить обратную связь от «режиссёров» и «авторов». Звучит многообещающе, но пока нет возможности озвучивать видео человеческой речью.
Попробовать можно здесь: тык!
👍3❤1
Подход к интеграции новых фич для продукта такого масштаба (около лярда юзеров!) — действительно, эксцентричный. Но разве внутренний видеоплеер это не ещё один шаг в сторону от развитых/денежных рынков, где его будут под лупой рассматривать как инструмент для распространения пиратства и проч.? 👍🏻/👎🏻
👍4🤔2🤮2
Forwarded from Про tech и этих
Telegram объявил очередной конкурс на разработку новых фич (сервис это делает регулярно). На сей раз речь идет о разработке нового встроенного видеоплеера под iOS с нуля, взамен существующего. Это все еще не совсем аналог YouTube (как и ничто другое не аналог YouTube, будем честны). По факту, это шаг к тому, чтобы воспроизводить видеоконтент внутри приложения, не переходя на внешние ресурсы.
Перед разработчиками поставлена задача разработать видеоплеер с возможностью переключения качества видео в зависимости от скорости сетевого соединения. Приз за лучшее решение - $50 000.
Вообще это довольно крутой инструмент развития и формирования комьюнити: есть крутое решение - платишь, нет решения - не платишь, при этом можешь выбрать действительно качественный продукт, а не то, что сдюжат штатные на зарплате. Поэтому Telegram может спокойно держать в штате 80 человек и быстро запускать новые продукты.
Нашим компаниям присмотреться бы к идее.
Перед разработчиками поставлена задача разработать видеоплеер с возможностью переключения качества видео в зависимости от скорости сетевого соединения. Приз за лучшее решение - $50 000.
Вообще это довольно крутой инструмент развития и формирования комьюнити: есть крутое решение - платишь, нет решения - не платишь, при этом можешь выбрать действительно качественный продукт, а не то, что сдюжат штатные на зарплате. Поэтому Telegram может спокойно держать в штате 80 человек и быстро запускать новые продукты.
Нашим компаниям присмотреться бы к идее.
Telegram
Telegram Contests
🏆 Telegram iOS Contest 2024
Prize fund: $50,000
Deadline: 23:59 on October 25th (Dubai time)
Who can participate: Everyone
Results: November 2024
Telegram is hosting a contest for iOS developers to build a media player from scratch.
The Task:
Implement…
Prize fund: $50,000
Deadline: 23:59 on October 25th (Dubai time)
Who can participate: Everyone
Results: November 2024
Telegram is hosting a contest for iOS developers to build a media player from scratch.
The Task:
Implement…
👍12😁2👎1🤮1
Двоичный кот на связи, и принёс для вас полезный ивент!
10 октября состоится митап от МКБ, который может быть интересен тем, кто хочет разобраться в современных технологиях. Тема мероприятия — «DevOps, Инфобез и AI: когда технологии работают, а вы развиваетесь».
Вот что планируется обсудить:
- DevOps: полезные практики и инструменты, которые облегчают жизнь разработчиков.
- AI: влияние искусственного интеллекта на бизнес и как он помогает достигать целей быстрее.
- Инфобез: риски безопасности и то, как ИИ может обходить их и предотвращать.
Мероприятие пройдет в онлайн и офлайн формате, так что можно выбрать удобный способ участия. После основной части запланирована неформальная часть, где можно будет пообщаться и обменяться мнениями.
Когда: 10 октября, сбор в 10:00
Регистрация: здесь
Если вас интересует развитие в ИТ, возможно, стоит обратить внимание на это событие.
10 октября состоится митап от МКБ, который может быть интересен тем, кто хочет разобраться в современных технологиях. Тема мероприятия — «DevOps, Инфобез и AI: когда технологии работают, а вы развиваетесь».
Вот что планируется обсудить:
- DevOps: полезные практики и инструменты, которые облегчают жизнь разработчиков.
- AI: влияние искусственного интеллекта на бизнес и как он помогает достигать целей быстрее.
- Инфобез: риски безопасности и то, как ИИ может обходить их и предотвращать.
Мероприятие пройдет в онлайн и офлайн формате, так что можно выбрать удобный способ участия. После основной части запланирована неформальная часть, где можно будет пообщаться и обменяться мнениями.
Когда: 10 октября, сбор в 10:00
Регистрация: здесь
Если вас интересует развитие в ИТ, возможно, стоит обратить внимание на это событие.
👍3❤2🔥2
А помните ли, когда ИИ-арт считался просто развлечением?
ИИ-арт привёл к настоящему правовому хаосу. Jason Allen, автор скандального произведения "Théâtre D'opéra Spatial", созданного с помощью Midjourney, столкнулся с отказом в регистрации авторских прав от Бюро авторских прав США. Причина? Картину, как они считают, создал ИИ, а не человек.
Allen, недовольный решением, подал апелляцию, утверждая, что в его работе больше человеческого творчества, чем это показалось бюро. Он потратил более 100 часов на создание и доработку своих текстовых подсказок, чтобы получить желаемый результат, но бюро, похоже, не считает этого достаточным для защиты авторских прав.
Это ставит под сомнение, кто на самом деле владеет правами на ИИ-арт. Allen считает, что его опыт с Midjourney больше похож на работу фотографа, который выставляет свои требования и креативные решения при создании изображения. Но как показывает практика, с каждым новым ИИ-инструментом возникают новые юридические проблемы.
Так что, когда в следующий раз вы увидите ИИ-арт, помните: за этой "легкостью" кроется множество правовых тонкостей, и, возможно, лучше сначала узнать, кто же в конечном итоге владеет созданным произведением.
Что думаете, действительно ли ИИ-арт достоин авторских прав, или это просто игра с алгоритмами?
ИИ-арт привёл к настоящему правовому хаосу. Jason Allen, автор скандального произведения "Théâtre D'opéra Spatial", созданного с помощью Midjourney, столкнулся с отказом в регистрации авторских прав от Бюро авторских прав США. Причина? Картину, как они считают, создал ИИ, а не человек.
Allen, недовольный решением, подал апелляцию, утверждая, что в его работе больше человеческого творчества, чем это показалось бюро. Он потратил более 100 часов на создание и доработку своих текстовых подсказок, чтобы получить желаемый результат, но бюро, похоже, не считает этого достаточным для защиты авторских прав.
Это ставит под сомнение, кто на самом деле владеет правами на ИИ-арт. Allen считает, что его опыт с Midjourney больше похож на работу фотографа, который выставляет свои требования и креативные решения при создании изображения. Но как показывает практика, с каждым новым ИИ-инструментом возникают новые юридические проблемы.
Так что, когда в следующий раз вы увидите ИИ-арт, помните: за этой "легкостью" кроется множество правовых тонкостей, и, возможно, лучше сначала узнать, кто же в конечном итоге владеет созданным произведением.
Что думаете, действительно ли ИИ-арт достоин авторских прав, или это просто игра с алгоритмами?
🔥11👍3😁2
OpenAI: логическая цепочка, ведущая к краху?
OpenAI когда-то считалась пионером в области ИИ с высокими идеалами и большими амбициями. Однако сейчас компания теряет от 4 до 5 миллиардов долларов в год, и её бизнес-модель вызывает всё больше вопросов. Давайте разберёмся в логике автора статьи.
1. Громкое финансирование: OpenAI привлекла 6,6 миллиарда долларов и получила оценку в 157 миллиардов долларов. Однако, как это часто бывает, высокие оценки не всегда означают успех. Это похоже на покупку дорогой машины, которая не заводится.
2. Уход ключевых фигур: Технический директор Мира Мурати уволилась вместе с несколькими важными сотрудниками. Это как если бы в команде звёздного тренера вдруг начали уходить ведущие игроки — здесь явно что-то не так.
3. Зависимость от крупных инвесторов: Microsoft и NVIDIA продолжают вкладываться в OpenAI, но с добавлением SoftBank, который славится своими неудачными инвестициями, это выглядит так, как будто вы пытаетесь построить дом на песке.
4. Слишком завышенные ожидания: OpenAI планирует заработать 11,6 миллиарда долларов к 2025 году, но, чтобы достичь этой цели, нужно утроить текущие доходы, в то время как расходы только растут. Это всё равно что пытаться выиграть в лотерею, при этом играя только в одной игре.
Несмотря на все трудности, OpenAI продолжает движение вперёд, как будто у них есть секретный план, который пока что остаётся за завесой тайны. Может, это просто игра в «давайте привлекать инвесторов», пока всё не обрушится под собственным весом.
Так стоит ли OpenAI вложенных в неё веры многих людей и денег? Или это просто очередная спекуляция вокруг технологий будущего? Один вопрос остаётся открытым: может ли компания, теряющая миллиарды, всё ещё считаться лидером в сфере ИИ?
п.с. на пикче те, кто из основателей OpenAI ещё остался в проекте (и то, Брокман, например, в длительном отпуске)
OpenAI когда-то считалась пионером в области ИИ с высокими идеалами и большими амбициями. Однако сейчас компания теряет от 4 до 5 миллиардов долларов в год, и её бизнес-модель вызывает всё больше вопросов. Давайте разберёмся в логике автора статьи.
1. Громкое финансирование: OpenAI привлекла 6,6 миллиарда долларов и получила оценку в 157 миллиардов долларов. Однако, как это часто бывает, высокие оценки не всегда означают успех. Это похоже на покупку дорогой машины, которая не заводится.
2. Уход ключевых фигур: Технический директор Мира Мурати уволилась вместе с несколькими важными сотрудниками. Это как если бы в команде звёздного тренера вдруг начали уходить ведущие игроки — здесь явно что-то не так.
3. Зависимость от крупных инвесторов: Microsoft и NVIDIA продолжают вкладываться в OpenAI, но с добавлением SoftBank, который славится своими неудачными инвестициями, это выглядит так, как будто вы пытаетесь построить дом на песке.
4. Слишком завышенные ожидания: OpenAI планирует заработать 11,6 миллиарда долларов к 2025 году, но, чтобы достичь этой цели, нужно утроить текущие доходы, в то время как расходы только растут. Это всё равно что пытаться выиграть в лотерею, при этом играя только в одной игре.
Несмотря на все трудности, OpenAI продолжает движение вперёд, как будто у них есть секретный план, который пока что остаётся за завесой тайны. Может, это просто игра в «давайте привлекать инвесторов», пока всё не обрушится под собственным весом.
Так стоит ли OpenAI вложенных в неё веры многих людей и денег? Или это просто очередная спекуляция вокруг технологий будущего? Один вопрос остаётся открытым: может ли компания, теряющая миллиарды, всё ещё считаться лидером в сфере ИИ?
п.с. на пикче те, кто из основателей OpenAI ещё остался в проекте (и то, Брокман, например, в длительном отпуске)
👍11❤3🤷♂1👎1😁1