This media is not supported in your browser
VIEW IN TELEGRAM
Мы: ну, технологии чёт медленно развиваются. Нейросетям стоило бы быстрее учиться;
Тоже мы всего 30 лет назад:
Тоже мы всего 30 лет назад:
This media is not supported in your browser
VIEW IN TELEGRAM
Не пытайтесь обмануть роботов
Илон Маск, Стив Возняк, и ещё ряд экспертов в области ИИ написали открытое письмо с требованием приостановить разработки. По их мнению, Искусственный Интеллект начал развиваться слишком быстро и бесконтрольно. Поэтому нужно остановить исследования в этой области на полгода и внедрить госконтроль. Иначе, ИИ может угрожать человечеству.
Один из пунктов письма гласит, что языковые модели вроде GhatGPT наводнят интернет пропагандой и фейк ньюс. Так что лаборатории ИИ должны выработать совместные протоколы безопасности, прежде чем дальше развивать технологии.
Хотя мне кажется, у Маска тупо бомбит, что OpenAI, одним из сооснователей которой он был, идёт к успеху. А он остался за бортом. Припустил жидким, так сказать
Один из пунктов письма гласит, что языковые модели вроде GhatGPT наводнят интернет пропагандой и фейк ньюс. Так что лаборатории ИИ должны выработать совместные протоколы безопасности, прежде чем дальше развивать технологии.
Хотя мне кажется, у Маска тупо бомбит, что OpenAI, одним из сооснователей которой он был, идёт к успеху. А он остался за бортом. Припустил жидким, так сказать
Басов про стартапы
Илон Маск, Стив Возняк, и ещё ряд экспертов в области ИИ написали открытое письмо с требованием приостановить разработки. По их мнению, Искусственный Интеллект начал развиваться слишком быстро и бесконтрольно. Поэтому нужно остановить исследования в этой области…
Google, Microsoft и OpenAI, когда читают письмо
This media is not supported in your browser
VIEW IN TELEGRAM
Танцующие роборуки не существуют, они не причинят тебе вреда;
Танцующие роборуки:
Танцующие роборуки:
This media is not supported in your browser
VIEW IN TELEGRAM
Какой интересный пепелац. Двухместный пассажирский дрон-такси. Жаль, что концепт пока. Выглядит отлично.
This media is not supported in your browser
VIEW IN TELEGRAM
Очередная попытка сделать подушку безопасности для мотоцикла. Каждый год появляются похожие концепты, но ни разу не видел, чтобы пошло в серию. Хотя конечно этот надувной матрас пока самый смешной из виденных вариантов.
Случайно узнал про очень эффектную технологию из Сербии. Вот эти киберпанковые аквариумы с жижей на улицах Белграда — так называемые жидкие деревья. Разработка местных учёных позволяет их устанавливать в городских карманах, где обычные деревья бы не выжили из-за загрязнений или недостатка места.
Внутри аквариумов (называются LIQUID 3) — вода и специальные водоросли, перерабатывающие углекислый газ. Установка крайне неприхотливая. Достаточно чистить от биомассы, выработанной при деление водорослей.
По словам разработчиков, один LIQUID 3 заменяет два десятилетних дерева или 200 квадратных метров газона. Ну и выглядит безусловно круто.
Внутри аквариумов (называются LIQUID 3) — вода и специальные водоросли, перерабатывающие углекислый газ. Установка крайне неприхотливая. Достаточно чистить от биомассы, выработанной при деление водорослей.
По словам разработчиков, один LIQUID 3 заменяет два десятилетних дерева или 200 квадратных метров газона. Ну и выглядит безусловно круто.
Очередной исследователь ИИ призвал прекратить разработки в области искусственного интеллекта, причём, для всех и навсегда. Элизер Юдковский уже 20 лет предупреждает об опасности. Новое заявление стало ответом на открытое письмо, подписанное Илоном Маском, Стивом Возняком и другими экспертами. Они призывают приостановить разработки ИИ на полгода.
Юдковский говорит, что не подписал письмо, потому что в нём предлагаются слишком мягкие меры. Элизер считает, что разработки в области ИИ нужно прекратить навеки, а государства должны заключить соответствующие соглашения. Кроме того, нужно быть готовым уничтожить датацентры авиаударом, если какая-то страна нарушит мораторий.
Если разработки не прекратятся, Юдковский предрекает гибель всего живого на планете. По его мнению, искусственный интеллект уничтожит всех, когда станет умнее человека. И никто не может точно сказать, как скоро ИИ обретёт самосознание. Что характерно, сам Юдковский как никто другой приложил руку к развитию ИИ. Это признаёт даже руководитель OpenAI Сэм Альтман, заявив, что Юдковский достоин Нобелевской премии за свой вклад. Хотя некоторые СМИ называют его параноиком и сумасшедшим учёным.
Если бы этот сюжет не освещали серьёзные издания, я бы подумал, что читаю какой-то синопсис для фильма-катастрофы или блокбастера Marvel.
Юдковский говорит, что не подписал письмо, потому что в нём предлагаются слишком мягкие меры. Элизер считает, что разработки в области ИИ нужно прекратить навеки, а государства должны заключить соответствующие соглашения. Кроме того, нужно быть готовым уничтожить датацентры авиаударом, если какая-то страна нарушит мораторий.
Если разработки не прекратятся, Юдковский предрекает гибель всего живого на планете. По его мнению, искусственный интеллект уничтожит всех, когда станет умнее человека. И никто не может точно сказать, как скоро ИИ обретёт самосознание. Что характерно, сам Юдковский как никто другой приложил руку к развитию ИИ. Это признаёт даже руководитель OpenAI Сэм Альтман, заявив, что Юдковский достоин Нобелевской премии за свой вклад. Хотя некоторые СМИ называют его параноиком и сумасшедшим учёным.
Если бы этот сюжет не освещали серьёзные издания, я бы подумал, что читаю какой-то синопсис для фильма-катастрофы или блокбастера Marvel.