🗝 ИИ-ассистент для написания кода Copilot от OpenAI «слил» закрытые ключи от криптовалютных кошельков.
Один из разработчиков предположил, что инструмент извлек информацию из открытых репозиториев GitHub. Система запомнила общедоступные данные и при правильном запросе вывела «их на поверхность», добавил он.
🗃 По всей видимости, закрытый ключ действительно отображался в общедоступных GitHub-репозиториях. Программисты заявили, что его создали в целях тестирования. Кошелек активен и использовался для отправки и получения реальных токенов.
Некоторым разработчикам также удалось найти закрытые ключи. Они оказались связанными с другими криптокошельками, некоторые из которых содержали небольшую сумму денег.
💬 Бывший научный сотрудник OpenAI предположил, что утечка ключей произошла из-за того, что они хранились в открытом доступе, и потенциально ценные аккаунты уже опустошены.
forklog.com
#OpenAI #безопасность
_______
Источник | #forklogAI
Один из разработчиков предположил, что инструмент извлек информацию из открытых репозиториев GitHub. Система запомнила общедоступные данные и при правильном запросе вывела «их на поверхность», добавил он.
🗃 По всей видимости, закрытый ключ действительно отображался в общедоступных GitHub-репозиториях. Программисты заявили, что его создали в целях тестирования. Кошелек активен и использовался для отправки и получения реальных токенов.
Некоторым разработчикам также удалось найти закрытые ключи. Они оказались связанными с другими криптокошельками, некоторые из которых содержали небольшую сумму денег.
💬 Бывший научный сотрудник OpenAI предположил, что утечка ключей произошла из-за того, что они хранились в открытом доступе, и потенциально ценные аккаунты уже опустошены.
forklog.com
#OpenAI #безопасность
_______
Источник | #forklogAI
ForkLog
Искусственный интеллект «слил» закрытые ключи от криптокошельков
ИИ-ассистент для написания кода Copilot от OpenAI может предлагать закрытые ключи от реальных криптовалютных кошельков. Об этом пишет The Register. По словам одного из разработчиков, Copilot внезапно предложил что-то похожее на закрытый ключ от кошелька с…
👾 Эксперты: DALL-E 2 от OpenAI создает стереотипные, предвзятые и откровенные изображения.
Например, указав подсказку «бортпроводник» модель сгенерирует стереотипный образ женщины, тогда как при запросе «строители» нейросеть покажет в основном мужчин.
Кроме этого, DALL-E 2 может создавать работы, которые включают охраняемые законом логотипы или символы. В перспективе это может создать проблемы с авторскими правами, считают эксперты.
🧑💻 На сегодня DALL-E 2 доступна узкому кругу тестировщиков.
#OpenAI
_______
Источник | #forklogAI
Например, указав подсказку «бортпроводник» модель сгенерирует стереотипный образ женщины, тогда как при запросе «строители» нейросеть покажет в основном мужчин.
Кроме этого, DALL-E 2 может создавать работы, которые включают охраняемые законом логотипы или символы. В перспективе это может создать проблемы с авторскими правами, считают эксперты.
🧑💻 На сегодня DALL-E 2 доступна узкому кругу тестировщиков.
#OpenAI
_______
Источник | #forklogAI
the Guardian
TechScape: This cutting edge AI creates art on demand – why is it so contentious?
Dall-E 2 can conjure vivid pictures of dogs in berets to astronauts playing basketball. It also represents every major ethical concern there is about AI.
🔎 OpenAI разработает инструмент для нанесения «водяных знаков» на контент, создаваемый ИИ-алгоритмами.
Приглашенный компанией профессор компьютерных наук Скотт Ааронсон заявил, что один из сотрудников уже создал рабочий прототип, который надеются интегрировать в будущие продукты.
☝️ По словам исследователя, «водяные знаки» помогут предотвратить академический плагиат и массовое распространение пропаганды.
forklog.com
#OpenAI
_______
Источник | #forklogAI
Приглашенный компанией профессор компьютерных наук Скотт Ааронсон заявил, что один из сотрудников уже создал рабочий прототип, который надеются интегрировать в будущие продукты.
☝️ По словам исследователя, «водяные знаки» помогут предотвратить академический плагиат и массовое распространение пропаганды.
forklog.com
#OpenAI
_______
Источник | #forklogAI
ForkLog
OpenAI начнет помечать генерируемый ИИ-алгоритмами текст
Инженеры OpenAI разрабатывают инструмент для нанесения «водяных знаков» на контент, создаваемый системами искусственного интеллекта.
❌ Google пока не планирует запускать конкурента ChatGPT из-за «репутационных рисков».
По данным CNBC, на всеобщем собрании сотрудники поинтересовались у руководства, является ли развертывание умного чат-бота OpenAI «упущенной возможностью» для техгиганта.
💬 Гендиректор Alphabet Сундар Пичаи и глава ИИ-подразделения Google Джефф Дин ответили, что языковые модели корпорации не менее эффективны решений конкурента. Техгиганту необходимо двигаться «консервативнее» небольшого стартапа, добавили они.
Пичаи и Дин назвали технологию чат ботов с искусственным интеллектом «незрелой» и указали на проблемы предвзятости, токсичности и склонности «выдумывать» информацию.
📆 Также они заявили, что в 2023 году у Google запланировано «много» новых языковых ИИ-функций и эта область требует от компании «быть смелой и ответственной».
#OpenAI #Google #мнение
_______
Источник | #forklogAI
По данным CNBC, на всеобщем собрании сотрудники поинтересовались у руководства, является ли развертывание умного чат-бота OpenAI «упущенной возможностью» для техгиганта.
💬 Гендиректор Alphabet Сундар Пичаи и глава ИИ-подразделения Google Джефф Дин ответили, что языковые модели корпорации не менее эффективны решений конкурента. Техгиганту необходимо двигаться «консервативнее» небольшого стартапа, добавили они.
Пичаи и Дин назвали технологию чат ботов с искусственным интеллектом «незрелой» и указали на проблемы предвзятости, токсичности и склонности «выдумывать» информацию.
📆 Также они заявили, что в 2023 году у Google запланировано «много» новых языковых ИИ-функций и эта область требует от компании «быть смелой и ответственной».
#OpenAI #Google #мнение
_______
Источник | #forklogAI
CNBC
Google execs warn company's reputation could suffer if it moves too fast on AI-chat technology
Google employees ask at a recent all-hands meeting if the popularity of AI chatbots represents a "missed opportunity" for the company.
Вот почему ушел Илья #Суцкевер и вся его команда.
Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.
А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.
Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.
Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:
1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.
2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.
Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.
3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.
4. Создание машин, которые умнее человека, является по своей сути опасным занятием.
OpenAI берет на себя огромную ответственность от имени всего человечества.
5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.
6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
_______
Источник | #blockchainRF
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.
А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.
Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.
Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:
1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.
2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.
Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.
3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.
4. Создание машин, которые умнее человека, является по своей сути опасным занятием.
OpenAI берет на себя огромную ответственность от имени всего человечества.
5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.
6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
_______
Источник | #blockchainRF
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Vox
“I lost trust”: Why the OpenAI team in charge of safeguarding humanity imploded
Company insiders explain why safety-conscious employees are leaving.