🇰🇷 Комиссия по защите личной информации Южной Кореи оштрафовала Facebook на $5,5 млн за использование и хранение биометрических данных пользователей без надлежащего разрешения.
В ведомстве обнаружили, что в период с апреля 2018 по сентябрь 2019 года соцсеть создала 200 000 шаблонов распознавания лиц.
❌ Комиссия потребовала от компании удалить незаконно собранную информацию.
https://forklog.com/yuzhnaya-koreya-oshtrafovala-facebook-za-nezakonnyj-sbor-biometricheskih-dannyh/
#Корея #Facebook #регулирование
В ведомстве обнаружили, что в период с апреля 2018 по сентябрь 2019 года соцсеть создала 200 000 шаблонов распознавания лиц.
❌ Комиссия потребовала от компании удалить незаконно собранную информацию.
https://forklog.com/yuzhnaya-koreya-oshtrafovala-facebook-za-nezakonnyj-sbor-biometricheskih-dannyh/
#Корея #Facebook #регулирование
ForkLog
Южная Корея оштрафовала Facebook за незаконный сбор биометрических данных
Комиссия по защите личной информации Южной Кореи (PIPC) оштрафовала Facebook на 6,46 млрд вон ($5,5 млн) за использование и хранение биометрических данных пользователей без надлежащего разрешения. Об этом пишет The Register. По данным ведомства, в период…
🗣 Facebook извинилась за то, что ее ИИ отметил темнокожих мужчин на видео как «приматов» и назвала это «неприемлемой ошибкой».
27 июня 2020 года британский таблоид Daily Mail опубликовал в социальной сети видеоролик со словесной перепалкой между группой темнокожих мужчин и белыми гражданскими и полицейскими. Пользователи, просматривающие эту новость, получили автоматический запрос с вопросом «продолжить просмотр видео с приматами?».
❗️ Facebook отключила функцию рекомендаций по темам и извинилась за инцидент. Пресс-секретарь компании Дани Левер заявила, что «это была недопустимая ошибка». Она также добавила, что соцсеть занимается исследованием причины случившегося, чтобы предотвратить повторение подобных ситуаций.
#Facebook
27 июня 2020 года британский таблоид Daily Mail опубликовал в социальной сети видеоролик со словесной перепалкой между группой темнокожих мужчин и белыми гражданскими и полицейскими. Пользователи, просматривающие эту новость, получили автоматический запрос с вопросом «продолжить просмотр видео с приматами?».
❗️ Facebook отключила функцию рекомендаций по темам и извинилась за инцидент. Пресс-секретарь компании Дани Левер заявила, что «это была недопустимая ошибка». Она также добавила, что соцсеть занимается исследованием причины случившегося, чтобы предотвратить повторение подобных ситуаций.
⚙️ По информации СМИ, Facebook разработает чип для выполнения задач машинного обучения и искусственного интеллекта. Он нацелен на рекомендации контента пользователям.
Также техгигант создаст микросхему для перекодирования видео в приложениях, которая улучшит качество записанных и потоковых роликов.
☝️ Согласно источнику, собственные чипы позволят компании уменьшить углеродные выбросы от постоянно растущих центров обработки данных и снизить ее зависимость от существующих поставщиков полупроводников.
#Facebook #чипы
Также техгигант создаст микросхему для перекодирования видео в приложениях, которая улучшит качество записанных и потоковых роликов.
☝️ Согласно источнику, собственные чипы позволят компании уменьшить углеродные выбросы от постоянно растущих центров обработки данных и снизить ее зависимость от существующих поставщиков полупроводников.
#Facebook #чипы
🗣 СМИ: Facebook добавит в WhatsApp на iOS функцию транскрипции голосовых сообщений.
Инструмент будет работать локально на устройстве без передачи данных на серверы компании.
🤔 Примечательно, во всплывающем окне указано, что информация отправится в Apple. Голосовые сообщения помогут ей в разработке технологии распознавания речи, но не будут напрямую связаны с личностью пользователя.
#Facebook #NLP
Инструмент будет работать локально на устройстве без передачи данных на серверы компании.
🤔 Примечательно, во всплывающем окне указано, что информация отправится в Apple. Голосовые сообщения помогут ей в разработке технологии распознавания речи, но не будут напрямую связаны с личностью пользователя.
#Facebook #NLP
🖼 Facebook AI разработала модель IC-GAN для генерации высококачественных изображений с незнакомыми объектами и сценами.
Генеративно-состязательная сеть работает с размеченными и не маркированными данными. Она моделирует сочетание локальной кластеризации на одном изображении с перекрывающимися образцами из разных регионов или районов картинок «по-соседству». Затем алгоритм комбинирует реальные пиксели с предсказанными для создания новых реалистичных изображений.
🌐 Воспользоваться инструментом может любой желающий. Мы в ForkLog AI его протестировали и вот что у нас получилось.
#Facebook #разработка
Генеративно-состязательная сеть работает с размеченными и не маркированными данными. Она моделирует сочетание локальной кластеризации на одном изображении с перекрывающимися образцами из разных регионов или районов картинок «по-соседству». Затем алгоритм комбинирует реальные пиксели с предсказанными для создания новых реалистичных изображений.
🌐 Воспользоваться инструментом может любой желающий. Мы в ForkLog AI его протестировали и вот что у нас получилось.
#Facebook #разработка
👤 Facebook выдвинула кандидатуру Эндрю Босуорта на должность нового технического директора.
Он останется главой группы Facebook Reality Labs, а также организует разработку программного обеспечения и искусственного интеллекта компании.
📅 Босуорт займет должность в 2022 году, после ухода нынешнего техдиректора Майка Шрепфера.
#Facebook
Он останется главой группы Facebook Reality Labs, а также организует разработку программного обеспечения и искусственного интеллекта компании.
📅 Босуорт займет должность в 2022 году, после ухода нынешнего техдиректора Майка Шрепфера.
📢 Информатор: алгоритмы Facebook провоцируют распространение дезинформации, разжигание ненависти и этническое насилие ради прибыли.
По словам бывшего сотрудника компании Фрэнсис Хоген, руководство техгиганта знает об этом и не предпринимает активных действий из-за высокой вовлеченности пользователей в такой контент, который способствует росту платформы.
Марк Цукерберг ответил, что «информация не соответствует действительности».
🗃 Заявление информатора подтверждают скопированные документы внутреннего исследования Facebook, которые затем были переданы журналистам, регуляторам и Сенату США.
https://forklog.com/informator-facebook-ispolzuet-algoritmy-dlya-razzhiganiya-nenavisti-radi-pribyli/
#Facebook
По словам бывшего сотрудника компании Фрэнсис Хоген, руководство техгиганта знает об этом и не предпринимает активных действий из-за высокой вовлеченности пользователей в такой контент, который способствует росту платформы.
Марк Цукерберг ответил, что «информация не соответствует действительности».
🗃 Заявление информатора подтверждают скопированные документы внутреннего исследования Facebook, которые затем были переданы журналистам, регуляторам и Сенату США.
https://forklog.com/informator-facebook-ispolzuet-algoritmy-dlya-razzhiganiya-nenavisti-radi-pribyli/
ForkLog
Информатор: Facebook использует алгоритмы для разжигания ненависти ради прибыли
Алгоритмы Facebook провоцируют распространение дезинформации, разжигание ненависти и этническое насилие ради прибыли. Об этом в Сенате США рассказала бывший менеджер по продукту компании Фрэнсис Хауген, пишет ABC News. «Руководство компании знает, как сделать…
🔎 Facebook предоставит регуляторам доступ к алгоритмам, чтобы доказать их безвредность.
Вице-президент компании по глобальным связям Ник Клегг заявил, что корпорация готова к более строгому контролю и открыта для изменения положения закона США, освобождающего организации от ответственности за публикации пользователей.
☝️ Также он рассказал о планируемых нововведениях в Instagram для защиты благополучия подростков, среди которых алгоритмическая подмена вредного контента нейтральным, родительский контроль и напоминания о перерывах.
https://forklog.com/facebook-soglasilas-otkryt-regulyatoram-dostup-k-algoritmam-chtoby-dokazat-ih-bezvrednost/
#Facebook
Вице-президент компании по глобальным связям Ник Клегг заявил, что корпорация готова к более строгому контролю и открыта для изменения положения закона США, освобождающего организации от ответственности за публикации пользователей.
☝️ Также он рассказал о планируемых нововведениях в Instagram для защиты благополучия подростков, среди которых алгоритмическая подмена вредного контента нейтральным, родительский контроль и напоминания о перерывах.
https://forklog.com/facebook-soglasilas-otkryt-regulyatoram-dostup-k-algoritmam-chtoby-dokazat-ih-bezvrednost/
ForkLog
Facebook согласилась открыть регуляторам доступ к алгоритмам, чтобы доказать их безвредность
Корпорация Facebook готова к более строгому контролю, чтобы ее алгоритмы работали как задумано и не причиняли вреда пользователям. Об этом в эфире CNN заявил вице-президент компании по глобальным связям Ник Клегг. «Алгоритмы необходимо сделать подотчетными…
👀 Facebook запустил исследовательский проект Ego4D, направленный на разработку ИИ для помощи людям в решении повседневных задач. Он будет записывать и анализировать все действия пользователя по видео от первого лица.
Авторы перечислили возможности, которым хотят обучить систему. Среди них:
📌 Эпизодическая память: например, поиск ответа на вопрос «где я оставил ключи?».
📌 Прогнозирование: «вы уже добавили соль в это блюдо?».
📌 Манипуляции с предметами: «научи меня играть на барабанах».
📌 Аудиовизуальный дневник: «какая тема предыдущего урока?».
📌 Социальное взаимодействие: «помоги мне расслышать человека, с которым я говорю в шумном ресторане».
В проекте участвуют исследователи из 13 университетов по всему миру. Они собрали датасет из 3205 часов видеозаписей, полученных от 855 респондентов из девяти стран.
#Facebook #исследование
Авторы перечислили возможности, которым хотят обучить систему. Среди них:
📌 Эпизодическая память: например, поиск ответа на вопрос «где я оставил ключи?».
📌 Прогнозирование: «вы уже добавили соль в это блюдо?».
📌 Манипуляции с предметами: «научи меня играть на барабанах».
📌 Аудиовизуальный дневник: «какая тема предыдущего урока?».
📌 Социальное взаимодействие: «помоги мне расслышать человека, с которым я говорю в шумном ресторане».
В проекте участвуют исследователи из 13 университетов по всему миру. Они собрали датасет из 3205 часов видеозаписей, полученных от 855 респондентов из девяти стран.
#Facebook #исследование
🔎 Журналисты выяснили, что алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы.
Согласно отчетам, в 2019 году компания стала больше полагаться на ИИ для модерации постов и это способствовало преувеличению успеха технологии в публичной статистике. В 2021 году внутренняя исследовательская группа обнаружила, что алгоритмы отметили и удалили только 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства.
🙅♂️ В Facebook опровергли результаты расследования и заявили, что за последние три года ИИ снизил распространенность языка вражды в соцсети на 50% и сократил просмотр подобных постов до 0,05%.
https://forklog.com/wsj-algoritmy-facebook-udalyayut-lish-chast-kontenta-narushayushhego-pravila-platformy/
#Facebook
Согласно отчетам, в 2019 году компания стала больше полагаться на ИИ для модерации постов и это способствовало преувеличению успеха технологии в публичной статистике. В 2021 году внутренняя исследовательская группа обнаружила, что алгоритмы отметили и удалили только 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства.
🙅♂️ В Facebook опровергли результаты расследования и заявили, что за последние три года ИИ снизил распространенность языка вражды в соцсети на 50% и сократил просмотр подобных постов до 0,05%.
https://forklog.com/wsj-algoritmy-facebook-udalyayut-lish-chast-kontenta-narushayushhego-pravila-platformy/
ForkLog
WSJ: алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы
Инженеры Facebook обнаружили, что алгоритмы удаляют лишь часть контента, нарушающего правила платформы. Об этом говорится в новом расследовании The Wall Street Journal, основанном на внутренней документации соцсети. Согласно отчету, два года назад Facebook…