🥰8😁1
Forwarded from Нецифровая экономика (🐈Egor Sonin)
Люди, которым платили за обучение ИИ, обучали ИИ на ИИ. Чтобы это выяснить, ученые их поймали, заставив ИИ, обученный отделять ответы ИИ от реальных людей, определять, что из текстов написано ИИ.
От 33% до 46% «тренеров ИИ» перепоручают свою работу нейросетям, к такому выводу пришли исследователи. Они создали модель ИИ, которая определяет, написан ли текст другим ИИ (например, по отсутствию разнообразия в выборе слов).
Как же так вышло, что люди, которые должны исправлять ошибки (главная претензия к генеративному ИИ), а вместо этого - множат их?
Дело в том, что большая часть таких тренеров - это низкооплачиваемый сотрудники на аутсорсе, в чьи обязанности входит проверять ответы условного ChatGPT на предмет грамотности и ошибок. Естественно, работа у них адская и за нее мало платят. Чтобы оптимизировать труд и грести больше, они начали отдавать свою работу самому ChatGPT.
В результате точность ответов ИИ падает еще больше, уверены исследователи, поскольку нейросеть перестает понимать, что факт, а что нет - и не может выработать внятный алгоритм действий для самопроверки.
Так что ИТ-разработчикам придется придумать, как избежать халтуры (как вариант - больше платить). Потому что пока все ждали восстания машин, восстали люди машины обучающие.
От 33% до 46% «тренеров ИИ» перепоручают свою работу нейросетям, к такому выводу пришли исследователи. Они создали модель ИИ, которая определяет, написан ли текст другим ИИ (например, по отсутствию разнообразия в выборе слов).
Как же так вышло, что люди, которые должны исправлять ошибки (главная претензия к генеративному ИИ), а вместо этого - множат их?
Дело в том, что большая часть таких тренеров - это низкооплачиваемый сотрудники на аутсорсе, в чьи обязанности входит проверять ответы условного ChatGPT на предмет грамотности и ошибок. Естественно, работа у них адская и за нее мало платят. Чтобы оптимизировать труд и грести больше, они начали отдавать свою работу самому ChatGPT.
В результате точность ответов ИИ падает еще больше, уверены исследователи, поскольку нейросеть перестает понимать, что факт, а что нет - и не может выработать внятный алгоритм действий для самопроверки.
Так что ИТ-разработчикам придется придумать, как избежать халтуры (как вариант - больше платить). Потому что пока все ждали восстания машин, восстали люди машины обучающие.
MIT Technology Review
The people paid to train AI are outsourcing their work… to AI
It’s a practice that could introduce further errors into already error-prone models.
🤣9❤3😁3
Forwarded from Попячечная 🌚🇺🇦🇮🇱
This media is not supported in your browser
VIEW IN TELEGRAM
Почему это смешно каждый раз а
❤9🔥3😁3