OpenAI отказалась помечать тексты, сгенерированные ChatGPT

. Этот шаг отвернул бы от компании почти 30% пользователей

OpenAI отказалась от введения водяных знаков для текстов, созданных ChatGPT

Обновлено 17 августа 2024, 12:41
OpenAI отказалась от введения водяных знаков для текстов, созданных ChatGPT
Фото: R Photography Background / Shutterstock / FOTODOM

OpenAI отказалась от введения водяных знаков для текстов, созданных ChatGPT

OpenAI решила не помечать водяными знаками тексты, сгенерированные с помощью ChatGPT, несмотря на наличие готовой системы для их реализации. Такое решение может отпугнуть часть пользователей от компании. Об этом сообщает The Verge со ссылкой на заявление OpenAI.

У компании OpenAI уже больше года есть инструмент для обнаружения водяных знаков в текстах, созданных ChatGPT. Эти водяные знаки позволяют доказать, что текст был написан искусственным интеллектом. К примеру, такой инструмент мог бы быть полезен для школ и университетов, которые выступают против использования ИИ в написании студенческих и научных работ.

Однако внутри компании возникли разногласия. Одни сотрудники считают, что нанесение водяных знаков стало бы важным шагом для обеспечения прозрачности. Другие опасаются, что нововведение может отрицательно сказаться на бизнесе.

Опрос, проведенный по заказу OpenAI, показал, что почти 30% пользователей ChatGPT перестали бы пользоваться платформой в случае введения водяных знаков. Потенциальные финансовые потери и снижение популярности сервиса заставили руководство компании отказаться от этой идеи.

При этом существует немало способов «очистить» текст от водяных знаков. Например, перефразировать его с помощью других ИИ-моделей. Это ставит под сомнение целесообразность использования водяных знаков в качестве единственного способа идентификации сгенерированного текста. В то же время OpenAI отмечает, что передовые методы идентификации текста, такие как криптографические метаданные, пока находятся на ранней стадии разработки.

Как отмечает издание The Verge, OpenAI продолжает искать баланс между контролем использования сгенерированных текстов и коммерческими интересами компании.

В феврале 2023 года студент РГГУ Александр Жадан сообщил, что защитил диплом, написанный ChatGPT. По его словам, нейросеть сгенерировала 60 страниц работы, включая введение, анализ, заключение и ссылки на используемую литературу. Оригинальность диплома составила более 70%. Тема дипломной работы — «Анализ и совершенствование управления игровой организацией». Жадан уточнил, что вместе с написанием и редактированием на работу ушло 23 часа. Защита прошла успешно, студент получил оценку «удовлетворительно».

В вуз начали поступать жалобы с просьбой лишить его диплома, а университет начал проверку. После этого руководство университета сообщило, что считает необходимым ограничить в образовательных учреждениях доступ к чат-боту ChatGPT.

Поделиться
Авторы
Теги