В мире, где технологии искусственного интеллекта развиваются с головокружительной скоростью, становится все труднее различать контент, созданный людьми, и контент, созданный машинами. OpenAI, компания, стоящая за популярным ChatGPT, объявила, что работает над добавлением «незаметной секретной подписи» к своему контенту, созданному ИИ, чтобы идентифицировать его и обнаруживать возможное мошенничество. Эту сигнатуру можно использовать для обнаружения мошенничества на экзаменах или достоверного вредоносного контента. Однако ученые и эксперты выразили сомнения в его эффективности, поскольку он может работать не везде и его можно легко обойти, используя синонимы. Как в такой ситуации человек может быть уверен в достоверности получаемой им информации? Какие решения все еще возможны для идентификации контента, созданного ИИ? В этой статье мы попытаемся ответить на эти вопросы и лучше понять проблемы, связанные с разграничением человеческого труда и машинного труда.

OpenAI разрабатывает подпись для ChatGPT

Новости ChatGPT

OpenAI, компания, стоящая за ChatGPT, объявила, что работает над добавлением «незаметной секретной подписи» к своему контенту, созданному ИИ. .

Эту сигнатуру можно использовать для обнаружения мошенничества на экзаменах или достоверного вредоносного контента. Прототип этого инструмента уже готов.

Однако ученые и эксперты выразили сомнения в его эффективности, поскольку он может работать не везде и его можно легко обойти, используя синонимы.

Зачем нужна эта подпись?

Запущенный в декабре 2022 года, ChatGPT может генерировать текст из многих вопросов и мгновенно адаптировать его.

Эту функцию можно использовать для написания эссе в заданном стиле или для поиска ошибки в коде.

При этом ChatGPT также можно использовать для создания вредоносного контента или для сокрытия реального происхождения создаваемых текстов.

Университеты особенно обеспокоены академическим мошенничеством, поэтому OpenAI ищет способы идентифицировать контент, созданный ChatGPT.

Каковы пределы этой подписи?

Скотт Ааронсон, приглашенный исследователь OpenAI, отказался разглашать детали этой подписи, а OpenAI только сообщила, что эта подпись, похожая на водяной знак для изображений, была частью «набора решений», разрабатываемых их стороной для идентификации контента, созданного ChatGPT или другие текстовые генераторы на основе ИИ.

Однако Джек Хессель, исследователь из Института искусственного интеллекта Аллена, указал, что добавление подписи не решит полностью проблему идентификации контента, сгенерированного ИИ, поскольку эту подпись все равно можно будет «фальсифицировать».

Каковы другие возможные решения для идентификации контента, созданного ИИ?

Несколько ученых и экспертов предложили другие способы идентификации контента, созданного ИИ. Среди этих решений:

  • Используйте языковые модели для обнаружения различий между человеческим языком и языком, созданным ИИ: Этот метод можно использовать для обнаружения контента, созданного ИИ, который пытается имитировать человеческий контент. Однако у этого метода есть свои ограничения, поскольку языковые модели могут быть недостаточно хороши для обнаружения всех различий между человеческим языком и языком, созданным ИИ.
  • Используйте тесты Тьюринга: Эти тесты, разработанные в 1950-х годах, используются для проверки способности машины «выдавать себя за человека». Однако этот метод также имеет свои ограничения, поскольку тесты Тьюринга могут быть обмануты высококачественным контентом, созданным ИИ.

Важно отметить, что на данный момент ни одно из этих решений не является совершенным, и вполне возможно, что в ближайшем будущем контент, созданный ИИ, по-прежнему будет трудно идентифицировать (как Google, так и любому человеку).

Однако по мере развития технологий могут разрабатываться новые решения, помогающие идентифицировать такой автоматически генерируемый контент.

Секретная подпись OpenAI и обнаружение контента, созданного ИИ, в заключение

OpenAI объявила, что работает над добавлением «незаметной секретной подписи». к своему контенту, созданному ИИ, чтобы идентифицировать его и обнаружить возможное мошенничество.

Однако ученые и эксперты выразили сомнения в эффективности этой подписи, которая может работать не везде и ее можно легко обойти, используя синонимы.

Есть несколько других возможных решений для идентификации контента, созданного ИИ, например, использование языковых моделей, тестов Тьюринга или капчи.

Однако ни одно из этих решений не является совершенным, и вполне возможно, что контент, созданный ИИ, по-прежнему будет трудно идентифицировать в ближайшем будущем.

Добавить комментарий