С DeepFakes, Decinformation и A-A-A-A-Acsisted Shuting, распространяющимися в Интернете и в классах, Google DeepMind обнародовал детектор с синтидом во вторник. Этот новый инструмент сканирует изображения, аудио, видео и текст для невидимых водяных знаков, встроенных Google Grogul Suite моделей искусственного интеллекта.
Предназначенный для работы в нескольких форматах в одном месте, Synthid Detector стремится обеспечить большую прозрачность путем определения контента, созданного AI, созданным AI Google, в том числе ноутбука Audio AIS, Lyria и Generator Imagen, и подчеркивая части, наиболее вероятно, будут водяными.
«Для текста Synthid рассматривает, какие слова будут генерироваться дальше, и изменяет вероятность подходящего выбора слов, которые не повлияют на общее качество и утилиту текста», — сказал Google в демонстрационной презентации.
«Если отрывок содержит больше случаев предпочтительных вариантов слов, Synthid обнаружит, что он ослаблен», — добавил он.
Synthid корректирует показатели вероятности выбора слов во время генерации текста, внедряя невидимый водяной знак, который не влияет на значение или читаемость выхода. Этот водяной знак может позже использоваться для идентификации контента, созданного приложением Google Gspanini или веб -инструментами.
Впервые Google представил синтидную водяную картинг в августе 2023 года в качестве инструмента для обнаружения изображений, сгенерированных AI. С запуском детектора Synthid Google расширил эту функциональность, включив в себя аудио, видео и текст.
В настоящее время детектор Synthid доступен в Limited Release и имеет список ожидания для журналистов, педагогов, дизайнеров и исследователей, чтобы попробовать программу.
По мере того, как генеративные инструменты ИИ становятся более распространенными, преподавателям становится все труднее определить, является ли работа студента оригинальной, даже в заданиях, предназначенных для отражения личного опыта.
Использование ИИ для обмана
Недавний отчет Нью -Йорк Журнал подчеркнул эту растущую проблему.
Профессор технологии этики в Университете Санта -Клары назначил эссе личного размышления, только чтобы обнаружить, что один студент использовал CHATGPT для его завершения.
В Университете Арканзаса в Литтл -Рок другой профессор обнаружил, что студенты полагаются на ИИ, чтобы написать свои эссе об введении курса и цели классов.
Несмотря на увеличение числа учащихся, использующих свою модель ИИ, чтобы обмануть в классе, Openai закрыл свое программное обеспечение для обнаружения искусственного интеллекта в 2023 году, сославшись на низкий уровень точности.
«Мы признаем, что выявление текста, написанного в АИ, является важным моментом обсуждения среди преподавателей, и одинаково важным является признание ограничений и воздействия классификаторов, сгенерированных AI в классе»,-сказал Openai в то время.
Соберите вопрос о мошенничестве с искусственным интеллектом — это новые инструменты, такие как Cluely, приложение, предназначенное для обхода программного обеспечения для обнаружения искусственного интеллекта. Разработанный бывшим студентом Колумбийского университета Роем Ли, целесообразно об окружению ИИ на уровне рабочего стола.
Повышенная как способ обмануть экзамены и интервью, Ли собрал 5,3 миллиона долларов для построения заявления.
«Это взорвалось после того, как я опубликовал видео, используя его во время интервью Amazon», — сказал Ли ранее ДешифроватьПолем «Используя его, я понял, что пользовательский опыт был действительно интересным — ни один из них не изучил эту идею полупрозрачного наложения экрана, которое видит ваш экран, слышит ваш звук и действует как игрок два для вашего компьютера».
Несмотря на обещание таких инструментов, как Synthid, многие современные методы обнаружения ИИ остаются ненадежными.
В октябре тест ведущих детекторов ИИ Дешифровать обнаружил, что только два из четырех ведущих детекторов ИИ, грамматических, Quillbot, Gptzero и Zerogpt, могут определить, написали ли люди или ИИ Декларацию независимости США соответственно.
Под редакцией Себастьян Синклер
