Заголовки новостей, помеченные как сгенерированные нейросетью, заставляют людей меньше доверять такой информации. Это выяснили ученые из Университета Цюриха, которые провели необычный онлайн-эксперимент. Об исследовании они рассказали в журнале PNAS Nexus.
Специалисты создали 16 новостных заголовков — по восемь правдивых и ложных. Каждую группу поделили пополам в зависимости от того, придумал вариант человек или сгенерировал ИИ. Затем почти 5 тыс. добровольцев из США и Великобритании попросили оценить точность заголовков и желание поделиться текстом с другими людьми.
Участников поделили на пять групп. Добровольцам из первой получили список, в котором сгенерированные заголовки получили соответствующую пометку. Во второй группе такую маркировку сделали только для четырех ИИ-вариантов, а в третьей участников решили запутать. Четыре заголовка, созданных нейросетью, отметили как сочиненные людьми, и наоборот. В еще одном варианте все ненастоящие предложения промаркировали как ложные. В последнюю, контрольную категорию вошли заголовки без каких-либо пометок.
Оказалось, что люди считают варианты, которые якобы сочинила нейросеть, менее точными, а также они реже хотят ими делиться. На их мнение не повлиял тот факт, была ли информация правдивой. Но самый сильный эффект тем не менее наблюдался в категории заголовков с пометкой «Ложь».
Как считают ученые, люди склонны меньше доверять информации, которая создана без человеческого контроля. По мнению исследователей, маркировка об использовании ИИ для создания заголовков или текстов должна быть более подробной. Необходимо указывать детали о конкретном участии нейросетей или людей в производстве контента.
Ранее ученые выяснили, что сомневающиеся в своих ответах чат-боты также не вызывают доверие у пользователей. Это показал эксперимент с Microsoft Copilot.