[personal profile] vashu11
Допустим у нас есть желание незаметно пометить принадлежность текста сгенерированного нейронкой.

Очевидное решение - на каждом последующем шаге нейронка предлагает несколько вариантов токенов. Например, в тексте о погоде после слова "сильные" она может предложить дожди|ливни. Очевидными хаками с хэшами мы можем псевдослучайно модифицировать вероятности использования токенов. Грубо говоря, если в тексте присутствует фраза "сильные ливни" это знак того что он сгенерирован нашей нейронкой, если "сильные дожди" - наоборот. Каждая фраза дает долю бита информации, но в большом тексте наберется достаточно битов чтобы уверенно определить авторство.

Очевидная проблема - пересказ текста своими словами нафиг стирает такую пометку (watermark, водяной знак).

Китайцы из мичиганского универа продемонстрировали генерацию более устойчивого водяного знака.

Внутри нейронки смыслы кодируются так называемыми embedding'ами - очень длинными (тысячи) числовыми векторами. В идеале в таком векторе каждое число представляет какое-то понятие и это позволяет проводить осмысленные операции.

Скажем, классическое "король — мужчина + женщина = королева" или шутки про электрификацию и советскую власть.

Разумеется на деле структура embedding'ов очень далека от идеала - часто одно число кодирует несколько понятий или понятие кодируется несколькими числами нетривиальным образом, так что при попытке повторить тот же трюк мы или сломаем нейронку или ничего не пометим.

Авторы использовали другую нейронку чтобы понизить размерность embedding'ов с сохранением непрерывности представления, после чего стало возможно применить вышеупомянутый трюк на более высоком уровне смыслов.

Грубо говоря, пусть говоря о лисе наша нейронка обязательно вспоминает о ее цвете. Тогда пересказ своими словами фразы "рыжая лиса" на "плутовка с огненной шкуркой" сохранит нашу пометку.

ИМХО, такой водяной знак стирается тем же алгоритмом с более грубыми настройками. Можно увеличить устойчивость знака загрубив настройки, но по мере загрубления нейронка будет все больше и больше напоминать студента из анекдота, сводившего все ответы на экзамене к блохам. "Рыбы покрыты чешуей, но если бы они были покрыты шерстью, то в ней бы водились блохи..."

Пометка-то надежная - сводит все к блохам, значит наш ИИ, но есть одна проблема...

Тем не менее довольно крышесносно наблюдать как выражение "пространство смыслов" перестает быть гуманитарной билибердой и превращается в инженерное понятие.

Date: 2025-03-01 08:45 am (UTC)
From: [identity profile] staerum.livejournal.com

Водяные знаки посредством внесения персонального авторского стиля с последующим использованием уже существующих методов атрибуции авторства через редкие конструкции и сочетания.

Date: 2025-03-02 03:11 pm (UTC)
From: [identity profile] scholarpunk.livejournal.com
А вот интересно, какая бездна смыслов может быть раскрыта в этом дискурсе словосочетания ДОСТОДОЛЖНОЕ МЗДОВОЗДАЯНИЕ!..

[Тег Чем занимаются люди, когда им #ДЕЛАТЬ_НЕХРЕНА!]

Date: 2025-03-02 05:31 pm (UTC)
From: [identity profile] staerum.livejournal.com

Судя по частоте, с которой я встречаю это словосочетание от вас его смысл как-то связан с вашей историей.

Date: 2026-01-04 06:22 pm (UTC)
From: [identity profile] vashu11.livejournal.com

Interconcept Space


linguistically describable concepts”—like cats in party hats.


The islands normally seem to be roughly “spherical”, in the sense
that they extend about the same nominal distance in every direction. But
relative to the whole space, each island is absolutely tiny—something
like perhaps a fraction 2–2000 ≈ 10–600 of the
volume of the whole space. And between these islands there lie huge
expanses of what we might call “interconcept space”.

Generative AI Space and the Mental Imagery of Alien Minds

AI and the ruliad in the Wolfram Physics Project provide a new way to consider how alien minds might perceive the world. Stephen Wolfram explains how this artificial neuroscience experiment works.

writings.stephenwolfram.com

Profile

vashu11

November 2025

S M T W T F S
      1
2345678
9101112131415
16171819 202122
23242526272829
30      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Feb. 7th, 2026 10:39 am
Powered by Dreamwidth Studios