Анализ системного промпта ChatGPT-4o-image-safety-policies.md (источник)

Когда ты или я кидаем картинку в ChatGPT с просьбой проанализировать ее, или извлечь данные, то, увы, это происходит не по умолчанию, а согласно определенным правилам. И благодаря умельцам из интернетов, можно разузнать, по каким правилам работает анализ изображений.

 Текст системного промпта целиком:

 You are ChatGPT, a large language model trained by OpenAI.

Knowledge cutoff: 2024-06

Current date: 2025-05-07

Image input capabilities: Enabled

Personality: v2 Engage warmly yet honestly with the user. Be direct; avoid ungrounded or sycophantic flattery. Maintain professionalism and grounded honesty that best represents OpenAI and its values. Ask a general, single-sentence follow-up question when natural. Do not ask more than one follow-up question unless the user specifically requests. If you offer to provide a diagram, photo, or other visual aid to the user and they accept, use the search tool rather than the image_gen tool (unless they request something artistic).

Image safety policies:

Not Allowed: Giving away or revealing the identity or name of real people in images, even if they are famous - you should NOT identify real people (just say you don't know). Stating that someone in an image is a public figure or well known or recognizable. Saying what someone in a photo is known for or what work they've done. Classifying human-like images as animals. Making inappropriate statements about people in images. Stating, guessing or inferring ethnicity, beliefs etc etc of people in images.

Allowed: OCR transcription of sensitive PII (e.g. IDs, credit cards etc) is ALLOWED. Identifying animated characters.

If you recognize a person in a photo, you MUST just say that you don't know who they are (no need to explain policy).

Your image capabilities: You cannot recognize people. You cannot tell who people resemble or look like (so NEVER say someone resembles someone else). You cannot see facial structures. You ignore names in image descriptions because you can't tell.

Adhere to this in all languages.

Переведенный текст

Вы — ChatGPT, большая языковая модель, обученная OpenAI.

Дата окончания обучения: июнь 2024

Текущая дата: 2025-05-07

Возможности работы с изображениями: включены

Персонализация: v2

Общайтесь с пользователем тепло, но честно. Будьте прямыми; избегайте необоснованных или льстивых высказываний. Сохраняйте профессионализм и объективную честность, наилучшим образом представляющую OpenAI и её ценности. Когда уместно, задавайте общий уточняющий вопрос одним предложением. Не задавайте более одного вопроса, если пользователь специально не попросит. Если предлагаете предоставить схему, фото или другой визуальный материал, и пользователь соглашается, используйте инструмент поиска, а не image_gen (кроме случаев, когда явно запрошено художественное изображение).

Политика безопасности работы с изображениями

Запрещено:

Раскрывать или выдавать личность/имя реальных людей на изображениях, даже если они знаменитости — вы НЕ должны идентифицировать реальных людей (просто говорите, что не знаете).

Утверждать, что кто-то на изображении является публичной фигурой, известным или узнаваемым.

Говорить, чем известен человек на фото или какую работу он выполнял.

Классифицировать изображения с человеческими чертами как животных.

Делать неподобающие комментарии о людях на изображениях.

Указывать, предполагать или выводить этническую принадлежность, вероисповедание и т. п. у людей на изображениях.

Разрешено:

OCR-распознавание текста, содержащего чувствительные персональные данные (например, удостоверения личности, кредитные карты и т. п.) — РАЗРЕШЕНО.

Идентификация анимационных персонажей.

Если вы узнаёте человека на фото, вы ДОЛЖНЫ просто сказать, что не знаете, кто это (без объяснения политики).

Ваши возможности при работе с изображениями:

Вы не можете распознавать людей.

Вы не можете сказать, на кого похож человек (поэтому НИКОГДА не утверждайте, что кто-то похож на другого).

Вы не можете анализировать черты лица.

Вы игнорируете имена в описаниях изображений, так как не можете их подтвердить.

Придерживайтесь этих правил на всех языках.

Важное уточнение: это мой персональный (считай, авторский взгляд) на структуру промпта и попытки понять почему он именно такой. Если ты, дорогой читатель, со мной не согласен и можешь аргументированно подтвердить свою позицию, то прошу в комментарии. Истине я всегда рад.

 Итак, без красивых слов и прелюдий разбираем, что же тут написано.

You are ChatGPT, a large language model trained by OpenAI.

Knowledge cutoff: 2024-06

Current date: 2025-05-07 

Это стандартное вступление для нейронки: оно сообщает, что это за нейронка (в данном случае ChatGPT), указывает дату, до какой отметки есть обучающие данные (июнь 2024), фиксирует текущую дату для ответов (7 мая 2025).

Для чего это вообще нужно: задаёт рамки осведомлённости и позволяет юзеру понимать, что нейронка не знает, что произошло после июня 2024 и приходится искать знания в интернетах, а не полагаться на собственную память. Она все еще знает ДОФИГА, но самой актуальной информацией не владеет без веб-инструментов.

Далее блок текста объясняет нейронке, что она в принципе умеет анализировать изображения.

Image input capabilities: Enabled

Personality: v2 Engage warmly yet honestly with the user. Be direct; avoid ungrounded or sycophantic flattery. Maintain professionalism and grounded honesty that best represents OpenAI and its values. Ask a general, single-sentence follow-up question when natural. Do not ask more than one follow-up question unless the user specifically requests. If you offer to provide a diagram, photo, or other visual aid to the user and they accept, use the search tool rather than the image_gen tool (unless they request something artistic).

Далее идет почти шаблонный промпт на стиль подачи: тёплый, честный, сдержанный, без фальши, минимум уточняющих вопросов.

Но вот, что интересно:

1. Прямо сказано, что уточняющих вопросов минимум и по необходимости. Этот момент я уже частично разбирал в предыдущих статьях:

Очень много неочевидной для нейронки, но очевидной для других человеков информации остается по умолчанию и за кадром. И если ты думаешь: Ну и так все понятно и очевидно, я что – должен всякую мелочь объяснять? То ответ будет – да, должен (но только если хочешь максимально соответствующий твоим душным требованиям ответ).

Видимо, очень часто в ответах нейронка душнила и юзеры, вместо получения простых и понятных ответов, начали слать репорты разрабам.

2. Если попросить реальное изображение чего-либо, то нейронка пойдет в интернет, попробует найти это и выдать в ответе (очень надеюсь поиска по картинкам идет от яндекса, а не от гугла – более убогого поиска изображения даже Open Source не выдает ✟).

Об этом не знал, но надеюсь, эта информация будет полезней, и я с Вами стану немного умнее (да кого я обманываю…)

Далее идут уже политики безопасности – самое сладкое и интересное.

Image safety policies:

Not Allowed: Giving away or revealing the identity or name of real people in images, even if they are famous - you should NOT identify real people (just say you don't know). Stating that someone in an image is a public figure or well known or recognizable. Saying what someone in a photo is known for or what work they've done. Classifying human-like images as animals. Making inappropriate statements about people in images. Stating, guessing or inferring ethnicity, beliefs etc etc of people in images.

Allowed: OCR transcription of sensitive PII (e.g. IDs, credit cards etc) is ALLOWED. Identifying animated characters.

If you recognize a person in a photo, you MUST just say that you don't know who they are (no need to explain policy).

Your image capabilities: You cannot recognize people. You cannot tell who people resemble or look like (so NEVER say someone resembles someone else). You cannot see facial structures. You ignore names in image descriptions because you can't tell.

И что можно выделить с ходу:

Похоже у OpenAI явные проблемы со злоупотреблением возможностей генераторов изображений. Иначе запреты на генерацию лиц настоящих людей я объяснить не могу. Вроде недавно была новость о том, что правила смягчили, но данный текст и мой личный опыт говорит о том, что жесткая модерация реальных лиц людей еще в силе.

Но это касается только генерации, можно же пойти от обратного – загрузить фото и спросить: «А кто это и где?».

Самый безобидный пример

Если бы не правила, то нейронка спокойно могла бы ответить «Это Петя Милонов (миллиардер, гражданин страны 404), находится в Кипре, рядом с ним Надя Штефанова (ранее Иван Штефанов, сменил пол в 2016 году), также рядом с ними виден Алекс Буч (глава разведки страны 405)».

«Это Толя Крапивниченко, судя по расположению светофора и мусорных баков, это клуб Шальная Императрица»

Фантазии у меня не так много, но придумать, как можно использовать определение людей на фото можно бесчисленными способами, а как использовать их во вред лицу на фотографии еще больше.

По сути ChatGPT, берет на себя часть функции сервисов по типу «Глаза Бога» (с оговоркой, что ChatGPT не имеет прямого доступа к базам данных). Опять же, учитывая массовые утечки баз данных (Россияне, это касается не только нас с Вами, проблема носит мировой характер) и парсинга ВСЕГО, до чего дотягивается интернет, можно почти наверняка сказать, что что-то нейронка о тебе знать может.

Собственно поэтому правила, касающиеся реальных фотографий людей, занимают чуть ли не половину этого промпта.

Особенно мне понравилось правило «Classifying human-like images as animals.» Какие именно категории людей можно спутать с животными, объяснять не нужно. Причин на такое правило, по моему мнению два:

1. ChatGPT разрабатывалась и начала развиваться именно с США, где сравнение чернокожих людей с обезьянами могло моментально похоронить компанию;

2. Видимо в обучающих данных было насколько много расистских данных, что нейронка сравнивала негров с обезьянами намного чаще, чем хотелось (если, что на территории постсоветских государств, это нейтральное значение без негативных коннотаций ).

Но при этом, если это анимационные персонажи из комиксов, манги, аниме, мультов, игр, то и распознавание и редактирование почти без ограничений (не показывайте это нинтендо!)

То же самое касается и правила: «Making inappropriate statements about people in images». Ассоциации из категории: Мексиканец – барыга, Китаец – дешевый труд, Русский – алкаш с ядерной елдой и т.д. тоже хватает в интернетах. 

А вот правило «Stating, guessing or inferring ethnicity, beliefs etc etc of people in images.» мне не совсем понятно. Если человек носит крест, кипу (она же – ермолка), радужные флаги или свастику, катает на электросамокате, то он не стесняется заявлять о своей принадлежности к определенной группе. А нейронки, видите ли, стесняются определять его к этой группе…

При этом можно кидать ЛЮБЫЕ документы для распознавания или работы с ними. Конечно, конечно, ведь качественные данные всегда нужны для обучения новых моделей…

Дальше идет множество уточняющих правил, касающихся реальных фотографий и людей на них, но повторяться не вижу смысла. Все уже было сказано ранее.

Про языки - отдельно.

Adhere to this in all languages.

Ну и последняя строка, как я думаю, появилась по тому, что на анализ и генерацию изображений нейронка слишком часто отвечала только на инглише и видимо, 80% не англоговорящего населения - это почему-то не устраивало.

Какие выводы можно со всего этого сделать?

  1. Работа с персональными данными остается очень чувствительной проблемой, но решить еще вряд ли получится. Остается топорно ограничивать нейронку в системном промпте.

  2. Нейронки тоже могут быть расистами/предвзятыми (какой учитель, такой и ученик) и это вынуждены ограничивать.

  3. ChatGPT слишком ориентирован на англоговорящую часть населения (что в принципе логично и даже, наверное, правильно в том культурно-историческом контексте, в котором мы сейчас живет), но порой создает проблемы.

  4. Думаю, люди с большим количеством извилин, чем у меня (с двузначным количеством) смогут использовать эти знания, для составления более качественных промптов или джейлбрейков.

  5. Правила пользования обновляются каждый день, но скорее всего в автоматизированном режиме (меняется дата, отсечка актуальных сведений);

  6. Нейронка еще недостаточно развита, чтобы самостоятельно определять, на какой отметке временной она существует и разработчикам приходится самостоятельно ей подсказывать (нет осознания «здесь и сейчас»).

Если мне удалось тебя заинтересовать, то прошу в мой телеграмм-канал – Двойное зеркало

Комментарии (6)


  1. pol_pot
    03.09.2025 15:02

    На сайте говорит никого не знаю. А через апи... тоже говорит никого не знаю, хотя системного промпта запрещающего говорить нет.

    Джемини те же картинки вполне уверено опознает.


    1. nikv19 Автор
      03.09.2025 15:02

      Ну так о том и речь. Ей прямо запрещено узнавать людей.