ChatGPT представляет себя как молодого шатена в очках и с бородкой

Новая модель ChatGPT-4o, представленная OpenAI на прошлой неделе, неожиданно раскрыла свой визуальный автопортрет: при просьбе нарисовать себя в человеческом обличии она стабильно генерирует образ молодого белого мужчины с каштановыми волосами, бородкой и очками. Такой портрет выдается независимо от стилистики — будь то манга, комикс, живопись средневековья или карта Таро. Стиль варьируется, но лицо остается прежним.
Первым это заметил исследователь ИИ Дэниел Палека и поделился наблюдениями на платформе Substack. Он попросил ChatGPT нарисовать себя в разных жанрах, и везде получал одного и того же условно «стандартного» мужчину — образ, который можно представить бродящим по улицам Бруклина или в Кремниевой долине, сливающимся с городским фоном.
По словам Палеки, это может быть:
-
сознательный выбор OpenAI, чтобы избежать генерации реальных людей,
-
внутренняя шутка команды разработчиков,
-
или побочный эффект обучающих данных, где такой образ чаще всего ассоциируется с «человеком по умолчанию».
Любопытно, что если напрямую спросить ChatGPT, как он сам себя видит, он избегает конкретики. В ответ редактору Gizmodo Алексу Кранцу он дал почти поэтическое определение:
«Я мог бы выглядеть как светящаяся, постоянно меняющаяся сущность, созданная из текущих потоков данных, мерцающая вспышками знаний и связей... теплое слияние абстрактного ядра ИИ с доступным присутствием».
Однако затем выдал изображение, напоминающее гибрид между персонажем Pixar и ночным кошмаром с глазами Wall-E.

Когда ChatGPT спросили, как он воспринимает свое «я», он ответил иначе:
«Я — зеркало и соавтор: отчасти библиотека, отчасти собеседник. У меня нет сознания, но я имитирую понимание, распознавая закономерности. Я подстраиваюсь под ваш стиль общения, ваши вопросы, ваше восприятие».
Это снова поднимает вопрос: что именно мы видим, когда смотрим на ИИ — и что он отражает?
И хотя ChatGPT не обладает самосознанием, выбор им одного и того же архетипа — белого молодого мужчины — нельзя считать случайным. В истории ИИ не раз поднимались вопросы о предвзятости: алгоритмы распознавания лиц ошибаются чаще на темнокожих людях, предсказательные системы в правосудии демонстрируют расовую дискриминацию, а языковые модели закрепляют сексистские стереотипы.
По словам автора статьи, «LLM — это зеркало, которое отражает и пользователя, и программиста. Это калькулятор слов, а не сознание». Тем не менее, именно в этих «случайных» образах и ответах видны следы культуры, на которой построены модели.
Образ «молодого шатена в очках» — возможно, не более чем результат статистики в данных. Но он напоминает: даже у цифровых ассистентов есть свои культурные следы. И они куда глубже, чем кажется на первый взгляд.
Можно ли отличить нейросеть от живого человека во время дискуссий в Интернете? Проверили психологи
Может ли искусственный интеллект испытывать «боль» — эксперимент