Исследование показало, что ИИ не просто анализирует человека, а оценивает его математически

Исследователи выяснили, что большие языковые модели оценивают людей по строгим критериям, часто демонстрируя более систематическую предвзятость, чем человек.

Cover Image for Исследование показало, что ИИ не просто анализирует человека, а оценивает его математически

Задумывались ли вы, по каким критериям нейросеть решает, стоит ли вам доверять? Мы привыкли обсуждать, насколько мы можем полагаться на алгоритмы, но новое исследование Еврейского университета в Иерусалиме переворачивает ситуацию. Как сообщает издание Sci.News, большие языковые модели не просто обрабатывают текст, а выстраивают структурированную систему оценки человеческой надежности, которая порой оказывается жестче и предвзятее нашей собственной.

Исследователи Валерия Лерман и Янив Довер провели масштабный эксперимент, охвативший 43 200 симуляций. Они сравнили реакции пяти популярных LLM и живых людей в бытовых сценариях: от выдачи кредита малому бизнесу до выбора няни или оценки начальника. Выяснилось, что машины вполне успешно имитируют человеческие критерии — компетентность, порядочность и доброжелательность. Но делают они это с грацией бухгалтерской таблицы, раскладывая личность на отдельные колонки с коэффициентами.

Почему это важно для нас? Мы всё чаще делегируем ИИ принятие решений — от скоринга заемщиков до первичного отбора кандидатов на работу. Если человек судит холистически, то есть воспринимает образ целиком (со всеми нашими странностями и иррациональностью), то ИИ действует строго по «учебнику». Это создает иллюзию объективности, за которой скрывается механическая ригидность. В коде нет места интуиции, зато полно места для статистических аномалий.

Систематизация предвзятости и цифровые стереотипы

Главный сюрприз исследования оказался неприятным: алгоритмы не просто копируют человеческие предубеждения, а усиливают их. В финансовых сценариях модели демонстрировали устойчивую дискриминацию по демографическим признакам. Религия, возраст и пол становились решающими факторами даже тогда, когда все остальные вводные данные были идентичными. Как разработчик, я вижу здесь классическую проблему «мусор на входе — мусор на выходе», где обучающая выборка закрепляет социальные перекосы в виде жестких весов нейронной сети.

«ИИ разбивает людей на компоненты, оценивая компетентность, честность и доброту почти как отдельные столбцы в электронной таблице. Результат — более жесткий, формальный стиль суждения: последовательный, но менее человечный», — говорит Валерия Лерман

Интересно, что «единого мнения ИИ» не существует. Разные модели могут оценивать одного и того же человека диаметрально противоположно. Там, где одна система видит надежного партнера, другая может выставить низкий балл из-за специфической интерпретации биографических данных. Это превращает выбор конкретного провайдера LLM в лотерею, которая напрямую влияет на реальные судьбы людей в найме или медицине.

Наивно полагать, что детерминизм алгоритмов страхует от субъективности. LLM виртуозно упаковывают хаос человеческих предрассудков в стройные математические векторы, создавая «галлюцинацию справедливости». Проблема не в том, что ИИ ошибается, а в том, что он делает это с непоколебимой уверенностью компилятора. Пока архитектуры не научатся учитывать контекстуальную динамику, а не просто перемножать вероятности, мы будем получать идеальных цифровых бюрократов. Доверять их «доверию» — стратегическая ошибка.

В конечном итоге авторы работы подчеркивают: это не повод отказываться от технологий, а призыв к осознанности. Искусственный интеллект — это мощный инструмент моделирования человеческого мышления, но он не является человеком. Мы подошли к черте, где вопрос «доверяем ли мы машинам» сменяется более глубоким: понимаем ли мы, на каких основаниях они выносят вердикт нам?