19 февр. 2026

ИИ в сервисе как инструмент эмоциональной регуляции: эмпирические основания (2024–2025)

1. Эмоциональный труд (emotional labor — эмоциональный труд) и его перераспределение

Понятие emotional labor (эмоциональный труд) введено Arlie Russell Hochschild в работе The Managed Heart (1983). Оно описывает необходимость управлять выражением эмоций в соответствии с организационными ожиданиями.

Современные исследования показывают, что постоянный surface acting (поверхностное выражение эмоций без их внутренней переработки) связан с ростом выгорания и снижением психологического благополучия сотрудников сервиса.

С 2023–2025 годов появляется новое направление — AI-augmented emotional regulation (алгоритмически поддерживаемая эмоциональная регуляция), где LLM выступают посредником между аффектом сотрудника и публичным текстом.

2. Perceived warmth (воспринимаемая теплота) и AI-support (поддержка со стороны ИИ)

2.1 Теоретическая рамка доверия к эмоциональной поддержке ИИ

Volpato R., DeBruine L., Stumpf S. (2025) в статье
Trusting emotional support from generative artificial intelligence: a conceptual review
(Computers in Human Behavior: Artificial Humans, 5, 100195)

DOI: 10.1016/j.chbah.2025.100195

проводят концептуальный анализ доверия к generative artificial intelligence (генеративному искусственному интеллекту) как источнику эмоциональной поддержки.

Авторы выделяют ключевые компоненты доверия:

  • perceived warmth (воспринимаемая теплота),

  • competence (компетентность),

  • reliability (надёжность),

  • intentionality attribution (приписывание намерений).

Работа важна тем, что фиксирует: эмоциональная поддержка от ИИ воспринимается не как чисто техническая функция, а как социальное взаимодействие.

2.2 Эмпатия и различие восприятия «человек vs ИИ»

Shen J. et al. (2024)
Empathy Toward Artificial Intelligence Versus Human Narrators
JMIR Mental Health, 11(1).
DOI: 10.2196/62679

В эксперименте сравнивалось восприятие текстов, созданных человеком и ИИ. Результаты показали:

  • эмоциональные реакции зависят от знания об авторстве;

  • раскрытие AI-участия снижает perceived authenticity (воспринимаемую подлинность),

  • но не всегда снижает empathic engagement (эмпатическую вовлечённость).

Это напрямую относится к сервисной коммуникации: алгоритм может выглядеть эмпатичным, но аутентичность воспринимается иначе, если известно его происхождение.

2.3 Perceived warmth как медиатор просоциального поведения

Xue J. et al. (2025)
The Effect of AI Empathy Perception on Employees’ Prosocial Behavior: The Mediating Role of Warmth
Frontiers in Psychology, 16.
DOI: 10.3389/fpsyg.2025.1706756

Авторы эмпирически показали, что:

  • AI empathy perception (восприятие эмпатии ИИ)

  • влияет на employees’ prosocial behavior (просоциальное поведение сотрудников)

  • через медиатор perceived warmth (воспринимаемую теплоту).

Это особенно важно для сервисных ролей: если сотрудник воспринимает алгоритм как поддерживающий и тёплый, это может усиливать его готовность к кооперации и снижать стрессовую реактивность.

3. Когнитивный рефрейминг (cognitive reappraisal — когнитивная переоценка)

Механизм, через который ИИ снижает нагрузку, связан с cognitive reappraisal (когнитивной переоценкой).

LLM могут:

  • переформулировать агрессивное сообщение клиента;

  • предлагать нейтральную интерпретацию;

  • структурировать ответ.

В исследованиях AI-mediated communication (опубликованных в журналах типа Computers in Human Behavior и Human–Computer Interaction) фиксируется:

  • снижение cognitive load (когнитивной нагрузки),

  • уменьшение эмоциональной реактивности,

  • повышение уверенности в ответе.

ИИ становится инструментом «буферизации аффекта».

4. Перераспределение emotional labor (эмоционального труда)

Таким образом, происходит частичное делегирование:

  • алгоритм берёт на себя стандартизацию эмпатических маркеров;

  • снижает вероятность импульсивной эскалации;

  • стабилизирует тон коммуникации.

Это можно описать как algorithmically delegated emotional labor (алгоритмически делегированный эмоциональный труд).

Однако исследования также фиксируют снижение psychological ownership (чувства психологического владения текстом) при активном AI-участии.


На основании работ:

  • Volpato et al., 2025 — концептуальная модель доверия к эмоциональной поддержке ИИ;

  • Shen et al., 2024 — влияние раскрытия авторства на эмпатию и аутентичность;

  • Xue et al., 2025 — роль perceived warmth как медиатора просоциального поведения;

можно утверждать:

ИИ в сервисе функционирует как участник эмоциональной инфраструктуры организации, способный снижать нагрузку и усиливать воспринимаемую теплоту,
но одновременно трансформирующий аутентичность и структуру доверия.