
Понятие emotional labor (эмоциональный труд) введено Arlie Russell Hochschild в работе The Managed Heart (1983). Оно описывает необходимость управлять выражением эмоций в соответствии с организационными ожиданиями.
Современные исследования показывают, что постоянный surface acting (поверхностное выражение эмоций без их внутренней переработки) связан с ростом выгорания и снижением психологического благополучия сотрудников сервиса.
С 2023–2025 годов появляется новое направление — AI-augmented emotional regulation (алгоритмически поддерживаемая эмоциональная регуляция), где LLM выступают посредником между аффектом сотрудника и публичным текстом.
Volpato R., DeBruine L., Stumpf S. (2025) в статье
Trusting emotional support from generative artificial intelligence: a conceptual review
(Computers in Human Behavior: Artificial Humans, 5, 100195)
DOI: 10.1016/j.chbah.2025.100195
проводят концептуальный анализ доверия к generative artificial intelligence (генеративному искусственному интеллекту) как источнику эмоциональной поддержки.
Авторы выделяют ключевые компоненты доверия:
perceived warmth (воспринимаемая теплота),
competence (компетентность),
reliability (надёжность),
intentionality attribution (приписывание намерений).
Работа важна тем, что фиксирует: эмоциональная поддержка от ИИ воспринимается не как чисто техническая функция, а как социальное взаимодействие.
Shen J. et al. (2024)
Empathy Toward Artificial Intelligence Versus Human Narrators
JMIR Mental Health, 11(1).
DOI: 10.2196/62679
В эксперименте сравнивалось восприятие текстов, созданных человеком и ИИ. Результаты показали:
эмоциональные реакции зависят от знания об авторстве;
раскрытие AI-участия снижает perceived authenticity (воспринимаемую подлинность),
но не всегда снижает empathic engagement (эмпатическую вовлечённость).
Это напрямую относится к сервисной коммуникации: алгоритм может выглядеть эмпатичным, но аутентичность воспринимается иначе, если известно его происхождение.
Xue J. et al. (2025)
The Effect of AI Empathy Perception on Employees’ Prosocial Behavior: The Mediating Role of Warmth
Frontiers in Psychology, 16.
DOI: 10.3389/fpsyg.2025.1706756
Авторы эмпирически показали, что:
AI empathy perception (восприятие эмпатии ИИ)
влияет на employees’ prosocial behavior (просоциальное поведение сотрудников)
через медиатор perceived warmth (воспринимаемую теплоту).
Это особенно важно для сервисных ролей: если сотрудник воспринимает алгоритм как поддерживающий и тёплый, это может усиливать его готовность к кооперации и снижать стрессовую реактивность.
Механизм, через который ИИ снижает нагрузку, связан с cognitive reappraisal (когнитивной переоценкой).
LLM могут:
переформулировать агрессивное сообщение клиента;
предлагать нейтральную интерпретацию;
структурировать ответ.
В исследованиях AI-mediated communication (опубликованных в журналах типа Computers in Human Behavior и Human–Computer Interaction) фиксируется:
снижение cognitive load (когнитивной нагрузки),
уменьшение эмоциональной реактивности,
повышение уверенности в ответе.
ИИ становится инструментом «буферизации аффекта».
Таким образом, происходит частичное делегирование:
алгоритм берёт на себя стандартизацию эмпатических маркеров;
снижает вероятность импульсивной эскалации;
стабилизирует тон коммуникации.
Это можно описать как algorithmically delegated emotional labor (алгоритмически делегированный эмоциональный труд).
Однако исследования также фиксируют снижение psychological ownership (чувства психологического владения текстом) при активном AI-участии.
На основании работ:
Volpato et al., 2025 — концептуальная модель доверия к эмоциональной поддержке ИИ;
Shen et al., 2024 — влияние раскрытия авторства на эмпатию и аутентичность;
Xue et al., 2025 — роль perceived warmth как медиатора просоциального поведения;
можно утверждать:
ИИ в сервисе функционирует как участник эмоциональной инфраструктуры организации, способный снижать нагрузку и усиливать воспринимаемую теплоту,
но одновременно трансформирующий аутентичность и структуру доверия.