Мы привыкли думать, что молодые принимают ИИ, а старшие — боятся, но исследования показывают, что это не совсем так. Люди действительно расходятся в оценках искусственного интеллекта, однако решающую роль часто играют не дата рождения сама по себе, а образование, тип работы, цифровой опыт и понимание того, где ИИ полезен, а где опасен.
Поэтому вопрос стоит не только так: кто терпимее к ИИ? Намного важнее другое: кто умеет пользоваться им без лишней тревоги, без слепой веры и без паники перед громкими прогнозами о будущем. Иными словами, спор о поколениях часто маскирует более приземлённый и более важный разговор — о навыках, доверии, ответственности и том, насколько человек понимает пределы новой технологии. А это уже вопрос не поколения, а способности различать области, где ИИ экономит силы, и области, где он создаёт новые риски — от потери навыков до ошибок в решениях высокой цены.

Привычный стереотип
Представим три случая:
- Студент за десять минут просит чат-бота объяснить сложную тему, затем всё равно перепроверяет ответ по конспектам.
- Офисный сотрудник использует ИИ, чтобы быстрее собрать письмо, таблицу и черновик отчёта, но боится, что через пару лет часть его задач станет никому не нужна.
- Пенсионер слышит о нейросетях из новостей, сталкивается с голосовыми помощниками, видит ролики про поддельные фотографии и думает не о продуктивности, а о том, как не стать жертвой обмана.
На первый взгляд вывод прост: молодые открыты, взрослые расчётливы, пожилые недоверчивы. Так же мы когда-то говорили об интернете, смартфонах и соцсетях. Тогда казалось, что возраст почти автоматически определяет отношение к любой новой технологии. Но с ИИ эта схема работает хуже. По данным глобального опроса Pew, молодые люди почти везде лучше осведомлены об ИИ и чаще относятся к нему с интересом, однако настороженность сохраняется у всех групп. Исследования в образовании и на работе показывают ещё более неудобную вещь: отношение к ИИ плохо объясняется одним только возрастом. Во многих случаях сильнее работают не годы, а компетентность, контекст и личный опыт.
Страх перед ИИ не является «естественной возрастной судьбой». Его можно уменьшить знанием, а бездумный восторг, наоборот, можно охладить пониманием ограничений технологии. И если общество продолжит обсуждать только поколенческий конфликт, оно пропустит главное: кому именно ИИ помогает, кому угрожает и кто умеет держать ситуацию под контролем.
Что мы вообще называем «отношением к ИИ»
Когда мы спрашиваем, кто «менее терпим» к ИИ, мы часто смешиваем сразу несколько разных реакций.
- Страх. Люди боятся потери работы, ошибок алгоритма, утечки данных, скрытого контроля и замены человеческого решения машинным.
- Доверие. Человек может бояться ИИ в политике или найме, но спокойно пользоваться им для перевода текста, навигации или поиска информации.
- Готовность использовать. Одни считают технологию полезной в теории, но не хотят включать её в повседневную жизнь. Другие, наоборот, активно применяют ИИ даже при сомнениях в его точности.
- Моральная оценка. Здесь начинаются вопросы авторства, академической честности, прозрачности, справедливости и права человека знать, где за него решил алгоритм. Именно поэтому учёные всё чаще стараются измерять не абстрактную «любовь» к ИИ, а более сложный набор установок.
Отношение к ИИ долго измеряли слишком разрозненно, из-за чего выводы получались неполными. Доверие и недоверие работают как регуляторы внедрения технологии, а не как простая эмоция «нравится — не нравится». Когда вам кажется, что вы «против ИИ», полезно уточнить, против чего именно вы возражаете: против ошибок, против непрозрачности, против замены людей или против самой идеи автоматизации. Обычно это разные вещи, и решаются они тоже по-разному. Один и тот же человек может доверять ИИ в одном контексте и жёстко отвергать его в другом, и в этом нет противоречия. Напротив, такая избирательность часто говорит о зрелом отношении к технологии.
Молодёжь: быстрое принятие, но не без тревоги
У молодых людей есть очевидное преимущество: им проще входить в новую цифровую среду. Они чаще пробуют сервисы первыми, быстрее осваивают интерфейсы и спокойнее относятся к идее разговора с машиной. Поэтому нет ничего удивительного в том, что студенты и молодые взрослые чаще знают об ИИ больше старших и чаще используют его в учебе, переписке, поиске идей и программировании. Но из этого не следует, что молодёжь доверяет ИИ безоговорочно.
По данным Pew, даже среди молодых взрослых заметна настороженность к влиянию ИИ на творчество и человеческие отношения. Исследования университетской среды показывают сходную картину: студенты активно используют генеративные модели, потому что они экономят время и снижают порог входа в сложные задачи, но одновременно тревожатся из-за ошибок, недостоверности, нечестных практик и ослабления собственных навыков. В исследовании Scientific Reports отношение студентов к ChatGPT сильнее всего объясняли воспринимаемая полезность, простота использования, низкая тревожность и невысокий уровень воспринимаемых рисков. А работа Frontiers по медицинским студентам показала, что даже при высокой открытости к инструменту сохраняются опасения насчёт чрезмерной зависимости и ущерба для критического мышления.
Молодые нередко относятся к ИИ не как к «чуду будущего», а как к обычному сервису: удобно — пользуюсь, мешает — отключаю. Это делает их не романтиками технологии, а прагматиками. ИИ удобен, но он особенно коварен там, где соблазняет сделать быстро то, что полезно сделать самому. Поэтому для учёбы и старта в профессии лучшая стратегия — использовать ИИ как ускоритель, а не как костыль. Иначе кажется, что вы экономите время, а на деле теряете базовый навык думать, писать и проверять.

Зрелые (30–55): рациональное принятие и скрытый скепсис
У людей зрелого возраста отношения с ИИ часто самые прагматичные. Для них это уже не игрушка и не абстрактная тема из новостей, а рабочий инструмент, который может либо сэкономить часы, либо изменить правила профессии. Именно поэтому группа 30–55 лет нередко выглядит наиболее «взвешенной». Она быстрее других переходит от общих разговоров к вопросу: что именно ИИ автоматизирует в моей работе, что он делает лучше меня, а где ему нельзя доверять.
В исследованиях OECD видно, что работники одновременно замечают выгоды и опасности. С одной стороны, ИИ способен повышать производительность и качество некоторых задач. С другой — три из пяти работников в опросах OECD беспокоятся, что в ближайшие десять лет ИИ может угрожать их занятости, а двое из пяти ожидают снижения зарплат в своём секторе. Но ключевое здесь не просто беспокойство. Люди среднего возраста чаще связаны с профессией, репутацией и семейной ответственностью, поэтому цена ошибки для них выше. Отсюда и скрытый скепсис: текст, сгенерированный ИИ, нужно перепроверить; рекомендацию алгоритма — сопоставить с реальностью; новый инструмент — оценить не по рекламным обещаниям, а по тому, как он меняет карьерную устойчивость.
Это особенно заметно в профессиях, где ИИ встраивается в уже сложные рабочие процессы: образовании, управлении, аналитике, офисной и интеллектуальной работе. На первый план должна выходить привычка считать риски, сохранять контроль над результатом и не передавать машине последнее слово там, где отвечать всё равно человеку. Для взрослого пользователя хороший вопрос звучит так: не «нужен ли мне ИИ вообще», а «на каких этапах работы он усиливает меня, а на каких делает зависимым и уязвимым».

Старшее поколение: осторожность или недоверие?
Когда речь заходит о людях старшего возраста, разговор обычно быстро скатывается в упрощение: им просто «трудно с технологиями». Исследования рисуют более тонкую картину. Да, пожилые пользователи в среднем реже знакомы с ИИ и реже используют его в повседневных задачах. Да, в глобальных опросах именно старшие возрастные группы чаще выражают больше тревоги, чем энтузиазма.
Но причина не сводится к врождённой нелюбви к новому. В исследованиях о старших пользователях и ИИ в здравоохранении люди признают потенциальную пользу технологии, особенно там, где она помогает следить за состоянием здоровья, поддерживать самостоятельность и упростить доступ к помощи. При этом они подчёркивают незаменимость человеческого общения, хотят понятных интерфейсов, боятся проблем с приватностью и гораздо охотнее принимают ИИ как вспомогательный инструмент рядом со специалистом, а не как замену врачу или ухаживающему человеку.
Похожую логику показывает и исследование по голосовым ИИ-помощникам для пожилых: на намерение использовать технологию сильно влияют не возрастные установки как таковые, а доверие к системе, понятность её работы, личный опыт и ощущение, что инструмент действительно облегчает жизнь. Это важно и вне медицины. Старший пользователь часто первым делом спрашивает не «насколько это модно», а «не обманут ли меня, не ошибётся ли система и пойму ли я, что она делает». Такой вопрос нельзя считать отсталостью, наоборот, он часто очень рационален. Старшее поколение часто не отвергает ИИ принципиально. Оно отвергает непонятный, рискованный и плохо объяснённый ИИ. Если технология прозрачна, полезна и не унижает человека сложностью, отношение к ней заметно улучшается. Поэтому главный барьер здесь не возраст сам по себе, а дефицит безопасного опыта и уважительного дизайна.

Что говорят исследования: есть ли разрыв поколений
Если собрать данные вместе, получится важный и не очень удобный вывод. Поколенческий разрыв существует, но он не такой прямой и не такой большой, как любят показывать в медиа. Молодые чаще знают об ИИ, чаще пробуют его и чаще видят в нём возможности. Старшие в среднем осторожнее и чаще говорят о рисках.
Однако во многих исследованиях возраст либо объясняет только часть различий, либо вообще отходит на второй план, когда в модель добавляют опыт, цифровую грамотность, профессию, культурный контекст и самооценку технологической компетентности. В исследовании Humanities and Social Sciences Communications о комфорте с ИИ в разных профессиональных сферах возраст, образование и занятость почти не влияли на уровень комфорта, тогда как важнее оказывались ощущение собственной технической компетентности и другие личностные факторы. В международном исследовании доверия учителей к ИИ в образовании тоже не обнаружили значимых различий по возрасту, полу и уровню образования; сильнее работали понимание ИИ и уверенность в своей способности с ним работать.
Даже там, где возрастные сдвиги фиксируются, их нельзя читать слишком грубо. В одной выборке старшие могут быть осторожнее, а в другой — вполне позитивны, если они активны в цифровой среде и привыкли учиться новому. Более того, в ряде работ возрастные эффекты описываются как ограниченные или контекстные, а не универсальные. Ваш взгляд на ИИ не предсказан паспортом. Намного важнее, сталкивались ли вы с технологией лично, понимаете ли её пределы и чувствуете ли, что способны ею управлять, а не просто подчиняться ей. И в этом смысле «молодость» без навыков может дать меньше, чем «возраст» с хорошей цифровой привычкой и ясным пониманием рисков.
Главный поворот: решает не возраст
Самое важное в этой теме начинается там, где заканчиваются разговоры о поколениях. Исследования всё убедительнее показывают, что отношение к ИИ формируется под действием нескольких более сильных факторов.
Первый — профессия. OECD отмечает, что ИИ особенно затрагивает «беловоротничковые» занятия с нерутинными когнитивными задачами: IT, управление, науку, инженерию, аналитику. Там чаще работают люди с высоким образованием, и именно они раньше других видят в ИИ и пользу, и угрозу.
Второй фактор — образование. В польском исследовании пациентов образование оказалось самым сильным предиктором позитивного отношения к ИИ. С каждой следующей ступенью образования шанс на более позитивную оценку заметно рос.
Третий фактор — опыт использования. У учителей доверие к ИИ сильнее всего связано с самоэффективностью и пониманием технологии. У студентов цифровая грамотность и умение работать с контентом повышают готовность принимать ИИ, а более глубокое техническое понимание иногда, наоборот, делает оценку осторожнее, потому что человек лучше видит ограничения и галлюцинации систем.
Четвёртый фактор — контекст: культура, страна, рынок труда, уровень цифровизации, институты доверия. Даже между студентами и учителями из разных стран различия бывают заметнее, чем между людьми соседних возрастов внутри одной страны. Если перевести это на человеческий язык, получится очень наглядная картина. Дизайнер, бухгалтер, школьный учитель и врач могут быть ровесниками, но будут относиться к ИИ совершенно по-разному, потому что у каждого своя цена ошибки, свой тип рутины и свой риск замещения.
Два человека одного возраста могут смотреть на ИИ совершенно по-разному: один — как на шанс убрать рутину, другой — как на угрозу доходу, третий — как на источник ошибок. И все трое будут по-своему правы, потому что оценивают разные риски из разных жизненных позиций. Если посмотреть на это совсем предметно, различия становятся ещё заметнее. Работник с высшим образованием в профессии, где ИИ способен автоматизировать часть текста, анализа или коммуникации, чаще сталкивается не с полным вытеснением, а с перераспределением задач. Он быстрее замечает выгоду: рутину можно сократить, а время перенести на координацию, проверку, переговоры и сложные решения.
Но тот же человек может сильнее тревожиться, потому что видит, как быстро дешевеют отдельные навыки, которые раньше считались редкими. Напротив, человек из сферы с низкой прямой ИИ-экспозицией может реже пользоваться системой, но сильнее бояться её как символа будущей нестабильности. OECD отдельно подчёркивает, что высокая подверженность ИИ не равна автоматическому высокому риску полной автоматизации: многие «затронутые» профессии меняются, а не исчезают.
Не стоит мерить свои перспективы общими новостями про «ИИ отнимет работу». Гораздо полезнее разобрать собственную занятость на конкретные блоки: что в ней рутинно, что требует доверия, что связано с ошибками высокой цены, а что держится на человеческом общении. После такого разбора страх становится более точным и потому менее разрушительным. А обучение начинает выглядеть не как абстрактная гонка за модой, а как понятная адаптация: сохранить сильные человеческие стороны и научиться использовать ИИ там, где он действительно снимает лишнюю нагрузку.

Почему возникает миф о «возрасте против ИИ»
Миф живуч, потому что он очень удобен. Возраст — заметный признак, а профессия, тип задач, уровень цифровой грамотности и опыт использования заметны намного хуже. Если молодой человек пользуется ИИ каждый день, это сразу бросается в глаза. Если пожилой человек один раз говорит, что не доверяет нейросетям, это тоже легко становится яркой историей. Медиа любят такую рамку, потому что она проста и драматична: конфликт поколений всегда продаётся лучше, чем скучный разговор о цифровых навыках и институциональном доверии.
Но исследования подсказывают, что такая оптика искажает реальность. В глобальных опросах Pew видно не только то, что молодые чаще осведомлены, а старшие чаще тревожатся, но и то, что образование и интенсивность интернет-использования тоже сильно связаны с восприятием ИИ. А академические работы показывают, что отдельные демографические переменные часто дают слабый вклад, если анализировать отношение к ИИ более внимательно и учитывать другие факторы. Здесь срабатывает и обычная психология. Людям нравится простое объяснение сложной проблемы, а возраст кажется самым удобным ярлыком. Отсюда искажение: мы замечаем самые громкие случаи и пропускаем повседневную реальность, где пожилой человек спокойно осваивает полезный сервис, а молодой бездумно доверяет ложному ответу модели.
Это может быть опасно по двум причинам. Во-первых, можно заранее списать себя в «отстающих» просто из-за возраста и отказаться учиться тому, что реально помогло бы в работе и быту. Во-вторых, можно переоценить молодость как защиту от ошибок и манипуляций. Но молодые тоже уязвимы. Они просто чаще имеют дело с ИИ и поэтому чаще сталкиваются не только с выгодой, но и с ложной уверенностью в его ответах. Возрастной ярлык здесь мешает всем.

Иллюзия понимания ИИ
Многие люди уверены, что понимают, как работает искусственный интеллект. На деле это часто иллюзия. Исследования в области когнитивной психологии показывают: люди склонны переоценивать свои знания о сложных технологиях. Это явление называют «иллюзией понимания». Оно проявляется особенно ярко в отношении ИИ. Человек может пользоваться нейросетью каждый день, но не понимать, как формируются её ответы. При этом уверенность остаётся высокой.
В научных работах отмечается, что даже активные пользователи ИИ часто не осознают ограничений моделей, включая склонность к ошибкам и так называемым галлюцинациям. Это создаёт риск. Чем выше уверенность, тем ниже критичность. В результате человек может принимать неверные решения, опираясь на убедительно сформулированный, но ошибочный ответ. Использование ИИ требует не только навыков, но и скепсиса. Важно проверять информацию, особенно если она влияет на деньги, здоровье или работу.
Полезно задавать себе вопрос: «Откуда это взялось?» и «Можно ли это подтвердить?» Такой подход снижает риск ошибок. Он делает взаимодействие с ИИ более безопасным. Особенно это важно для новичков, которые быстро привыкают к удобству технологии. Понимание своих ограничений здесь становится преимуществом. Оно помогает не попадать в ловушку ложной уверенности и использовать ИИ осознанно.

Роль медиа и хайпа вокруг ИИ
Отношение к ИИ формируется не только личным опытом. Большую роль играют медиа. Новости и социальные сети часто показывают крайности. С одной стороны, звучат заголовки о том, что ИИ заменит людей. С другой — обещания, что он решит почти все проблемы. Такой контраст усиливает эмоциональную реакцию. Исследования в области коммуникаций показывают: люди сильнее реагируют на тревожные и сенсационные сообщения. Это влияет на восприятие технологии.
В результате одни начинают бояться ИИ, даже не сталкиваясь с ним лично. Другие, наоборот, переоценивают его возможности. Это создаёт искажение. Реальность оказывается сложнее и спокойнее. ИИ уже приносит пользу, но не является универсальным решением. Важно отделять факты от шума. Не каждая новость отражает реальное положение дел. Полезно ориентироваться на исследования и проверенные источники. Ещё один полезный навык — сравнивать разные точки зрения. Это помогает сформировать более устойчивое мнение, а сам человек перестаёт реагировать на каждый громкий заголовок. Вместо этого появляется понимание: технология развивается постепенно, а не скачками из новостей. Такой подход делает взаимодействие с ИИ более спокойным и рациональным.

Где ИИ пока опасен или слаб
Несмотря на быстрый прогресс, искусственный интеллект остаётся несовершенным. Одна из главных проблем — ошибки, нейросети могут уверенно выдавать неверную информацию. Это называют галлюцинациями. Они особенно опасны, потому что выглядят убедительно. Ещё одна слабость — отсутствие понимания контекста. ИИ работает с вероятностями, а не с реальным знанием. Поэтому он может упускать важные детали. В исследованиях также отмечается проблема предвзятости. Модели обучаются на данных, которые могут содержать ошибки или искажения.
Это влияет на результаты: в некоторых случаях ИИ может воспроизводить стереотипы или давать несправедливые ответы. Есть и вопрос ответственности. Если алгоритм ошибся, не всегда понятно, кто отвечает за последствия. Это особенно важно в медицине, финансах и праве. ИИ нельзя использовать как единственный источник истины. Его лучше воспринимать как помощника, а не как окончательное решение. Важно проверять критически важные данные. Также полезно понимать, где риск выше. Чем серьёзнее последствия ошибки, тем осторожнее нужно применять ИИ. Такой подход позволяет получить пользу от технологии, не подвергая себя лишним рискам. Это делает использование ИИ более безопасным и осознанным.

Как разные поколения могут адаптироваться
Выигрывает не тот, кто громче спорит про ИИ, а тот, кто учится пользоваться им дозированно и по задаче.
- Молодёжи важно не отдавать машине базовые когнитивные функции. Если студент постоянно просит ИИ читать, думать, писать и структурировать вместо себя, он теряет именно те навыки, за которые потом платят на работе. Поэтому полезнее использовать ИИ для тренировки, уточнения, поиска альтернативных формулировок и разбора ошибок, а не для полного делегирования.
- Людям зрелого возраста стоит смотреть на ИИ через призму профессии: какие задачи он снимает, какие усиливает, а какие делает более рискованными. Здесь особенно важны короткие форматы переобучения, практика проверки результатов и понимание, где ответственность нельзя отдавать алгоритму.
- Старшему поколению больше всего помогают не лозунги про «цифровое будущее», а спокойное обучение через реальные сценарии: как распознать подделку, как проверить текст или изображение, как безопасно использовать ИИ-сервисы в медицине и повседневных задачах. Исследования по пожилым пользователям и ИИ в здравоохранении прямо показывают, что принятие растёт, когда система понятна, полезна и не заменяет человека полностью.
Не нужно становиться технофанатом. Достаточно освоить несколько правил: понимать границы ИИ, проверять важные ответы, беречь данные и не путать удобство с истиной. Ещё одно практическое правило — не учиться «про ИИ вообще», а выбирать один конкретный сценарий: поиск информации, письмо, таблицы, перевод, идеи, голосовой помощник. Такой способ снижает тревогу, потому что превращает абстрактную угрозу в понятный инструмент. Это уже резко уменьшает страх и повышает реальную пользу.

Переосмысление вопроса
Итак, кто же менее терпим к использованию ИИ? Если отвечать стереотипно, можно сказать: старшие поколения. Если отвечать честно, этого уже недостаточно. Молодые в среднем быстрее включаются в новую технологию, но это не делает их ни автоматически доверчивыми, ни автоматически защищёнными от её рисков. Люди среднего возраста нередко кажутся самыми осторожными не потому, что хуже понимают ИИ, а потому что лучше считают цену ошибок для работы, дохода и репутации. Старшие чаще проявляют настороженность, но исследования всё чаще показывают, что за ней стоят не столько возрастные установки, сколько дефицит опыта, понятного объяснения и безопасной практики.
В итоге главный разлом проходит не между поколениями, а между теми, кто понимает технологию достаточно, чтобы пользоваться ею осмысленно, и теми, кто либо боится её целиком, либо верит ей слишком легко. ИИ не требует от человека молодости. Он требует трезвости, обучения и привычки задавать правильные вопросы: откуда этот ответ, можно ли его проверить, зачем я вообще использую этот инструмент и что останется моим собственным навыком.
Важнее не то, кто «меньше терпим» к ИИ, а то, кто умеет выстроить с ним рабочую дистанцию. В этом смысле искусственный интеллект делит людей не по возрасту, а по уровню вовлечённости и готовности учиться. И, возможно, это даже хорошая новость. Потому что возраст изменить нельзя, а способ взаимодействия с новой технологией — можно и нужно всегда. И именно здесь исследования полезны не только академически. Они помогают снять лишнюю драму. Человек, который понимает, что его отношение к ИИ зависит от опыта, навыков и контекста, получает больше свободы. Он может учиться без чувства неполноценности, если отстаёт. Может критически относиться к моде, если вокруг слишком много шума. Может спокойнее выбирать, где доверять системе, а где оставлять решение за собой. И это, пожалуй, самый трезвый вывод из всей дискуссии: будущее с ИИ определит не биологический возраст, а качество человеческой подготовки к переменам.







