Мнение о предсказании Юваля Ноя Харари

Комментарий дал Сатаров Дмитрий, основатель и руководитель Агентства интернет-маркетинга "Эй, Стартапер!"


Харари — классный рассказчик. Читал "Sapiens", зашло. Но тут он в своём репертуаре: берёт реальную штуку и доводит до "мы все умрём". Продаёт хорошо, конечно.

По дезинформации он прав. ChatGPT пишет текст, который сложно отличить. Это факт. Но в полях мы уже год видим другое. Один наш клиент решил сэкономить — наклепал статей через GPT, залил в блог. Вовлечение упало на 40% за два месяца. Почему? Потому что AI пишет "правильно", но без экспертности. Без данных. Без того, что цепляет.

Люди чувствуют. Может, не сразу, но чувствуют.

Появились детекторы AI-текста. Не идеальные, работают процентов на 70-80, но работают. У меня соискатели приносят задания, сделанные ИИ — я вижу за секунду. Специфический язык, структура, повторы паттернов.

Пузыри информационные. Ну это было ещё до AI. Алгоритмы Facebook* с 2016-го людей по углам раскидали. AI просто быстрее это делает. Но корень проблемы не в технологии — люди сами выбирают комфортную инфу.

"Цифровые оракулы" — вот тут да. Это реально становится проблемой. Я вижу, как люди начинают слепо доверять нейросетям. Не проверяют. Принимают на веру. Особенно если ответ красиво упакован. Но это не технологическая проблема — это проблема образования. Нас не учили работать с AI.

Теперь о том, где Харари драматизирует.

"Инопланетный интеллект". Это красиво, но это сказки. AI сейчас — статистическая машина. Очень крутая, да. Но она делает то, что мы ей говорим. Я использую AI каждый день в агентстве: генерим черновики, анализируем конкурентов, тестируем объявления. Ускоряет работу раза в 3. Но хорошую стратегию нейросеть без маркетолога сделать не сможет.

AI — это молоток. Хороший молоток. Но он не построит дом сам.

Авторитаризм. Да, AI используют для контроля. Но авторитарные режимы всегда использовали технологии — телеграф, радио, телевидение, соцсети. AI — просто новый инструмент. Проблема не в молотке, проблема в том, кто его держит.

"Люди уйдут в виртуальность". Это про каждую новую технологию говорили. Про книги, про кино, про игры. Да, AI делает контент затягивающим. Но большинство людей всё равно живут в физическом мире с ипотекой, работой, детьми.

Мы адаптируемся. Быстро. Помните панику из-за Photoshop? "Нельзя верить фотографиям!" Ну и что? Научились проверять, появились инструменты детекции. То же самое будет с AI.

Что реально важно:

Массовая автоматизация. Вот это больно ударит. Колл-центры, копирайтеры начального уровня, бухгалтеры-операционисты. Много рутинных профессий под угрозой. И это уже сейчас. Вопрос не в том, заменит ли AI людей. Вопрос — когда и как быстро.

Концентрация власти. Кто контролирует AI-модели, тот контролирует информацию. OpenAI, Google, Anthropic, Meta — несколько компаний. Это реальная проблема.

Деградация критического мышления. Это самое страшное. Когда люди перестают думать, проверять, сомневаться. Делегируют мышление AI. Вот это по-настоящему опасно. Потому что AI может ошибаться, галлюцинировать, врать. И если человек не проверяет — хана.

Что делать?

Образование. Учить людей работать С AI, а не ВМЕСТО него. Это как с калькулятором — он ускоряет счёт, но ты должен понимать математику.

Регулирование. Не запреты, а правила игры. Прозрачность алгоритмов, ответственность разработчиков, защита данных.

Критическое мышление. Проверять ВСЁ. Особенно то, что говорит AI.

На практике: AI помогает делать работу быстрее. Но качество зависит от человека. Если человек не понимает, что делает — AI только усилит его ошибки. Если понимает — AI ускорит процесс в разы.

Мы уже в этой реальности. Просто без апокалипсиса.


*Признана экстремистской организацией и запрещена на территории РФ.