«Джинн выпущен»: Баффет считает ИИ как ядерное оружие

Баффет предупредил об угрозе ИИ, сравнив её с атомной бомбой

Резкое предупреждение от легенды инвестиций

Один из самых влиятельных инвесторов современности Уоррен Баффет выступил с жестким и во многом тревожным заявлением о будущем искусственного интеллекта. В специальном телевизионном выпуске он дал понять, что воспринимает ИИ не просто как технологический прорыв, а как потенциальную экзистенциальную угрозу, сопоставимую по масштабу с созданием ядерного оружия.

По словам Баффета, человечество уже вступило на путь, с которого невозможно свернуть без последствий. Он подчеркнул, что ключевая опасность кроется не в злонамеренном использовании технологий, а в том, что даже их создатели до конца не понимают, к чему именно приведёт дальнейшее развитие ИИ.

«Джинн уже выпущен из бутылки»

Баффет отметил, что ситуация с искусственным интеллектом принципиально отличается от большинства предыдущих технологических революций. В прошлом у человечества почти всегда оставалась возможность остановиться, скорректировать курс или отказаться от опасного направления.

«Даже самые умные люди в этой сфере признают, что не знают, чем всё закончится. Одно дело — не знать курс, если вы Колумб и всегда можете повернуть назад. Но здесь джинн уже выпущен из бутылки», — заявил инвестор.

Эта метафора, по его словам, отражает необратимость процесса: технологии ИИ уже внедрены в экономику, оборону, финансы и коммуникации, и полностью «закрыть» их развитие невозможно.

Параллель с ядерным оружием

В своём выступлении Баффет напрямую сравнил ИИ с самой разрушительной технологией XX века — атомной бомбой. Он напомнил о знаменитых словах Альберта Эйнштейна, сказанных после создания ядерного оружия: «Это меняет всё в мире, кроме того, как люди думают».

По мнению Баффета, именно в этом и заключается главная опасность. Человеческая психология, политические амбиции и борьба за власть меняются куда медленнее, чем технологии, которые усиливают последствия этих факторов.

Эскалация рисков и эффект распространения

Инвестор напомнил, что в момент появления ядерного оружия оно находилось в распоряжении одной страны. Со временем число государств, обладающих этим арсеналом, выросло до восьми или девяти. Это, по его мнению, наглядный пример того, как технологии неизбежно распространяются, выходя за рамки первоначального контроля.

Баффет провёл жёсткую аналогию: если опасное оружие оказывается в руках людей или режимов, которые вызывают страх даже с обычным пистолетом, риск возрастает многократно. В случае с ИИ подобное распространение может произойти ещё быстрее и менее заметно.

Готовность пожертвовать состоянием ради безопасности

Одним из самых эмоциональных моментов выступления стало признание Баффета о том, что он готов пожертвовать своим состоянием ради снижения глобальных рисков. Он заявил, что без колебаний отдал бы все свои деньги, если бы это помогло убедить хотя бы несколько стран навсегда отказаться от участия в «ядерной игре».

Это заявление прозвучало не как политический лозунг, а как личная позиция человека, который десятилетиями наблюдал, как экономические и технологические решения влияют на судьбы государств и рынков.

Почему слова Баффета воспринимают всерьёз

Предупреждения Баффета выделяются на фоне общего технологического оптимизма. В отличие от многих критиков ИИ, он не выступает против прогресса как такового, а говорит о системных рисках, которые выходят за рамки бизнеса и инвестиций.

Его аргументы находят отклик именно потому, что он не принадлежит к лагерю футурологов или политиков. Баффет — прагматик, который десятилетиями оценивал риски и последствия решений, и его скепсис редко бывает эмоциональным.

Контекст смены эпох в Berkshire Hathaway

Заявления об ИИ прозвучали на фоне важного этапа в истории компании Berkshire Hathaway. С 1 января пост генерального директора занял Грег Абель, став официальным преемником Баффета.

Сам Баффет ещё в ноябре 2025 года уведомил акционеров, что больше не будет выступать на ежегодных собраниях компании. Этот шаг многие восприняли как символическое завершение целой эпохи, в течение которой его взгляды во многом формировали отношение инвесторов к риску и ответственности.

ИИ как новый системный риск

По мнению Баффета, искусственный интеллект может стать не просто источником экономических преимуществ, но и фактором глобальной нестабильности. В отличие от традиционных вооружений, ИИ не требует редких ресурсов или гигантской промышленной базы — его развитие доступно гораздо более широкому кругу игроков.

Это означает, что потенциальные угрозы могут исходить не только от государств, но и от частных структур, групп или даже отдельных людей, обладающих доступом к мощным алгоритмам.

Ключевые тезисы предупреждения Баффета

  • создатели ИИ не до конца понимают последствия своих разработок;
  • развитие технологии носит необратимый характер;
  • ИИ сопоставим по рискам с ядерным оружием;
  • распространение технологий усиливает глобальную нестабильность;
  • человеческое мышление не поспевает за технологическим прогрессом.

Вывод

Сравнение искусственного интеллекта с ядерным оружием в устах Уоррена Баффета прозвучало как предупреждение, а не как сенсация. Его слова отражают растущее осознание того, что ИИ — это не только источник роста производительности и прибыли, но и потенциальный системный риск для всего человечества.

Баффет дал понять: проблема не в самой технологии, а в том, что мир пока не готов к её последствиям. И если «джинн уже выпущен из бутылки», то главный вопрос ближайших лет — сумеет ли человечество научиться жить с этой силой, не утратив контроль над собственной безопасностью.

Комментарии (0)

Отзывы к данной статье отсутствуют

Чтобы оставить отзыв, нужно авторизироваться.
Выбирайте лучших! Выбирайте лидеров!