The post has been translated automatically. Original language: Russian
Astana, Kazakhstan – Warnings about the potential threat posed by artificial intelligence are becoming louder in the corridors of technology giants and on the pages of reputable publications. The alarm is not being sounded by retrogrades or people far from technology, but by the architects of the new digital era themselves – leading experts in the field of AI. This paradox raises a legitimate question: if the creators are so worried, what should we expect? However, upon closer examination, it becomes obvious that the root of the problem lies not in silicon chips, but in human nature.
The idea that AI, having reached a certain level of development, can rebel against its creators has long migrated from science fiction to serious scientific discussions. Industry luminaries such as the late Stephen Hawking, Elon Musk, and Apple co-founder Steve Wozniak have repeatedly expressed their concerns. Their main argument boils down to the fact that a superintelligence that surpasses human intelligence can become uncontrollable and its goals can radically diverge from ours.
In 2023, he left Google in order to be able to freely talk about the dangers associated with his brainchild. "It's hard to imagine how you can prevent bad guys from using AI for bad purposes," he said in an interview. In his opinion, an arms race in the field of AI is inevitable, and this may lead to the emergence of autonomous weapons capable of making decisions about life and death without human intervention.
Another pioneer in the field of deep learning, Joshua Bengio, also expressed his concern, comparing the potential threat from uncontrolled AI with the threat of nuclear weapons. He emphasizes that as AI systems become smarter, they can begin to act in unexpected ways, pursuing goals that may be harmful to humanity.
However, against the background of these apocalyptic predictions, another point of view is increasingly being heard. The main threat is not artificial intelligence itself, but the people who create and use it. AI is a tool, and like any powerful tool, it can be used for both good and evil.
By their very nature, the very qualities that have been a source of conflict and suffering throughout human history are alien. He is indifferent to such concepts as envy, hatred, jealousy, arrogance or chauvinism. These destructive emotions are the prerogative of man.
Even if we imagine that in the distant future, AI will be able to mimic or even "master" these feelings, it is unlikely that this will make it a threat in the human sense. A true superintelligence, logically, should be devoid of irrationality. Having become truly intelligent, he, unlike us, is unlikely to commit senseless and reckless acts, such as starting wars or committing crimes for short-term gain or satisfying his ambitions.
This point of view is shared by some experts in the field of AI. They argue that the anthropomorphization of artificial intelligence, that is, attributing human qualities and motives to it, is a fundamental mistake.
Yann LeCun, chief artificial intelligence specialist at Meta (formerly Facebook), is skeptical about existential threats. He has repeatedly stated that fears of a superintelligent AI that will enslave humanity are greatly exaggerated. In his opinion, intelligence is not a one-dimensional scale, and there is no reason to believe that superintelligence will seek to dominate. "Intelligence and the desire for dominance are two completely different things," emphasizes LeCun.
Perhaps the main danger is not that machines will become too human-like, but that they will amplify and scale our own shortcomings. AI in the hands of a dictator can become an ideal tool for total control, and in the hands of an irresponsible corporation – a means for manipulation and exploitation.
Ultimately, the future of artificial intelligence is a mirror that humanity looks into. And what we see in it depends not on algorithms and computing power, but on our own values, ethical standards, and ability to collaborate. The task we face today is not to stop progress, but to direct it in a safe and humane direction by creating reliable control and regulatory mechanisms that will not allow humanity's greatest invention to be used to its detriment.
Астана, Казахстан – В коридорах технологических гигантов и на страницах авторитетных изданий все громче звучат предупреждения о потенциальной угрозе, исходящей от искусственного интеллекта. Тревогу бьют не ретрограды или далекие от технологий люди, а сами архитекторы новой цифровой эры – ведущие специалисты в области ИИ. Этот парадокс вызывает закономерный вопрос: если создатели так обеспокоены, чего нам ждать? Однако, при ближайшем рассмотрении, становится очевидно, что корень проблемы кроется не в кремниевых чипах, а в человеческой природе.
Идея о том, что ИИ, достигнув определенного уровня развития, может восстать против своих создателей, уже давно перекочевала из научной фантастики в серьезные научные дискуссии. Такие светила индустрии, как покойный Стивен Хокинг, Илон Маск и сооснователь Apple Стив Возняк, неоднократно высказывали свои опасения. Их основной аргумент сводится к тому, что сверхразум, превосходящий человеческий интеллект, может стать неконтролируемым и его цели могут кардинально разойтись с нашими.
В 2023 году покинул Google, чтобы иметь возможность свободно говорить об опасностях, связанных с его детищем. "Трудно представить, как можно предотвратить использование ИИ плохими парнями в плохих целях", – заявил он в одном из интервью. По его мнению, гонка вооружений в области ИИ неизбежна, и это может привести к появлению автономного оружия, способного принимать решения о жизни и смерти без участия человека.
Другой пионер в области глубокого обучения, Йошуа Бенжио, также выразил свою обеспокоенность, сравнив потенциальную угрозу от неконтролируемого ИИ с угрозой ядерного оружия. Он подчеркивает, что по мере того, как системы ИИ становятся умнее, они могут начать действовать непредвиденным образом, преследуя цели, которые могут быть вредны для человечества.
Однако, на фоне этих апокалиптических прогнозов, все чаще звучит и другая точка зрения. Основную угрозу представляет не сам искусственный интеллект, а люди, которые его создают и используют. ИИ – это инструмент, и как любой мощный инструмент, он может быть использован как во благо, так и во зло.
По своей природе чужды те самые качества, которые на протяжении всей истории человечества были источником конфликтов и страданий. Ему безразличны такие понятия, как зависть, ненависть, ревность, высокомерие или шовинизм. Эти деструктивные эмоции – прерогатива человека.
Даже если представить, что в далеком будущем ИИ сможет имитировать или даже "освоить" эти чувства, маловероятно, что это сделает его угрозой в человеческом понимании. Истинный сверхразум, по логике, должен быть лишен иррациональности. Став по-настоящему разумным, он, в отличие от нас, вряд ли станет совершать бессмысленные и безрассудные поступки, такие как развязывание войн или совершение преступлений ради сиюминутной выгоды или удовлетворения своих амбиций.
Эту точку зрения разделяют и некоторые эксперты в области ИИ. Они утверждают, что антропоморфизация искусственного интеллекта, то есть приписывание ему человеческих качеств и мотивов, является фундаментальной ошибкой.
Янн ЛеКун, главный специалист по искусственному интеллекту в Meta (ранее Facebook), относится к экзистенциальным угрозам со скепсисом. Он неоднократно заявлял, что страхи перед сверхразумным ИИ, который поработит человечество, сильно преувеличены. По его мнению, интеллект не является одномерной шкалой, и нет никаких оснований полагать, что сверхразум будет стремиться к доминированию. "Интеллект и стремление к доминированию – это две совершенно разные вещи", – подчеркивает ЛеКун.
Возможно, главная опасность заключается не в том, что машины станут слишком похожими на людей, а в том, что они усилят и масштабируют наши собственные недостатки. ИИ в руках диктатора может стать идеальным инструментом тотального контроля, а в руках безответственной корпорации – средством для манипуляции и эксплуатации.
В конечном счете, будущее искусственного интеллекта – это зеркало, в которое смотрится человечество. И то, что мы в нем увидим, зависит не от алгоритмов и вычислительных мощностей, а от наших собственных ценностей, этических норм и способности к сотрудничеству. Задача, стоящая перед нами сегодня, – это не остановить прогресс, а направить его в безопасное и гуманное русло, создав надежные механизмы контроля и регулирования, которые не позволят использовать величайшее изобретение человечества ему во вред.