Бұл жазба автоматты түрде аударылған. Бастапқы тіл: Орысша
Астана, Қазақстан-технологиялық алыптардың дәліздерінде және беделді басылымдардың беттерінде жасанды интеллекттен туындайтын ықтимал қауіп туралы ескертулер күшейе түсуде. Дабылды ретроградтар немесе технологиядан алыс адамдар емес, жаңа цифрлық дәуірдің сәулетшілері – AI саласындағы жетекші мамандар. Бұл парадокс табиғи сұрақ туғызады: егер авторлар қатты алаңдаса, біз не күтеміз? Алайда, мұқият тексергенде, мәселенің тамыры кремний чиптерінде емес, адам табиғатында екені белгілі болады.
Белгілі бір даму деңгейіне жеткен жасанды интеллект өзінің жасаушыларына қарсы шығуы мүмкін деген Идея ұзақ уақыт бойы ғылыми фантастикадан елеулі ғылыми пікірталастарға көшті. Марқұм Стивен Хокинг, Илон Маск және Apple компаниясының негізін қалаушы Стив Возняк сияқты сала шамдары бірнеше рет өз алаңдаушылықтарын білдірді. Олардың негізгі аргументі адамның интеллектінен асып түсетін супер интеллект бақыланбайтын болуы мүмкін және оның мақсаттары біздікінен түбегейлі алшақтауы мүмкін.
2023 жылы ол өзінің ұрпағымен байланысты қауіптер туралы еркін сөйлесу үшін Google-дан кетті. "Жаман жігіттердің жасанды интеллектті жаман мақсатта пайдалануына қалай жол бермеуге болатынын елестету қиын", – деді ол бір сұхбатында. Оның пікірінше, AI қару-жарақ жарысы сөзсіз және бұл адамның қатысуынсыз өмір мен өлім туралы шешім қабылдауға қабілетті автономды Қаруға әкелуі мүмкін.
Терең оқытудың тағы бір ізашары Йошуа Бенгио да бақыланбайтын жасанды интеллекттің ықтимал қаупін ядролық қару қаупімен салыстыра отырып, өзінің алаңдаушылығын білдірді. Ол AI жүйелері ақылды болған сайын, олар адамзатқа зиян тигізуі мүмкін мақсаттарды көздеп, күтпеген жолмен әрекет ете бастайтынын атап көрсетеді.
Алайда, осы апокалиптикалық болжамдардың аясында тағы бір көзқарас барған сайын естіледі. Негізгі қауіп-жасанды интеллекттің өзі емес, оны жасайтын және қолданатын адамдар. AI-бұл құрал, және кез-келген қуатты құрал сияқты, оны жақсылық үшін де, жамандық үшін де қолдануға болады.
Табиғаты бойынша, адамзат тарихында қақтығыстар мен қайғы-қасіреттің көзі болған қасиеттер бөтен. Ол қызғаныш, жеккөрушілік, қызғаныш, тәкаппарлық немесе шовинизм сияқты ұғымдарға бей-жай қарамайды. Бұл деструктивті эмоциялар адамның құзырында.
Алыс болашақта жасанды интеллект бұл сезімдерге еліктей алады немесе тіпті "игере алады" деп елестетсеңіз де, бұл оны адам түсінігінде қауіп төндіруі екіталай. Шынайы супер интеллект қисынды түрде иррационалдылықтан айырылуы керек. Шын мәнінде ақылға қонымды бола отырып, Ол, бізден айырмашылығы, бір сәтте пайда табу немесе өзінің амбициясын қанағаттандыру үшін соғыстарды бастау немесе қылмыс жасау сияқты мағынасыз және абайсыз әрекеттерді жасай алмайды.
Бұл көзқарасты AI саласындағы кейбір сарапшылар да бөліседі. Олар жасанды интеллекттің антропоморфизациясы, яғни оған адами қасиеттер мен мотивтерді жатқызу негізгі қателік деп санайды.
Мета (бұрынғы Facebook) жасанды интеллект жөніндегі бас маманы Янн ЛеКун экзистенциалды қауіп-қатерлерге күмәнмен қарайды. Ол бірнеше рет адамзатты құлдыққа түсіретін өте ақылды жасанды интеллекттен қорқу өте асыра айтылған деп мәлімдеді. Оның пікірінше, интеллект бір өлшемді шкала емес және суперкүндік үстемдікке ұмтылады деп сенуге негіз жоқ. "Интеллект пен үстемдікке ұмтылу – бұл екі түрлі нәрсе", – деп атап өтті ЛеКун.
Мүмкін, басты қауіп-бұл машиналар адамдарға ұқсамайды, бірақ олар біздің кемшіліктерімізді күшейтеді және кеңейтеді. Диктатордың қолындағы жасанды интеллект жалпы бақылаудың тамаша құралы бола алады, ал жауапсыз корпорацияның қолында манипуляция мен қанау құралы бола алады.
Сайып келгенде, жасанды интеллекттің болашағы – бұл адамзат көрінетін айна. Ондағы көретініміз алгоритмдер мен есептеу қуаттарына емес, өз құндылықтарымызға, этикалық нормаларымызға және ынтымақтастық қабілетімізге байланысты. Бүгінгі біздің алдымызда тұрған міндет – прогресті тоқтату емес, оны қауіпсіз және адамгершілік бағытқа бағыттау, адамзаттың ең үлкен өнертабысын оған зиян келтіруге мүмкіндік бермейтін сенімді бақылау және реттеу тетіктерін құру.
Астана, Казахстан – В коридорах технологических гигантов и на страницах авторитетных изданий все громче звучат предупреждения о потенциальной угрозе, исходящей от искусственного интеллекта. Тревогу бьют не ретрограды или далекие от технологий люди, а сами архитекторы новой цифровой эры – ведущие специалисты в области ИИ. Этот парадокс вызывает закономерный вопрос: если создатели так обеспокоены, чего нам ждать? Однако, при ближайшем рассмотрении, становится очевидно, что корень проблемы кроется не в кремниевых чипах, а в человеческой природе.
Идея о том, что ИИ, достигнув определенного уровня развития, может восстать против своих создателей, уже давно перекочевала из научной фантастики в серьезные научные дискуссии. Такие светила индустрии, как покойный Стивен Хокинг, Илон Маск и сооснователь Apple Стив Возняк, неоднократно высказывали свои опасения. Их основной аргумент сводится к тому, что сверхразум, превосходящий человеческий интеллект, может стать неконтролируемым и его цели могут кардинально разойтись с нашими.
В 2023 году покинул Google, чтобы иметь возможность свободно говорить об опасностях, связанных с его детищем. "Трудно представить, как можно предотвратить использование ИИ плохими парнями в плохих целях", – заявил он в одном из интервью. По его мнению, гонка вооружений в области ИИ неизбежна, и это может привести к появлению автономного оружия, способного принимать решения о жизни и смерти без участия человека.
Другой пионер в области глубокого обучения, Йошуа Бенжио, также выразил свою обеспокоенность, сравнив потенциальную угрозу от неконтролируемого ИИ с угрозой ядерного оружия. Он подчеркивает, что по мере того, как системы ИИ становятся умнее, они могут начать действовать непредвиденным образом, преследуя цели, которые могут быть вредны для человечества.
Однако, на фоне этих апокалиптических прогнозов, все чаще звучит и другая точка зрения. Основную угрозу представляет не сам искусственный интеллект, а люди, которые его создают и используют. ИИ – это инструмент, и как любой мощный инструмент, он может быть использован как во благо, так и во зло.
По своей природе чужды те самые качества, которые на протяжении всей истории человечества были источником конфликтов и страданий. Ему безразличны такие понятия, как зависть, ненависть, ревность, высокомерие или шовинизм. Эти деструктивные эмоции – прерогатива человека.
Даже если представить, что в далеком будущем ИИ сможет имитировать или даже "освоить" эти чувства, маловероятно, что это сделает его угрозой в человеческом понимании. Истинный сверхразум, по логике, должен быть лишен иррациональности. Став по-настоящему разумным, он, в отличие от нас, вряд ли станет совершать бессмысленные и безрассудные поступки, такие как развязывание войн или совершение преступлений ради сиюминутной выгоды или удовлетворения своих амбиций.
Эту точку зрения разделяют и некоторые эксперты в области ИИ. Они утверждают, что антропоморфизация искусственного интеллекта, то есть приписывание ему человеческих качеств и мотивов, является фундаментальной ошибкой.
Янн ЛеКун, главный специалист по искусственному интеллекту в Meta (ранее Facebook), относится к экзистенциальным угрозам со скепсисом. Он неоднократно заявлял, что страхи перед сверхразумным ИИ, который поработит человечество, сильно преувеличены. По его мнению, интеллект не является одномерной шкалой, и нет никаких оснований полагать, что сверхразум будет стремиться к доминированию. "Интеллект и стремление к доминированию – это две совершенно разные вещи", – подчеркивает ЛеКун.
Возможно, главная опасность заключается не в том, что машины станут слишком похожими на людей, а в том, что они усилят и масштабируют наши собственные недостатки. ИИ в руках диктатора может стать идеальным инструментом тотального контроля, а в руках безответственной корпорации – средством для манипуляции и эксплуатации.
В конечном счете, будущее искусственного интеллекта – это зеркало, в которое смотрится человечество. И то, что мы в нем увидим, зависит не от алгоритмов и вычислительных мощностей, а от наших собственных ценностей, этических норм и способности к сотрудничеству. Задача, стоящая перед нами сегодня, – это не остановить прогресс, а направить его в безопасное и гуманное русло, создав надежные механизмы контроля и регулирования, которые не позволят использовать величайшее изобретение человечества ему во вред.