Автоматты аударма пайдаланылды

AI: экзистенциалды қауіп немесе адам жамандықтарының айнасы?

Астана, Қазақстан-технологиялық алыптардың дәліздерінде және беделді басылымдардың беттерінде жасанды интеллекттен туындайтын ықтимал қауіп туралы ескертулер күшейе түсуде. Дабылды ретроградтар немесе технологиядан алыс адамдар емес, жаңа цифрлық дәуірдің сәулетшілері – AI саласындағы жетекші мамандар. Бұл парадокс табиғи сұрақ туғызады: егер авторлар қатты алаңдаса, біз не күтеміз? Алайда, мұқият тексергенде, мәселенің тамыры кремний чиптерінде емес, адам табиғатында екені белгілі болады.

Белгілі бір даму деңгейіне жеткен жасанды интеллект өзінің жасаушыларына қарсы шығуы мүмкін деген Идея ұзақ уақыт бойы ғылыми фантастикадан елеулі ғылыми пікірталастарға көшті. Марқұм Стивен Хокинг, Илон Маск және Apple компаниясының негізін қалаушы Стив Возняк сияқты сала шамдары бірнеше рет өз алаңдаушылықтарын білдірді. Олардың негізгі аргументі адамның интеллектінен асып түсетін супер интеллект бақыланбайтын болуы мүмкін және оның мақсаттары біздікінен түбегейлі алшақтауы мүмкін.

2023 жылы ол өзінің ұрпағымен байланысты қауіптер туралы еркін сөйлесу үшін Google-дан кетті. "Жаман жігіттердің жасанды интеллектті жаман мақсатта пайдалануына қалай жол бермеуге болатынын елестету қиын", – деді ол бір сұхбатында. Оның пікірінше, AI қару-жарақ жарысы сөзсіз және бұл адамның қатысуынсыз өмір мен өлім туралы шешім қабылдауға қабілетті автономды Қаруға әкелуі мүмкін.

Терең оқытудың тағы бір ізашары Йошуа Бенгио да бақыланбайтын жасанды интеллекттің ықтимал қаупін ядролық қару қаупімен салыстыра отырып, өзінің алаңдаушылығын білдірді. Ол AI жүйелері ақылды болған сайын, олар адамзатқа зиян тигізуі мүмкін мақсаттарды көздеп, күтпеген жолмен әрекет ете бастайтынын атап көрсетеді.

Алайда, осы апокалиптикалық болжамдардың аясында тағы бір көзқарас барған сайын естіледі. Негізгі қауіп-жасанды интеллекттің өзі емес, оны жасайтын және қолданатын адамдар. AI-бұл құрал, және кез-келген қуатты құрал сияқты, оны жақсылық үшін де, жамандық үшін де қолдануға болады.

Табиғаты бойынша, адамзат тарихында қақтығыстар мен қайғы-қасіреттің көзі болған қасиеттер бөтен. Ол қызғаныш, жеккөрушілік, қызғаныш, тәкаппарлық немесе шовинизм сияқты ұғымдарға бей-жай қарамайды. Бұл деструктивті эмоциялар адамның құзырында.

Алыс болашақта жасанды интеллект бұл сезімдерге еліктей алады немесе тіпті "игере алады" деп елестетсеңіз де, бұл оны адам түсінігінде қауіп төндіруі екіталай. Шынайы супер интеллект қисынды түрде иррационалдылықтан айырылуы керек. Шын мәнінде ақылға қонымды бола отырып, Ол, бізден айырмашылығы, бір сәтте пайда табу немесе өзінің амбициясын қанағаттандыру үшін соғыстарды бастау немесе қылмыс жасау сияқты мағынасыз және абайсыз әрекеттерді жасай алмайды.

Бұл көзқарасты AI саласындағы кейбір сарапшылар да бөліседі. Олар жасанды интеллекттің антропоморфизациясы, яғни оған адами қасиеттер мен мотивтерді жатқызу негізгі қателік деп санайды.

Мета (бұрынғы Facebook) жасанды интеллект жөніндегі бас маманы Янн ЛеКун экзистенциалды қауіп-қатерлерге күмәнмен қарайды. Ол бірнеше рет адамзатты құлдыққа түсіретін өте ақылды жасанды интеллекттен қорқу өте асыра айтылған деп мәлімдеді. Оның пікірінше, интеллект бір өлшемді шкала емес және суперкүндік үстемдікке ұмтылады деп сенуге негіз жоқ. "Интеллект пен үстемдікке ұмтылу – бұл екі түрлі нәрсе", – деп атап өтті ЛеКун.

Мүмкін, басты қауіп-бұл машиналар адамдарға ұқсамайды, бірақ олар біздің кемшіліктерімізді күшейтеді және кеңейтеді. Диктатордың қолындағы жасанды интеллект жалпы бақылаудың тамаша құралы бола алады, ал жауапсыз корпорацияның қолында манипуляция мен қанау құралы бола алады.

Сайып келгенде, жасанды интеллекттің болашағы – бұл адамзат көрінетін айна. Ондағы көретініміз алгоритмдер мен есептеу қуаттарына емес, өз құндылықтарымызға, этикалық нормаларымызға және ынтымақтастық қабілетімізге байланысты. Бүгінгі біздің алдымызда тұрған міндет – прогресті тоқтату емес, оны қауіпсіз және адамгершілік бағытқа бағыттау, адамзаттың ең үлкен өнертабысын оған зиян келтіруге мүмкіндік бермейтін сенімді бақылау және реттеу тетіктерін құру.

Пікірлер 0

Кіру пікір қалдыру үшін