Автоматты аударма пайдаланылды

OpenAI компаниясының барлық AI модельдерінің қауіпсіздігін "тәуелсіз комитет" қадағалайды

Американдық OpenAI компаниясының басшысы Сэм Альтман фирма әзірлеп жатқан жасанды интеллект модельдерінің қауіпсіздігін бақылау үшін 2024 жылдың мамырында құрылған ішкі комиссиядан шығу туралы шешім қабылдады. Жаңа комитет OpenAI Директорлар кеңесінің қазіргі мүшелерінен қайта құрылады және егер қандай да бір қауіп байқалса, өнімді шығаруды тоқтата тұру құқығына ие болады.

Журналистер атап өткендей, OpenAI компаниясында соңғы бірнеше айда дағдарыстық жағдай орын алды. Осыған байланысты жаңа OpenAI өнімдерінің ұзақ мерзімді тәуекелдерімен жұмыс істейтін қызметкерлердің шамамен 50% - ы жұмыс орындарын тастап кетті. Компанияда көшбасшылық лауазымдарға ие болғандардың көпшілігі Сэм Альтманды корпоративтік мақсаттарға қол жеткізуге кедергі келтіретін жасанды интеллектті реттеудің нақты шараларына қарсы болды деп айыптады. Сыншылардың дұрыстығының бір бөлігі OpenAI компаниясының лоббистік шығындарының айтарлықтай өсуімен расталды: биылғы жылдың алғашқы алты айында бюджет 260 мың доллардан 800 мың долларға дейін өсті.

OpenAI-дегі жаңа қауіпсіздік комитетін Карнеги Меллон университетінің профессоры Цико Колтер басқарды.

Жаңа тәуелсіз комитеттің негізгі міндеттері Қолданыстағы және әзірленіп жатқан АИ-модельдерді техникалық бағалау бойынша тұрақты есептерді алу және зерделеу болады. Комитет сонымен қатар шығарылған өнімдерді шығарғаннан кейін оларды бақылау туралы есептерді қарастырады. Тәуелсіз комиссия ChatGPT 01 соңғы моделінің қауіпсіздік деңгейін талдағаны белгілі болды.

Айтуынша, TechCrunch басылымының журналистері жаңа комитеттің адалдығы мен қызметіне күмәнмен қарайды, өйткені Сэм Альтман комиссиядан кеткеннен кейін де комитет өкілдері компания үшін қолайсыз шешімдер қабылдайтынын аз көрсетеді.

OpenAI компаниясының ресми сайтында ақпараттық қауіпсіздік жасанды интеллект қауіпсіздігінің маңызды компоненттерінің бірі болып табылады. Сондықтан компания қауіпсіздік шараларын жүзеге асыру кезінде тәуекелді бағалауға негізделген тәсілді қолдануды жалғастырады, сондай-ақ жасанды интеллект модельдері тудыратын қауіп моделі мен тәуекел профильдері өзгерген сайын бұл тәсілді дамытады.

Тақырып бойынша көбірек:

Пікірлер 7

Кіру пікір қалдыру үшін