Бұл жазба автоматты түрде орыс тілінен аударылған. Russian
Американдық OpenAI компаниясының басшысы Сэм Альтман фирма әзірлеп жатқан жасанды интеллект модельдерінің қауіпсіздігін бақылау үшін 2024 жылдың мамырында құрылған ішкі комиссиядан шығу туралы шешім қабылдады. Жаңа комитет OpenAI Директорлар кеңесінің қазіргі мүшелерінен қайта құрылады және егер қандай да бір қауіп байқалса, өнімді шығаруды тоқтата тұру құқығына ие болады.
Журналистер атап өткендей, OpenAI компаниясында соңғы бірнеше айда дағдарыстық жағдай орын алды. Осыған байланысты жаңа OpenAI өнімдерінің ұзақ мерзімді тәуекелдерімен жұмыс істейтін қызметкерлердің шамамен 50% - ы жұмыс орындарын тастап кетті. Компанияда көшбасшылық лауазымдарға ие болғандардың көпшілігі Сэм Альтманды корпоративтік мақсаттарға қол жеткізуге кедергі келтіретін жасанды интеллектті реттеудің нақты шараларына қарсы болды деп айыптады. Сыншылардың дұрыстығының бір бөлігі OpenAI компаниясының лоббистік шығындарының айтарлықтай өсуімен расталды: биылғы жылдың алғашқы алты айында бюджет 260 мың доллардан 800 мың долларға дейін өсті.
OpenAI-дегі жаңа қауіпсіздік комитетін Карнеги Меллон университетінің профессоры Цико Колтер басқарды.
Жаңа тәуелсіз комитеттің негізгі міндеттері Қолданыстағы және әзірленіп жатқан АИ-модельдерді техникалық бағалау бойынша тұрақты есептерді алу және зерделеу болады. Комитет сонымен қатар шығарылған өнімдерді шығарғаннан кейін оларды бақылау туралы есептерді қарастырады. Тәуелсіз комиссия ChatGPT 01 соңғы моделінің қауіпсіздік деңгейін талдағаны белгілі болды.
Айтуынша, TechCrunch басылымының журналистері жаңа комитеттің адалдығы мен қызметіне күмәнмен қарайды, өйткені Сэм Альтман комиссиядан кеткеннен кейін де комитет өкілдері компания үшін қолайсыз шешімдер қабылдайтынын аз көрсетеді.
OpenAI компаниясының ресми сайтында ақпараттық қауіпсіздік жасанды интеллект қауіпсіздігінің маңызды компоненттерінің бірі болып табылады. Сондықтан компания қауіпсіздік шараларын жүзеге асыру кезінде тәуекелді бағалауға негізделген тәсілді қолдануды жалғастырады, сондай-ақ жасанды интеллект модельдері тудыратын қауіп моделі мен тәуекел профильдері өзгерген сайын бұл тәсілді дамытады.
Тақырып бойынша көбірек:
Руководитель американской компании OpenAI Сэм Альтман принял решение о выходе из внутренней комиссии, созданной в мае 2024 года для контроля над безопасностью моделей искусственного интеллекта, разработкой которых занимается фирма. Новый комитет будет составлен заново из действующих членов совета директоров OpenAI и будет наделён полномочиями приостановки релиза продукта, если в нём будет замечена какая-либо опасность.
Как отмечают журналисты, в компании OpenAI на протяжении нескольких последних месяцев складывалась кризисная ситуация. На фоне этого около 50% сотрудников, работающих с долгосрочными рисками новых продуктов OpenAI, покинули свои рабочие места. Многие из тех, кто занимает руководящие посты в компании, обвинили Сэма Альтмана в том, что он противодействовал реальным мерам регулирования искусственного интеллекта, мешающим достижению корпоративных целей. Отчасти правота критиков была подтверждена значительным увеличением расходов компании OpenAI на лоббирование: в течение первых шести месяцев этого года бюджет вырос с 260 тысяч долларов до 800 тысяч долларов.
Новый комитет по безопасности в компании OpenAI возглавил профессор Университета Карнеги-Меллон Цико Колтер.
Основными обязанностями нового независимого комитета станет получение и изучение регулярных отчётов по технической оценке существующих и разрабатываемых ИИ-моделей. Комитет также будет рассматривать отчёты по наблюдению за выпущенными продуктами после их релиза. Уже известно, что независимая комиссия проанализировала уровень безопасности новейшей модели ChatGPT 01.
При этом журналисты издания TechCrunch скептически настроены относительно честности и деятельности нового комитета, поскольку даже после ухода Сэма Альтмана из комиссии мало что указывает на то, что представители комитета будут принимать решения, невыгодные для компании.
На официальном сайте компании OpenAI говорится о том, что информационная безопасность является одним из важнейших компонентов безопасности искусственного интеллекта. Поэтому компания продолжит использовать подход, базирующийся на оценке риска, при реализации мер безопасности, а также развивать этот подход по мере изменения модели угроз и профилей риска, создаваемых моделями искусственного интеллекта.
Ещё по теме: