Последние новости
Создан новый сорт картофеля для выращивания в Арктике Благосостояние жителей древнего Крыма оказалось лучше, чем считалось Метеорит, упавший в дом в США, оказался старше Земли Близкие люди сражаются за наследство Ивана Краско Названо возможное место прощания с Иваном Краско Борющийся с раком Роман Попов рассказал об ухудшении самочувствия Apple обвинили в краже технологии бесконтактной оплаты В Прибалтике началась травля русскоязычных детей Россиянка описала особенности жизни в Гонконге фразой «у меня культурный шок»
Openai sozdala nezavisimoe podrazdelenie dlja priostanovki vypuska opasnyh ii modelej 7a576f0.jpg

OpenAI создала независимое подразделение для приостановки выпуска опасных ИИ-моделей

OpenAI объявила о реорганизации своего комитета по безопасности и защите в независимый наблюдательный орган совета директоров. Новая структура получила беспрецедентные полномочия, включая право приостановки релизов ИИ-моделей по соображениям безопасности. Решение было принято по итогам 90-дневного анализа процедур и мер безопасности компании, отражая растущее внимание к этическим аспектам развития ИИ.

Согласно OpenAI, в трансформированный комитет, возглавляемый Зико Колтером (Zico Kolter), также входят Адам Д’Анджело (Adam D’Angelo), Пол Накасоне (Paul Nakasone) и Николь Селигман (Nicole Seligman). Примечательно, что Сэм Альтман (Sam Altman), генеральный директор OpenAI, больше не входит в его состав.

Новая структура будет получать информацию от руководства компании об оценке безопасности основных релизов ИИ-моделей и, вместе с полным составом совета директоров, будет осуществлять надзор за их запуском, включая право отложить релиз до устранения проблем с безопасностью. Полный состав совета директоров OpenAI также будет получать периодические брифинги по вопросам безопасности и защиты.

Структура нового комитета вызывает вопросы о степени его независимости, учитывая, что все его члены входят в состав совета директоров OpenAI. Это отличает его от наблюдательного совета Meta✴, члены которого полностью независимы от совета директоров корпорации. Наблюдательный совет Meta✴ обладает полномочиями пересматривать решения по контентной политике и выносить обязательные для исполнения решения, тогда как комитет OpenAI фокусируется лишь на оценке безопасности ИИ-моделей перед их выходом.

90-дневный анализ процессов безопасности OpenAI выявил дополнительные возможности для сотрудничества в индустрии ИИ и обмена информацией. Компания заявила о намерении расширить обмен данными о своей работе в области безопасности и увеличить возможности для независимого тестирования систем. Однако конкретные механизмы реализации этих намерений пока не раскрыты.

Опубликовано: 17 сентября 2024