Последние новости
Создан новый сорт картофеля для выращивания в Арктике Благосостояние жителей древнего Крыма оказалось лучше, чем считалось Метеорит, упавший в дом в США, оказался старше Земли Близкие люди сражаются за наследство Ивана Краско Названо возможное место прощания с Иваном Краско Борющийся с раком Роман Попов рассказал об ухудшении самочувствия Apple обвинили в краже технологии бесконтактной оплаты В Прибалтике началась травля русскоязычных детей Россиянка описала особенности жизни в Гонконге фразой «у меня культурный шок»

Руководители OpenAI обещают развивать ИИ серьёзно, но спецы в этой сфере уволились

После недавнешней и внезапной отставки 2-ух главных фигур из отдела ИИ-безопасности OpenAI, руководители компании обязаны были занять оборонительную позицию, потому что к ним появилось немало вопросов с общественной стороны в отношении стратегии рисков при разработке искусственного ума.

Ушедшие руководители — самый важный научный работник Илья Суцкевер (Ilya Sutskever) и его сотрудник Ян Лейке (Jan Leike) — были частью суперкоманды OpenAI, отвечающей за разработку ИИ, совместимого с интересами населения земли. Их уход, вероятно, был вызван разногласиями с управлением компании по поводу обеспечения глобального приоритета безопасности, чтоб «ИИ не разрушил мир».

Лейке прямо проговорил, что издавна не согласен с управлением в этих вопросах и что положение, обстановка достигнула критичной точки. А Суцкевер даже пробовал сдвинуть гендиректора Сэма Альтмана (Sam Altman) с поста в прошедшем году, но позже выразил сожаление в собственных действиях.

После их ухода общественность забила тревогу по поводу ценностей OpenAI в плане безопасности. В ответ Альтман и глава Грег Брокман (Greg Brockman) выпустили подробные заявления, объясняющие подход компании.

Они выделили, что OpenAI уже занесла немаленький вклад в обеспечение неопасного развития ИИ, а именно, призывали к межнациональному регулированию еще до того, как это стало мейнстримом. Альтман также предлагал сотворить международное учреждение для обеспечения разумного тестирования систем ИИ.

Брокман заверил, что OpenAI основательно анализирует опасности на каждом шаге разработки и не планирует размещать новые системы, пока компания не будет уверена в их безопасности, даже если это задержит выпуск.

Но ушедшие руководители отдела ИИ-безопасности, похоже, обеспокоены тем, что текущий подход не обеспечивает достаточной защиты. Из слов Лейке, эти задачи очень трудно решать, и он обеспокоен, что компания не движется в правильном направлении в этом вопросе.

Невзирая на заверения управления, уход главных профессионалов ставит под колебание заявления OpenAI о глобальной безопасности ИИ.

Опубликовано: 19 мая 2024